JP6603194B2 - Screen recognition device, screen recognition method, and screen recognition program - Google Patents

Screen recognition device, screen recognition method, and screen recognition program Download PDF

Info

Publication number
JP6603194B2
JP6603194B2 JP2016220577A JP2016220577A JP6603194B2 JP 6603194 B2 JP6603194 B2 JP 6603194B2 JP 2016220577 A JP2016220577 A JP 2016220577A JP 2016220577 A JP2016220577 A JP 2016220577A JP 6603194 B2 JP6603194 B2 JP 6603194B2
Authority
JP
Japan
Prior art keywords
grid
screen
relative position
grid row
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016220577A
Other languages
Japanese (ja)
Other versions
JP2018077762A (en
Inventor
郁子 高木
長年 名和
光一 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016220577A priority Critical patent/JP6603194B2/en
Publication of JP2018077762A publication Critical patent/JP2018077762A/en
Application granted granted Critical
Publication of JP6603194B2 publication Critical patent/JP6603194B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画面認識装置、画面認識方法、および、画面認識プログラムに関する。   The present invention relates to a screen recognition device, a screen recognition method, and a screen recognition program.

オペレータは業務アプリケーション画面(画面)を操作することで、必要な業務情報を入力・登録したり、参照したりすることができる。多くの場合、オペレータは画面を介して業務を遂行するため、オペレータが操作する画面および動作を取得することで、オペレータの操作状況を機械的に推測することができる。画面の動作は、画面に関する情報とオペレータによる操作に関する情報の双方を認識することで獲得できる。画面に関する情報は、例えば、画面を総括する情報(ウィンドウタイトル、ウィンドウID、タイトルバーなど)、画面内のGUI部品に関する情報(各GUI部品のクラス、ID、テキスト名など)、これらの情報を取得した日時などがある。オペレータの操作に関する情報は、例えば、マウス操作やキーボード操作、およびこれらの操作対象である画面またはGUI部品の情報などがある。これらの情報を取得することで、オペレータがいつどのタイミングでどの画面のどのGUI部品にどのような値を入力したかを逐一取得することができる。以後、画面に関する情報を「画面情報」、オペレータの操作に関する情報を「操作情報」と呼ぶ。また、GUI部品を「オブジェクト」と呼ぶ。オペレータの画面情報を適切に認識するために、アプリケーションやオペレーションシステム毎に様々なAPIがある。例えば、(1)オブジェクトに付与されているIDを利用するAPI、(2)マウスのカーソル位置やキーボードの入力位置、画面上の相対位置など、位置情報からオブジェクトを指定するAPI、(3)画面上の配置関係から定義されたオブジェクト間の親子関係(オブジェクトツリー)を利用してオブジェクトを指定するAPIなどがある。   The operator can input / register necessary business information or refer to it by operating the business application screen (screen). In many cases, since the operator performs work through the screen, the operation state of the operator can be mechanically estimated by acquiring the screen and operation operated by the operator. The operation of the screen can be acquired by recognizing both information relating to the screen and information relating to operations by the operator. Information about the screen, for example, information that summarizes the screen (window title, window ID, title bar, etc.), information about GUI components in the screen (class, ID, text name, etc. of each GUI component), and obtain these information Date and time. Information relating to the operation of the operator includes, for example, mouse operation and keyboard operation, and information on the screen or GUI component that is the operation target. By acquiring these pieces of information, it is possible to acquire one by one what value the operator has input to which GUI component on which screen at what timing. Hereinafter, information relating to the screen is referred to as “screen information”, and information relating to the operation of the operator is referred to as “operation information”. Also, GUI parts are called “objects”. There are various APIs for each application and operation system to properly recognize operator screen information. For example, (1) API that uses an ID assigned to an object, (2) API that specifies an object from position information such as the mouse cursor position, keyboard input position, and relative position on the screen, and (3) screen There is an API for specifying an object using a parent-child relationship (object tree) between objects defined from the above arrangement relationship.

特開2015−5243号公報Japanese Patent Laying-Open No. 2015-5243 特開2014−13490号公報JP 2014-13490 A

しかし、上記した従来技術は、様々なアプリケーションの画面情報を適切に取得できない可能性がある。例えば、上記の(1)の場合は、オブジェクトがIDをユニークに持たない場合にオブジェクトの情報を取得する手段がないという問題があった。上記の(2)の場合は、端末画面の一点を起点とした相対位置で計算するため、例えば、ディスプレイが異なる端末は、ウインドウサイズや解像度の規定値が異なるため、オブジェクトを正しく取得できない。また、フローテキスト型GUI(HTML)などはオブジェクトのサイズや位置が動的に変更するため、正しくオブジェクトを取得できないという問題があった。さらに、上記の(3)の場合は、あらかじめオブジェクトツリー構造を認識する必要があるが、オブジェクトツリー構造は各アプリケーション依存で作成される傾向がある。その場合、見た目が同じ画面でもツリーの深さやパスの構造、オブジェクトの個数が少しずつ異なるため、例えばオブジェクトツリーが動的に変化するアプリケーションではオブジェクトを取得できないという問題があった。   However, there is a possibility that the above-described conventional technology cannot appropriately acquire screen information of various applications. For example, in the case of (1), there is a problem that there is no means for acquiring object information when the object does not have a unique ID. In the case of (2) above, since the calculation is performed based on the relative position starting from one point on the terminal screen, for example, terminals with different displays have different window size and resolution prescribed values, and thus cannot acquire objects correctly. In addition, the flow text type GUI (HTML) or the like has a problem that the object cannot be acquired correctly because the size and position of the object change dynamically. Furthermore, in the case of (3) above, it is necessary to recognize the object tree structure in advance, but the object tree structure tends to be created depending on each application. In that case, even if the screen looks the same, the depth of the tree, the structure of the path, and the number of objects differ little by little, so there is a problem that an object cannot be acquired, for example, in an application in which the object tree changes dynamically.

また、上記の(2)のオブジェクト認識に画面の位置情報が依存する問題に対応して、オブジェクト間の相対関係をユーザがルールと定義し、その情報を制約条件として該当する解候補を求めることで画像内容に応じて適切なマスキングを行う技術が提案されている(特許文献1、特許文献2参照)。この技術によれば、各々のオブジェクトの絶対座標から各オブジェクトの配置の大小関係の順序付けを行うルールをx軸、y軸それぞれについて自動生成し、そのルールに基づいて各オブジェクトが配置されうる2次元領域を求める。これにより、各オブジェクトの配置位置や大きさに応じて、画面を適切に分割することができる。しかしながら、この技術は画面の分割を主目的としており、オブジェクトが他のオブジェクトから見て相対的にいずれかにあるかの情報を保持しない。そのため、例えば、「オブジェクトXの2つ右にあるオブジェクトの1つ下のオブジェクト」といったあるオブジェクトを軸に2次元的に他のオブジェクトを探索する用途には対応できない。   Further, in response to the problem that the position information on the screen depends on the object recognition of (2) above, the user defines a relative relationship between objects as a rule, and obtains a corresponding solution candidate using the information as a constraint condition. A technique for performing appropriate masking according to the image content is proposed (see Patent Document 1 and Patent Document 2). According to this technique, a rule for automatically ordering the arrangement relationship of each object from the absolute coordinates of each object is automatically generated for each of the x-axis and the y-axis, and each object can be arranged based on the rule. Find the area. Thereby, the screen can be appropriately divided according to the arrangement position and size of each object. However, this technique mainly aims to divide the screen, and does not hold information as to whether the object is relatively in view of other objects. For this reason, for example, it is not possible to cope with a use of searching for another object two-dimensionally with a certain object as an axis, such as “an object immediately below the object two to the right of object X”.

そこで本発明は、様々なアプリケーションにより表示される画面上の各オブジェクトに対してオブジェクト同士の相対関係を認識させることで、他のオブジェクトから相対的にオブジェクトを指定できるようにすることを課題とする。例えば、オブジェクトXがオブジェクトYの左にあるが、オブジェクトXを前述した方法で直接取得できない場合、オブジェクトYを取得した後に、相対関係を利用してオブジェクトYを起点にオブジェクトXを指定できるようにすること課題とする。   Accordingly, an object of the present invention is to make it possible to specify an object relative to other objects by causing each object on the screen displayed by various applications to recognize the relative relationship between the objects. . For example, if object X is on the left of object Y but object X cannot be obtained directly using the method described above, after acquiring object Y, object X can be specified starting from object Y using the relative relationship. Let's do that.

前記した課題を解決するため、本発明は、画面上に表示されるオブジェクト間の相対関係を認識する画面認識装置であって、前記画面の画面情報から、前記画面上に表示される各オブジェクトの絶対座標情報を取得するオブジェクト情報取得部と、前記各オブジェクトの絶対座標情報に基づき、前記画面上の任意の2つのオブジェクト間の相対位置を相対位置情報として記録する相対位置情報取得部と、前記相対位置情報に基づき、画面上の最左上のオブジェクトを起点に左から右へオブジェトを配置した1以上のグリッド行群を生成するグリッド行生成部と、前記グリッド行生成部により生成されたグリッド行群を、前記相対位置情報に基づき、前記グリッド行に含まれるオブジェクト同士の上下の相対位置に従い配置したグリッド行列を生成し、出力するグリッド配置部と、を備えることを特徴とする。   In order to solve the above-described problem, the present invention is a screen recognition device that recognizes a relative relationship between objects displayed on a screen, and the screen information of the screen displays each object displayed on the screen. An object information acquisition unit that acquires absolute coordinate information; a relative position information acquisition unit that records a relative position between any two objects on the screen as relative position information based on the absolute coordinate information of each object; A grid row generation unit that generates one or more grid row groups in which objects are arranged from left to right starting from the leftmost object on the screen based on the relative position information, and the grid row generated by the grid row generation unit A grid matrix in which groups are arranged according to the upper and lower relative positions of objects included in the grid row based on the relative position information. Form, characterized in that it comprises a grid arrangement section for outputting.

本発明によれば、様々なアプリケーションにより表示される画面上の各オブジェクトの相対関係を認識できる。その結果、他のオブジェクトから相対的にオブジェクトを指定することができる。   ADVANTAGE OF THE INVENTION According to this invention, the relative relationship of each object on the screen displayed by various applications can be recognized. As a result, an object can be specified relative to other objects.

図1は、画面認識装置の概要を説明するための図である。FIG. 1 is a diagram for explaining the outline of the screen recognition apparatus. 図2は、画面上のオブジェクトの検索処理の例を示す図である。FIG. 2 is a diagram illustrating an example of object search processing on the screen. 図3は、画面認識装置の機能ブロック図である。FIG. 3 is a functional block diagram of the screen recognition apparatus. 図4は、オブジェクト情報取得部の処理を説明するための図である。FIG. 4 is a diagram for explaining the processing of the object information acquisition unit. 図5は、相対位置情報取得部の処理を説明するための図である。FIG. 5 is a diagram for explaining processing of the relative position information acquisition unit. 図6は、最近傍のオブジェクトを説明するための図である。FIG. 6 is a diagram for explaining the nearest object. 図7は、グリッド行の一例を示す図である。FIG. 7 is a diagram illustrating an example of a grid row. 図8は、グリッド行の一例を示す図である。FIG. 8 is a diagram illustrating an example of a grid row. 図9は、グリッド行の配置手順の一例を示す図である。FIG. 9 is a diagram illustrating an example of a grid row arrangement procedure. 図10は、グリッド行の配置手順の一例を示す図である。FIG. 10 is a diagram illustrating an example of a grid row arrangement procedure. 図11は、グリッド行の配置手順の一例を示す図である。FIG. 11 is a diagram illustrating an example of a grid row arrangement procedure. 図12Aは、画面認識装置の処理手順を示すフローチャートである。FIG. 12A is a flowchart illustrating a processing procedure of the screen recognition apparatus. 図12Bは、図12Aのオブジェクト情報取得処理の詳細を示すフローチャートである。FIG. 12B is a flowchart showing details of the object information acquisition processing of FIG. 12A. 図13は、図12Aの相対位置情報取得処理の詳細を示すフローチャートである。FIG. 13 is a flowchart showing details of the relative position information acquisition processing of FIG. 12A. 図14は、図13の左右相対関係取得処理の詳細を示すフローチャートである。FIG. 14 is a flowchart showing details of the left-right relative relationship acquisition processing of FIG. 図15は、図13の上下相対関係取得処理の詳細を示すフローチャートである。FIG. 15 is a flowchart showing details of the vertical relative relationship acquisition process of FIG. 図16は、図13の最近傍オブジェクト取得処理の詳細を示すフローチャートである。FIG. 16 is a flowchart showing details of the nearest neighbor object acquisition process of FIG. 図17は、図16の横方向最近傍オブジェクト取得処理の詳細を示すフローチャートである。FIG. 17 is a flowchart showing details of the horizontal nearest neighbor object acquisition processing of FIG. 図18は、図16の縦方向最近傍オブジェクト取得処理の詳細を示すフローチャートである。FIG. 18 is a flowchart showing details of the vertical nearest neighbor object acquisition process of FIG. 図19は、図12Aのグリッド行生成処理の詳細を示すフローチャートである。FIG. 19 is a flowchart showing details of the grid row generation processing of FIG. 12A. 図20は、図12Aのグリッド配置処理の詳細を示すフローチャートである。FIG. 20 is a flowchart showing details of the grid arrangement processing of FIG. 12A. 図21は、図20の列を挿入する処理の詳細を示すフローチャートである。FIG. 21 is a flowchart showing details of the processing for inserting the column of FIG. 図22は、画面認識装置により認識された画面認識情報の適用例を説明するための図である。FIG. 22 is a diagram for explaining an application example of screen recognition information recognized by the screen recognition device. 図23は、画面認識装置により認識された画面認識情報の適用例を説明するための図である。FIG. 23 is a diagram for describing an application example of screen recognition information recognized by the screen recognition device. 図24は、画面認識プログラムを実行するコンピュータを示す図である。FIG. 24 is a diagram illustrating a computer that executes a screen recognition program.

以下、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。本発明は、本実施形態に限定されない。   Hereinafter, embodiments (embodiments) for carrying out the present invention will be described with reference to the drawings. The present invention is not limited to this embodiment.

まず、図1を用いて本実施形態の画面認識装置100の概要を説明する。画面認識装置100は、アプリケーションにより表示される画面上のオブジェクトの相対的な位置を認識し、その認識結果を示す情報(画面認識情報)を出力する。画面認識情報は、例えば、図1に示すように、画面上の各オブジェクトの相対的な位置を最小のグリッド行列に配置した情報である。   First, the outline of the screen recognition apparatus 100 of the present embodiment will be described with reference to FIG. The screen recognition apparatus 100 recognizes the relative positions of objects on the screen displayed by the application, and outputs information (screen recognition information) indicating the recognition result. For example, as shown in FIG. 1, the screen recognition information is information in which the relative positions of the objects on the screen are arranged in a minimum grid matrix.

例えば、画面認識装置100は、図1に示すように、画面情報(画面上の各オブジェクトの絶対位置座標等を示す情報)を取得すると、この画面情報から各オブジェクトの相対的な位置を示す、グリッド行列を生成し、出力する。   For example, as shown in FIG. 1, when the screen recognition apparatus 100 acquires screen information (information indicating the absolute position coordinates of each object on the screen), the screen recognition apparatus 100 indicates the relative position of each object from the screen information. Generate and output a grid matrix.

なお、以下の説明において、画面上のオブジェクトの相対位置(相対関係)を表現するための格子状の矩形をグリッドと呼び、グリッドを所定の行列数で並べたものをグリッド行列と呼ぶ。また、このグリッド行列上のオブジェクトに、それぞれのオブジェクトの属性(例えば、イメージやボタン、ラベル等)や、オブジェクトに記載されたテキスト情報(例えば、「別のアカウントを使用」等)を併記してもよい。   In the following description, a grid-like rectangle for expressing the relative position (relative relationship) of objects on the screen is referred to as a grid, and a grid arranged in a predetermined number of matrices is referred to as a grid matrix. In addition, the attributes on each grid matrix (for example, images, buttons, labels, etc.) and text information (for example, “use another account”) written on the object are also written. Also good.

このように画面認識装置100が画面上の各オブジェクトの相対位置関係を抽象的に認識することで、例えば、操作支援に必要なオブジェクトを検索しやすくなる。   In this way, the screen recognition apparatus 100 abstractly recognizes the relative positional relationship between the objects on the screen, so that, for example, it becomes easy to search for an object necessary for operation support.

例えば、図2に示すように操作支援を行う装置が、操作対象となる画面上のオブジェクトの配置パターンや変数名定義を含む問い合わせ(クエリ)を受信すると、画面上から、クエリに示される配置パターンに合致するオブジェクト(図2の太線で囲まれたウィンドウ上にあるGUI部品)を検索することができる。そして、上記の装置は、検索されたオブジェクト(操作対象となるオブジェクト)を出力する。例えば、上記の装置は、操作対象となるbutton_setが太線で囲まれたウィンドウ上の23番目のオブジェクト(“設定”ボタン)であり、button_okが太線で囲まれたウィンドウ上の24番目のオブジェクト(“OK”ボタン)であるという結果を出力する。   For example, when the device that supports the operation as shown in FIG. 2 receives an inquiry (query) including the arrangement pattern of the object to be operated and the variable name definition, the arrangement pattern indicated by the query is displayed on the screen. It is possible to search for objects that match the above (GUI parts on the window surrounded by the thick line in FIG. 2). And said apparatus outputs the searched object (object used as operation object). For example, the above-described device is the 23rd object (“set” button) on the window where the button_set to be operated is surrounded by a thick line, and the 24th object (“ “OK” button) is output.

次に、図3を用いて、画面認識装置100の構成を説明する。画面認識装置100は、オブジェクト情報取得部111と、相対位置情報取得部112と、グリッド行生成部113と、グリッド配置部114とを備える。   Next, the configuration of the screen recognition apparatus 100 will be described with reference to FIG. The screen recognition apparatus 100 includes an object information acquisition unit 111, a relative position information acquisition unit 112, a grid row generation unit 113, and a grid arrangement unit 114.

また、画面認識装置100は、記憶部(図示省略)に、オブジェクト情報保持部121と、相対位置情報保持部122と、グリッド行保持部123とを備える。オブジェクト情報保持部121は、オブジェクト情報取得部111から出力されたオブジェクト情報を記憶する。相対位置情報保持部122は、相対位置情報取得部112から出力された相対位置情報を記憶する。グリッド行保持部123は、グリッド行生成部113から出力されたグリッド行を記憶する。   Further, the screen recognition device 100 includes an object information holding unit 121, a relative position information holding unit 122, and a grid row holding unit 123 in a storage unit (not shown). The object information holding unit 121 stores the object information output from the object information acquisition unit 111. The relative position information holding unit 122 stores the relative position information output from the relative position information acquisition unit 112. The grid row holding unit 123 stores the grid row output from the grid row generation unit 113.

オブジェクト情報取得部111は、アプリケーションの表示する画面の画面情報から、画面上に表示される各オブジェクトの相対位置を認識するための情報(オブジェクト情報)を取得する。例えば、オブジェクト情報は、例えば、class(属性)、text(テキスト情報)、area(絶対座標情報)等の情報である。   The object information acquisition unit 111 acquires information (object information) for recognizing the relative position of each object displayed on the screen from the screen information of the screen displayed by the application. For example, the object information is information such as class (attribute), text (text information), area (absolute coordinate information), and the like.

例えば、オブジェクト情報取得部111は、図4に示す画面情報から、画面上のオブジェクトそれぞれにindex(例えば、1〜4)を付け、当該オブジェクトのclass(属性)、text(テキスト情報)、area(絶対座標情報)を取得し、図4に示すオブジェクト情報を生成する。そして、オブジェクト情報取得部111は生成したオブジェクト情報をオブジェクト情報保持部121に出力する。   For example, the object information acquisition unit 111 attaches an index (for example, 1 to 4) to each object on the screen from the screen information shown in FIG. 4, and class (attribute), text (text information), area ( (Absolute coordinate information) is acquired, and the object information shown in FIG. 4 is generated. Then, the object information acquisition unit 111 outputs the generated object information to the object information holding unit 121.

相対位置情報取得部112は、オブジェクト情報に示される各オブジェクトの絶対座標情報から、画面上の任意の2つのオブジェクト間の相対位置を示す相対位置情報を取得する。つまり、相対位置情報取得部112は、各オブジェクトの絶対座標情報に基づき、画面上の任意の2つのオブジェクト間の相対位置を示す相対位置情報を生成し、相対位置情報保持部122に出力する。   The relative position information acquisition unit 112 acquires relative position information indicating the relative position between any two objects on the screen from the absolute coordinate information of each object indicated in the object information. That is, the relative position information acquisition unit 112 generates relative position information indicating the relative position between any two objects on the screen based on the absolute coordinate information of each object, and outputs the relative position information to the relative position information holding unit 122.

例えば、相対位置情報取得部112は、図5に示すように、オブジェクト情報に示される画面上の任意の2つのオブジェクトについて、一方のオブジェクトが他方のオブジェクトの、相対的に右/左/横方向に同位のオブジェクトか(左右相対関係)、相対的に下/上/縦方向に同位のオブジェクトか(上下相対関係)、縦/横方向に隣り合っている(最近傍の)オブジェクトか(最近傍オブジェクト)を判断する。そして、その判断結果を相対位置情報に記録する。   For example, as shown in FIG. 5, the relative position information acquisition unit 112, for any two objects on the screen indicated by the object information, one object is relatively in the right / left / lateral direction of the other object. Or objects that are peers in the lower / up / vertical direction (relative relationship), or objects that are next to each other in the vertical / horizontal direction (nearest) Object). Then, the determination result is recorded in the relative position information.

例えば、相対位置情報取得部112は、2つのオブジェクト(obj1とobj2)について、符号501に示すように、obj2がobj1の相対的右に位置するか、obj1の相対的左に位置するか、obj1と横方向に同位(つまり、obj1とobj2とでx座標の少なくとも一部が重なっている)かを判断する。また、相対位置情報取得部112は、符号502に示すように、obj2が、obj1の相対的下に位置するか、obj1の相対的上に位置するか、obj1と縦方向に同位(つまり、obj1とobj2とでy座標の少なくとも一部が重なっている)かを判断する。さらに、相対位置情報取得部112は、符号503に示すように、obj2が、obj1に隣り合っている(離れていても良い)か、obj1に隣り合っていないか判断する。なお、obj2が、obj1に隣り合っていない場合とは、obj2とobj1との間に別オブジェクト(obj3)がある場合や、obj2が、obj1の斜め(縦にも横にも同位でない)に位置する場合等が該当する。   For example, for the two objects (obj1 and obj2), the relative position information acquisition unit 112 determines whether obj2 is positioned relative to obj1 or relative to the left of obj1, as indicated by reference numeral 501, obj1 And the horizontal direction (that is, at least part of the x coordinate overlaps obj1 and obj2). Further, as indicated by reference numeral 502, the relative position information acquisition unit 112 determines whether obj2 is positioned below obj1 or positioned above obj1, or is in the same direction as obj1 (that is, obj1 And obj2 at least part of the y-coordinate overlaps). Furthermore, as indicated by reference numeral 503, the relative position information acquisition unit 112 determines whether obj2 is adjacent to obj1 (may be separated) or not adjacent to obj1. Note that obj2 is not adjacent to obj1 when there is another object (obj3) between obj2 and obj1, or obj2 is located diagonally (not vertically or horizontally) This is the case.

例えば、obj2とobj1とが図6の(1)に示す各位置である場合、相対位置情報取得部112は、obj2が、obj1に対し縦/横方向に隣り合っている(最近傍の)オブジェクトと判断する。一方、obj2とobj1とが図6の(2)に示す各位置である場合、相対位置情報取得部112はobj2が、obj1に対し最近傍ではないと判断する。なお、相対位置情報取得部112は、図6に示すように、obj2とobj1とが重なっているような場合については扱わないものとする。   For example, when obj2 and obj1 are the positions shown in (1) of FIG. 6, the relative position information acquisition unit 112 determines that the object obj2 is adjacent to obj1 in the vertical / horizontal direction (nearest neighbor). Judge. On the other hand, when obj2 and obj1 are the positions shown in (2) of FIG. 6, the relative position information acquisition unit 112 determines that obj2 is not closest to obj1. Note that the relative position information acquisition unit 112 does not handle a case where obj2 and obj1 overlap as shown in FIG.

図3のグリッド行生成部113は、オブジェクトの相対位置情報に基づき、画面上の最左上のオブジェクトを起点に左から右へオブジェクトを配置したグリッド行を生成する。そして、グリッド行生成部113は、生成したグリッド行を、例えば、最左上のオブジェクトを起点に、グリッド行を生成した順序でグリッド行保持部123に出力する。   The grid row generation unit 113 in FIG. 3 generates a grid row in which objects are arranged from left to right starting from the upper left object on the screen based on the relative position information of the objects. Then, the grid row generation unit 113 outputs the generated grid rows to the grid row holding unit 123 in the order in which the grid rows are generated, for example, starting from the upper left object.

例えば、グリッド行生成部113は、図7の左に示す画面上の8個のオブジェクトについて、相対位置情報において縦方向に同位にあるオブジェクトを同じグリッド行に左→右の順に並べ、図7の右に示す5行のグリッド行を生成する。なお、図7の右に示すグリッド行の左に付された数字は、グリッド行の取得順序または当該グリッド行が配置される行番号を示す。   For example, for the eight objects on the screen shown on the left in FIG. 7, the grid row generation unit 113 arranges objects that are the same in the vertical direction in the relative position information in the same grid row in the order of left → right, and FIG. The five grid lines shown on the right are generated. In addition, the number attached | subjected to the left of the grid line shown on the right of FIG. 7 shows the acquisition order of a grid line, or the line number by which the said grid line is arrange | positioned.

また、例えば、グリッド行生成部113は、図8の左に示す画面上の14個のオブジェクトについて、相対位置情報において縦方向に同位にあるオブジェクトを同じグリッド行に左→右の順に並べ、図8の右に示す9行のグリッド行を生成する。   Further, for example, the grid row generation unit 113 arranges the objects that are the same in the vertical direction in the relative position information in the same grid row in the order of left to right for the 14 objects on the screen shown on the left in FIG. 9 grid lines shown to the right of 8 are generated.

このように、グリッド行生成部113は、相対位置情報に基づき、画面上の最左上のオブジェクトを起点に相対的に縦方向に同位であるオブジェクト群を左から右へ配置してグリッド行を生成する処理を、グリッド行の下のオブジェクトがなくなるまで順次実行することでグリッド行群を生成する。   As described above, the grid row generation unit 113 generates a grid row by arranging, from left to right, a group of objects that are relatively similar to each other in the vertical direction starting from the upper left object on the screen based on the relative position information. The grid row group is generated by sequentially executing the above processing until there is no object under the grid row.

図3のグリッド配置部114は、グリッド行生成部113により生成されたグリッド行群を、相対位置情報に基づき、グリッド行に含まれるオブジェクトの上下の相対位置に従い配置することでグリッド行列を生成し、出力する。   The grid arrangement unit 114 in FIG. 3 generates a grid matrix by arranging the grid row group generated by the grid row generation unit 113 according to the upper and lower relative positions of the objects included in the grid row based on the relative position information. ,Output.

例えば、グリッド配置部114は、グリッド行保持部123に記憶されるグリッド行群についてグリッド行の処理順(行番号順)に、各グリッド行に含まれるオブジェクトの上下の相対位置を保つように配置する。具体的には、グリッド配置部114は、相対位置情報を参照して、各グリッド行に含まれるオブジェクトのうち相対的に横方向に同位(図5参照)のオブジェクト間で上下の相対位置を保つように配置する。   For example, the grid arrangement unit 114 arranges the grid row group stored in the grid row holding unit 123 so that the upper and lower relative positions of the objects included in each grid row are maintained in the grid row processing order (row number order). To do. Specifically, the grid placement unit 114 refers to the relative position information, and keeps the relative position between the objects of the same level (see FIG. 5) in the horizontal direction among the objects included in each grid row. Arrange so that.

例えば、グリッド配置部114は、オブジェクトAに対し、オブジェクトBが相対的に横方向に同位かつ相対的上に位置する場合、グリッド行列においてオブジェクトAの上の位置かつ同じ列にオブジェクトBが来るように、オブジェクトAを含むグリッド列およびオブジェクトBを含むグリッド列を配置する。これにより、グリッド配置部114は、相対的に横方向に同位かつ相対的下/上に位置するオブジェクト同士を同じ列に配置したグリッド行列を生成することができる。このグリッド行の配置については、具体例を用いて後記する。   For example, when the object B is positioned relatively on the same side and relatively above the object A, the grid placement unit 114 may cause the object B to be positioned on the same row and in the same column in the grid matrix. The grid row including the object A and the grid row including the object B are arranged. Thereby, the grid arrangement | positioning part 114 can produce | generate the grid matrix which has arrange | positioned the objects located in the same direction and relatively lower / upper in the horizontal direction in the same column. The arrangement of the grid rows will be described later using a specific example.

また、グリッド配置部114は、グリッド行に含まれるオブジェクトのまま配置したのでは、グリッド行に含まれるオブジェクトのうち相対的に横方向に同位(図5参照)のオブジェクト間で上下の相対位置を保つことができない場合、グリッド行に含まれるオブジェクトの一部を増加させた上で配置する。ここでのオブジェクトの増加についても、具体例を用いて後記する。   Also, if the grid placement unit 114 is placed with the objects included in the grid rows as they are, the vertical relative positions of the objects included in the grid rows relative to each other in the horizontal direction (see FIG. 5) are relatively long. If it cannot be maintained, increase the part of the object included in the grid row and place it. The increase in objects here will also be described later using a specific example.

ここでグリッド行の配置の具体例を説明する。なお、以下の説明において、「上位のオブジェクト」とは現在着目しているオブジェクトに対し、横方向に同位、かつ、相対的上にあるオブジェクトを指す。また、図9、図10および図11に示す説明において、例えば、オブジェクト1,2,…は、適宜「1,2,…」等と略して表記している。   Here, a specific example of grid row arrangement will be described. In the following description, the “higher object” refers to an object that is in the horizontal direction and relatively above the currently focused object. In the description shown in FIGS. 9, 10, and 11, for example, the objects 1, 2,... Are abbreviated as “1, 2,.

例えば、グリッド配置部114は、図7に示したグリッド行について、図9に示すようにしてグリッド行を配置し、グリッド行列を生成する。   For example, the grid placement unit 114 places the grid rows as shown in FIG. 9 for the grid rows shown in FIG. 7, and generates a grid matrix.

まず、グリッド配置部114は、図9に示すグリッド行群から、1行目のグリッド行を取り出す(図9のS1)。次に、グリッド配置部114は、2行目のグリッド行を取り出すと、2行目のグリッド行のオブジェクト3の上位にオブジェクト1を持つため、1行目のグリッド行のオブジェクト3の上にオブジェクト1を追加する(S2)。そして、グリッド配置部114は3行目のグリッド行を取り出すと、それぞれのグリッド行のオブジェクトの上下の相対位置は保たれているので、配置の変更無しとして(S3)、S4へ進む。   First, the grid arrangement unit 114 extracts the first grid row from the grid row group shown in FIG. 9 (S1 in FIG. 9). Next, when the grid placement unit 114 takes out the second grid line, the object 1 is placed above the object 3 in the second grid line, so the object is placed on the object 3 in the first grid line. 1 is added (S2). Then, when the grid placement unit 114 takes out the third grid row, the upper and lower relative positions of the objects in the respective grid rows are maintained, so that the placement is not changed (S3), and the process proceeds to S4.

S3の後、グリッド配置部114は、4行目のグリッド行を取り出すと、それぞれのグリッド行のオブジェクトの上下の相対位置は保たれているので、配置の変更無しとして(S4)、S5へ進む。その後、グリッド配置部114は、5行目のグリッド行を取り出す。ここで、5行目のグリッド行のオブジェクト7は上位にオブジェクト6を持つため、グリッド配置部114は、オブジェクト7がオブジェクト6の下になるように配置する。また、オブジェクト8の上位に1を持つため、グリッド配置部114は、オブジェクト8がオブジェクト1の下になるようにオブジェクト1を追加する(S5)。このようにすることでグリッド配置部114は、図7に示したグリッド行群の配置を完了する。   After S3, when the grid placement unit 114 takes out the fourth grid row, the upper and lower relative positions of the objects in the respective grid rows are maintained, so that there is no change in the placement (S4) and the process proceeds to S5. . Thereafter, the grid placement unit 114 takes out the fifth grid row. Here, since the object 7 in the fifth grid row has the object 6 at the upper level, the grid placement unit 114 places the object 7 below the object 6. Further, since 1 is placed above the object 8, the grid placement unit 114 adds the object 1 so that the object 8 is below the object 1 (S5). In this way, the grid placement unit 114 completes the placement of the grid row group shown in FIG.

また、例えば、グリッド配置部114は、図8に示したグリッド行について、図10、図11に示すようにしてグリッド行を配置する。   For example, the grid placement unit 114 places the grid rows as shown in FIGS. 10 and 11 for the grid rows shown in FIG.

すなわち、グリッド配置部114は、図8に示すグリッド行群から、1行目のグリッド行を取り出し(図10のS11)、次に、2行目のグリッド行を取り出すと、オブジェクト3の上位にオブジェクト1を持つため、1行目のグリッド行の2列目にオブジェクト1を追加し(S12)、S13へ進む。続いて、グリッド配置部114は3行目のグリッド行を取り出すと、オブジェクト4の上位(相対的上)にオブジェクト1,2,3を持つため、3行目のグリッド行の2列目にオブジェクト4を追加する(S13)。   That is, when the grid placement unit 114 takes out the first grid row from the grid row group shown in FIG. 8 (S11 in FIG. 10) and then takes out the second grid row, Since the object 1 is included, the object 1 is added to the second column of the first grid row (S12), and the process proceeds to S13. Subsequently, when the grid placement unit 114 takes out the third grid row, it has the objects 1, 2, and 3 above (relatively above) the object 4, and therefore the object in the second column of the third grid row. 4 is added (S13).

S13の後、グリッド配置部114は、4行目のグリッド行を取り出すと、4行目のグリッド行のオブジェクト5は上位にオブジェクト1,2,3,4を持つため、4行目のグリッド行の2列目にオブジェクト5を追加する(S14)。   After S13, when the grid arrangement unit 114 takes out the fourth grid line, the object 5 in the fourth grid line has the objects 1, 2, 3, and 4 in the upper layer, so the fourth grid line The object 5 is added to the second column (S14).

S14の後、グリッド配置部114は、5行目のグリッド行を取り出す。ここで、5行目のグリッド行のオブジェクト6は上位にオブジェクト1,3,4を持つが、オブジェクト2,5を持たないため、グリッド配置部114は、新たな列(3列目)に5行目のグリッド行の行頭(オブジェクト6)が来るように配置し、また、その列(3列目)にオブジェクト1,3,4を追加する(S15)。つまり、グリッド配置部114は、4行目のグリッド行を配置した上で、符号1001に示すオブジェクトからなる列を追加する。   After S14, the grid placement unit 114 takes out the fifth grid row. Here, since the object 6 in the fifth grid row has the objects 1, 3, and 4 at the upper level but does not have the objects 2 and 5, the grid placement unit 114 sets 5 in the new column (third column). Arrangement is made so that the top of the grid line (object 6) comes, and objects 1, 3, and 4 are added to the column (third column) (S15). That is, the grid placement unit 114 places a fourth grid row and then adds a column made up of the object indicated by reference numeral 1001.

S15の後、グリッド配置部114は、6行目のグリッド行を取り出す。ここで、6行目のグリッド行のオブジェクト7は上位にオブジェクト1〜5を持つため、グリッド配置部114は、6行目のグリッド行の2列目にオブジェクト7を追加する(S16)。ここで、S16の処理後、6行目のグリッド行のオブジェクト8は3列目以降にしか配置できない。更に、オブジェクト8は上位にオブジェクト1,3,4,5,6を持つため、グリッド配置部114は、3列目の前にオブジェクト1,3,4,5,8を追加する(S17)。つまり、グリッド配置部114は、6行目のグリッド行を配置した上で、3列目に符号1002に示すオブジェクトからなる列を挿入する。   After S15, the grid placement unit 114 takes out the sixth grid row. Here, since the object 7 of the sixth grid row has the objects 1 to 5 at the upper level, the grid placement unit 114 adds the object 7 to the second column of the sixth grid row (S16). Here, after the processing of S16, the object 8 in the sixth grid row can be arranged only in the third and subsequent columns. Furthermore, since the object 8 has the objects 1, 3, 4, 5, and 6 at the upper level, the grid placement unit 114 adds the objects 1, 3, 4, 5, and 8 before the third column (S17). That is, after arranging the sixth grid row, the grid placement unit 114 inserts a column composed of the object indicated by reference numeral 1002 into the third column.

S17の後、グリッド配置部114は、7行目のグリッド行を取り出す。ここで、7行目のグリッド行のオブジェクト9は上位にオブジェクト1〜8を持つため、グリッド配置部114は、7行目のグリッド行の2〜4列目にオブジェクト9を追加する(S18)。   After S17, the grid placement unit 114 takes out the seventh grid row. Here, since the object 9 in the seventh grid line has the objects 1 to 8 in the upper layer, the grid placement unit 114 adds the object 9 to the second to fourth columns of the seventh grid line (S18). .

図11のS19の説明に移る。S18の後、7行目のグリッド行のオブジェクト10は上位にオブジェクト1,3,4,6,8を持つため、グリッド配置部114は、5列目に、それら(オブジェクト1,3,4,6,8)とオブジェクト10を配置する(S19)。   Turning to the description of S19 in FIG. After S18, since the object 10 in the seventh grid row has the objects 1, 3, 4, 6, and 8 in the upper level, the grid placement unit 114 displays them (objects 1, 3, 4, and 4) in the fifth column. 6, 8) and the object 10 are arranged (S19).

S19の後、グリッド配置部114は、8行目のグリッド行を取り出す。ここで、8行目のグリッド行のオブジェクト11は上位にオブジェクト1〜10を持つため、グリッド配置部114は、8行目のグリッド行の2〜4列目にオブジェクト11を追加する(S20)。   After S19, the grid placement unit 114 takes out the eighth grid row. Here, since the object 11 of the eighth grid row has the objects 1 to 10 at the upper level, the grid placement unit 114 adds the object 11 to the second to fourth columns of the eighth grid row (S20). .

S20の後、グリッド配置部114は、9行目のグリッド行を取り出す。ここで、9行目のグリッド行のオブジェクト12は上位にオブジェクト1,3,4,5,6,8,9,11を持つため、3,4列目にオブジェクト12を配置する(S21)。   After S20, the grid placement unit 114 takes out the ninth grid row. Here, since the object 12 in the ninth grid row has the objects 1, 3, 4, 5, 6, 8, 9, and 11 at the upper level, the object 12 is arranged in the third and fourth columns (S21).

S21の後、9行目のグリッド行のオブジェクト13は上位にオブジェクト1,3,4,6,8,9,10,11を持つが、オブジェクト9が不足し、かつオブジェクト13は5列目以降にしか配置できない。そのため、グリッド配置部114は、4〜5列目の間に列を挿入してオブジェクト1,3,4,6,8,9,11,13の列を追加する(S22)。   After S21, the object 13 in the ninth grid row has the objects 1, 3, 4, 6, 8, 9, 10, and 11 in the upper layer, but the object 9 is insufficient and the object 13 is in the fifth column and thereafter. Can only be placed in Therefore, the grid arrangement unit 114 inserts columns between the fourth to fifth columns and adds columns of objects 1, 3, 4, 6, 8, 9, 11, and 13 (S22).

S22の後、9行目のグリッド行のオブジェクト14は上位にオブジェクト1,3,4,6,8,10を持つが、7列目以降にしか配置できない。そのため、グリッド配置部114は、7列目(オブジェクト14の上位)にオブジェクト1,3,4,6,8,10を追加する(S23)。   After S22, the object 14 in the ninth grid row has the objects 1, 3, 4, 6, 8, and 10 at the upper level, but can be arranged only in the seventh and subsequent columns. Therefore, the grid arrangement unit 114 adds the objects 1, 3, 4, 6, 8, and 10 to the seventh column (higher than the object 14) (S23).

このようにすることで、グリッド配置部114は、オブジェクト間の上下左右の相対位置を反映したグリッド行列を生成することができる。また、グリッド配置部114は、グリッド行列を生成する際、相対的に縦方向に同位かつ相対的左/右に位置するオブジェクト同士を同じ行に配置し、また、相対的に横方向に同位かつ相対的下/上に位置するオブジェクト同士を同じ列に配置する。   By doing in this way, the grid arrangement | positioning part 114 can produce | generate the grid matrix which reflected the relative position of the up-down and left-right between objects. In addition, when generating the grid matrix, the grid placement unit 114 places objects that are relatively similar to each other in the vertical direction and relatively left / right in the same row, and that is relatively similar to each other in the horizontal direction. Objects that are relatively below / above are placed in the same row.

これにより、グリッド配置部114は、画面上で横方向にほぼ同じ位置に並んでいるオブジェクトを同じ行に配置し、画面上で縦方向にほぼ同じ位置に並んでいるオブジェクトを同じ列に配置したグリッド行列を得ることができる。つまり、グリッド配置部114は画面上でオブジェクトの配置ズレがあったとしてもこれを丸め込んだ画面認識情報(グリッド行列)を生成することができる。換言すると、グリッド配置部114はロバストに画面上のオブジェクトの位置関係を認識することができる。   Thereby, the grid arrangement unit 114 arranges the objects arranged in the same position in the horizontal direction on the screen in the same row, and arranges the objects arranged in the same position in the vertical direction on the screen in the same column. A grid matrix can be obtained. That is, the grid arrangement unit 114 can generate screen recognition information (grid matrix) obtained by rounding the object even if there is an object arrangement deviation on the screen. In other words, the grid placement unit 114 can robustly recognize the positional relationship of objects on the screen.

(処理手順)
次に、図12Aを用いて画面認識装置100の処理手順の概要を説明する。まず、画面認識装置100のオブジェクト情報取得部111は、画面情報に基づきオブジェクト情報を取得し(S121:オブジェクト情報取得)、相対位置情報取得部112は、オブジェクト情報における各オブジェクトの絶対座標情報に基づき、オブジェクト間の相対位置情報を取得する(S122:相対位置情報取得)。そして、グリッド行生成部113は、相対位置情報に基づき、グリッド行を生成し(S123:グリッド行生成)、グリッド配置部114は、生成したグリッド行を配置する(S124:グリッド配置)。
(Processing procedure)
Next, the outline of the processing procedure of the screen recognition apparatus 100 will be described with reference to FIG. 12A. First, the object information acquisition unit 111 of the screen recognition device 100 acquires object information based on the screen information (S121: acquisition of object information), and the relative position information acquisition unit 112 based on the absolute coordinate information of each object in the object information. Then, the relative position information between the objects is acquired (S122: acquisition of relative position information). Then, the grid row generation unit 113 generates a grid row based on the relative position information (S123: grid row generation), and the grid arrangement unit 114 arranges the generated grid row (S124: grid arrangement).

次に、図12Bを用いて、図12AのS121のオブジェクト情報取得処理を詳細に説明する。まず、オブジェクト情報取得部111は、画面情報を読み込み(S1211)、画面情報から各オブジェクトのクラス(class)、絶対座標(area)、あればテキスト(text)を取得し(S1212)、各オブジェクトにインデックス(index)を振る(S1213)。そして、オブジェクト情報取得部111は、各オブジェクトのクラス(class)、絶対座標(area)、あればテキスト(text)、インデックス(index)を対応付けた情報(オブジェクト情報)をオブジェクト情報保持部121へ出力する(S1214)。   Next, the object information acquisition process of S121 of FIG. 12A will be described in detail using FIG. 12B. First, the object information acquisition unit 111 reads screen information (S1211), acquires the class (class) and absolute coordinates (area) of each object from the screen information, and if there is text (text) (S1212). An index is indexed (S1213). Then, the object information acquisition unit 111 sends information (object information) in which the class (class), absolute coordinates (area) of each object, text (text), and index (index) are associated with each other to the object information holding unit 121. It outputs (S1214).

なお、オブジェクト情報は、オブジェクトごとにクラスを生成し、プロパティとして情報を保持してもよいし、行列で保持してもよい。   Note that the object information may be generated as a class for each object, and the information may be held as a property, or may be held in a matrix.

次に、図13を用いて、図12AのS122の相対位置情報取得処理を詳細に説明する。まず、相対位置情報取得部112は、オブジェクト情報保持部121のオブジェクト情報を読み込むと(S1221)、各オブジェクトの絶対座標に基づき、各オブジェクトの左右相対関係を取得し(S1222:左右相対関係取得)、上下相対関係を取得し(S1223:上下相対関係取得)、最近傍オブジェクトを取得する(S1224:最近傍オブジェクト取得)。そして、相対位置情報取得部112は、取得した情報を相対位置情報として記録し、相対位置情報保持部122へ出力する(S1225)。   Next, the relative position information acquisition process in S122 of FIG. 12A will be described in detail with reference to FIG. First, when the relative position information acquisition unit 112 reads the object information of the object information holding unit 121 (S1221), the relative position information acquisition unit 112 acquires the left-right relative relationship of each object based on the absolute coordinates of each object (S1222: acquisition of the left-right relative relationship). The vertical relative relationship is acquired (S1223: vertical relative relationship acquisition), and the nearest object is acquired (S1224: nearest neighbor object acquisition). Then, the relative position information acquisition unit 112 records the acquired information as relative position information and outputs it to the relative position information holding unit 122 (S1225).

なお、相対位置情報は、オブジェクトごとにリストで保持してもよいし、行列で保持してもよい。また、相対位置を計算するための関数を用意しておき、相対位置情報取得部112が都度、オブジェクトの相対位置を計算するようにしてもよい。   The relative position information may be held in a list for each object or in a matrix. Also, a function for calculating the relative position may be prepared, and the relative position information acquisition unit 112 may calculate the relative position of the object each time.

次に、図14を用いて、図13のS1222の左右相対関係取得処理を詳細に説明する。ここでは、2つのオブジェクト(obj1とobj2)の左右の相対関係(相対位置)を判断する場合を例に説明する。   Next, the left-right relative relationship acquisition process of S1222 of FIG. 13 will be described in detail with reference to FIG. Here, a case where the left-right relative relationship (relative position) between two objects (obj1 and obj2) is determined will be described as an example.

なお、以下の説明では、obj1の左上の座標を(px1,py1)、右下の座標を(qx1,qy1)とし、obj2の左上の座標を(px2,py2)、右下の座標を(qx2,qy2)とする。   In the following explanation, the upper left coordinate of obj1 is (px1, py1), the lower right coordinate is (qx1, qy1), the upper left coordinate of obj2 is (px2, py2), and the lower right coordinate is (qx2 , Qy2).

相対位置情報取得部112は、オブジェクト情報からオブジェクト(obj1とobj2)の座標位置の情報を読み込み(S131)、obj1とobj2の座標位置がx軸方向についてpx2≧qx1(S132で「px2≧qx1」)、つまり、obj1のx軸最大値がobj2のx軸最小値以下ならば、obj2はobj1の相対右(val=1)であると判断する(S133)。   The relative position information acquisition unit 112 reads information on the coordinate positions of the objects (obj1 and obj2) from the object information (S131), and the coordinate positions of obj1 and obj2 are px2 ≧ qx1 in the x-axis direction (“px2 ≧ qx1” in S132). In other words, if the maximum x-axis value of obj1 is less than or equal to the minimum x-axis value of obj2, it is determined that obj2 is relative to obj1 (val = 1) (S133).

一方、obj1とobj2の座標位置がx軸方向についてqx2≦px1(S132で「qx2≦px1」)、つまり、obj1のx軸最小値がobj2のx軸最大値以上ならば、相対位置情報取得部112は、obj2はobj1の相対的左(val=-1)であると判断する(S134)。   On the other hand, if the coordinate position of obj1 and obj2 is qx2 ≦ px1 in the x-axis direction (“qx2 ≦ px1” in S132), that is, if the minimum x-axis value of obj1 is greater than or equal to the maximum x-axis value of obj2, the relative position information acquisition unit 112 determines that obj2 is relative to the left of obj1 (val = −1) (S134).

さらに、px2≧qx1でもqx2≦px1でもない場合(S132で「else」)、つまり、px1≦px2≦qx1またはpx1≦qx2≦qx1の場合、相対位置情報取得部112は、obj2はobj1と横方向に同位(val=0)であると判断する(S135)。   Further, when neither px2 ≧ qx1 nor qx2 ≦ px1 (“else” in S132), that is, when px1 ≦ px2 ≦ qx1 or px1 ≦ qx2 ≦ qx1, the relative position information acquisition unit 112 determines that obj2 is in the horizontal direction with obj1 It is determined that they are the same (val = 0) (S135).

そして、相対位置情報取得部112は、S133〜S135の判断結果(val)をオブジェクトの左右相対関係に関する情報として出力する(S136)。   Then, the relative position information acquisition unit 112 outputs the determination result (val) of S133 to S135 as information related to the left-right relative relationship between the objects (S136).

次に、図15を用いて、図13のS1223の上下相対関係取得処理を詳細に説明する。ここでも、2つのオブジェクト(obj1とobj2)の上下の相対位置を判断する場合を例に説明する。なお、図15に示すようにオブジェクトのy軸の値は画面下のオブジェクトほど高い値になるものとする。   Next, with reference to FIG. 15, the vertical relative relationship acquisition process in S1223 of FIG. 13 will be described in detail. Here again, a case where the relative positions of the two objects (obj1 and obj2) are determined will be described as an example. As shown in FIG. 15, it is assumed that the y-axis value of an object becomes higher as the object at the bottom of the screen.

相対位置情報取得部112は、オブジェクト情報からオブジェクト(obj1とobj2)の座標位置の情報を読み込み(S141)、obj1とobj2の座標位置がy軸方向についてpy2≧qy1(S142で「py2≧qy1」)、つまり、obj1のy軸最大値がobj2のy軸最小値以下ならば、obj2はobj1の相対的下(val=1)であると判断する(S143)。   The relative position information acquisition unit 112 reads information on the coordinate positions of the objects (obj1 and obj2) from the object information (S141), and the coordinate positions of obj1 and obj2 are py2 ≧ qy1 in the y-axis direction (“py2 ≧ qy1” in S142) That is, if the maximum y-axis value of obj1 is less than or equal to the minimum y-axis value of obj2, it is determined that obj2 is below obj1 (val = 1) (S143).

一方、obj1とobj2の座標位置がy軸方向についてqy2≦py1(S142で「qy2≦py1」)、つまり、obj1のy軸最小値がobj2のy軸最大値以上ならば、相対位置情報取得部112は、obj2はobj1の相対的上(val=-1)であると判断する(S144)。   On the other hand, if the coordinate positions of obj1 and obj2 are qy2 ≦ py1 in the y-axis direction (“qy2 ≦ py1” in S142), that is, if the minimum y-axis value of obj1 is greater than or equal to the maximum y-axis value of obj2, the relative position information acquisition unit 112 determines that obj2 is relative to obj1 (val = −1) (S144).

さらに、py2≧qy1でもqy2≦py1でもない場合(S142で「else」)、相対位置情報取得部112は、obj2はobj1と縦方向に同位(val=0)であると判断する(S145)。   Further, when neither py2 ≧ qy1 nor qy2 ≦ py1 (“else” in S142), the relative position information acquisition unit 112 determines that obj2 is a peer (val = 0) in the vertical direction with obj1 (S145).

そして、相対位置情報取得部112は、S143〜S145の判断結果(val)をオブジェクトの上下相対関係に関する情報として出力する(S146)。   Then, the relative position information acquisition unit 112 outputs the determination results (val) of S143 to S145 as information related to the vertical relative relationship of the objects (S146).

次に、図16を用いて、図13のS1224の最近傍オブジェクト取得処理を詳細に説明する。例えば、相対位置情報取得部112が、オブジェクト(obj1)の左右相対関係および上下相対関係に関する情報を読み込み(S152)、オブジェクト(obj1)の横方向最近傍オブジェクトを取得し(S153)、また、オブジェクト(obj1)の縦方向最近傍オブジェクトを取得すると(S154)、これらをまとめてオブジェクト(obj1)の最近傍オブジェクトとして出力する(S155)。例えば、相対位置情報取得部112は、符号1601に示すオブジェクト(obj2)のうち、太線で囲まれたオブジェクト(obj2)をオブジェクト(obj1)の最近傍オブジェクトとして出力する。   Next, the nearest object acquisition process in S1224 of FIG. 13 will be described in detail with reference to FIG. For example, the relative position information acquisition unit 112 reads information on the left-right relative relationship and the vertical relative relationship of the object (obj1) (S152), acquires the nearest object in the horizontal direction of the object (obj1) (S153), When the vertical direction nearest object of (obj1) is acquired (S154), these are collectively output as the nearest object of the object (obj1) (S155). For example, the relative position information acquisition unit 112 outputs the object (obj2) surrounded by a thick line among the objects (obj2) indicated by reference numeral 1601 as the nearest object of the object (obj1).

次に、図17を用いて、図16のS153の横方向最近傍オブジェクト取得処理を詳細に説明する。例えば、相対位置情報取得部112が、オブジェクト(obj1)の左右相対関係に関する情報を読み込み(S161)、横方向最近傍オブジェクト群neighbor={}を設定する(S162)。なお、S162の段階ではneighbor={}は空の状態である。   Next, the horizontal direction nearest neighbor object acquisition process of S153 in FIG. 16 will be described in detail with reference to FIG. For example, the relative position information acquisition unit 112 reads information related to the left-right relative relationship of the object (obj1) (S161), and sets the horizontal nearest neighbor group neighbor = {} (S162). In step S162, neighbor = {} is empty.

S162の後、相対位置情報取得部112は、obj1の左右相対関係に関する情報から、obj1と縦方向に同位のオブジェクト群(M)を取得する(S163)。例えば、相対位置情報取得部112は、吹き出し1701に示すobj2群を取得する。   After S162, the relative position information acquisition unit 112 acquires an object group (M) that is the same as obj1 in the vertical direction from the information related to the left-right relative relationship of obj1 (S163). For example, the relative position information acquisition unit 112 acquires the obj2 group indicated by the balloon 1701.

S163の後、相対位置情報取得部112は、上記のMに属するobj2それぞれについてS164〜S170に示す処理を実行する。すなわち、相対位置情報取得部112は、obj1からみたobj2の相対位置が相対的左であり(S164で「相対的左」)、Mにobj2とobj1の間に配置されるオブジェクトがなければ(S165でNo)、当該obj2をobj1の最近傍と判断しneighborに追加する(S167)。   After S163, the relative position information acquisition unit 112 executes the processes shown in S164 to S170 for each of obj2 belonging to the above M. That is, the relative position information acquisition unit 112 determines that the relative position of obj2 as viewed from obj1 is relative left (“relative left” in S164), and there is no object arranged between obj2 and obj1 in S165 (S165). No), the obj2 is determined as the nearest neighbor of obj1, and added to the neighbor (S167).

一方、Mにobj2とobj1の間に配置されるオブジェクトがあれば(S165でYes)、相対位置情報取得部112は、当該obj2をobj1の最近傍と判断しない(S168)。また、相対位置情報取得部112は、obj1からみたobj2の相対位置が相対的右である場合(S164で「相対的右」)も同様に、Mにobj2とobj1の間に配置されるオブジェクトがなければ(S166でNo)、当該obj2をobj1の最近傍と判断し、neighborに追加する(S169)。   On the other hand, if there is an object arranged between obj2 and obj1 in M (Yes in S165), the relative position information acquisition unit 112 does not determine that obj2 is the nearest neighbor of obj1 (S168). Similarly, when the relative position of obj2 as viewed from obj1 is relative right (“relative right” in S164), the relative position information acquisition unit 112 also determines that the object placed between obj2 and obj1 is M. If not (No in S166), it is determined that obj2 is the nearest neighbor of obj1, and is added to the neighbor (S169).

一方、Mにobj2とobj1の間に配置されるオブジェクトがあれば(S166でYes)、相対位置情報取得部112は、当該obj2をobj1の最近傍と判断しない(S170)。   On the other hand, if there is an object arranged between obj2 and obj1 in M (Yes in S166), the relative position information acquisition unit 112 does not determine that obj2 is the nearest neighbor of obj1 (S170).

そして、相対位置情報取得部112は、S167〜S170の処理により、obj1の最近傍と判断されたobj2群を横方向最近傍オブジェクト群neighborとして出力する(S171)。   Then, the relative position information acquisition unit 112 outputs the obj2 group determined to be the nearest neighbor of obj1 by the processes of S167 to S170 as the laterally nearest neighbor object group neighbor (S171).

例えば、相対位置情報取得部112は、吹き出し1701に示すobj2群のうち、○の付されたobj2群についてobj1の横方向最近傍オブジェクト群neighborとして出力する。一方、吹き出し1701に示すobj2群のうち、×の付されたobj2群はobj1との間に他のオブジェクトが配置されるので横方向最近傍オブジェクト群neighborとして出力しない。   For example, the relative position information acquisition unit 112 outputs the obj2 group indicated by ○ among the obj2 groups indicated by the balloon 1701 as the nearest neighbor object group neighbor of obj1. On the other hand, among the obj2 groups shown in the balloon 1701, the obj2 group marked with x is not output as the nearest neighbor object group neighbor in the horizontal direction because other objects are arranged between obj1 and obj1.

次に、図18を用いて、図16のS154の縦方向最近傍オブジェクト取得処理を詳細に説明する。例えば、相対位置情報取得部112が、オブジェクト(obj1)の上下相対関係に関する情報を読み込み(S172)、縦方向最近傍オブジェクト群neighbor={}を設定する(S173)。なお、S173の段階ではneighbor={}は空の状態である。   Next, with reference to FIG. 18, the vertical nearest neighbor object acquisition processing in S154 of FIG. 16 will be described in detail. For example, the relative position information acquisition unit 112 reads information related to the vertical relative relationship of the object (obj1) (S172), and sets the vertical nearest neighbor object group = {} (S173). In step S173, neighbor = {} is empty.

S173の後、相対位置情報取得部112は、obj1の上下相対関係に関する情報から、obj1と横方向に同位のオブジェクト群(M)を取得する(S174)。例えば、相対位置情報取得部112は、吹き出し1801に示すobj2群を取得する。   After S173, the relative position information acquisition unit 112 acquires an object group (M) that is the same as obj1 in the horizontal direction from the information about the vertical relative relationship of obj1 (S174). For example, the relative position information acquisition unit 112 acquires the obj2 group indicated by the balloon 1801.

そして、相対位置情報取得部112は、Mに属するobj2それぞれについてS175〜S181に示す処理を実行する。すなわち、相対位置情報取得部112は、obj1からみたobj2の相対位置が相対的上であり(S175で「相対的上」)、Mにobj2とobj1の間に配置されるオブジェクトがなければ(S176でNo)、当該obj2をobj1の最近傍と判断しneighborに追加する(S178)。   Then, the relative position information acquisition unit 112 executes the processes shown in S175 to S181 for each of obj2 belonging to M. That is, the relative position information acquisition unit 112 has the relative position of obj2 as viewed from obj1 relatively above (“relatively up” in S175), and if there is no object arranged between obj2 and obj1 in S175 (S176). No), obj2 is determined as the nearest neighbor of obj1 and added to the neighbor (S178).

一方、Mにobj2とobj1の間に配置されるオブジェクトがあれば(S176でYes)、相対位置情報取得部112は、当該obj2をobj1の最近傍と判断しない(S179)。また、相対位置情報取得部112は、obj1からみたobj2の相対位置が相対的下である(S175で「相対的下」)場合も同様に、Mにobj2とobj1の間に配置されるオブジェクトがなければ(S177でNo)、当該obj2をobj1の最近傍と判断し、neighborに追加する(S180)。一方、Mにobj2とobj1の間に配置されるオブジェクトがあれば(S177でYes)、相対位置情報取得部112は、当該obj2をobj1の最近傍と判断しない(S181)。   On the other hand, if there is an object arranged in M between obj2 and obj1 (Yes in S176), the relative position information acquisition unit 112 does not determine that obj2 is the nearest neighbor of obj1 (S179). Similarly, when the relative position of obj2 as viewed from obj1 is relatively lower (“relatively lower” in S175), the relative position information acquisition unit 112 similarly determines that an object placed between obj2 and obj1 is in M. If not (No in S177), it is determined that obj2 is the nearest neighbor of obj1, and is added to the neighbor (S180). On the other hand, if there is an object arranged between obj2 and obj1 in M (Yes in S177), the relative position information acquisition unit 112 does not determine that obj2 is the nearest neighbor of obj1 (S181).

そして、相対位置情報取得部112は、S178〜S181の処理により、obj1の最近傍と判断されたobj2群を縦方向最近傍オブジェクト群neighborとして出力する(S182)。例えば、相対位置情報取得部112は、吹き出し1801に示すobj2群のうち、○の付されたobj2群についてobj1の縦方向最近傍オブジェクト群neighborとして出力する。なお、吹き出し1801に示すobj2群のうち、×の付されたobj2群はobj1との間に他のオブジェクトが配置されるので縦方向最近傍オブジェクト群neighborには含めない。   Then, the relative position information acquisition unit 112 outputs the obj2 group determined to be the nearest neighbor of obj1 by the processes of S178 to S181 as the vertical nearest neighbor object group neighbor (S182). For example, the relative position information acquisition unit 112 outputs the obj2 group marked with ◯ among the obj2 groups indicated by the balloon 1801 as the nearest neighbor object group neighbor of obj1. Of the obj2 groups shown in the balloon 1801, the obj2 group marked with x is not included in the nearest neighbor object group neighbor in the vertical direction because other objects are arranged between obj1 and obj1.

以上の処理により、相対位置情報取得部112が、各オブジェクトの相対的左/右および相対的下/上の位置関係と、最近傍のオブジェクトとを示した相対位置情報を作成することができる。   With the above processing, the relative position information acquisition unit 112 can create relative position information indicating the relative left / right and relative lower / upper positional relationships of each object and the nearest object.

次に、図19を用いて、図12AのS123のグリッド行生成処理を詳細に説明する。   Next, the grid row generation process in S123 of FIG. 12A will be described in detail with reference to FIG.

まず、グリッド行生成部113は、オブジェクト群の相対位置情報を読み込む(S191)。次に、グリッド行生成部113は、オブジェクト群の相対位置情報を参照して、obj(処理対象とするオブジェクト)として最左上のオブジェクトを選択し(obj←最左上のオブジェクト)、グリッド行集合S={}、探索済オブジェクト集合CS={}、未探索オブジェクト集合US={}を設定する(S192)。なお、S192の段階で、未探索オブジェクト集合USには、S191で読み込んだ相対位置情報の対象となるオブジェクト群が設定される。   First, the grid row generation unit 113 reads the relative position information of the object group (S191). Next, the grid row generation unit 113 selects the upper left object as obj (object to be processed) with reference to the relative position information of the object group (obj ← upper left object), and sets the grid row set S. = {}, Searched object set CS = {}, unsearched object set US = {} are set (S192). In step S192, an object group that is the target of the relative position information read in step S191 is set in the unsearched object set US.

そして、グリッド行生成部113は、すべてのオブジェクトを処理するまで、S193〜S199の処理を実行する。   And the grid line production | generation part 113 performs the process of S193-S199 until it processes all the objects.

まず、グリッド行生成部113は、オブジェクト群の相対位置情報を参照して、objと縦方向に同位のオブジェクト群を左→右の順に取得し、これをグリッド行とする(S193)。次に、グリッド行生成部113は、S193で得たグリッド行をグリッド行集合Gに追加し(S194)、CS(探索済オブジェクト集合)にグリッド行を追加し、US(未探索オブジェクト集合)からグリッド行を削除する(S195)。   First, the grid row generation unit 113 refers to the relative position information of the object group, acquires the object group that is the same as obj in the vertical direction from left to right, and sets this as a grid row (S193). Next, the grid row generation unit 113 adds the grid row obtained in S193 to the grid row set G (S194), adds the grid row to CS (searched object set), and starts from US (unsearched object set). The grid row is deleted (S195).

S195の後、グリッド行生成部113が、相対位置情報を参照して、objの相対的下にあり、かつ最近傍のオブジェクトが存在すると判断した場合(S196でYes)、当該最近傍のオブジェクト群の中で、最も上のオブジェクト群を取得する(S197)。そして、グリッド行生成部113は、取得したオブジェクト群の中で最も左にあるオブジェクトを次のobjとする(S199)。例えば、グリッド行生成部113は、吹き出し1901に示すように、objの下に最近傍のオブジェクト群があれば、その中でy軸の値が最も小さいオブジェクト(太線で示したオブジェクト)を次のobjとする。そして、グリッド行生成部113は、この次のobjを対象としてS193以降の処理を行う。   After S195, when the grid row generation unit 113 refers to the relative position information and determines that there is an object nearest to obj and the nearest object (Yes in S196), the nearest object group The uppermost object group is acquired (S197). Then, the grid row generation unit 113 sets the leftmost object in the acquired object group as the next obj (S199). For example, as shown in a balloon 1901, if there is a nearest object group under obj, the grid row generation unit 113 selects the object with the smallest y-axis value (the object indicated by the bold line) as the next Let obj be. Then, the grid row generation unit 113 performs the processing after S193 for the next obj.

一方、グリッド行生成部113が、相対位置情報を参照して、objの相対的下にオブジェクトが存在しない、または、objの相対的下にオブジェクトが存在したとしても、当該オブジェクトはobjの最近傍のオブジェクトではないと判断した場合(S196でNo)、グリッド行生成部113は、US(未探索オブジェクト集合)から最上位のオブジェクト群を取得し(S198)、S199へ進む。   On the other hand, even if the grid row generation unit 113 refers to the relative position information and no object exists below obj or an object exists below obj, the object is the nearest neighbor of obj. When it is determined that the object is not the object (No in S196), the grid row generation unit 113 acquires the highest-level object group from the US (unsearched object set) (S198), and proceeds to S199.

グリッド行生成部113は、上記の処理を未探索オブジェクト集合US={}が空になるまで実行し、生成したグリッド行集合を出力する(S200)。   The grid row generation unit 113 executes the above processing until the unsearched object set US = {} becomes empty, and outputs the generated grid row set (S200).

以上の処理により、グリッド行生成部113は、横方向に同位のオブジェクト群を左から横に並べたグリッド行を生成することができる。例えば、グリッド行生成部113は、図7に示す画面のオブジェクト群から、図8に示すグリッド行群を生成する。   Through the above processing, the grid row generation unit 113 can generate a grid row in which the same object group is arranged horizontally from the left in the horizontal direction. For example, the grid row generation unit 113 generates the grid row group illustrated in FIG. 8 from the object group on the screen illustrated in FIG.

次に、図20を用いて、図12AのS124のグリッド配置処理を詳細に説明する。例えば、グリッド配置部114は、グリッド行集合を読み込み(S201)、読み込んだグリッド行集合Sをy軸の小さい順(グリッド行の位置が高いものから低い順)にソートする(S202)。次に、グリッド配置部114は、初期グリッドGを生成し、1行目にグリッド行集合Sの1行目を配置する(S203)。例えば、グリッド配置部114は、符号2001に示す初期グリッドGを生成すると、1行目にグリッド行集合Sの1行目(オブジェクト1を含むグリッド行列)を配置する。   Next, the grid arrangement process in S124 of FIG. 12A will be described in detail with reference to FIG. For example, the grid placement unit 114 reads a grid row set (S201), and sorts the read grid row set S in ascending order of the y-axis (from the highest grid row position to the lowest) (S202). Next, the grid placement unit 114 creates an initial grid G and places the first row of the grid row set S on the first row (S203). For example, when generating the initial grid G indicated by reference numeral 2001, the grid placement unit 114 places the first row of the grid row set S (grid matrix including the object 1) on the first row.

そして、グリッド配置部114は、グリッド行集合Sのすべてのグリッド行を処理するまで、S204〜S209に示す処理を実行する。   And the grid arrangement | positioning part 114 performs the process shown to S204-S209 until it processes all the grid rows of the grid row set S. FIG.

まず、グリッド配置部114は、グリッド行集合Sをx軸の小さい順にソートし(S204)、グリッド行上の各オブジェクト(obj)に対して、S205〜S209の処理を実行する。つまり、グリッド配置部114は、グリッド行集合Sからobjが配置できる最小列番号iを取得する(S205)。次に、グリッド配置部114は、グリッド行集合Sにおいてobjの上位のオブジェクト群のある列群を取得し(S206)、以下に示す条件を満たす列群がi列以降に存在するか否かを判断する(S207)。   First, the grid arrangement unit 114 sorts the grid row set S in ascending order of the x-axis (S204), and executes the processing of S205 to S209 for each object (obj) on the grid row. That is, the grid placement unit 114 acquires the minimum column number i in which obj can be placed from the grid row set S (S205). Next, the grid arrangement unit 114 acquires a column group having an object group higher than obj in the grid row set S (S206), and determines whether or not a column group satisfying the following condition exists after the i column. Judgment is made (S207).

この条件とは、上位(相対的上かつ横に同位)のオブジェクト群をu、グリッド列(S206で取得した列群)をq={q1,q2,…,qn}、xiをグリッド列iにオブジェクトを配置するか否か(1/0)とするとき、qはuの部分集合(q⊆u)、かつ、Σqi xi=|u|であるように配置する、という条件である。   This condition is that the upper (relatively upper and laterally equal) object group is u, the grid column (column group acquired in S206) is q = {q1, q2,..., Qn}, and xi is the grid column i. When it is determined whether or not the object is to be arranged (1/0), q is a condition that q is arranged so as to be a subset (q⊆u) of u and Σqi xi = | u |.

つまり、あるオブジェクトiと同じ列に配置されるオブジェクトは、オブジェクトiの上位のいずれかのオブジェクトであり、かつ、オブジェクトiと同じ列に配置されるオブジェクトの種類の数は、オブジェクトiの上位(オブジェクトiの相対的上かつ横に同位)のオブジェクトの個数と同じである、という条件である。換言すると、オブジェクトiと同じ列の上位に配置されるオブジェクト群は、相対位置情報において当該オブジェクトiの上位に存在するすべてのオブジェクトを網羅している、という条件である。   That is, an object arranged in the same column as an object i is one of the objects above the object i, and the number of types of objects arranged in the same column as the object i is higher than the object i ( The condition is that the number of objects that are relatively on the side of the object i and the same on the side is the same. In other words, the condition is that the object group arranged at the top of the same column as the object i covers all the objects existing above the object i in the relative position information.

S207において、グリッド配置部114は、上記条件を満たす列群がi列以降に存在すると判断した場合(S207でYes)、G(グリッド)のobjを上記の条件を満たす列に配置する(S208)。一方、グリッド配置部114は、上記条件を満たす列群がi列以降に存在しないと判断した場合(S207でNo)、G(グリッド)に列に挿入する(S209)。この列の挿入処理について、図21を用いて後記する。   In S207, when the grid placement unit 114 determines that there are column groups satisfying the above condition after i columns (Yes in S207), G (grid) obj is placed in a row satisfying the above conditions (S208). . On the other hand, when the grid arrangement unit 114 determines that there is no column group satisfying the above condition after the i column (No in S207), the grid arrangement unit 114 inserts the column into G (grid) (S209). This row insertion processing will be described later with reference to FIG.

そして、グリッド配置部114は、上記の処理をグリッド行集合のすべてのグリッド行に対し行うと、生成したグリッド(グリッド行列)を出力する(S210)。   And if the grid arrangement | positioning part 114 performs said process with respect to all the grid rows of a grid row set, it will output the produced | generated grid (grid matrix) (S210).

以上の処理により、グリッド配置部114は、縦方向に同位のオブジェクト群が同じ列になるよう配置したグリッド行列を生成することができる。   Through the above processing, the grid arrangement unit 114 can generate a grid matrix in which the same object groups are arranged in the same column in the vertical direction.

次に、図21を用いて、図20のS209の列の挿入処理を詳細に説明する。グリッド配置部114は、探索行(objの上位のオブジェクト群が存在するグリッド行)の最右列に配置されているオブジェクトをobj2とする(S2091)。そして、グリッド配置部114がobj2はobj1の相対的右であると判断した場合(S2092でYes)、obj2の配置されている行の最左の左側に空の列を追加する(S2093)。   Next, with reference to FIG. 21, the column insertion processing in S209 of FIG. 20 will be described in detail. The grid placement unit 114 sets the object placed in the rightmost column of the search row (grid row where the object group higher than obj exists) as obj2 (S2091). If the grid placement unit 114 determines that obj2 is relative to obj1 (Yes in S2092), an empty column is added to the leftmost left side of the row where obj2 is placed (S2093).

S2093の後、グリッド配置部114は、obj2と上位のオブジェクト群を追加したときに他の各行の配置順に矛盾が発生しないようにobjの上位のオブジェクトとobjを配置する(S2094)。つまり、グリッド配置部114は、追加対象のオブジェクトの配置される行について、相対位置情報を参照して、他のオブジェクトが正しい相対位置関係であるかどうかをチェックする。そして、グリッド配置部114は、相対位置関係に矛盾が発生する場合は矛盾を解消するように、オブジェクトの左または右に列を追加する。   After S2093, the grid placement unit 114 places the object higher than obj and obj so that no contradiction occurs in the arrangement order of the other rows when the object group higher than obj2 is added (S2094). That is, the grid arrangement unit 114 refers to the relative position information with respect to the row where the object to be added is arranged, and checks whether other objects have a correct relative position relationship. Then, the grid placement unit 114 adds a column to the left or right of the object so that the contradiction is resolved when the contradiction occurs in the relative positional relationship.

一方、グリッド配置部114がobj2はobj1の相対的右ではなく(S2092でNo)、相対的左と判断した場合(S2095でYes)、グリッド配置部114は、最右列+1列目に空の列を追加して、各行の配置順に矛盾が発生しないようにobjの上位のオブジェクトとobjを配置する(S2096)。なお、グリッド配置部114がobj2はobj1の相対的右でもなく(S2092でNo)、相対的左でもないと判断した場合(S2095でNo)、S2096の処理は行わない。   On the other hand, when the grid placement unit 114 determines that obj2 is not relative to the right of obj1 (No in S2092) and is relatively left (Yes in S2095), the grid placement unit 114 is empty in the rightmost column + 1 column. A column is added, and an object higher than obj and obj are arranged so that no contradiction occurs in the arrangement order of each row (S2096). If the grid placement unit 114 determines that obj2 is not relative to the right of obj1 (No in S2092) and is not relative to the left (No in S2095), the process of S2096 is not performed.

以上の処理により、グリッド配置部114は、縦方向に同位のオブジェクト群が同じ列になるよう配置したグリッド行列を確実に生成することができる。   Through the above processing, the grid placement unit 114 can reliably generate a grid matrix in which the peer object groups are placed in the same column in the vertical direction.

(本実施形態の適用例)
以上説明した画面認識装置100によれば、様々なアプリケーションにより表示される画面上の各オブジェクトに対してオブジェクト同士の相対関係を認識できる。
(Application example of this embodiment)
According to the screen recognition apparatus 100 described above, the relative relationship between objects can be recognized for each object on the screen displayed by various applications.

例えば、画面認識装置100は、図22の符号2200に示す旅行の予約用アプリケーションの画面上のオブジェクトの配置を認識し、符号2201に示す画面認識情報(グリッド行列)を得る。   For example, the screen recognition apparatus 100 recognizes the arrangement of objects on the screen of the travel reservation application indicated by reference numeral 2200 in FIG. 22 and obtains screen recognition information (grid matrix) indicated by reference numeral 2201.

これにより、当該アプリケーションの画面上の情報の検索システムは、符号2201の画面情報におけるImage,Buttonオブジェクト削除、項目名の定義(例えば、Labelクラスを項目名とする、指定のラベル名を項目名とするなど)の処理を行うことで、符号2202に示す画面認識情報を得る。これにより、検索システムは、「往路に関する情報をまとめて抽出」等、項目名を利用した高度な検索ができる。   Thereby, the information retrieval system on the screen of the application concerned deletes the Image and Button objects in the screen information denoted by reference numeral 2201 and defines the item name (for example, the label name as the item name and the Label class as the item name) Screen recognition information indicated by reference numeral 2202 is obtained. As a result, the search system can perform advanced searches using item names such as “collect and extract information related to the outbound route”.

さらに、上記の画面認識装置100による画面認識技術を用いることで、アプリケーションの画面上のオブジェクトの相対位置による問い合わせ検索もできる。   Further, by using the screen recognition technology by the screen recognition apparatus 100 described above, an inquiry search based on the relative position of the object on the screen of the application can be performed.

例えば、図23の(1)に示すように、アプリケーションの画面上における、「決裁状況」の3つ右の画像が比較元の画像(アイコン)と同じかをチェックするというクエリ(問い合わせ)を受け付けた場合において、アプリケーションの画面上における、「決裁状況」の3つ右の画像が比較元の画像(アイコン)と同じか否かの結果を返すことができる。   For example, as shown in (1) of FIG. 23, a query (inquiry) for checking whether the image on the right of “decision status” on the application screen is the same as the image (icon) of the comparison source is accepted. In this case, it is possible to return a result as to whether or not the image on the right of the “decision status” on the screen of the application is the same as the comparison source image (icon).

さらに、例えば、図23の(2)に示すように、アプリケーションの画面上における、「備品番号」の下にある画像群の中で「95-600727」を検索するクエリ(問い合わせ)を受け付けた場合において、アプリケーションの画面上における、「備品番号」の下にある画像群の中で「95-600727」の検索結果を返すことができる。   Further, for example, as shown in (2) of FIG. 23, when a query (inquiry) for searching for “95-600727” in the image group under “equipment number” on the application screen is received. The search result “95-600727” in the image group under the “equipment number” on the application screen can be returned.

また、上記の画面認識装置100による画面認識技術を既存の画像マッチング技術と組み合わせることで、特定し終わった各々の画像要素に対して、さらに相対位置情報を利用して絞り込んだマッチングを行い、より条件に合った正しい要素を選択する等、高精度なマッチングを実現することもできる。   In addition, by combining the screen recognition technology by the screen recognition device 100 with an existing image matching technology, each image element that has been identified is further matched using the relative position information, and more It is also possible to achieve highly accurate matching, such as selecting the correct element that meets the conditions.

(プログラム)
また、上記の実施形態で述べた画面認識装置100は、画面認識装置100の機能を実現する画面認識プログラムを所望の情報処理装置(コンピュータ)にインストールすることによって実装できる。例えば、パッケージソフトウェアやオンラインソフトウェアとして提供される上記の画面認識プログラムを情報処理装置に実行させることにより、情報処理装置を画面認識装置100として機能させることができる。ここで言う情報処理装置には、デスクトップ型またはノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistants)等がその範疇に含まれる。また、画面認識装置100を、クラウドサーバに実装してもよい。
(program)
The screen recognition apparatus 100 described in the above embodiment can be implemented by installing a screen recognition program for realizing the functions of the screen recognition apparatus 100 in a desired information processing apparatus (computer). For example, the information processing apparatus can function as the screen recognition apparatus 100 by causing the information processing apparatus to execute the screen recognition program provided as package software or online software. The information processing apparatus referred to here includes a desktop or notebook personal computer. In addition, the information processing apparatus includes mobile communication terminals such as smartphones, mobile phones and PHS (Personal Handyphone System), PDA (Personal Digital Assistants), and the like. Further, the screen recognition device 100 may be mounted on a cloud server.

以下に、上記の画面認識プログラムを実行するコンピュータの一例を説明する。図24は、画面認識プログラムを実行するコンピュータを示す図である。図24に示すように、コンピュータ1000は、例えば、メモリ1010と、CPU(Central Processing Unit)1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。   An example of a computer that executes the above screen recognition program will be described below. FIG. 24 is a diagram illustrating a computer that executes a screen recognition program. As shown in FIG. 24, the computer 1000 includes, for example, a memory 1010, a CPU (Central Processing Unit) 1020, a hard disk drive interface 1030, a disk drive interface 1040, a serial port interface 1050, a video adapter 1060, and a network. Interface 1070. These units are connected by a bus 1080.

メモリ1010は、ROM(Read Only Memory)1011およびRAM(Random Access Memory)1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。ディスクドライブ1100には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1110およびキーボード1120が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1130が接続される。   The memory 1010 includes a ROM (Read Only Memory) 1011 and a RAM (Random Access Memory) 1012. The ROM 1011 stores a boot program such as BIOS (Basic Input Output System). The hard disk drive interface 1030 is connected to the hard disk drive 1090. The disk drive interface 1040 is connected to the disk drive 1100. For example, a removable storage medium such as a magnetic disk or an optical disk is inserted into the disk drive 1100. For example, a mouse 1110 and a keyboard 1120 are connected to the serial port interface 1050. For example, a display 1130 is connected to the video adapter 1060.

ここで、図24に示すように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。前記した実施形態で説明した各種データや情報は、例えばハードディスクドライブ1090やメモリ1010に記憶される。   Here, as shown in FIG. 24, the hard disk drive 1090 stores, for example, an OS 1091, an application program 1092, a program module 1093, and program data 1094. Various data and information described in the above embodiment are stored in, for example, the hard disk drive 1090 or the memory 1010.

そして、CPU1020が、ハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。   Then, the CPU 1020 reads out the program module 1093 and the program data 1094 stored in the hard disk drive 1090 to the RAM 1012 as necessary, and executes the above-described procedures.

なお、プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、プログラムに係るプログラムモジュール1093やプログラムデータ1094は、LAN(Local Area Network)やWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。   The program module 1093 and the program data 1094 related to the program are not limited to being stored in the hard disk drive 1090. For example, the program module 1093 and the program data 1094 are stored in a removable storage medium and read by the CPU 1020 via the disk drive 1100 or the like. May be. Alternatively, the program module 1093 and the program data 1094 related to the program are stored in another computer connected via a network such as a LAN (Local Area Network) or a WAN (Wide Area Network), and the CPU 1020 via the network interface 1070. May be read.

100 画面認識装置
111 オブジェクト情報取得部
112 相対位置情報取得部
113 グリッド行生成部
114 グリッド配置部
121 オブジェクト情報保持部
122 相対位置情報保持部
123 グリッド行保持部
DESCRIPTION OF SYMBOLS 100 Screen recognition apparatus 111 Object information acquisition part 112 Relative position information acquisition part 113 Grid row production | generation part 114 Grid arrangement | positioning part 121 Object information holding part 122 Relative position information holding part 123 Grid line holding part

Claims (9)

画面上に表示されるオブジェクト間の相対関係を認識する画面認識装置であって、
前記画面の画面情報から、前記画面上に表示される各オブジェクトの絶対座標情報を取得するオブジェクト情報取得部と、
前記各オブジェクトの絶対座標情報に基づき、前記画面上の任意の2つのオブジェクト間の相対位置を相対位置情報として記録する相対位置情報取得部と、
前記相対位置情報に基づき、画面上のオブジェクト同士を左右の相対位置に従い配置した1以上のグリッド行からなるグリッド行群を生成するグリッド行生成部と、
前記グリッド行生成部により生成されたグリッド行群を、前記相対位置情報に基づき、前記グリッド行群を構成するグリッド行それぞれについて、前記グリッド行に含まれるオブジェクト同士の上下の相対位置に従い配置したグリッド行列を生成し、出力するグリッド配置部と、
を備えることを特徴とする画面認識装置。
A screen recognition device for recognizing a relative relationship between objects displayed on a screen,
From the screen information of the screen, an object information acquisition unit that acquires absolute coordinate information of each object displayed on the screen;
Based on the absolute coordinate information of each object, a relative position information acquisition unit that records the relative position between any two objects on the screen as relative position information;
A grid row generation unit that generates a grid row group including one or more grid rows in which the objects on the screen are arranged according to the left and right relative positions based on the relative position information;
A grid in which the grid row group generated by the grid row generation unit is arranged according to the upper and lower relative positions of objects included in the grid row for each grid row constituting the grid row group based on the relative position information. A grid layout unit for generating and outputting a matrix;
A screen recognition apparatus comprising:
画面上に表示されるオブジェクト間の相対関係を認識する画面認識装置であって、  A screen recognition device for recognizing a relative relationship between objects displayed on a screen,
前記画面の画面情報から、前記画面上に表示される各オブジェクトの絶対座標情報を取得するオブジェクト情報取得部と、  From the screen information of the screen, an object information acquisition unit that acquires absolute coordinate information of each object displayed on the screen;
前記各オブジェクトの絶対座標情報に基づき、前記画面上の任意の2つのオブジェクト間の相対位置を相対位置情報として記録する相対位置情報取得部と、  Based on the absolute coordinate information of each object, a relative position information acquisition unit that records the relative position between any two objects on the screen as relative position information;
前記相対位置情報に基づき、画面上の最左上のオブジェクトを起点に左から右へオブジェトを配置した1以上のグリッド行からなるグリッド行群を生成するグリッド行生成部と、  Based on the relative position information, a grid row generation unit that generates a grid row group including one or more grid rows in which objects are arranged from left to right starting from an object at the upper left of the screen;
前記グリッド行生成部により生成されたグリッド行群を、前記相対位置情報に基づき、前記グリッド行群を構成するグリッド行それぞれについて、前記グリッド行に含まれるオブジェクト同士の上下の相対位置に従い配置したグリッド行列を生成し、出力するグリッド配置部と、  A grid in which the grid row group generated by the grid row generation unit is arranged according to the upper and lower relative positions of objects included in the grid row for each grid row constituting the grid row group based on the relative position information. A grid layout unit for generating and outputting a matrix;
を備えることを特徴とする画面認識装置。  A screen recognition apparatus comprising:
前記グリッド行生成部は、
前記相対位置情報に基づき、画面上の最左上のオブジェクトを起点に相対的に縦方向に同位であるオブジェクト群を左から右へ配置してグリッド行を生成する処理を、前記グリッド行の下のオブジェクトがなくなるまで順次実行することで前記グリッド行群を生成することを特徴とする請求項1または2に記載の画面認識装置。
The grid row generation unit
Based on the relative position information, a process of generating a grid row by arranging a group of objects that are peers relative to each other in the vertical direction relative to the upper left object on the screen from the left to the right. screen recognition apparatus according to claim 1 or 2, characterized in that to generate the grid line group by sequentially executed until the object disappears.
前記グリッド配置部は、
前記グリッド行生成部により生成されたグリッド行群を、前記相対位置情報に基づき、前記グリッド行に含まれるオブジェクト同士の上下の相対位置に従い配置する際、前記グリッド行に含まれるオブジェクトのうち相対的に横方向に同位のオブジェクトで前記上下の相対位置を保つように配置することを特徴とする請求項1または2に記載の画面認識装置。
The grid placement unit is
When the grid row group generated by the grid row generation unit is arranged according to the relative vertical position of the objects included in the grid row based on the relative position information, the relative among the objects included in the grid row screen recognition apparatus according to claim 1 or 2 laterally object isotopically characterized in that arranged to keep the relative position of the upper and lower.
前記グリッド配置部は、
前記グリッド行生成部により生成されたグリッド行群では、前記グリッド行に含まれるオブジェクト同士が上下の相対位置を保つように配置できない場合、前記グリッド行に含まれるオブジェクトの一部を増加させた上で配置することを特徴とする請求項1または2に記載の画面認識装置。
The grid placement unit is
In the grid row group generated by the grid row generation unit, when the objects included in the grid row cannot be arranged so as to keep the relative positions of the top and bottom, a part of the objects included in the grid row is increased. in screen recognition apparatus according to claim 1 or 2, characterized in that disposed.
画面上に表示されるオブジェクト間の相対関係を認識する画面認識装置が、
前記画面の画面情報から、前記画面上に表示される各オブジェクトの絶対座標情報を取得するオブジェクト情報取得ステップと、
前記各オブジェクトの絶対座標情報に基づき、前記画面上の任意の2つのオブジェクト間の相対位置を相対位置情報として記録する相対位置情報取得ステップと、
前記相対位置情報に基づき、画面上のオブジェクト同士を左右の相対位置に従い配置した1以上のグリッド行からなるグリッド行群を生成するグリッド行生成ステップと、
前記グリッド行生成ステップにより生成されたグリッド行群を、前記相対位置情報に基づき、前記グリッド行群を構成するグリッド行それぞれについて、前記グリッド行に含まれるオブジェクト同士の上下の相対位置に従い配置したグリッド行列を生成し、出力するグリッド配置ステップと、
を含んだことを特徴とする画面認識方法。
A screen recognition device that recognizes the relative relationship between objects displayed on the screen,
From the screen information of the screen, an object information acquisition step of acquiring absolute coordinate information of each object displayed on the screen;
A relative position information acquisition step for recording a relative position between any two objects on the screen as relative position information based on the absolute coordinate information of each object;
A grid row generation step for generating a grid row group including one or more grid rows in which objects on the screen are arranged according to the left and right relative positions based on the relative position information;
A grid in which the grid row group generated by the grid row generation step is arranged according to the upper and lower relative positions of objects included in the grid row for each grid row constituting the grid row group based on the relative position information. A grid placement step for generating and outputting a matrix;
The screen recognition method characterized by including.
画面上に表示されるオブジェクト間の相対関係を認識する画面認識装置が、  A screen recognition device that recognizes the relative relationship between objects displayed on the screen,
前記画面の画面情報から、前記画面上に表示される各オブジェクトの絶対座標情報を取得するオブジェクト情報取得ステップと、  From the screen information of the screen, an object information acquisition step of acquiring absolute coordinate information of each object displayed on the screen;
前記各オブジェクトの絶対座標情報に基づき、前記画面上の任意の2つのオブジェクト間の相対位置を相対位置情報として記録する相対位置情報取得ステップと、  A relative position information acquisition step for recording a relative position between any two objects on the screen as relative position information based on the absolute coordinate information of each object;
前記相対位置情報に基づき、画面上の最左上のオブジェクトを起点に左から右へオブジェクトを配置した1以上のグリッド行からなるグリッド行群を生成するグリッド行生成ステップと、  A grid row generation step for generating a grid row group including one or more grid rows in which an object is arranged from left to right starting from the leftmost object on the screen based on the relative position information;
前記グリッド行生成ステップにより生成されたグリッド行群を、前記相対位置情報に基づき、前記グリッド行群を構成するグリッド行それぞれについて、前記グリッド行に含まれるオブジェクト同士の上下の相対位置に従い配置したグリッド行列を生成し、出力するグリッド配置ステップと、  A grid in which the grid row group generated by the grid row generation step is arranged according to the relative vertical position of objects included in the grid row for each grid row constituting the grid row group based on the relative position information. A grid placement step for generating and outputting a matrix;
を含んだことを特徴とする画面認識方法。  The screen recognition method characterized by including.
画面上に表示されるオブジェクト間の相対関係を認識するための画面認識プログラムであって、
前記画面の画面情報から、前記画面上に表示される各オブジェクトの絶対座標情報を取得するオブジェクト情報取得ステップと、
前記各オブジェクトの絶対座標情報に基づき、前記画面上の任意の2つのオブジェクト間の相対位置を相対位置情報として記録する相対位置情報取得ステップと、
前記相対位置情報に基づき、画面上のオブジェクト同士を左右の相対位置に従い配置した1以上のグリッド行からなるグリッド行群を生成するグリッド行生成ステップと、
前記グリッド行生成ステップにより生成されたグリッド行群を、前記相対位置情報に基づき、前記グリッド行群を構成するグリッド行それぞれについて、前記グリッド行に含まれるオブジェクト同士の上下の相対位置に従い配置したグリッド行列を生成し、出力するグリッド配置ステップと、
をコンピュータに実行させることを特徴とする画面認識プログラム。
A screen recognition program for recognizing a relative relationship between objects displayed on a screen,
From the screen information of the screen, an object information acquisition step of acquiring absolute coordinate information of each object displayed on the screen;
A relative position information acquisition step for recording a relative position between any two objects on the screen as relative position information based on the absolute coordinate information of each object;
A grid row generation step for generating a grid row group including one or more grid rows in which objects on the screen are arranged according to the left and right relative positions based on the relative position information;
A grid in which the grid row group generated by the grid row generation step is arranged according to the upper and lower relative positions of objects included in the grid row for each grid row constituting the grid row group based on the relative position information. A grid placement step for generating and outputting a matrix;
A screen recognition program for causing a computer to execute.
画面上に表示されるオブジェクト間の相対関係を認識するための画面認識プログラムであって、  A screen recognition program for recognizing a relative relationship between objects displayed on a screen,
前記画面の画面情報から、前記画面上に表示される各オブジェクトの絶対座標情報を取得するオブジェクト情報取得ステップと、  From the screen information of the screen, an object information acquisition step of acquiring absolute coordinate information of each object displayed on the screen;
前記各オブジェクトの絶対座標情報に基づき、前記画面上の任意の2つのオブジェクト間の相対位置を相対位置情報として記録する相対位置情報取得ステップと、  A relative position information acquisition step for recording a relative position between any two objects on the screen as relative position information based on the absolute coordinate information of each object;
前記相対位置情報に基づき、画面上の最左上のオブジェクトを起点に左から右へオブジェクトを配置した1以上のグリッド行からなるグリッド行群を生成するグリッド行生成ステップと、  A grid row generation step for generating a grid row group including one or more grid rows in which an object is arranged from left to right starting from the leftmost object on the screen based on the relative position information;
前記グリッド行生成ステップにより生成されたグリッド行群を、前記相対位置情報に基づき、前記グリッド行群を構成するグリッド行それぞれについて、前記グリッド行に含まれるオブジェクト同士の上下の相対位置に従い配置したグリッド行列を生成し、出力するグリッド配置ステップと、  A grid in which the grid row group generated by the grid row generation step is arranged according to the relative vertical position of objects included in the grid row for each grid row constituting the grid row group based on the relative position information. A grid placement step for generating and outputting a matrix;
をコンピュータに実行させることを特徴とする画面認識プログラム。  A screen recognition program for causing a computer to execute.
JP2016220577A 2016-11-11 2016-11-11 Screen recognition device, screen recognition method, and screen recognition program Active JP6603194B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016220577A JP6603194B2 (en) 2016-11-11 2016-11-11 Screen recognition device, screen recognition method, and screen recognition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016220577A JP6603194B2 (en) 2016-11-11 2016-11-11 Screen recognition device, screen recognition method, and screen recognition program

Publications (2)

Publication Number Publication Date
JP2018077762A JP2018077762A (en) 2018-05-17
JP6603194B2 true JP6603194B2 (en) 2019-11-06

Family

ID=62150902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016220577A Active JP6603194B2 (en) 2016-11-11 2016-11-11 Screen recognition device, screen recognition method, and screen recognition program

Country Status (1)

Country Link
JP (1) JP6603194B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11507216B2 (en) 2016-12-23 2022-11-22 Realwear, Inc. Customizing user interfaces of binary applications
JP7395513B2 (en) * 2018-06-13 2023-12-11 リアルウェア,インコーポレーテッド Customizing the user interface of binary applications
KR101929201B1 (en) * 2018-06-18 2018-12-14 (주)투비소프트 Method and apparatus for structuring component that supports n-screen using single code in business application

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000276496A (en) * 1999-03-25 2000-10-06 Amada Metrecs Co Ltd Method for calculating relative position of graphics and storage medium for storing program of this method
JP2008225683A (en) * 2007-03-09 2008-09-25 Toshiba Corp Screen operation system and program
JP2008269557A (en) * 2007-03-26 2008-11-06 Seiko Epson Corp Image search device and image search method
JP2008261946A (en) * 2007-04-10 2008-10-30 Sharp Corp Display control device and method
JP5617222B2 (en) * 2009-11-19 2014-11-05 富士通株式会社 Display control program, display control method, and information processing apparatus

Also Published As

Publication number Publication date
JP2018077762A (en) 2018-05-17

Similar Documents

Publication Publication Date Title
TWI423057B (en) Layout versus schematic error system and method
CN112035667A (en) Knowledge graph display method and device and terminal equipment
US7315990B2 (en) Method and system for creating, viewing, editing, and sharing output from a design checking system
JP5665125B2 (en) Image processing method and image processing system
JP2008046812A (en) Table data processing method and device
JP6603194B2 (en) Screen recognition device, screen recognition method, and screen recognition program
CN112965645B (en) Page dragging method and device, computer equipment and storage medium
CN101373481A (en) Image search apparatus, image search method, storage medium storing a program
US9304981B1 (en) System and method for providing an inter-application overlay to communicate information between users and tools in the EDA design flow
CN111666101A (en) Software homologous analysis method and device
US20160364908A1 (en) Analysis Model Creation Assistance System, Analysis Model Creation Assistance Device and Analysis Model Creation Assistance Program
JP2020140450A (en) Structured data generation method and structured data generation device
JP5829330B2 (en) Method and apparatus for identifying fonts
CN111602129B (en) Smart search for notes and ink
JP6662755B2 (en) Object search device, object search method, and object search program
JP5933045B2 (en) CAD data processing apparatus and processing method
JP2018055256A (en) Information processing apparatus, information processing method, and program
JP2009169533A (en) Image arrangement data generation device and image arrangement data generation method
WO2016170690A1 (en) Input control program, input control device, input control method, character correction program, character correction device, and character correction method
JP2010250569A (en) Image retrieval device
JP7358838B2 (en) Information processing device and information processing program
CN111078671A (en) Method, device, equipment and medium for modifying data table field
CN104252492A (en) Method for searching data and electronic device thereof
KR102466706B1 (en) Electronic device that enables easy selection of dependent edit action in document editing programs and operating method thereof
JP2018128850A (en) Information processing program, information processing method, and information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191010

R150 Certificate of patent or registration of utility model

Ref document number: 6603194

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150