JP2015076041A - Erroneous input detection device and erroneous input detection program - Google Patents

Erroneous input detection device and erroneous input detection program Download PDF

Info

Publication number
JP2015076041A
JP2015076041A JP2013213711A JP2013213711A JP2015076041A JP 2015076041 A JP2015076041 A JP 2015076041A JP 2013213711 A JP2013213711 A JP 2013213711A JP 2013213711 A JP2013213711 A JP 2013213711A JP 2015076041 A JP2015076041 A JP 2015076041A
Authority
JP
Japan
Prior art keywords
automatic operation
change
character string
image
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013213711A
Other languages
Japanese (ja)
Other versions
JP5878505B2 (en
Inventor
貴広 豊田
Takahiro Toyoda
貴広 豊田
井上 晃
Akira Inoue
晃 井上
健太郎 堀田
Kentaro Hotta
健太郎 堀田
史拓 横瀬
Fumihiro Yokose
史拓 横瀬
洋之 足立
Hiroyuki Adachi
洋之 足立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2013213711A priority Critical patent/JP5878505B2/en
Publication of JP2015076041A publication Critical patent/JP2015076041A/en
Application granted granted Critical
Publication of JP5878505B2 publication Critical patent/JP5878505B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Debugging And Monitoring (AREA)

Abstract

PROBLEM TO BE SOLVED: To suppress risk of an erroneous input and to reduce time and effort required for confirmation work.SOLUTION: An erroneous input detection device and an erroneous input detection program which confirm whether an automatic operation device 91 has adequately performed automatic operation on an object 92 to be automated, includes: a result confirmation part 13 for detecting change on the object 92 to be automated before and after the automatic operation on the object 92 to be automated performed by the automatic operation device 91 and for determining whether the automatic operation has been adequately performed based on the detected change.

Description

本発明は、コンピュータ等の画面上に表示されるインターフェースに対するユーザ操作を自動化するシステムにおいて、ユーザ操作手順をコンピュータが自動化できる形式で記録する誤入力検出装置および誤入力検出プログラムに関する。   The present invention relates to an erroneous input detection apparatus and an erroneous input detection program for recording a user operation procedure in a format that can be automated by a computer in a system that automates a user operation on an interface displayed on a screen of a computer or the like.

自動化ソフトにより、人間の代わりに自動でGUIに文字列を入力させることができる。人間のようにキーボードの打ち間違いによる誤投入は発生しないが、対象システムを構成する端末、ネットワーク、サーバ等のいずれか、またはすべてにおいて高負荷や不具合により、入力した文字の欠落や、意図しない文字の置き換え(いわゆる文字化け)が発生する可能性がある。また、ボタン等のマウスクリックで作動するGUI部品に対する自動操作においても、環境あるいはタイミングによって、意図したとおりにクリックが認識されない可能性がある。   The automation software can automatically input a character string to the GUI instead of a human. Like humans, there is no mistaken keyboard input, but there is a lack of input characters or unintended characters due to high load or malfunction in any or all of the terminals, networks, servers, etc. that make up the target system. May be replaced (so-called garbled characters). In addition, even in an automatic operation for a GUI component that is operated by a mouse click such as a button, the click may not be recognized as intended depending on the environment or timing.

一般に、自動化ソフトによる自動実行、人間による操作のいずれかによらず、対象システム側の高負荷や不具合のために、入力した文字の欠落や、文字化けが発生する可能性がある。特に、テキストの送信やキーボードやマウスの動きをエミュレートする低レベルでの自動化では、影響を受けやすい。   In general, there is a possibility that input characters may be lost or garbled due to high load or malfunction on the target system regardless of either automatic execution by automation software or human operation. In particular, low-level automation that emulates text transmission and keyboard and mouse movements is susceptible.

人間が入力している場合には、文字を入力しながら目視で意図したとおりに入力されないことを認識し、適宜入力の修正を行うことができる。一方、自動化ソフトによる自動実行の場合には、意図したとおりに入力できたかをその場で確認することができないため、誤った内容がシステムに登録されてしまう危険性がある。   When a human is inputting, it is recognized that a character is not input as intended while visually inputting characters, and the input can be appropriately corrected. On the other hand, in the case of automatic execution by automation software, it is not possible to confirm on the spot whether or not the input has been made as intended, and there is a risk that incorrect contents are registered in the system.

自動実行による登録後に、人間による目視での確認を行う運用を行うことで誤りの検出が可能なケースもあるが、非効率である。また、システムの高負荷が原因と想定される場合には、文字を入力する速度を遅く調整することで問題の発生を抑える方法もあるが、処理速度が遅くなることで一定時間に処理できる量が減ってしまい、非効率である。   Although there are cases where errors can be detected by performing an operation of performing visual confirmation by humans after registration by automatic execution, it is inefficient. In addition, if it is assumed that the system is under heavy load, there is a method to suppress the occurrence of the problem by adjusting the character input speed to a slower speed. Is reduced and inefficient.

自動操作後の内部状態を取得することが可能な場合には、期待される状態と、結果の状態を比較することで、誤入力を検出することはできるが、内部状態を取得できない場合(許可されていない場合)には、この方法は適用できない。その場合、目視確認できないことで問題を見逃したり、問題の発見が遅れることになる。   When it is possible to acquire the internal state after automatic operation, it is possible to detect an erroneous input by comparing the expected state and the resulting state, but the internal state cannot be acquired (permitted If not, this method is not applicable. In that case, it is impossible to visually confirm the problem, and the problem is overlooked or the discovery of the problem is delayed.

「UWSC(Free版)」http://www.uwsc.info/“UWSC (Free version)” http: // www. uwsc. info / 「RocketMouse Pro」http://mojosoft.biz/products/rocketmousepro/“RocketMouse Pro” http: // mojosoft. biz / products / rocketmousepro /

本発明は、誤入力の危険性を抑制し、確認作業に要する時間と手間を削減することを目的とする。   An object of the present invention is to reduce the risk of erroneous input and reduce the time and labor required for confirmation work.

上記目的を達成するために、本願発明は、人間が自然に行っている目視しながら入力するという動作を、自動化ソフトでのGUIボタンクリックや文字列の入力等においても行うことを特徴とする。   In order to achieve the above object, the present invention is characterized in that a human-natural input operation that is performed while visually observing is performed even when a GUI button is clicked or a character string is input by automation software.

具体的には、本発明に係る誤入力検出装置は、
自動操作装置が行った自動化対象に対する自動操作の前後における前記自動化対象の変化を検出する変化検出部と、
前記変化検出部の検出した変化に基づいて、自動操作が適切に行われたか否かを判定する判定部と、
を備える。
Specifically, the erroneous input detection device according to the present invention is:
A change detection unit for detecting a change in the automation target before and after an automatic operation on the automation target performed by the automatic operation device;
A determination unit that determines whether or not an automatic operation has been appropriately performed based on the change detected by the change detection unit;
Is provided.

本発明に係る誤入力検出装置では、
前記変化検出部は、前記自動化対象の画面表示のうちの自動操作を行う操作部分を画像化し、自動操作の前後における画像の変化を検出し、
前記判定部は、自動操作の前後における画像の変化が自動操作によって定められる差異を有する場合に自動操作が適切に行われたと判定し、自動操作の前後における画像の変化が自動操作によって定められる差異と異なる場合に自動操作が適切に行われなかったと判定してもよい。
In the erroneous input detection device according to the present invention,
The change detection unit images an operation part that performs an automatic operation in the screen display of the automation target, detects a change in the image before and after the automatic operation,
The determination unit determines that the automatic operation has been appropriately performed when the change in the image before and after the automatic operation has a difference determined by the automatic operation, and the difference in which the change in the image before and after the automatic operation is determined by the automatic operation It may be determined that the automatic operation has not been appropriately performed when the difference is different.

本発明に係る誤入力検出装置では、
前記変化検出部は、自動操作の前後における前記自動化対象に入力された文字列の変化を検出し、
前記判定部は、前記変化検出部の検出した文字列の変化が前記自動操作装置の入力した文字列と一致する場合に自動操作が適切に行われたと判定し、前記変化検出部の検出した文字列の変化が前記自動操作装置の入力した文字列と不一致である場合に自動操作が適切に行われなかったと判定してもよい。
In the erroneous input detection device according to the present invention,
The change detection unit detects a change in a character string input to the automation target before and after an automatic operation,
The determination unit determines that the automatic operation is appropriately performed when the change in the character string detected by the change detection unit matches the character string input by the automatic operation device, and the character detected by the change detection unit. It may be determined that the automatic operation has not been appropriately performed when the change in the sequence does not match the character string input by the automatic operation device.

本発明に係る誤入力検出装置では、
前記変化検出部は、前記自動化対象の画面表示のうちの自動操作によって入力された文字列を画像化するとともに、前記自動操作装置の入力した文字列を画像化し、
前記判定部は、前記変化検出部の画像化した文字列の画像が一致する場合に自動操作が適切に行われたと判定し、前記変化検出部の画像化した文字列の画像が不一致である場合に自動操作が適切に行われなかったと判定してもよい。
In the erroneous input detection device according to the present invention,
The change detection unit images the character string input by the automatic operation in the screen display to be automated, and also images the character string input by the automatic operation device,
The determination unit determines that the automatic operation is appropriately performed when the image of the character string imaged by the change detection unit matches, and the image of the character string imaged by the change detection unit does not match It may be determined that the automatic operation has not been properly performed.

具体的には、本発明に係る誤入力検出プログラムは、
自動操作装置が行った自動化対象に対する自動操作の前後における前記自動化対象の変化を検出する変化検出ステップと、
前記変化検出ステップで検出した変化に基づいて、自動操作が適切に行われたか否かを判定する判定ステップと、
をコンピュータに実行させるための誤入力検出プログラムである。
Specifically, the erroneous input detection program according to the present invention is:
A change detecting step for detecting a change in the automation target before and after an automatic operation on the automation target performed by the automatic operation device;
A determination step of determining whether or not automatic operation has been appropriately performed based on the change detected in the change detection step;
Is an erroneous input detection program for causing a computer to execute.

本発明に係る誤入力検出プログラムでは、
前記変化検出ステップにおいて、前記自動化対象の画面表示のうちの自動操作を行う操作部分を画像化し、自動操作の前後における画像の変化を検出し、
前記判定ステップにおいて、自動操作の前後における画像の変化が自動操作によって定められる差異を有する場合に自動操作が適切に行われたと判定し、自動操作の前後における画像の変化が自動操作によって定められる差異と異なる場合に自動操作が適切に行われなかったと判定してもよい。
In the erroneous input detection program according to the present invention,
In the change detection step, an operation part for performing an automatic operation in the screen display of the automation target is imaged, and a change in the image before and after the automatic operation is detected,
In the determination step, when the change in the image before and after the automatic operation has a difference determined by the automatic operation, it is determined that the automatic operation has been appropriately performed, and the difference in the image change before and after the automatic operation is determined by the automatic operation It may be determined that the automatic operation has not been appropriately performed when the difference is different.

本発明に係る誤入力検出プログラムでは、
前記変化検出ステップにおいて、自動操作の前後における前記自動化対象に入力された文字列の変化を検出し、
前記判定ステップにおいて、前記変化検出ステップで検出した文字列の変化が前記自動操作装置の入力した文字列と一致する場合に自動操作が適切に行われたと判定し、前記変化検出ステップで検出した文字列の変化が前記自動操作装置の入力した文字列と不一致である場合に自動操作が適切に行われなかったと判定してもよい。
In the erroneous input detection program according to the present invention,
In the change detection step, the change of the character string input to the automation target before and after the automatic operation is detected,
In the determination step, it is determined that the automatic operation has been appropriately performed when the change in the character string detected in the change detection step matches the character string input by the automatic operation device, and the character detected in the change detection step It may be determined that the automatic operation has not been appropriately performed when the change in the sequence does not match the character string input by the automatic operation device.

本発明に係る誤入力検出プログラムでは、
前記変化検出ステップにおいて、前記自動化対象の画面表示のうちの自動操作によって入力された文字列を画像化するとともに、前記自動操作装置の入力した文字列を画像化し、
前記判定ステップにおいて、前記変化検出ステップで画像化した文字列の画像が一致する場合に自動操作が適切に行われたと判定し、前記変化検出ステップで画像化した文字列の画像が不一致である場合に自動操作が適切に行われなかったと判定してもよい。
In the erroneous input detection program according to the present invention,
In the change detection step, the character string input by the automatic operation of the screen display to be automated is imaged, and the character string input by the automatic operation device is imaged,
In the determination step, when the character string image imaged in the change detection step matches, it is determined that the automatic operation has been appropriately performed, and the character string image imaged in the change detection step does not match It may be determined that the automatic operation has not been properly performed.

本発明によれば、誤入力の危険性を抑制し、確認作業に要する時間と手間を削減することができる。   According to the present invention, it is possible to suppress the risk of erroneous input and to reduce the time and labor required for confirmation work.

本実施形態に係る自動操作装置の構成の一例を示す。An example of a configuration of an automatic operation device according to the present embodiment is shown. 実施形態1に係る結果確認部の構成の一例を示す。3 shows an example of a configuration of a result confirmation unit according to the first embodiment. 実施形態1に係る結果確認方法のフロー図を示す。The flowchart of the result confirmation method which concerns on Embodiment 1 is shown. 実施形態1に係る画像の一例であり、(a)はマウスボタンが押し下げられる前の状態を示し、(b)はマウスボタンが押し下げられた後の状態を示し、(c)はマウスボタンが押し上げられた後の状態を示す。3 is an example of an image according to the first embodiment, where (a) shows a state before the mouse button is pressed down, (b) shows a state after the mouse button is pressed down, and (c) shows a state where the mouse button is pushed up. It shows the state after being done. 実施形態2に係る結果確認方法のフロー図を示す。The flowchart of the result confirmation method which concerns on Embodiment 2 is shown. 実施形態2に係る画像の一例であり、(a)はマウスボタンが押し下げられる前の状態を示し、(b)はマウスボタンが押し下げられた後の状態を示し、(c)はマウスボタンが押し上げられた後の状態を示す。FIG. 9 is an example of an image according to Embodiment 2, where (a) shows a state before the mouse button is pressed down, (b) shows a state after the mouse button is pressed down, and (c) shows a state where the mouse button is pushed up. It shows the state after being done. 実施形態3に係る結果確認部の構成の一例を示す。An example of the structure of the result confirmation part which concerns on Embodiment 3 is shown. 実施形態3に係る結果確認方法のフロー図を示す。The flowchart of the result confirmation method which concerns on Embodiment 3 is shown. 実施形態3に係る画像の一例であり、(a)は文字列Aを送信した時点の状態を示し、(b)は文字列Aを操作対象ウィンドウに入力した後の状態を示す。It is an example of the image which concerns on Embodiment 3, (a) shows the state at the time of transmitting the character string A, (b) shows the state after inputting the character string A into the operation target window. 実施形態4に係る結果確認部の構成の一例を示す。An example of the structure of the result confirmation part which concerns on Embodiment 4 is shown. 実施形態4に係る結果確認方法のフロー図を示す。The flowchart of the result confirmation method which concerns on Embodiment 4 is shown. 実施形態4に係る画像の一例であり、(a)は文字列Aを送信した時点の状態を示し、(b)は文字列Aを操作対象ウィンドウに入力した後の状態を示す。It is an example of the image which concerns on Embodiment 4, (a) shows the state at the time of transmitting the character string A, (b) shows the state after inputting the character string A into the operation target window. 実施形態5に係る結果確認方法のフロー図を示す。The flowchart of the result confirmation method which concerns on Embodiment 5 is shown. 実施形態5に係る画像の一例であり、(a)は文字列Aを送信した時点の状態を示し、(b)は文字列Aを操作対象ウィンドウに入力した後の状態を示す。FIG. 10 is an example of an image according to the fifth embodiment, where (a) illustrates a state at the time when a character string A is transmitted, and (b) illustrates a state after the character string A is input to an operation target window. 実施形態6に係る結果確認方法のフロー図を示す。The flowchart of the result confirmation method which concerns on Embodiment 6 is shown. 実施形態6に係る画像の一例であり、(a)は文字列aを送信した時点の状態を示し、(b)は文字列Aを操作対象ウィンドウに入力した後の状態を示す。FIG. 10 is an example of an image according to Embodiment 6, where (a) shows a state at the time when a character string a is transmitted, and (b) shows a state after the character string A is input to an operation target window.

添付の図面を参照して本発明の実施形態を説明する。以下に説明する実施形態は本発明の実施の例であり、本発明は、以下の実施形態に制限されるものではない。なお、本明細書及び図面において符号が同じ構成要素は、相互に同一のものを示すものとする。   Embodiments of the present invention will be described with reference to the accompanying drawings. The embodiments described below are examples of the present invention, and the present invention is not limited to the following embodiments. In the present specification and drawings, the same reference numerals denote the same components.

図1は本願発明の自動操作装置を示す。自動操作装置91は、自動化した動作が自動化対象92において正しく受け付けられたか否かを、画面に表示された内容に基づいて判断する。自動化対象92は、自動的に動作を行う任意の装置であり、例えば、コンピュータである。自動化対象92は、OSやアプリケーションであってもよい。判断の内容は、例えば、以下のものが例示できる。
・入力したテキストが文字として一致しているか?
・入力したテキストが画像として一致しているか?
・ボタンが押下されたか?(一旦凹んで戻ったか?)
・チェックのオン/オフが変わったか?
・画面に変化があったか?
・クリック音が鳴ったか?
FIG. 1 shows an automatic operation device of the present invention. The automatic operation device 91 determines whether or not the automated operation has been correctly received by the automation target 92 based on the content displayed on the screen. The automation target 92 is an arbitrary device that automatically operates, for example, a computer. The automation target 92 may be an OS or an application. The contents of the determination can be exemplified by the following, for example.
・ Does the entered text match as a character?
・ Does the entered text match as an image?
・ Is the button pressed? (Did you dent and return?)
・ Is the check on / off changed?
-Has the screen changed?
• Did you hear a click sound?

自動操作装置91は、操作検出部11と自動実行部12と結果確認部13を備える。操作検出部11は、自動化対象92から、ユーザが自動化対象92に対して行った操作の情報を取得して記録する。自動実行部12は、記録に従い自動化対象を自動操作する。結果確認部13は、誤入力検出装置として機能し、自動操作が自動化対象92により適切に受け付けられたことを確認する。   The automatic operation device 91 includes an operation detection unit 11, an automatic execution unit 12, and a result confirmation unit 13. The operation detection unit 11 acquires and records information on the operation performed by the user on the automation target 92 from the automation target 92. The automatic execution unit 12 automatically operates the automation target according to the recording. The result confirmation unit 13 functions as an erroneous input detection device and confirms that the automatic operation has been properly accepted by the automation target 92.

例えば、結果確認部13は、変化検出部と、判定部と、を備える。変化検出部は、自動操作装置91が行った自動化対象92に対する自動操作の前後における自動化対象92の変化を検出する。判定部は、変化検出部の検出した変化に基づいて、自動操作が適切に行われたか否かを判定する。結果確認部13は、誤入力検出プログラムをコンピュータに実行させることで変化検出ステップ及び判定ステップを実行し、変化検出部及び判定部を実現させてもよい。   For example, the result confirmation unit 13 includes a change detection unit and a determination unit. The change detection unit detects a change in the automation target 92 before and after the automatic operation on the automation target 92 performed by the automatic operation device 91. The determination unit determines whether the automatic operation has been appropriately performed based on the change detected by the change detection unit. The result confirmation unit 13 may execute the change detection step and the determination step by causing the computer to execute an erroneous input detection program, thereby realizing the change detection unit and the determination unit.

(実施形態1)
本実施形態では、自動実行部12が自動化対象92のマウスを自動でクリックする場合について説明する。結果確認部13は、自動化対象92において自動実行されたマウスクリックが正しく自動化対象92のアプリケーションに認識されたか否かを、画像の変化により判定する。
(Embodiment 1)
In the present embodiment, a case where the automatic execution unit 12 automatically clicks the mouse of the automation target 92 will be described. The result confirmation unit 13 determines whether or not the mouse click automatically executed on the automation target 92 is correctly recognized by the application of the automation target 92 based on a change in the image.

ボタン型GUIに対する左クリックの場合、ボタンダウン前、ボタンダウン後、ボタンアップ後での画像が適切に変化していることを確認する。クリック位置付近の画像がボタンダウン後に変化し、ボタンアップ後に元に戻ることを画像の比較により検出し、ボタンが押されたことを認識する。   In the case of a left click on the button-type GUI, it is confirmed that the image before the button down, after the button down, and after the button up changes appropriately. It is detected by comparing the images that the image near the click position changes after the button down and returns to the original after the button up, and the button is recognized.

図2及び図3に、本実施形態に係る結果確認部の構成図及びフロー図を示す。本実施形態に係る結果確認部13は、変化検出部として機能する画像認識部311及び画像記憶部312と、判定部として機能する画像比較部313と、を備える。   2 and 3 show a configuration diagram and a flow diagram of the result confirmation unit according to the present embodiment. The result confirmation unit 13 according to the present embodiment includes an image recognition unit 311 and an image storage unit 312 that function as a change detection unit, and an image comparison unit 313 that functions as a determination unit.

画像認識部311は、図4(a)に示す画像に含まれるマウスの画面表示の位置を認識する。マウスの画面表示は、例えば、画面表示における特定形状の矢印の表示である。位置は、例えば、画面上の座標である。画面上に複数のウィンドウが表示される場合は、自動化対象92のウィンドウ内の位置である。マウス左ボタンがダウンされると(S101)、画像認識部311は、図4(b)に示すマウスの画面表示(矢印)の周辺画像(Y)をキャプチャーし、画像記憶部312に記憶する(S102)。マウス左ボタンがアップされると(S103)、画像認識部311は、図4(c)に示すマウスの画面表示(矢印)の周辺画像(Z)をキャプチャーし、画像記憶部312に格納する(S104)。画像比較部313は、画像(Y)と画像(Z)を対比し(S105)、画像(Y)と画像(Z)が異なる場合(S105においてYes)には正しい操作がされたと判断し、画像(Y)と画像(Z)が等しい場合(S105おいてNo)は誤入力と判断する。   The image recognition unit 311 recognizes the position of the screen display of the mouse included in the image shown in FIG. The screen display of the mouse is, for example, a display of an arrow having a specific shape in the screen display. The position is, for example, coordinates on the screen. When a plurality of windows are displayed on the screen, the position is within the window of the automation target 92. When the left mouse button is down (S101), the image recognition unit 311 captures the peripheral image (Y) of the mouse screen display (arrow) shown in FIG. 4B and stores it in the image storage unit 312 (see FIG. 4B). S102). When the left mouse button is raised (S103), the image recognition unit 311 captures the peripheral image (Z) of the mouse screen display (arrow) shown in FIG. 4C and stores it in the image storage unit 312 (see FIG. 4C). S104). The image comparison unit 313 compares the image (Y) and the image (Z) (S105). If the image (Y) and the image (Z) are different (Yes in S105), the image comparison unit 313 determines that the correct operation has been performed. If (Y) and image (Z) are equal (No in S105), it is determined that there is an erroneous input.

(実施形態2)
本実施形態では、自動実行部12がラジオボタン形式、あるいはチェックボックス形式の当該GUIに対する左クリックを行う場合について説明する。この場合、結果確認部13は、ボタンダウン前、ボタンアップ後での画像が適切に変化していることを確認する。具体的には、ON/OFFの状態を表すチェックマーク、黒丸の表示/非表示の変化に注目する。
(Embodiment 2)
In the present embodiment, a case will be described in which the automatic execution unit 12 performs a left click on the GUI in the radio button format or the check box format. In this case, the result confirmation unit 13 confirms that the image before the button down and after the button up is appropriately changed. Specifically, attention is paid to a check mark indicating an ON / OFF state and a change in display / non-display of a black circle.

図2及び図5に、本実施形態に係る結果確認部の構成図及びフロー図を示す。画像認識部311は、マウスの画面表示(矢印)の位置を認識し、図6(a)に示すように、マウスの画面表示(矢印)の周辺画像(X)をキャプチャーして画像記憶部312に格納する(S201)。マウス左ボタンがクリック(ダウン後アップ)すると、画像認識部311は、マウスの画面表示(矢印)の周辺画像(Z)をキャプチャーし、画像記憶部312に格納する(S202からS204)。画像比較部313は、画像(X)と画像(Z)を対比し(S205)、画像(X)と画像(Z)が異なる場合(S205においてYes)には正しい操作がされたと判断し、画像(X)と画像(Z)が等しい場合(S205においてNo)は誤入力と判断する。   2 and 5 show a configuration diagram and a flow diagram of the result confirmation unit according to the present embodiment. The image recognition unit 311 recognizes the position of the mouse screen display (arrow), captures a peripheral image (X) of the mouse screen display (arrow), as shown in FIG. (S201). When the left mouse button is clicked (up after down), the image recognition unit 311 captures a peripheral image (Z) of the mouse screen display (arrow) and stores it in the image storage unit 312 (S202 to S204). The image comparison unit 313 compares the image (X) and the image (Z) (S205). If the image (X) and the image (Z) are different (Yes in S205), the image comparison unit 313 determines that the correct operation has been performed. If (X) and image (Z) are equal (No in S205), it is determined that there is an erroneous input.

(実施形態3)
本実施形態では、自動実行部12が自動化対象92に文字列を入力する場合について説明する。結果確認部13は、自動入力した文字列と、入力されて画面に反映された文字列を再取得したものとを比較し、一致していることを確認することで、正しく入力できたことを判定する。
(Embodiment 3)
In the present embodiment, a case where the automatic execution unit 12 inputs a character string to the automation target 92 will be described. The result confirmation unit 13 compares the automatically input character string with the re-acquired character string that has been input and reflected on the screen, and confirms that the character string has been matched. judge.

図7及び図8に、本実施形態に係る結果確認部の構成図及びフロー図を示す。本実施形態に係る結果確認部13は、変化検出部として機能する文字列取得部321及び文字列記憶部322と、判定部として機能する文字列比較部323と、を備える。   7 and 8 are a configuration diagram and a flow diagram of the result confirmation unit according to the present embodiment. The result confirmation unit 13 according to the present embodiment includes a character string acquisition unit 321 and a character string storage unit 322 that function as a change detection unit, and a character string comparison unit 323 that functions as a determination unit.

文字列取得部321は、自動実行部12が図9(a)に示す文字列(A1)を自動化対象92へ送信後に(S301)、実際に画面に表示された図9(b)に示す文字列(B1)を取得し、文字列記憶部322に格納する(S302)。文字列比較部323は、自動実行部12が保持している文字列(A1)と、文字列記憶部322が保持している文字列(B1)を比較し(S303)、等しい場合(S303においてYes)には正しい操作がされたと判断し、文字列(A1)と文字列(B1)が異なる場合(S303においてNo)は誤入力と判断する。   The character string acquisition unit 321 displays the characters shown in FIG. 9B actually displayed on the screen after the automatic execution unit 12 transmits the character string (A1) shown in FIG. 9A to the automation target 92 (S301). The column (B1) is acquired and stored in the character string storage unit 322 (S302). The character string comparison unit 323 compares the character string (A1) held by the automatic execution unit 12 with the character string (B1) held by the character string storage unit 322 (S303). If the character string (A1) and the character string (B1) are different (No in S303), it is determined that an incorrect input has been made.

(実施形態4)
本実施形態では、自動実行部12が自動化対象92に文字列を入力する。結果確認部13は、入力された文字列が表示された画面のハードコピーから当該入力項目部分を切り出した画像と、入力しようとした文字列から別途生成した画像とを比較し、一致もしくは類似性を確認することで、文字欠け、あるいは文字化けが発生していないことを判断する。
(Embodiment 4)
In the present embodiment, the automatic execution unit 12 inputs a character string to the automation target 92. The result confirmation unit 13 compares the image obtained by cutting out the input item portion from the hard copy of the screen on which the input character string is displayed with an image separately generated from the character string to be input, and matches or resembles the similarity. By confirming the above, it is determined that there are no missing characters or garbled characters.

図10及び図11に、本実施形態に係る結果確認部の構成図及びフロー図を示す。本実施形態に係る結果確認部13は、変化検出部として機能する画像認識部331、画像記憶部332及び画像生成部333と、判定部として機能する画像比較部334と、を備える。   10 and 11 show a configuration diagram and a flow diagram of the result confirmation unit according to the present embodiment. The result confirmation unit 13 according to this embodiment includes an image recognition unit 331 that functions as a change detection unit, an image storage unit 332, an image generation unit 333, and an image comparison unit 334 that functions as a determination unit.

画像認識部331は、自動実行部12が図12(a)に示す文字列(A1)を送信後に(S401)、実際に画面に表示された図12(b)に示す文字列B1を画像(B2)としてキャプチャーして(S403)、文字列(A1)及び画像(B2)を画像記憶部332に格納する。画像生成部333は、画像記憶部332が保持している文字列(A1)から画像(A2)を生成して画像記憶部332に格納する(S402)。画像比較部334は、画像(A2)と画像(B2)を比較する(S404)。画像(A2)と画像(B2)が等しい場合には(S404においてYes)正しい操作がされたと判断し、画像(A2)と画像(B2)が異なる場合(S404においてNo)は誤入力と判断する。   After the automatic execution unit 12 transmits the character string (A1) shown in FIG. 12A (S401), the image recognition unit 331 displays the character string B1 shown in FIG. B2) is captured (S403), and the character string (A1) and the image (B2) are stored in the image storage unit 332. The image generation unit 333 generates an image (A2) from the character string (A1) held by the image storage unit 332 and stores it in the image storage unit 332 (S402). The image comparison unit 334 compares the image (A2) and the image (B2) (S404). If the image (A2) and the image (B2) are equal (Yes in S404), it is determined that the correct operation has been performed, and if the image (A2) and the image (B2) are different (No in S404), it is determined that the input is incorrect. .

なお、ステップS402及びS403の順は任意である。例えば、ステップS402の後でS403を行ってもよいし、その逆でもよいし、これらを並行して行ってもよい。   Note that the order of steps S402 and S403 is arbitrary. For example, S403 may be performed after step S402, or vice versa, or these may be performed in parallel.

(実施形態5)
本実施形態では、自動実行部12が自動化対象92に長めの文字列を入力する。一連の文字列が一度に表示しきれずにはみ出してしまう場合には、結果確認部13は、一文字入力するごとに、画像での比較を行い、一致もしくは類似性を確認することで、判断する。具体的には、一文字入力前後の画像の差分により、相対位置と入力された一文字の画像を取得し、文字から別途生成した画像との一致確認を行う。
(Embodiment 5)
In the present embodiment, the automatic execution unit 12 inputs a long character string to the automation target 92. When a series of character strings are displayed without being displayed at once, the result confirmation unit 13 makes a determination by comparing images and confirming a match or similarity each time a character is input. Specifically, an image of a single character that is input relative to the relative position is acquired based on the difference between the images before and after the input of one character, and a match with an image generated separately from the character is confirmed.

図10及び図13に、本実施形態に係る構成図及びフロー図を示す。画像認識部331は、自動実行部12が図14(a)に示す文字(a1)を送信後に(S502)、実際に画面に表示された図14(b)に示す文字を画像(b2)としてキャプチャーして画像記憶部332に格納する(S504)。画像(b2)の表示位置も併せて取得して格納する(S504)。一方で、画像生成部333は、画像記憶部332が保持している文字(a1)から画像(a2)を生成して画像記憶部332に格納する(S503)。画像比較部334は、画像(a2)と画像(b2)を比較し、画像(a2)と画像(b2)が等しい場合(S505においてYes)には正しい操作がされたと判断し、画像(a2)と画像(b2)が異なる場合(S505においてNo)は誤入力と判断する。   10 and 13 are a configuration diagram and a flow diagram according to the present embodiment. After the automatic execution unit 12 transmits the character (a1) shown in FIG. 14A (S502), the image recognition unit 331 uses the character shown in FIG. 14B actually displayed on the screen as the image (b2). The image is captured and stored in the image storage unit 332 (S504). The display position of the image (b2) is also acquired and stored (S504). On the other hand, the image generation unit 333 generates an image (a2) from the character (a1) held by the image storage unit 332 and stores the image (a2) in the image storage unit 332 (S503). The image comparison unit 334 compares the image (a2) and the image (b2). If the image (a2) and the image (b2) are equal (Yes in S505), the image comparison unit 334 determines that the correct operation has been performed, and the image (a2) And the image (b2) are different (No in S505), it is determined as an erroneous input.

ステップS502〜S505を送信文字列に含まれる文字数分繰り返し行う(S501)。その際に、ステップS505において、画像b2の表示位置から、文字a1の並びが適切であることも確認し、不適切な並びだった場合には誤入力と判断する。   Steps S502 to S505 are repeated for the number of characters included in the transmission character string (S501). At that time, in step S505, it is also confirmed from the display position of the image b2 that the arrangement of the characters a1 is appropriate. If the arrangement is inappropriate, it is determined that the input is incorrect.

なお、ステップS503及びS504の順は任意である。例えば、ステップS503の後でS504を行ってもよいし、その逆でもよいし、これらを並行して行ってもよい。   Note that the order of steps S503 and S504 is arbitrary. For example, S504 may be performed after step S503, or vice versa, or these may be performed in parallel.

(実施形態6)
一連の文字列を入力する際に、1文字入力するごとに、画面に何らかの変化があることで、文字欠けがなさそうであることを簡易に判定する。正確性を犠牲にして処理負荷・処理速度の向上を狙う。
(Embodiment 6)
When inputting a series of character strings, each time one character is input, it is easily determined that there is no character missing due to some change in the screen. Aim to improve processing load and processing speed at the expense of accuracy.

図10及び図15に、本実施形態に係る構成図及びフロー図を示す。画像認識部331は、自動実行部12が文字(a1)を送信前に、図16(a)に示す対象の画面全体をキャプチャーし、画像(X)として画像記憶部332に格納する(S602)。文字(a1)送信後にも同様に、図16(b)に示す対象の画面全体をキャプチャーし、画像(Y)として画像記憶部332に格納する。画像比較部334は、画像(X)と画像(Y)を比較し(S605)、画像(X)と画像(Y)が異なる場合(S605においてYes)には正しい操作がされたと判断し、画像(X)と画像(Y)が等しい場合(S605においてNo)は誤入力と判断する。ステップS602〜S605を送信文字列に含まれる文字数分繰り返し行う(S601)。   10 and 15 show a configuration diagram and a flow diagram according to the present embodiment. The image recognition unit 331 captures the entire target screen shown in FIG. 16A before the automatic execution unit 12 transmits the character (a1), and stores it in the image storage unit 332 as an image (X) (S602). . Similarly, after the transmission of the character (a1), the entire target screen shown in FIG. 16B is captured and stored in the image storage unit 332 as an image (Y). The image comparison unit 334 compares the image (X) and the image (Y) (S605). If the image (X) and the image (Y) are different (Yes in S605), the image comparison unit 334 determines that the correct operation has been performed. When (X) and image (Y) are equal (No in S605), it is determined that there is an erroneous input. Steps S602 to S605 are repeated for the number of characters included in the transmission character string (S601).

(実施形態7)
本実施形態では、結果確認部13の動作を設定するための登録部を備える(不図示)。登録部は、任意の画面変化を、画像比較部の判定条件として登録する。これにより、その他のマウス、キーボードの自動操作が、正しく対象アプリケーションに認識されたかを判定可能とする。
(Embodiment 7)
In this embodiment, the registration part for setting operation | movement of the result confirmation part 13 is provided (not shown). The registration unit registers an arbitrary screen change as a determination condition of the image comparison unit. This makes it possible to determine whether other mouse and keyboard automatic operations have been correctly recognized by the target application.

(実施形態8)
本実施形態では、結果確認部13が確認音発生部(不図示)を備える。クリック音が有効になっている場合、自動実行部12によるボタンやリンクの押下後にクリック音を発する。確認音発生部は、このクリック音を認識し、自動実行部12によるマウス、キーボードの自動操作が、正しく自動化対象92に認識されたかを判定する。
(Embodiment 8)
In the present embodiment, the result confirmation unit 13 includes a confirmation sound generation unit (not shown). When the click sound is valid, the click sound is generated after the automatic execution unit 12 presses the button or the link. The confirmation sound generation unit recognizes this click sound and determines whether the automatic operation of the mouse and keyboard by the automatic execution unit 12 has been correctly recognized by the automation target 92.

(実施形態9)
本実施形態では、結果確認部13が、実施形態1〜実施形態8の条件のうちのいくつかを選択可能にする条件選択部(不図示)を備える。条件選択部は、選択されたすべての条件を満たすか否かを判定し、すべての条件を満たすすなわちAND条件を満たす場合に正しい操作がされたと判定する。これにより、より厳密な判定を可能とする。
(Embodiment 9)
In the present embodiment, the result confirmation unit 13 includes a condition selection unit (not shown) that enables selection of some of the conditions of the first to eighth embodiments. The condition selection unit determines whether or not all the selected conditions are satisfied, and determines that a correct operation is performed when all the conditions are satisfied, that is, when the AND condition is satisfied. Thereby, a stricter determination is possible.

(実施形態10)
本実施形態では、結果確認部13が、実施形態1〜実施形態8の条件のうちのいくつかを選択可能にする条件選択部(不図示)を備える。条件選択部は、選択されたいずれかを満たすか否かを判定し、いずれかの条件を満たすすなわちOR条件を満たす場合に正しい操作がされたと判定する。これにより、より柔軟な判定を可能とする。
(Embodiment 10)
In the present embodiment, the result confirmation unit 13 includes a condition selection unit (not shown) that enables selection of some of the conditions of the first to eighth embodiments. The condition selection unit determines whether any of the selected conditions is satisfied, and determines that a correct operation has been performed when any of the conditions is satisfied, that is, when the OR condition is satisfied. This enables more flexible determination.

以上説明したように、本発明は、結果確認部13が人に代わって自動操作の前後の変化を照合するため、自動化ソフトによる文字列の自動入力において文字欠けや文字化けを想定した余分な確認作業を排除できる。マウスやキーボード操作についても入力の取りこぼしを想定する必要がなくなる。これらの誤入力を抑制するために処理速度を遅くするような対処も必要なくなり、確認作業に要していた時間も含め、全体の所要時間を短縮できる。誤った情報がシステムに登録されてしまう危険性を抑制できる。   As described above, according to the present invention, since the result confirmation unit 13 collates changes before and after the automatic operation on behalf of a person, an extra confirmation assuming missing characters or garbled characters in automatic input of a character string by automation software. Work can be eliminated. There is no need to assume that the input of the mouse or keyboard operation is lost. In order to suppress these erroneous inputs, it is not necessary to take measures to slow down the processing speed, and the overall required time including the time required for the confirmation work can be shortened. The risk of incorrect information being registered in the system can be suppressed.

本発明は情報通信産業に適用することができる。   The present invention can be applied to the information communication industry.

11:操作検出部
12:自動実行部
13:結果確認部
91:自動操作装置
92:自動化対象
311、331:画像認識部
312、332:画像記憶部
313、334:画像比較部
321:文字列取得部
322:文字列記憶部
323:文字列比較部
11: Operation detection unit 12: Automatic execution unit 13: Result confirmation unit 91: Automatic operation device 92: Automation target 311, 331: Image recognition unit 312, 332: Image storage unit 313, 334: Image comparison unit 321: Character string acquisition Unit 322: Character string storage unit 323: Character string comparison unit

Claims (8)

自動操作装置が行った自動化対象に対する自動操作の前後における前記自動化対象の変化を検出する変化検出部と、
前記変化検出部の検出した変化に基づいて、自動操作が適切に行われたか否かを判定する判定部と、
を備える誤入力検出装置。
A change detection unit for detecting a change in the automation target before and after an automatic operation on the automation target performed by the automatic operation device;
A determination unit that determines whether or not an automatic operation has been appropriately performed based on the change detected by the change detection unit;
An erroneous input detection device comprising:
前記変化検出部は、前記自動化対象の画面表示のうちの自動操作を行う操作部分を画像化し、自動操作の前後における画像の変化を検出し、
前記判定部は、自動操作の前後における画像の変化が自動操作によって定められる差異を有する場合に自動操作が適切に行われたと判定し、自動操作の前後における画像の変化が自動操作によって定められる差異と異なる場合に自動操作が適切に行われなかったと判定する
請求項1に記載の誤入力検出装置。
The change detection unit images an operation part that performs an automatic operation in the screen display of the automation target, detects a change in the image before and after the automatic operation,
The determination unit determines that the automatic operation has been appropriately performed when the change in the image before and after the automatic operation has a difference determined by the automatic operation, and the difference in which the change in the image before and after the automatic operation is determined by the automatic operation The erroneous input detection device according to claim 1, wherein it is determined that the automatic operation has not been appropriately performed in a case where the operation is different.
前記変化検出部は、自動操作の前後における前記自動化対象に入力された文字列の変化を検出し、
前記判定部は、前記変化検出部の検出した文字列の変化が前記自動操作装置の入力した文字列と一致する場合に自動操作が適切に行われたと判定し、前記変化検出部の検出した文字列の変化が前記自動操作装置の入力した文字列と不一致である場合に自動操作が適切に行われなかったと判定する、
請求項1に記載の誤入力検出装置。
The change detection unit detects a change in a character string input to the automation target before and after an automatic operation,
The determination unit determines that the automatic operation is appropriately performed when the change in the character string detected by the change detection unit matches the character string input by the automatic operation device, and the character detected by the change detection unit. It is determined that the automatic operation has not been properly performed when the change in the column does not match the character string input by the automatic operation device.
The erroneous input detection device according to claim 1.
前記変化検出部は、前記自動化対象の画面表示のうちの自動操作によって入力された文字列を画像化するとともに、前記自動操作装置の入力した文字列を画像化し、
前記判定部は、前記変化検出部の画像化した文字列の画像が一致する場合に自動操作が適切に行われたと判定し、前記変化検出部の画像化した文字列の画像が不一致である場合に自動操作が適切に行われなかったと判定する
請求項1に記載の誤入力検出装置。
The change detection unit images the character string input by the automatic operation in the screen display to be automated, and also images the character string input by the automatic operation device,
The determination unit determines that the automatic operation is appropriately performed when the image of the character string imaged by the change detection unit matches, and the image of the character string imaged by the change detection unit does not match The erroneous input detection device according to claim 1, wherein it is determined that the automatic operation has not been appropriately performed.
自動操作装置が行った自動化対象に対する自動操作の前後における前記自動化対象の変化を検出する変化検出ステップと、
前記変化検出ステップで検出した変化に基づいて、自動操作が適切に行われたか否かを判定する判定ステップと、
をコンピュータに実行させるための誤入力検出プログラム。
A change detecting step for detecting a change in the automation target before and after an automatic operation on the automation target performed by the automatic operation device;
A determination step of determining whether or not automatic operation has been appropriately performed based on the change detected in the change detection step;
An erroneous input detection program for causing a computer to execute.
前記変化検出ステップにおいて、前記自動化対象の画面表示のうちの自動操作を行う操作部分を画像化し、自動操作の前後における画像の変化を検出し、
前記判定ステップにおいて、自動操作の前後における画像の変化が自動操作によって定められる差異を有する場合に自動操作が適切に行われたと判定し、自動操作の前後における画像の変化が自動操作によって定められる差異と異なる場合に自動操作が適切に行われなかったと判定する
請求項5に記載の誤入力検出プログラム。
In the change detection step, an operation part for performing an automatic operation in the screen display of the automation target is imaged, and a change in the image before and after the automatic operation is detected,
In the determination step, when the change in the image before and after the automatic operation has a difference determined by the automatic operation, it is determined that the automatic operation has been appropriately performed, and the difference in the image change before and after the automatic operation is determined by the automatic operation The erroneous input detection program according to claim 5, wherein it is determined that the automatic operation has not been appropriately performed when different from.
前記変化検出ステップにおいて、自動操作の前後における前記自動化対象に入力された文字列の変化を検出し、
前記判定ステップにおいて、前記変化検出ステップで検出した文字列の変化が前記自動操作装置の入力した文字列と一致する場合に自動操作が適切に行われたと判定し、前記変化検出ステップで検出した文字列の変化が前記自動操作装置の入力した文字列と不一致である場合に自動操作が適切に行われなかったと判定する、
請求項5に記載の誤入力検出プログラム。
In the change detection step, the change of the character string input to the automation target before and after the automatic operation is detected,
In the determination step, it is determined that the automatic operation has been appropriately performed when the change in the character string detected in the change detection step matches the character string input by the automatic operation device, and the character detected in the change detection step It is determined that the automatic operation has not been properly performed when the change in the column does not match the character string input by the automatic operation device.
The erroneous input detection program according to claim 5.
前記変化検出ステップにおいて、前記自動化対象の画面表示のうちの自動操作によって入力された文字列を画像化するとともに、前記自動操作装置の入力した文字列を画像化し、
前記判定ステップにおいて、前記変化検出ステップで画像化した文字列の画像が一致する場合に自動操作が適切に行われたと判定し、前記変化検出ステップで画像化した文字列の画像が不一致である場合に自動操作が適切に行われなかったと判定する
請求項5に記載の誤入力検出プログラム。
In the change detection step, the character string input by the automatic operation of the screen display to be automated is imaged, and the character string input by the automatic operation device is imaged,
In the determination step, when the character string image imaged in the change detection step matches, it is determined that the automatic operation has been appropriately performed, and the character string image imaged in the change detection step does not match The erroneous input detection program according to claim 5, wherein it is determined that the automatic operation has not been appropriately performed.
JP2013213711A 2013-10-11 2013-10-11 Error input detection device and error input detection program Active JP5878505B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013213711A JP5878505B2 (en) 2013-10-11 2013-10-11 Error input detection device and error input detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013213711A JP5878505B2 (en) 2013-10-11 2013-10-11 Error input detection device and error input detection program

Publications (2)

Publication Number Publication Date
JP2015076041A true JP2015076041A (en) 2015-04-20
JP5878505B2 JP5878505B2 (en) 2016-03-08

Family

ID=53000818

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013213711A Active JP5878505B2 (en) 2013-10-11 2013-10-11 Error input detection device and error input detection program

Country Status (1)

Country Link
JP (1) JP5878505B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020166773A (en) * 2019-03-29 2020-10-08 日本電気株式会社 Data recording device, data recording method, and program
WO2022168331A1 (en) * 2021-02-08 2022-08-11 日本電信電話株式会社 Operation log generation device and operation log generation method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004038619A (en) * 2002-07-04 2004-02-05 Hitachi Ltd Automatic response time measuring method, and device therefor
JP2009032099A (en) * 2007-07-27 2009-02-12 Toshiba Corp Scenario creation apparatus and scenario creation program
JP2010170459A (en) * 2009-01-26 2010-08-05 Renesas Electronics Corp Test system, test method, and test program
JP2012038162A (en) * 2010-08-09 2012-02-23 Ricoh Co Ltd Automatic test tool program and automatic test method
JP2012043062A (en) * 2010-08-16 2012-03-01 Maki Engineering:Kk Software automatic test system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004038619A (en) * 2002-07-04 2004-02-05 Hitachi Ltd Automatic response time measuring method, and device therefor
JP2009032099A (en) * 2007-07-27 2009-02-12 Toshiba Corp Scenario creation apparatus and scenario creation program
JP2010170459A (en) * 2009-01-26 2010-08-05 Renesas Electronics Corp Test system, test method, and test program
JP2012038162A (en) * 2010-08-09 2012-02-23 Ricoh Co Ltd Automatic test tool program and automatic test method
JP2012043062A (en) * 2010-08-16 2012-03-01 Maki Engineering:Kk Software automatic test system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020166773A (en) * 2019-03-29 2020-10-08 日本電気株式会社 Data recording device, data recording method, and program
JP7306022B2 (en) 2019-03-29 2023-07-11 日本電気株式会社 Data recording device, data recording method and program
WO2022168331A1 (en) * 2021-02-08 2022-08-11 日本電信電話株式会社 Operation log generation device and operation log generation method

Also Published As

Publication number Publication date
JP5878505B2 (en) 2016-03-08

Similar Documents

Publication Publication Date Title
AU2016286308B2 (en) Robotic process automation
US9058105B2 (en) Automated adjustment of input configuration
US9524293B2 (en) Techniques for automatically swapping languages and/or content for machine translation
US20150058766A1 (en) Information processing methods and electronic devices
US10019157B2 (en) Modifying key size on a touch screen based on fingertip location
WO2019019628A1 (en) Test method, apparatus, test device and medium for mobile application
CN104951393A (en) Testing method and device
US10126879B2 (en) Testing method of touch device and system thereof
CN103488488A (en) Text input check method, device ad mobile terminal
US10037366B2 (en) End to end validation of data transformation accuracy
KR102013657B1 (en) Apparatus for statically analyzing assembly code including assoxiated multi files
US20170132462A1 (en) Document checking support apparatus, document checking support system, and non-transitory computer readable medium
JP5878505B2 (en) Error input detection device and error input detection program
US10261608B2 (en) Cursor control method and cursor control system
US10235150B2 (en) System and methods for touch pattern detection and user interface adaptation
JP5637143B2 (en) Joint development support system, joint development support method and program
JP5266416B1 (en) Test system and test program
US20150370687A1 (en) Unit test generation
US20150089298A1 (en) Methods, systems, and computer-readable media for testing applications on a handheld device
CN113468260B (en) Data analysis method and device, electronic equipment and storage medium
US9830215B1 (en) Computing system error analysis based on system dump data
US9912796B2 (en) Apparatus and method for correcting an input number
TW201814471A (en) Touch sensitive processing apparatus, electronic system and method thereof for configuring interconnection parameters with touch panel
CN112966671A (en) Contract detection method and device, electronic equipment and storage medium
US20170344918A1 (en) Facilitating and reporting the proper completion of workflows

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160128

R150 Certificate of patent or registration of utility model

Ref document number: 5878505

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150