JP2009140268A - 後続処理の自動処理プログラム,後続処理の自動処理装置および後続処理の自動処理方法 - Google Patents

後続処理の自動処理プログラム,後続処理の自動処理装置および後続処理の自動処理方法 Download PDF

Info

Publication number
JP2009140268A
JP2009140268A JP2007316491A JP2007316491A JP2009140268A JP 2009140268 A JP2009140268 A JP 2009140268A JP 2007316491 A JP2007316491 A JP 2007316491A JP 2007316491 A JP2007316491 A JP 2007316491A JP 2009140268 A JP2009140268 A JP 2009140268A
Authority
JP
Japan
Prior art keywords
image
partial image
determination
screen
subsequent process
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007316491A
Other languages
English (en)
Other versions
JP4842917B2 (ja
Inventor
Yoshito Fukutome
吉人 福留
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2007316491A priority Critical patent/JP4842917B2/ja
Publication of JP2009140268A publication Critical patent/JP2009140268A/ja
Application granted granted Critical
Publication of JP4842917B2 publication Critical patent/JP4842917B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Debugging And Monitoring (AREA)
  • Digital Computer Display Output (AREA)

Abstract

【課題】同時に複数のアプリケーションが実行されている場合でも,アプリケーションの処理状況に対応する応答処理を自動化することが可能となる技術を提供する。
【解決手段】自動応答処理部10において,情報記憶部17は,アプリ画面位置判定画像,監視位置を示す情報,アクション判定画像,応答処理プログラム等を対応付けて記憶する。表示画像取り出し部12は,ディスプレイ30への表示画面を表示処理部20から取得する。アプリ画面位置特定部13は,表示画像からアプリ画面位置判定画像を検出する。監視位置画像取得部14は,表示画像上の監視位置を特定し,監視位置の画像を取得する。アクション判定画像比較部15は,監視位置の画像とアクション判定画像とを比較する。応答処理実行部16は,監視位置の画像に一致するアクション判定画像に対応付けられた応答処理を実行する。
【選択図】図1

Description

本発明は,コンピュータで実行されているアプリケーションの実行状態を監視する技術に関するものであり,特に,コンピュータの画面状態を監視し,画面に特定の部分画像が表示されている場合に,その部分画像に対応する応答処理を自動的に実行する後続処理の自動処理プログラム,後続処理の自動処理装置および後続処理の自動処理方法に関するものである。
コンピュータ処理には,強度解析処理やCADデータの変換処理などのような,処理に時間がかかるアプリケーション(以下,アプリとも記す)やその他のプログラムが存在する。このような処理に時間がかかるアプリケーションを実行している場合には,コマンドの入力,処理の正常終了の確認,エラー発生時の対処などのために,処理が終了するまでユーザが処理中のコンピュータの前に張り付いていなければならないこともあり,ユーザにとっては無駄な時間を過ごさなければならない場合もある。
このような状況に対処する技術として,プラント装置においてアプリケーションの動作を監視し,処理終了を通知するウィンドウを表示するなどの特定の動作を検出する技術がある。
また,アプリケーション処理中の表示画像を監視する技術が記載された先行技術文献としては,例えば特許文献1などがある。特許文献1には,オペレータが設定したディスプレイ内の所定の領域を初期画像データとして取得し,所定の時間ごとに画像データを取得し,その画像データを初期画像データとを比較し,両者が異なっていれば画像が変化した,すなわち演算が終了してメッセージが表示されたと判断して,オペレータに音や電子メール等により通知する技術が記載されている。また,特許文献1には,オペレータが設定したディスプレイ内の所定の領域の画像データを所定の時間ごとに取得し,その画像データ内にあらかじめ記憶された被検出画像データが存在すれば,その旨をオペレータに音や電子メール等により通知する技術が記載されている。
特開2004−302551号公報
上述のプラント装置においてアプリケーションの動作を監視する技術では,アプリケーションの特定の動作検出を行っているため,そのアプリケーションだけしか監視することができない。
また,上記の特許文献1に記載された技術では,複数のアプリケーションによる表示画面の所定領域の変化を検出することができないため,同時に表示される複数の処理画面ごとの所定の領域を監視し,それぞれに対応する応答処理を自動化することはできない。
本発明は,上記の問題点の解決を図り,同時に複数のアプリケーションが実行されている場合でも,それぞれの処理画面を監視することにより,アプリケーションの処理状況に対応する応答処理を自動化することが可能となる技術を提供することを目的とする。
基準部分画像と,比較すべき判定部分画像と,判定部分画像の基準部分画像からの相対位置と,所定の後続処理とを対応付けて記憶しておき,所定の間隔でキャプチャした画面から基準部分画像の位置と,この位置からの相対位置に存在する部分画像とを取得して,判定部分画像と一致する場合に対応する所定の後続処理を実行する。
具体的には,コンピュータにおいて,画面上の基準位置を特定する画像である基準部分画像と,基準部分画像の位置から判定対象となる画面上の部分画像の位置までの位置関係を示す情報である相対位置情報と,判定対象となる画面上の部分画像と比較すべき画像である判定部分画像と,所定の後続処理とを対応付けて,記憶手段に記憶しておく。
基準部分画像は,例えば,監視対象となるアプリケーションの画面への表示画像のうち,そのアプリケーションの特徴的な部分の画像である。相対位置情報は,例えば,監視対象となるアプリケーションの画像上での基準部分画像の位置から監視位置までの相対座標などである。判定部分画像は,例えば,アプリケーション画像上の監視位置に表示される可能性がある画像である。所定の後続処理は,例えば,アプリケーション画像上の監視位置に判定部分画像と一致するアプリケーション終了を示す画像が表示された場合に,その判定部分画像に対応付けられた,アプリケーション終了をユーザに通知する後続処理などである。
基準位置取得手段は,所定の間隔でキャプチャした画面から,記憶手段に記憶した基準部分画像と一致する部分の,キャプチャした画面上での位置情報を取得する。
部分画像取得手段は,基準位置取得手段で取得した位置情報から,記憶手段に基準部分画像と対応付けて記憶した相対位置情報の位置に該当する部分画像を取得する。すなわち,基準位置取得手段で取得した位置情報と基準部分画像と対応付けられた相対位置情報とから,画面上の監視位置を特定し,その監視位置の部分画像を取得する。
比較手段は,部分画像取得手段で取得した部分画像と,記憶手段に基準部分画像と対応付けて記憶した判定部分画像とが一致するかを判定する。
後続処理実行手段は,比較手段で監視位置の部分画像と判定部分画像とが一致すると判定した場合に,記憶手段に判定部分画像と対応付けて記憶した所定の後続処理を実行する。
このように,画面から基準部分画像が検出されることにより,アプリケーションの実行とそのアプリケーションの処理画像の画面上の位置とが認識され,さらに基準部分画像に対応する相対位置情報によってアプリケーションの処理画像上の監視位置が特定され,監視位置から取得された画像と一致する判定部分画像が存在する場合に,その判定部分画像に対応する後続処理を自動的に実行する。
これにより,処理に時間がかかるアプリケーションの監視のために,ユーザが拘束される必要がなくなる。また,アプリケーションの様々な処理状況ごとの応答処理の自動化が可能となり,多種多様なアプリケーションのそれぞれに対応した応答処理の自動化が可能となる。また,ディスプレイ画面上のどの位置にアプリケーションの処理画面が表示されていても,的確に監視位置を特定することができる。また,複数のアプリケーションの処理状態の監視と,それぞれの状態に対応する応答処理の自動実行が可能となる。
さらに,記憶手段に,所定の後続処理に対応付けられた判定部分画像と,所定の後続処理がないことを示す情報に対応付けられた判定部分画像と,一致する判定部分画像がないことを示す情報に対応付けられた所定の後続処理とを記憶し,後続処理実行手段で,比較手段で一致すると判定した判定部分画像が所定の後続処理に対応付けられた判定部分画像である場合に,記憶手段に判定部分画像と対応付けて記憶した所定の後続処理を実行し,比較手段で一致すると判定した判定部分画像がない場合に,記憶手段に一致する判定部分画像がないことを示す情報に対応付けて記憶した所定の後続処理を実行するようにしてもよい。
例えば,監視位置の画像が所定の後続処理に対応付けられた判定部分画像である場合には,その後続処理を実行し,監視位置の画像が所定の後続処理に対応付けられていない判定部分画像である場合には,特に後続処理を実行せずに監視対象のアプリケーションの処理を継続し,監視位置の画像に一致する判定部分画像が登録されていない場合には,監視位置から想定外の画像が検出された場合用に用意された後続処理を実行する。
これにより,例えば,アプリケーションの実行中に不測の状況が発生した場合でも,その旨をユーザに通知する等の処理を自動的に実行することが可能となるため,ユーザは,不測の状況発生に迅速に対応できるようになる。
アプリケーション実行中の画面に特定の判定部分画像が表示されたことで,表示された特定の判定部分画像に対応する応答処理を自動的に実行することができるので,処理に時間がかかるアプリケーションの監視のためにユーザが拘束される必要がなくなる。
また,特定の判定部分画像と応答処理とをあらかじめ対応付けてさえおけば,アプリケーション実行中の画面に特定の判定部分画像が表示されることによって対応する応答処理を自動的に実行されるので,アプリケーションの様々な処理状況ごとの応答処理の自動化が可能となり,多種多様なアプリケーションのそれぞれに対応した応答処理の自動化が可能となる。
また,アプリケーションの位置を特定する基準部分画像と,その基準部分画像から監視位置までの相対位置情報とを用いて監視位置を特定することにより,ディスプレイ画面上のどの位置にアプリケーションの処理画面が表示されていても,的確に監視位置を特定することができる。
また,同時に表示される複数の処理画面の監視位置が重なっていなければ,それぞれの処理画面ごとに所定の監視領域を監視することができるため,複数のアプリケーションの処理状態の監視と,それぞれの状態に対応する応答処理の自動実行が可能となる。
以下,本発明の実施の形態について,図面を用いて説明する。
図1は,本実施の形態によるコンピュータシステムの構成例を示す図である。図1に示すコンピュータシステムは,自動応答処理部10,表示処理部20,ディスプレイ30等を備える。
表示処理部20は,各実行アプリケーション40(実行中のアプリケーション)からの画面出力の信号を受け,ディスプレイ30に表示画面の画像信号を送る。
自動応答処理部10は,ディスプレイ30の表示画面の画像情報を取得し,その表示画面内の所定領域の画像によって,対応する応答処理プログラムを自動的に実行する。自動応答処理部10は,コンピュータシステムが備えるCPU,メモリ,ハードディスク等のハードウェアとソフトウェアプログラムとにより実現され,前処理部11,表示画像取り出し部12,アプリ画面位置特定部13,監視位置画像取得部14,アクション判定画像比較部15,応答処理実行部16,情報記憶部17を備える。
前処理部11は,ユーザにより登録された情報をもとに必要な解析や対応付けを行い,アプリ画面位置判定画像やアクション判定画像などの各画像データ,応答処理プログラム,監視位置を示す情報,各データやプログラムの対応情報などを情報記憶部17に登録する。
表示画像取り出し部12は,所定のタイミングで,ディスプレイ30の画面全体の表示画像を,表示処理部20から取得(キャプチャ)する。表示画像は,監視を行う各アプリケーションの処理ごとに設定されたタイミングで取得してもよいし,自動応答処理全体として共通に設定されたタイミングで取得してもよい。
アプリ画面位置特定部13は,表示画像取り出し部12により取得された表示画像から,情報記憶部17に記憶されたアプリ画面位置判定画像の検出を行い,アプリ画面位置判定画像が検出された場合には,その位置情報を取得する。これにより,表示画面上のどの位置からでも,監視を行うアプリケーションの処理画面を検出することができる。
ここで,アプリ画面位置判定画像は,監視を行うアプリケーションの処理画面上の特徴的な部分画像である。アプリ画面位置判定画像がディスプレイ30の表示画面から検出されるということは,監視を行うアプリケーションの処理が実行されているということである。
監視位置画像取得部14は,アプリ画面位置判定画像が検出された場合に,アプリ画面位置特定部13により取得された位置情報と,検出されたアプリ画面位置判定画像に対応する監視位置を示す情報とから,表示画像取り出し部12により取得された表示画像上の監視位置を特定し,特定された監視位置の画像を取得する。
ここで,監視位置を示す情報は,アプリケーションの処理画面上のアプリ画面位置判定画像の位置と監視領域の位置との相対関係を示す情報である。ディスプレイ30の表示画面上のアプリ画面位置判定画像が検出された位置と,監視位置を示す情報とから,アプリケーションの処理画面の監視位置を特定することができる。
アクション判定画像比較部15は,監視位置画像取得部14により取得された監視位置の画像と,検出されたアプリ画面位置判定画像に対応する各アクション判定画像とが一致するかを比較判定する。なお,監視位置の画像とアクション判定画像との一致判定は,ピクセル単位での完全一致によって一致と判断するようにしてもよいし,グラフマッチング等の類似度計算技術により双方の画像間の類似度計算を行い,類似度が所定の閾値以上である場合に一致と判断するようにしてもよい。
ここで,アクション判定画像は,アプリケーションの処理画面上の監視位置から取得された画像との比較判定を行う部分画像である。例えば,処理終了を示すメッセージの画像がアクション判定画像として登録されており,そのアクション判定画像と監視位置から取得された画像とが一致するということは,監視を行うアプリケーションの処理が終了したということである。
応答処理実行部16は,アクション判定画像比較部15により一致すると判定されたアクション判定画像が存在する場合に,そのアクション判定画像に対応する応答処理プログラムを実行する。例えば,処理終了を示すメッセージの画像(アクション判定画像)が監視位置から取得された場合に,その処理終了を示すメッセージの画像(アクション判定画像)に対応付けられた,アプリケーションの処理終了をユーザの携帯端末にメールで通知するという応答処理プログラムを実行する。
情報記憶部17は,アプリ画面位置判定画像やアクション判定画像などの各画像データや,応答処理プログラム等を記憶する。また,情報記憶部17は,各アプリ画面位置判定画像に対応付けられた監視位置を示す情報,アプリ画面位置判定画像とアクション判定画像の対応情報,アクション判定画像と応答処理プログラムとの対応情報などを記憶する。なお,各データ(プログラムを含む)間の対応付けは,1対1対応に限らず,1対複数(複数対1)対応でも,複数対複数対応でもよい。
図2は,本実施の形態による対応付けの例を示す図である。図2に示す例では,アプリ画面位置判定画像,監視位置の相対位置情報(監視位置を示す情報),アクション判定画像,応答処理プログラムの対応付けをテーブル形式で示したものである。
図2に示す例では,監視位置を示す情報(監視位置の相対位置情報)が,アプリ画面位置判定画像の端点から監視位置(すなわちアクション判定画像が検出される可能性がある位置)の端点への相対位置座標で表現されている。端点は,例えば,アプリ画面位置判定画像(または監視位置)の最上部のピクセルのうち,最も左にあるピクセルといったようにあらかじめ決定しておく。
図2に示すような対応情報を用意しておくことにより,表示画面上からアプリ画面位置判定画像が検出された場合に,そのアプリ画面位置判定画像に対応する表示画面上の監視位置とアクション判定画像とが抽出され,さらに監視位置画像とアクション判定画像とが一致すると判定された場合に,そのアクション判定画像に対応する応答処理プログラムを抽出することができる。
なお,特定のアクション判定画像に応答処理プログラムを対応付けるだけではなく,特定のアクション判定画像に応答処理プログラムがない旨を対応付け,さらに監視位置から特定のアクション判定画像が検出されないことに応答処理プログラムを対応付けることもできる。このように対応付けが設定された場合には,応答処理実行部16は,監視位置の画像と応答処理プログラムが対応付けられたアクション判定画像との一致が判定された場合には,その対応付けられた応答処理プログラムを実行し,監視位置の画像と応答処理プログラムがない旨が対応付けられたアクション判定画像との一致が判定された場合には,特になにもせず,監視位置から特定のアクション判定画像が検出されない場合には,そのことに対応付けられた応答処理プログラムを実行する。
例えば,あるアプリケーション処理のメッセージ欄が監視対象となっている場合に,パスワード入力のメッセージ画像(アクション判定画像)が検出された場合には,自動的にパスワードを入力する応答処理プログラムを実行し,処理実行中のメッセージ画像(アクション判定画像)が検出された場合には,特に応答処理プログラムを実行せず,それ以外のアクション判定画像として登録されていない画像(例えば,エラーメッセージの画像)が検出された場合には,自動的に検出された画像からOCRソフト(すなわち文字認識処理が可能なソフト)で表示文字を抽出し,ユーザの携帯端末にメールで送信する応答処理プログラムを実行する,といったことが可能となる。
以下,本実施の形態を,さらに具体的な実施例を挙げて説明する。
実際の表示画像の監視を行う前に,前処理により,ユーザから登録された情報(プログラムを含む)や,ユーザから登録された情報をもとに解析を行って得られた情報,各情報(プログラムを含む)間の対応情報等を,記憶しておく必要がある。
まず,ユーザの登録情報をもとに,監視時間の設定すなわちディスプレイ30上の表示画像をキャプチャする時間間隔の設定を行う。本実施例では,アプリケーションごとに監視時間間隔が設定されるものとする。
図3は,監視時間設定情報の例を示す図である。図3に示す監視時間設定情報100は,アプリIDと監視時間との対応情報である。アプリIDは,監視の対象となるアプリケーションを一意に識別する情報である。監視時間は,監視を行う時間間隔である。
次に,アプリ画面位置判定画像や監視位置を示す情報を登録する。ここでは,監視を行うアプリケーションのオリジナル画像上でユーザが範囲指定を行うことにより,アプリ画面位置判定画像や監視位置を示す情報を作成し,登録する例を説明する。
図4は,アプリオリジナル画像の例を示す図である。ユーザは,例えば,図4に示す“アプリケーション001”のオリジナル画像(以下,アプリオリジナル画像101と記す)上で範囲を指定することにより,“アプリケーション001”に関してのアプリ画面位置判定画像や監視位置の設定を行う。ここで,アプリオリジナル画像101は,ビットマップデータである。
図5は,アプリ画面位置判定画像と監視位置の設定を説明する図である。図5(A)は,図4に示すアプリオリジナル画像101上で,アプリ画面位置判定画像とする部分を指定した画面の例である。図5(A)では,ハッチング部分102がアプリ画面位置判定画像とする部分として,特定の色(例えば赤など)で塗りつぶされている。このようなアプリ画面位置判定画像とする部分が指定された画像を,アプリ画面位置判定設定画像103として保持する。ここで,アプリ画面位置判定設定画像103は,ビットマップデータである。なお,アプリ画面位置判定画像とする部分として,複数箇所を指定することもできる。
図5(B)は,図4に示すアプリオリジナル画像101上で,監視位置とする部分を指定した画面の例である。図5(B)では,ハッチング部分104が監視位置とする部分として,特定の色(例えば赤など)で塗りつぶされている。このような監視とする部分が指定された画像を,監視位置設定画像105として保持する。ここで,監視位置設定画像105は,ビットマップデータである。なお,監視位置とする部分として,複数箇所を指定することもできる。
前処理では,図4に示すアプリオリジナル画像101と,図5に示すアプリ画面位置判定設定画像103,監視位置設定画像105とから,アプリ画面位置判定画像や監視位置の設定を行う。
まず,アプリオリジナル画像101とアプリ画面位置判定設定画像103との差分をとり,差分部分のピクセル範囲の各ピクセルの色データを取り出し,アプリ画面位置判定画像とする。なお,アプリ画面位置判定画像とする部分として,複数箇所が指定されている場合には,複数のアプリ画面位置判定画像が抽出される。
ここで,ビットマップファイルは,例えば,ビットマップの識別などが指定されたファイルヘッダ,画像の幅や高さ,色数などの情報が指定された情報ヘッダ,パレットの色情報(色数分だけ)の情報であるパレット情報,実際の色とインデックス番号の情報である画像データ(インデックス)等の情報を持つ。アプリオリジナル画像101とアプリ画面位置判定設定画像103との画像データをピクセル単位で比較することにより,その差分(特定の色で塗りつぶされた範囲)の画像情報を得ることができる。
図6は,アプリ画面位置判定画像の例を示す図である。図6に示すアプリ画面位置判定画像106は,アプリオリジナル画像101とアプリ画面位置判定設定画像103との差分を取ることにより抽出された画像である。このアプリ画面位置判定画像106が,アプリオリジナル画像101のアプリケーションの特徴的な部分として,ユーザにより指定された画像である。
次に,アプリオリジナル画像101と監視位置設定画像105との差分をとり,差分部分のピクセル範囲の各ピクセルの色データを取り出し,監視位置画像とする。なお,監視位置とする部分として,複数箇所が指定されている場合には,複数の監視位置画像が抽出される。監視位置画像を構成する各ピクセルの位置が,監視位置となる。
以上の例ではアプリオリジナル画像101とアプリ画面位置判定設定画像103の差分,アプリオリジナル画像101と監視位置設定画像105の差分によって,アプリ画面位置判定画像106や監視位置画像を取得しているが,アプリオリジナル画像101からユーザに指定された部分の画像を切り出すことにより,アプリ画面位置判定画像106や監視位置画像を取得するようにしてもよい。
図7は,アプリ画面位置判定画像や監視位置を示す情報の登録の処理により作成されたデータの例を示す図である。図7(A)は,アプリ画面位置判定画像106のデータ構成(アプリ画面位置判定画像データ107)の例であり,図7(B)は,監視位置画像のデータ構成(監視位置画像データ108)の例である。アプリ画面位置判定画像106のピクセル数はn個であり,監視位置画像のピクセル数はm個であるものとする。
図7(A)に示すアプリ画面位置判定画像データ107は,インデックス番号,ピクセル位置(x座標,y座標),色データ(R,G,B)からなる。インデックス番号は,アプリ画面位置判定画像データ107内での各ピクセルの識別番号である。インデックス番号は,例えば,y座標が小さい順(画面の上から下の順)に,さらにその中でx座標が小さい順(画面の左から右の順)に与えられる。ピクセル位置は,そのピクセルのアプリオリジナル画像101内での座標情報である。色データは,そのピクセルの色を示す情報である。
図7(B)に示す監視位置画像データ108は,インデックス番号,ピクセル位置(x座標,y座標),色データ(R,G,B)からなる。インデックス番号は,監視位置画像データ108内での各ピクセルの識別番号である。インデックス番号は,例えば,y座標が小さい順(画面の上から下の順)に,さらにその中でx座標が小さい順(画面の左から右の順)に与えられる。ピクセル位置は,そのピクセルのアプリオリジナル画像101内での座標情報である。色データは,そのピクセルの色を示す情報である。
この例では,図7(A)に示すアプリ画面位置判定画像データ107のピクセル位置と,図7(B)に示す監視位置画像データ108のピクセル位置との差が,監視位置を示す情報となる。
得られたアプリ画面位置判定画像106と監視位置画像を,すなわち図7(A)に示すアプリ画面位置判定画像データ107と,図7(B)に示す監視位置画像データ108とを関連付けておく。
次に,アクション判定画像を登録する。アクション判定画像は,例えば,アプリ画面位置判定画像106の指定と同様にアプリオリジナル画像101上で指定することにより得ることができる。上記の監視位置画像をアクション判定画像の一つとすることもできる。このように,ユーザの登録情報(ユーザの指定などの情報)をもとに,アクション判定画像を作成し,登録する。
図8は,アクション判定画像の例を示す図である。図8に示す各アクション判定画像109は,アプリケーションの処理過程において,図5(B)に示すハッチング部分104にあたる監視位置に表示される画像である。以下の説明において,図8(A)に示すアクション判定画像109aと図8(B)に示すアクション判定画像109bは,応答処理プログラムに対応付けられるアクション判定画像109であり,図8(C)に示すアクション判定画像109cは,応答処理プログラムに対応付けられないアクション判定画像であるものとする。
図9は,アクション判定画像のデータ構成の例を示す。図9に示すアクション判定画像データ110は,インデックス番号,ピクセル位置(x座標,y座標),色データ(R,G,B)からなる。インデックス番号は,アクション判定画像データ110内での各ピクセルの識別番号である。インデックス番号は,例えば,y座標が小さい順(画面の上から下の順)に,さらにその中でx座標が小さい順(画面の左から右の順)に与えられる。ピクセル位置は,そのピクセルのアプリオリジナル画像101内での座標情報である。色データは,そのピクセルの色を示す情報である。なお,アクション判定画像データ110のピクセル数とピクセル位置(x座標,y座標)は,図7(B)に示す監視位置画像データ108と同じである。
アプリ画面位置判定画像106とアクション判定画像109,すなわち図7(A)に示すアプリ画面位置判定画像データ107と図9に示すアクション判定画像データ110とを関連付けておく。
次に,アクション判定画像と応答処理プログラムを対応付ける。ユーザの指定をもとにアクション判定画像109と,そのアクション判定画像109が検出された場合に実行する応答処理プログラムとを対応付ける。
図10は,応答処理プログラム対応テーブルの例を示す図である。図10に示す応答処理プログラム対応テーブル111は,アクション判定画像109と応答処理プログラムとの対応テーブルである。図10に示す応答処理プログラム対応テーブル111の例では,アクション判定画像109のファイル名と応答処理プログラムのファイル名とを対応付けている。
図10に示す応答処理プログラム対応テーブル111中,応答処理プログラムが“(継続)”となっているレコードは,監視位置からそのアクション判定画像109が検出された場合に特に応答処理を行わず,引き続き監視対象となっているアプリケーションの処理を実行することを示している。また,アクション判定画像109が“(画像不一致)”となっているレコードは,監視位置から登録されたアクション判定画像109が検出されなかった場合に,そのことに対応付けられた応答処理プログラムを実行することを示している。
ここまで図4から図10を用いて説明した前処理は,一つの監視対象となるアプリケーションについての処理の例である。このような処理を,監視対象となるすべてのアプリケーションについて行う。
図11は,本実施例による前処理フローチャートである。まず,ユーザの登録情報をもとに,図3に示すような監視対象となるアプリケーションの監視時間間隔を示す監視時間設定情報100を登録する(ステップS10)。その後,すべての監視の対象となるアプリケーションについて,以下のステップS12〜ステップ14に示す処理を行う(ステップS11)。
ユーザの登録情報をもとに,アプリ画面位置判定画像106,監視位置を示す情報等を作成し,登録する(ステップS12)。本実施例では,アプリ画面位置判定画像106と監視位置画像のアプリオリジナル画像101上での座標情報によって,アプリ画面位置判定画像106から監視位置までの相対位置を示している。このとき,アプリ画面位置判定画像106と監視位置画像とを対応付けておく。
ユーザの登録情報をもとに,アクション判定画像109を登録する(ステップS13)。このとき,アプリ画面位置判定画像106とアクション判定画像109とを対応付けておく。
ユーザの登録情報をもとに,図10に示すような応答処理プログラム対応テーブル111を作成する(ステップS14)。このとき,必要な応答処理プログラムも登録しておく。
このような前処理により,ユーザは,アプリ画面位置判定画像106,監視位置を示す情報,アクション判定画像,応答処理プログラムおよびそれらを対応付ける情報などを,簡単に設定,登録することができる。前処理によって,アプリケーションの処理と応答プログラムとの対応を一度登録しておけば,以降同じアプリケーションを実行するたびに設定を行わなくても,自動応答処理による応答処理プログラムの実行が可能となる。
以上説明した前処理によって登録された情報を用いて,以下で説明する自動応答処理が実行される。
自動応答処理が実行されると,まず,監視時間設定情報100を参照し,ディスプレイ30の表示画面をキャプチャする時間をスケジューリングする。ディスプレイ30の表示画面をキャプチャするタイミングになると,表示処理部20からディスプレイ30への表示画像を取得する。
図12は,キャプチャされたディスプレイの表示画面の例を示す図である。図12に示すような表示画面112がキャプチャされると,登録されているアプリ画面位置判定画像106で表示画面112を探索する。表示画面112からアプリ画面位置判定画像106が検出されれば,表示画面112内に監視対象となるアプリケーションのウィンドウ画面113が含まれていると判断できる。
表示画面112からアプリ画面位置判定画像106が検出されると,表示画面112上のアプリ画面位置判定画像106が表示されている位置から,監視位置を求める。例えば,表示画面112上のアプリ画面位置判定画像106が表示されている位置の座標と,前処理で設定された対応するアプリ画面位置判定画像106の座標情報と監視位置画像の座標情報から得られる相対位置関係から,監視位置を求めることができる。
図12に示す表示画像112の例では,太い破線で示す位置114からアプリ画面位置判定画像106が検出され,その太い破線で示す位置114から相対的に監視位置,すなわち太い一点鎖線で示す位置115が特定される。特定された監視位置の画像を取得する。
取得された監視位置の画像と,検出されたアプリ画面位置判定画像106に対応する各アクション判定画像109との一致判定を行う。図12に示す例では,取得された監視位置の画像が,図8(C)に示すアクション判定画像109cと一致する。この一致判定の結果で,応答処理プログラム対応テーブル111を参照する。上述したように,図8(C)に示すアクション判定画像109cは,応答処理プログラムに対応付けられないアクション判定画像であるので,応答処理プログラム対応テーブル111から,“(継続)”が得られ,特に応答処理を行わない。
例えば,表示画面112から取得された監視位置の画像が,応答処理プログラムと対応付けられた図8(A)に示すアクション判定画像109aや,図8(B)に示すアクション判定画像109bである場合には,応答処理プログラム対応テーブル111から得られた応答処理プログラムを実行する。例えば,取得された監視位置の画像が図8(A)に示すアクション判定画像109aである場合には,それに対応付けられた自動的にコマンドを入力する応答処理プログラムが実行され,取得された監視位置の画像が図8(B)に示すアクション判定画像109bである場合には,それに対応付けられた処理終了をユーザの携帯端末にメールで通知する応答処理プログラムが実行される。
図13は,監視位置から取得された画像と一致するアクション判定画像が登録されていない場合の表示画面の例を示す図である。図13に示す表示画像112の監視位置すなわち太い一点鎖線で示す位置115から,アクション判定画像109として登録されていない画像が取得されたものとする。このとき,応答処理プログラム対応テーブル111から,“(画像不一致)”に対応する応答処理プログラムが得られ,その応答処理プログラムが実行される。例えば,図13に示す例において,“(画像不一致)”に対応する応答処理プログラムが,取得された監視位置の画像の文字認識を行い,得られた文字情報をユーザの携帯端末にメールで通知する応答処理プログラムであれば,“エラー(E00xx01)が発生しました。”というメールがユーザの携帯端末に送られる。
図14は,本実施例による自動応答処理フローチャートである。まず,監視時間設定情報100を参照し,ディスプレイ30の表示画像をキャプチャする間隔をスケジューリングする(ステップS20)。
ディスプレイ30の表示画像をキャプチャするタイミングになれば(ステップS21),コンピュータシステムの表示処理部20からディスプレイ30の表示画像をキャプチャする(ステップS22)。
キャプチャされた表示画像を,登録されているアプリ画面位置判定画像106で探索し(ステップS23),表示画像からアプリ画面位置判定画像106が検出されなければ(ステップS24),処理を終了する。なお,表示画像からアプリ画面位置判定画像106が検出されなかった場合に,ステップS21に戻り,次の表示画像のキャプチャタイミングを待つようにしてもよい。
表示画像からアプリ画面位置判定画像106が検出されれば(ステップS24),アプリ画面位置判定画像106の表示画像上の位置と監視位置を示す情報とから表示画面上の監視位置を求め,その監視位置の画像を取得する(ステップS25)。
取得された監視位置の画像と登録されているアクション判定画像109とを比較し(ステップS26),取得された監視位置の画像に一致するアクション判定画像109が登録されていなければ(ステップS27),応答処理プログラム対応テーブル111を参照し,画像不一致に対応する応答処理プログラム実行する(ステップS28)。その後,ステップS21に戻り,次の表示画像のキャプチャタイミングを待つ。
取得された監視位置の画像に一致するアクション判定画像109が登録されていれば(ステップS27),応答処理プログラム対応テーブル111を参照し,一致するアクション判定画像109に対応する実行処理プログラムがなければ(ステップS29),ステップS21に戻り,次の表示画像のキャプチャタイミングを待つ。
一致するアクション判定画像109に対応する実行処理プログラムがあれば(ステップS29),その応答処理プログラムを実行する(ステップS30)。その後,ステップS21に戻り,次の表示画像のキャプチャタイミングを待つ。
以上説明した自動応答処理部10による処理は,コンピュータとソフトウェアプログラムとによって実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録することも,ネットワークを通して提供することも可能である。
本実施の形態により,ディスプレイ画面上のどの位置にアプリケーションの処理画面が表示されていても,的確に監視位置を特定し,その監視位置に表示された画像に対応する応答処理を実行することができる。また,同時に表示される複数の処理画面ごとに所定の領域を監視し,そのそれぞれに対応する応答処理を自動化することができる。
以上,本発明の実施の形態について説明したが,本発明は本実施の形態に限られるものではない。例えば,本実施の形態では,アプリ画面位置判定画像106の形状や,監視領域の形状すなわちアクション判定画像109の形状は,四角で示されているが,円や楕円,極端に言えば星型など,どのような形状であってもよい。
以上説明した本実施の形態の特徴を列挙すると,以下の通りとなる。
(付記1)
コンピュータを,
画面上の基準位置を特定する画像である基準部分画像と,前記基準部分画像の位置から判定対象となる画面上の部分画像の位置までの位置関係を示す情報である相対位置情報と,前記判定対象となる画面上の部分画像と比較すべき画像である判定部分画像と,所定の後続処理とを対応付けて記憶する記憶手段と,
所定の間隔でキャプチャした画面から,前記記憶手段に記憶した基準部分画像と一致する部分の,前記画面上での位置情報を取得する基準位置取得手段と,
前記基準位置取得手段で取得した位置情報から,前記記憶手段に前記基準部分画像と対応付けて記憶した相対位置情報の位置に該当する部分画像を取得する部分画像取得手段と,
前記部分画像取得手段で取得した画像と,前記記憶手段に前記基準部分画像と対応付けて記憶した判定部分画像とが一致するかを判定する比較手段と,
前記比較手段で一致すると判定した場合に,前記記憶手段に前記判定部分画像と対応付けて記憶した所定の後続処理を実行する後続処理実行手段として,
機能させるための後続処理の自動処理プログラム。
(付記2)
前記記憶手段には,所定の後続処理に対応付けられた判定部分画像と,所定の後続処理がないことを示す情報に対応付けられた判定部分画像と,一致する判定部分画像がないことを示す情報に対応付けられた所定の後続処理とが記憶されており,
前記後続処理実行手段では,前記比較手段で一致すると判定した判定部分画像が前記所定の後続処理に対応付けられた判定部分画像である場合に,前記記憶手段に前記判定部分画像と対応付けて記憶した所定の後続処理を実行し,前記比較手段で一致すると判定した判定部分画像がない場合に,前記記憶手段に前記一致する判定部分画像がないことを示す情報に対応付けて記憶した所定の後続処理を実行する
ことを特徴とする付記1に記載の後続処理の自動処理プログラム。
(付記3)
前記コンピュータを,
あらかじめ用意された設定用の画像に対する,ユーザによる設定用の画像上の基準となる部分の指定と設定用の画像上の監視対象となる部分の指定とを入力し,前記指定された設定用の画像の基準となる部分から前記基準部分画像を作成し,前記指定された設定用の画像の基準となる部分の位置情報と前記指定された設定用の画像上の監視対象となる部分の位置情報とから前記相対位置情報を作成し,作成された前記基準部分画像と前記相対位置情報とを対応付けて前記記憶手段に記憶する前処理手段として,
機能させるための付記1または付記2に記載の後続処理の自動処理プログラム。
(付記4)
画面上の基準位置を特定する画像である基準部分画像と,前記基準部分画像の位置から判定対象となる画面上の部分画像の位置までの位置関係を示す情報である相対位置情報と,前記判定対象となる画面上の部分画像と比較すべき画像である判定部分画像と,所定の後続処理とを対応付けて記憶する記憶手段と,
所定の間隔でキャプチャした画面から,前記記憶手段に記憶した基準部分画像と一致する部分の,前記画面上での位置情報を取得する基準位置取得手段と,
前記基準位置取得手段で取得した位置情報から,前記記憶手段に前記基準部分画像と対応付けて記憶した相対位置情報の位置に該当する部分画像を取得する部分画像取得手段と,
前記部分画像取得手段で取得した画像と,前記記憶手段に前記基準部分画像と対応付けて記憶した判定部分画像とが一致するかを判定する比較手段と,
前記比較手段で一致すると判定した場合に,前記記憶手段に前記判定部分画像と対応付けて記憶した所定の後続処理を実行する後続処理実行手段とを備える
ことを特徴とする後続処理の自動処理装置。
(付記5)
前記記憶手段には,所定の後続処理に対応付けられた判定部分画像と,所定の後続処理がないことを示す情報に対応付けられた判定部分画像と,一致する判定部分画像がないことを示す情報に対応付けられた所定の後続処理とが記憶されており,
前記後続処理実行手段では,前記比較手段で一致すると判定した判定部分画像が前記所定の後続処理に対応付けられた判定部分画像である場合に,前記記憶手段に前記判定部分画像と対応付けて記憶した所定の後続処理を実行し,前記比較手段で一致すると判定した判定部分画像がない場合に,前記記憶手段に前記一致する判定部分画像がないことを示す情報に対応付けて記憶した所定の後続処理を実行する
ことを特徴とする付記4に記載の後続処理の自動処理装置。
(付記6)
あらかじめ用意された設定用の画像に対する,ユーザによる設定用の画像上の基準となる部分の指定と設定用の画像上の監視対象となる部分の指定とを入力し,前記指定された設定用の画像の基準となる部分から前記基準部分画像を作成し,前記指定された設定用の画像の基準となる部分の位置情報と前記指定された設定用の画像上の監視対象となる部分の位置情報とから前記相対位置情報を作成し,作成された前記基準部分画像と前記相対位置情報とを対応付けて前記記憶手段に記憶する前処理手段を備える
ことを特徴とする付記4または付記5に記載の後続処理の自動処理装置。
(付記7)
画面上の基準位置を特定する画像である基準部分画像と,前記基準部分画像の位置から判定対象となる画面上の部分画像の位置までの位置関係を示す情報である相対位置情報と,前記判定対象となる画面上の部分画像と比較すべき画像である判定部分画像と,所定の後続処理とを対応付けて記憶する記憶手段を備えるコンピュータが画面に表示された部分画像に応じた処理を実行する後続処理の自動処理方法であって,
所定の間隔でキャプチャした画面から,前記記憶手段に記憶した基準部分画像と一致する部分の,前記画面上での位置情報を取得する基準位置取得過程と,
前記基準位置取得過程で取得した位置情報から,前記記憶手段に前記基準部分画像と対応付けて記憶した相対位置情報の位置に該当する部分画像を取得する部分画像取得過程と,
前記部分画像取得過程で取得した画像と,前記記憶手段に前記基準部分画像と対応付けて記憶した判定部分画像とが一致するかを判定する比較過程と,
前記比較過程で一致すると判定した場合に,前記記憶手段に前記判定部分画像と対応付けて記憶した所定の後続処理を実行する後続処理実行過程とを有する
ことを特徴とする後続処理の自動処理方法。
(付記8)
前記記憶手段には,所定の後続処理に対応付けられた判定部分画像と,所定の後続処理がないことを示す情報に対応付けられた判定部分画像と,一致する判定部分画像がないことを示す情報に対応付けられた所定の後続処理とが記憶されており,
前記後続処理実行過程では,前記比較過程で一致すると判定した判定部分画像が前記所定の後続処理に対応付けられた判定部分画像である場合に,前記記憶手段に前記判定部分画像と対応付けて記憶した所定の後続処理を実行し,前記比較過程で一致すると判定した判定部分画像がない場合に,前記記憶手段に前記一致する判定部分画像がないことを示す情報に対応付けて記憶した所定の後続処理を実行する
ことを特徴とする付記7に記載の後続処理の自動処理方法。
(付記9)
あらかじめ用意された設定用の画像に対する,ユーザによる設定用の画像上の基準となる部分の指定と設定用の画像上の監視対象となる部分の指定とを入力し,前記指定された設定用の画像の基準となる部分から前記基準部分画像を作成し,前記指定された設定用の画像の基準となる部分の位置情報と前記指定された設定用の画像上の監視対象となる部分の位置情報とから前記相対位置情報を作成し,作成された前記基準部分画像と前記相対位置情報とを対応付けて前記記憶手段に記憶する前処理過程を有する
ことを特徴とする付記7または付記8に記載の後続処理の自動処理方法。
本実施の形態によるコンピュータシステムの構成例を示す図である。 本実施の形態による対応付けの例を示す図である。 監視時間設定情報の例を示す図である アプリケーションオリジナル画像の例を示す図である。 アプリ画面位置判定画像と監視位置の設定を説明する図である。 アプリ画面位置判定画像の例を示す図である。 アプリ画面位置判定画像や監視位置を示す情報の登録の処理により作成されたデータの例を示す図である。 アクション判定画像の例を示す図である。 アクション判定画像のデータ構成の例を示す。 応答処理プログラム対応テーブルの例を示す図である。 本実施例による前処理フローチャートである。 キャプチャされたディスプレイの表示画面の例を示す図である。 監視位置から取得された画像と一致するアクション判定画像が登録されていない場合の表示画面の例を示す図である。 本実施例による自動応答処理フローチャートである。
符号の説明
10 自動応答処理部
11 前処理部
12 表示画像取り出し部
13 アプリ画面位置特定部
14 監視位置画像取得部
15 アクション判定画像比較部
16 応答処理実行部
17 情報記憶部
20 表示処理部
30 ディスプレイ
40 実行アプリケーション

Claims (5)

  1. コンピュータを,
    画面上の基準位置を特定する画像である基準部分画像と,前記基準部分画像の位置から判定対象となる画面上の部分画像の位置までの位置関係を示す情報である相対位置情報と,前記判定対象となる画面上の部分画像と比較すべき画像である判定部分画像と,所定の後続処理とを対応付けて記憶する記憶手段と,
    所定の間隔でキャプチャした画面から,前記記憶手段に記憶した基準部分画像と一致する部分の,前記画面上での位置情報を取得する基準位置取得手段と,
    前記基準位置取得手段で取得した位置情報から,前記記憶手段に前記基準部分画像と対応付けて記憶した相対位置情報の位置に該当する部分画像を取得する部分画像取得手段と,
    前記部分画像取得手段で取得した画像と,前記記憶手段に前記基準部分画像と対応付けて記憶した判定部分画像とが一致するかを判定する比較手段と,
    前記比較手段で一致すると判定した場合に,前記記憶手段に前記判定部分画像と対応付けて記憶した所定の後続処理を実行する後続処理実行手段として,
    機能させるための後続処理の自動処理プログラム。
  2. 前記記憶手段には,所定の後続処理に対応付けられた判定部分画像と,所定の後続処理がないことを示す情報に対応付けられた判定部分画像と,一致する判定部分画像がないことを示す情報に対応付けられた所定の後続処理とが記憶されており,
    前記後続処理実行手段では,前記比較手段で一致すると判定した判定部分画像が前記所定の後続処理に対応付けられた判定部分画像である場合に,前記記憶手段に前記判定部分画像と対応付けて記憶した所定の後続処理を実行し,前記比較手段で一致すると判定した判定部分画像がない場合に,前記記憶手段に前記一致する判定部分画像がないことを示す情報に対応付けて記憶した所定の後続処理を実行する
    ことを特徴とする請求項1に記載の後続処理の自動処理プログラム。
  3. 画面上の基準位置を特定する画像である基準部分画像と,前記基準部分画像の位置から判定対象となる画面上の部分画像の位置までの位置関係を示す情報である相対位置情報と,前記判定対象となる画面上の部分画像と比較すべき画像である判定部分画像と,所定の後続処理とを対応付けて記憶する記憶手段と,
    所定の間隔でキャプチャした画面から,前記記憶手段に記憶した基準部分画像と一致する部分の,前記画面上での位置情報を取得する基準位置取得手段と,
    前記基準位置取得手段で取得した位置情報から,前記記憶手段に前記基準部分画像と対応付けて記憶した相対位置情報の位置に該当する部分画像を取得する部分画像取得手段と,
    前記部分画像取得手段で取得した画像と,前記記憶手段に前記基準部分画像と対応付けて記憶した判定部分画像とが一致するかを判定する比較手段と,
    前記比較手段で一致すると判定した場合に,前記記憶手段に前記判定部分画像と対応付けて記憶した所定の後続処理を実行する後続処理実行手段とを備える
    ことを特徴とする後続処理の自動処理装置。
  4. 前記記憶手段には,所定の後続処理に対応付けられた判定部分画像と,所定の後続処理がないことを示す情報に対応付けられた判定部分画像と,一致する判定部分画像がないことを示す情報に対応付けられた所定の後続処理とが記憶されており,
    前記後続処理実行手段では,前記比較手段で一致すると判定した判定部分画像が前記所定の後続処理に対応付けられた判定部分画像である場合に,前記記憶手段に前記判定部分画像と対応付けて記憶した所定の後続処理を実行し,前記比較手段で一致すると判定した判定部分画像がない場合に,前記記憶手段に前記一致する判定部分画像がないことを示す情報に対応付けて記憶した所定の後続処理を実行する
    ことを特徴とする請求項3に記載の後続処理の自動処理装置。
  5. 画面上の基準位置を特定する画像である基準部分画像と,前記基準部分画像の位置から判定対象となる画面上の部分画像の位置までの位置関係を示す情報である相対位置情報と,前記判定対象となる画面上の部分画像と比較すべき画像である判定部分画像と,所定の後続処理とを対応付けて記憶する記憶手段を備えるコンピュータが画面に表示された部分画像に応じた処理を実行する後続処理の自動処理方法であって,
    所定の間隔でキャプチャした画面から,前記記憶手段に記憶した基準部分画像と一致する部分の,前記画面上での位置情報を取得する基準位置取得過程と,
    前記基準位置取得過程で取得した位置情報から,前記記憶手段に前記基準部分画像と対応付けて記憶した相対位置情報の位置に該当する部分画像を取得する部分画像取得過程と,
    前記部分画像取得過程で取得した画像と,前記記憶手段に前記基準部分画像と対応付けて記憶した判定部分画像とが一致するかを判定する比較過程と,
    前記比較過程で一致すると判定した場合に,前記記憶手段に前記判定部分画像と対応付けて記憶した所定の後続処理を実行する後続処理実行過程とを有する
    ことを特徴とする後続処理の自動処理方法。
JP2007316491A 2007-12-07 2007-12-07 後続処理の自動処理プログラム,後続処理の自動処理装置および後続処理の自動処理方法 Expired - Fee Related JP4842917B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007316491A JP4842917B2 (ja) 2007-12-07 2007-12-07 後続処理の自動処理プログラム,後続処理の自動処理装置および後続処理の自動処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007316491A JP4842917B2 (ja) 2007-12-07 2007-12-07 後続処理の自動処理プログラム,後続処理の自動処理装置および後続処理の自動処理方法

Publications (2)

Publication Number Publication Date
JP2009140268A true JP2009140268A (ja) 2009-06-25
JP4842917B2 JP4842917B2 (ja) 2011-12-21

Family

ID=40870805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007316491A Expired - Fee Related JP4842917B2 (ja) 2007-12-07 2007-12-07 後続処理の自動処理プログラム,後続処理の自動処理装置および後続処理の自動処理方法

Country Status (1)

Country Link
JP (1) JP4842917B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011044074A (ja) * 2009-08-24 2011-03-03 Nippon Telegr & Teleph Corp <Ntt> アプリケーション状態認識方法、装置及びプログラム
JP2011060018A (ja) * 2009-09-10 2011-03-24 Fujitsu Ltd 情報処理装置、情報処理プログラム、および情報処理方法
JP2011181007A (ja) * 2010-03-03 2011-09-15 Nippon Telegr & Teleph Corp <Ntt> アプリケーション状態認識方法、装置及びプログラム
JP2012212243A (ja) * 2011-03-30 2012-11-01 Ntt Data Corp 監視装置、及び監視方法
JP2016029543A (ja) * 2014-07-25 2016-03-03 株式会社三菱東京Ufj銀行 情報処理装置及びプログラム
JP2018160003A (ja) * 2017-03-22 2018-10-11 日本電信電話株式会社 画面差異検出装置及びプログラム
JP2021064317A (ja) * 2019-10-17 2021-04-22 Necフィールディング株式会社 機器監視装置、機器監視方法、及び機器監視プログラム
CN113117319A (zh) * 2019-12-31 2021-07-16 技嘉科技股份有限公司 电子装置及利用显示画面的热键自动触发方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05341948A (ja) * 1991-08-27 1993-12-24 Internatl Business Mach Corp <Ibm> ディスプレイスクリーン上の対象物の位置を自動的に見つける方法とシステム
JPH0793123A (ja) * 1993-09-20 1995-04-07 Fujitsu Ltd 表示装置
JP2004038619A (ja) * 2002-07-04 2004-02-05 Hitachi Ltd 応答時間自動測定方法および装置
JP2004302551A (ja) * 2003-03-28 2004-10-28 Kansai Tlo Kk 演算監視プログラム
JP2007072545A (ja) * 2005-09-05 2007-03-22 Nomura Research Institute Ltd 監視装置及び監視方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05341948A (ja) * 1991-08-27 1993-12-24 Internatl Business Mach Corp <Ibm> ディスプレイスクリーン上の対象物の位置を自動的に見つける方法とシステム
JPH0793123A (ja) * 1993-09-20 1995-04-07 Fujitsu Ltd 表示装置
JP2004038619A (ja) * 2002-07-04 2004-02-05 Hitachi Ltd 応答時間自動測定方法および装置
JP2004302551A (ja) * 2003-03-28 2004-10-28 Kansai Tlo Kk 演算監視プログラム
JP2007072545A (ja) * 2005-09-05 2007-03-22 Nomura Research Institute Ltd 監視装置及び監視方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011044074A (ja) * 2009-08-24 2011-03-03 Nippon Telegr & Teleph Corp <Ntt> アプリケーション状態認識方法、装置及びプログラム
JP2011060018A (ja) * 2009-09-10 2011-03-24 Fujitsu Ltd 情報処理装置、情報処理プログラム、および情報処理方法
JP2011181007A (ja) * 2010-03-03 2011-09-15 Nippon Telegr & Teleph Corp <Ntt> アプリケーション状態認識方法、装置及びプログラム
JP2012212243A (ja) * 2011-03-30 2012-11-01 Ntt Data Corp 監視装置、及び監視方法
JP2016029543A (ja) * 2014-07-25 2016-03-03 株式会社三菱東京Ufj銀行 情報処理装置及びプログラム
JP2018160003A (ja) * 2017-03-22 2018-10-11 日本電信電話株式会社 画面差異検出装置及びプログラム
JP2021064317A (ja) * 2019-10-17 2021-04-22 Necフィールディング株式会社 機器監視装置、機器監視方法、及び機器監視プログラム
CN113117319A (zh) * 2019-12-31 2021-07-16 技嘉科技股份有限公司 电子装置及利用显示画面的热键自动触发方法
JP2021111371A (ja) * 2019-12-31 2021-08-02 技嘉科技股▲ふん▼有限公司Giga−Byte Technology Co., Ltd. 電子機器、および表示画像を用いてホットキーを自動的にトリガーする方法
JP7133610B2 (ja) 2019-12-31 2022-09-08 技嘉科技股▲ふん▼有限公司 電子機器、および表示画像を用いてホットキーを自動的にトリガーする方法
US11471757B2 (en) 2019-12-31 2022-10-18 Giga-Byte Technology Co., Ltd. Electronic device and method of automatically triggering hot key using display image

Also Published As

Publication number Publication date
JP4842917B2 (ja) 2011-12-21

Similar Documents

Publication Publication Date Title
JP4842917B2 (ja) 後続処理の自動処理プログラム,後続処理の自動処理装置および後続処理の自動処理方法
WO2020140698A1 (zh) 表格数据的获取方法、装置和服务器
US11521312B2 (en) Image processing apparatus, image processing method, and storage medium
US20090185752A1 (en) Method and apparatus for cropping images
US11363208B2 (en) Image processing apparatus and image processing meihod
US10037504B2 (en) Methods for determining manufacturing waste to optimize productivity and devices thereof
JP4498203B2 (ja) メータ認識システム、メータ認識方法、およびメータ認識プログラム
JP7295213B2 (ja) 信号灯の位置判定方法、装置、記憶媒体、プログラム、路側機器
JP2000295532A (ja) 画像処理装置及び画像処理方法及び記録媒体及び画像処理システム
TW201638784A (zh) 自動測試裝置
CN113095292A (zh) 手势识别方法、装置、电子设备及可读存储介质
JP6197340B2 (ja) 画像処理装置、画像処理方法、およびプログラム
CN110727495B (zh) 一种界面元素的自动分段截图方法及系统
JP7392116B2 (ja) ピックアップロボット、ピックアップ方法、コンピュータ可読記憶媒体
US11455481B2 (en) Image processing apparatus, image processing method, and storage medium storing program
CN113704111A (zh) 页面自动化测试方法、装置、设备及存储介质
CN110704268B (zh) 一种视频图像自动化测试方法及装置
CN106775701B (zh) 一种客户端自动取证方法和系统
US20150371078A1 (en) Analysis processing system
US20210247941A1 (en) Monitoring control apparatus, monitoring control method, monitoring system, and medium
CN109146916A (zh) 一种运动物体跟踪方法及装置
JP4796535B2 (ja) 画像処理による多導体電線の追跡方法、装置及びプログラム並びにこれを用いた多導体電線の異常検出方法、装置及びプログラム
CN114116474A (zh) 一种软件校验方法、装置、电子设备及存储介质
CN102196143A (zh) 带有按键的图像采集装置
US20230311308A1 (en) Machine-learning device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100820

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111004

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111006

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141014

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees