JP5447525B2 - 情報処理装置、情報処理装置の制御方法、及びプログラム - Google Patents

情報処理装置、情報処理装置の制御方法、及びプログラム Download PDF

Info

Publication number
JP5447525B2
JP5447525B2 JP2011528688A JP2011528688A JP5447525B2 JP 5447525 B2 JP5447525 B2 JP 5447525B2 JP 2011528688 A JP2011528688 A JP 2011528688A JP 2011528688 A JP2011528688 A JP 2011528688A JP 5447525 B2 JP5447525 B2 JP 5447525B2
Authority
JP
Japan
Prior art keywords
area
image
change
region
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011528688A
Other languages
English (en)
Other versions
JPWO2011024531A1 (ja
Inventor
晃丈 三津橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2011528688A priority Critical patent/JP5447525B2/ja
Publication of JPWO2011024531A1 publication Critical patent/JPWO2011024531A1/ja
Application granted granted Critical
Publication of JP5447525B2 publication Critical patent/JP5447525B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • G09G2320/103Detection of image changes, e.g. determination of an index representative of the image change
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • G09G2340/145Solving problems related to the presentation of information to be displayed related to small screens

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理装置への情報の入力を容易にする技術に関する。
ユーザが端末に文字などを入力する場合、端末の画面が小さいと、画面に表示されている領域と、文字などが入力される領域と、が離れている場合に、入力が困難となる。
具体的には、端末が画像を縮小して全ての画像を表示した場合、画像に含まれる文字等も縮小されてしまうので、ユーザは、入力済の文字等を読みにくくなり、入力操作がしにくい。
文字を読みやすくするため、特許文献1に記載された端末は、画面を2つの領域に分け、一方の領域に文章全体を表示し、その文章の一部を他方の領域に拡大表示している。
入力を容易にするため、特許文献2に記載された端末は、表示すべき画像のサイズが端末の画面に比べて大きい場合、画像を端末の画面に合ったサイズに変更して表示している。
特開2004−349965号公報 特開2006−276698号公報
しかし、特許文献1、2に記載された端末(情報処理装置)においても、ユーザは、依然として端末を操作しにくいことがあった。
特許文献1に記載された端末では、ユーザが文章全体を表示する領域で文字入力する場合、文字が縮小表示されるため、文字入力が困難であった。また、拡大表示する領域でユーザが文字入力する場合は、入力位置まで画像をスクロールする必要があり、操作が煩雑であった。
特許文献2に記載された端末では、画像のリサイズにより、文章のレイアウトが崩れてしまうことがある。例えば、リサイズ前に行末にあった改行位置が、リサイズ後に行の途中に位置することとなってしまう。このため、ユーザは実際のものとは異なる画像を見ながら入力を行うことになり、入力が困難になることがあった。
本発明は、情報処理装置において、入力操作を容易にする技術を提供することを目的とする。
上記目的を達成するために、本発明の情報処理装置は、
所定のアプリケーションを実行することにより、全体画像を生成する全体画像生成部と、
ユーザが情報を入力するための操作を行った操作時刻を取得する操作時刻取得部と、
前記全体画像生成部により生成された前記全体画像が変化した場合、該全体画像のうち変化のあった領域を含む矩形領域を変化領域として取得するとともに、該全体画像が変化した変化時刻を取得する画像変化取得部と、
前記操作時刻取得部により取得された前記操作時刻と前記画像変化取得部により取得された前記変化時刻との差が所定値以下であれば、前記画像変化取得部により取得された前記変化領域を、前記ユーザが情報を入力している操作領域として取得する操作領域取得部と、
前記全体画像取得部により生成された前記全体画像のうち情報処理装置の画面に表示する矩形領域を参照領域として取得し、前記操作領域取得部により取得された前記操作領域を該参照領域に合成して操作領域付画像を生成する操作領域付画像生成部と、
を有する。
本発明の情報処理装置の制御方法は、
全体画像生成部が、所定のアプリケーションを実行することにより、全体画像を生成し、
操作時刻取得部が、ユーザが情報を入力するための操作を行った操作時刻を取得し、
画像変化取得部が、前記全体画像生成部により生成された前記全体画像が変化した場合、該全体画像のうち変化のあった領域を含む矩形領域を変化領域として取得するとともに、該全体画像が変化した変化時刻を取得し、
操作領域取得部が、前記操作時刻取得部により取得された前記操作時刻と前記画像変化取得部により取得された前記変化時刻との差が所定値以下であれば、前記画像変化取得部により取得された前記変化領域を、前記ユーザが情報を入力している操作領域として取得し、
操作領域付画像生成部が、前記全体画像取得部により生成された前記全体画像のうち情報処理装置の画面に表示する矩形領域を参照領域として取得し、前記操作領域取得部により取得された前記操作領域を該参照領域に合成して操作領域付画像を生成する、情報処理装置の制御方法である。
本発明のプログラムは、
コンピュータに、
所定のアプリケーションを実行することにより、全体画像を生成する全体画像生成手順、
ユーザが情報を入力するための操作を行った操作時刻を取得する操作時刻取得手順、
前記画像生成手順で生成された前記全体画像が変化した場合、該全体画像のうち変化のあった領域を含む矩形領域を変化領域として取得するとともに、該全体画像が変化した変化時刻を取得する画像変化取得手順、
前記操作時刻取得手順で取得された前記操作時刻と前記画像変化取得手順で取得された前記変化時刻との差が所定値以下であれば、前記画像変化取得手順で取得された前記変化領域を、前記ユーザが情報を入力している操作領域として取得する操作領域取得手順、及び
前記全体画像取得手順で生成された前記全体画像のうち情報処理装置の画面に表示する矩形領域を参照領域として取得し、前記操作領域取得手順で取得された前記操作領域を該参照領域に合成して操作領域付画像を生成する操作領域付画像生成手順、
を実行させるためのプログラムである。
本発明によれば、操作時刻と画面が変化した変化時刻との差が所定値以下であれば、変化した領域を操作領域として、参照領域にその操作領域を合成した画像を生成するので、ユーザは、参照領域を参照しながら、操作領域に情報を入力できる。このため、入力操作が容易となる。
本発明の第1の実施形態の端末の一構成例を示すブロック図である。 本発明の第1の実施形態の操作情報の内容を示す表である。 本発明の第1の実施形態の画像変化検出部の一構成例を示すブロック図である。 本発明の第1の実施形態の画像変化情報の内容を示す表である。 本発明の第1の実施形態の操作領域検出部の一構成例を示すブロック図である。 本発明の第1の実施形態の表示画像生成部の一構成例を示すブロック図である。 本発明の第1の実施形態の端末の動作を示すフローチャートである。 本発明の第1の実施形態の操作領域検出処理を示すフローチャートである。 本発明の第1の実施形態の操作領域付画像生成処理を示すフローチャートである。 本発明の第1の実施形態の端末の動作の一例を示すシーケンス図である。 本発明の第1の実施形態の全体画像の一例である。 本発明の第1の実施形態の参照領域の一例である。 本発明の第1の実施形態の全体画像の一例である。 本発明の第1の実施形態の操作領域の一例である。 本発明の第1の実施形態の操作領域付画像の一例である。 本発明の第1の実施形態の全体画像の一例である。 本発明の第1の実施形態の操作領域の一例である。 本発明の第1の実施形態の現操作領域の一例である。 本発明の第2の実施形態の端末及び計算機の一構成例を示すブロック図である。 本発明の第3の実施形態の端末及び計算機の一構成例を示すブロック図である。
本発明を実施するための形態について図面を参照して詳細に説明する。
図1は、本実施形態の端末1の構成を示すブロック図である。端末1は、パーソナルコンピュータなどの情報処理装置である。図1に示すように、端末1は、操作部10、キー操作検出部20、画像変化検出部30、操作領域検出部40、表示画像生成部50、及び表示部60を有する。
操作部10は、キーボードやマウスなどの入力用のデバイスである。
操作部10は、操作部10の動作を検出して入力情報を生成し、キー操作検出部20及び表示画像生成部50に入力する。入力情報は、操作部10をユーザがどのように操作したかを示す情報であり、ユーザが操作したキーの種別の情報等が含まれる。
キー操作検出部20は、操作部10から入力情報を受け取ると、端末1内に設けられた時計(不図示)から時刻を取得する。そして、キー操作検出部20は、取得した時刻を操作時刻として記録し、また、受け取った入力情報からキーの種別を読み出す。
キー操作検出部20は、ユーザが操作したキーの種別とその操作時間とを示す操作情報を生成し、操作情報を操作領域検出部40へ出力する。
図2は、操作情報の内容を示す表である。図2を参照すると、操作情報には「操作キー種別」及び「操作時刻」が対応付けて格納される。「操作キー種別」は、ユーザにより操作されたキーの種別である。図2には、操作キー種別の例として、数字キーとエスケープキー(ESCキー)が記述されている。「操作時刻」は、「操作キー種別」に対応するキーについて操作が行われた時刻である。
図3は、画像変化検出部30の一構成例を示すブロック図である。図3を参照すると、画像変化検出部30は、画像変化情報取得部301及び全体画像記憶部302を有する。
画像変化情報取得部301は、表示画像生成部50から、周期的に全体画像情報を取得する。画像変化情報取得部301は、取得した全体画像情報を全体画像記憶部302に格納する。
ここで、全体画像情報は、端末1の画面に画像を表示するためのアプリケーションを実行することにより生成された、加工されていない全体画像を示す画像情報である。このアプリケーションは、例えば、テキストデータを生成、編集するためのアプリケーションである。アプリケーションの実行により生成された画像の解像度が、端末1で表示可能な画像の解像度よりも高い場合、端末1は、生成された画像をそのままでは、表示しきれない。そこで、端末1は、その画像の一部を切り出したり、その画像を縮小したりして表示する。画像変化情報取得部301が取得する全体画像情報は、切り出し、縮小等の加工前の全体画像を示す画像情報である。
画像変化情報取得部301は、2回目以降に全体画像情報を取得したとき、前回取得した全体画像情報を全体画像記憶部302から読み出し、今回取得した全体画像情報と比較する。
画像変化情報取得部301は、全体画像情報の示す全体画像のうち、変化のあった領域を含む矩形領域(変化領域)を検出する。
そして、画像変化情報取得部301は、検出した変化領域を特定するための情報と、検出した時刻を示す情報と、を含む画像変化情報を生成する。
画像変化情報取得部301は、全体画像を比較後、今回取得した全体画像情報で、全体画像記憶部302に格納された全体画像情報を更新する。
図4は、画像変化情報の内容を示す表である。図4を参照すると、画像変化情報には、「変化領域座標」及び「変化時刻」が対応付けて格納される。
「変化領域座標」は、変化領域の頂点のうち、対向する2つの頂点(例えば左上の頂点と、右下の頂点)の座標である。「変化時刻」は、「変化領域座標」に対応する変化領域が検出された時刻である。
図5は、操作領域検出部40の一構成例を示すブロック図である。図5を参照すると、操作領域検出部40は、操作領域判断部401及び現操作領域記憶部402を有する。
操作領域判断部401は、キー操作検出部20から操作情報を取得し、画像変化検出部30から画像変化情報を取得する。操作領域判断部401は、操作情報の示すキーのうち特定のキーに対応する操作時刻と、画像変化情報の示す変化時刻とを比較する。
変化時刻と操作時刻とを比較する対象のキーは、文字入力に用いられるキーとする。操作情報の示すキーが、ファンクションキーやエスケープキーなど、文字入力に通常使用されないキーであれば、そのキーについての操作時刻は変化時刻との比較から除かれる。
操作時刻と変化時刻との差が所定の閾値以下であれば、操作領域判断部401は、画像変化情報の示す変化領域は操作領域であると判断する。
ここで、操作領域は、画像変化検出部30が全体画像を取得する周期内においてユーザが操作を行った結果、変化が生じた領域である。例えば、ユーザがキー操作を行い、入力した文字を表示することにより変化した領域が変化領域に該当する。一方、ユーザがキー操作をしなくとも、例えば、スクリーンセーバーが動作することによっても画像は変化するが、このような変化領域は、操作領域に該当しない。
そして、操作領域判断部401は、現操作領域記憶部402から現操作領域情報を読み出す。この現操作領域情報は、現操作領域を特定するための情報である。
現操作領域について説明する。前述したように、画像変化情報取得部301は一定の周期で、全体画像情報を取得し、操作領域検出部40は、変化時刻と操作時刻とを比較することで操作領域を複数回、検出する。
そして、表示画像生成部50は、現操作領域が、端末1の画面内に収まらなければ、操作領域を加工する。現操作領域は、複数回検出された操作領域のうち、最後に検出された操作領域であり、加工のあった場合、加工後の操作領域である。
操作領域判断部401は、読み出した現操作領域と、検出した操作領域と、の距離が閾値以下であるか否かを判断する。ここで、領域間の距離とは、各領域内のいずれかの座標間の距離である。例えば、操作領域判断部401は、現操作領域及び操作領域のそれぞれの中心座標間の距離を、閾値と比較する。あるいは、操作領域判断部401は、現操作領域及び操作領域のそれぞれの左上の頂点座標間の距離を、閾値と比較する。
領域間の距離が閾値内であれば、操作領域判断部401は、検出した操作領域を操作領域候補とし、その操作領域候補を示す操作領域候補情報を表示画像生成部50へ出力する。
ここで、閾値は、閾値よりも距離が大きいと、検出した操作領域が現操作領域の外部にはみ出してしまうような値とする。操作領域の画面内における位置は、テキストが追加されていくにつれて移動してゆくが、操作領域判断部401は、領域間の距離を比較することにより、操作領域の移動に追従して現操作領域を更新することができる。
図6は、表示画像生成部50の一構成例を示すブロック図である。図6を参照すると、表示画像生成部50は、全体画像生成部501及び画像加工部502を有する。
全体画像生成部501は、テキスト作成用のアプリケーションなどのアプリケーションを有する。全体画像生成部501は、入力情報を操作部10から取得し、アプリケーションを利用して、入力情報の内容を含む全体画像情報を生成する。全体画像生成部501は、生成した全体画像情報を画像加工部502及び画像変化検出部30へ出力する。
画像加工部502は、操作領域候補情報を操作領域検出部40から取得し、全体画像情報を全体画像生成部501から取得する。そして、画像加工部502は、操作領域候補情報の示す操作領域候補が端末1の画面内に収まらなければ、その画面内に収まるように加工する。また、画像加工部502は、全体画像情報の示す全体画像の一部を切り出すなどして画像を加工し、端末1の画面内に収まる画像を生成する。この画像の元の全体画像における領域を参照領域と称する。
操作領域が検出されていない場合、画像加工部502は、参照領域を示す画像データである参照領域情報を表示部60へ出力する。
操作領域が検出された場合、画像加工部502は、操作領域候補と参照領域とを合成し、合成した画像を操作領域付画像とする。画像加工部502は、操作領域候補の加工を行った場合、加工後に合成を行う。そして、画像加工部502は、生成した操作領域付画像を示す操作領域付画像情報を表示部60へ出力する。また、画像加工部502は、操作領域付画像における操作領域を現操作領域とし、その現操作領域を特定するための現操作領域情報を操作領域検出部40へ出力する。
現操作領域情報は、例えば、現操作領域の頂点のうち、対向する2点(例えば左上の頂点と、右下の頂点)の座標を示す情報である。
次に、図7を参照して、端末1の動作について説明する。図7は、端末1の動作を示すフローチャートである。この動作は、テキスト作成、編集などに用いられるアプリケーションが実行されたときに開始される。
表示画像生成部50は、アプリケーションが実行されると所定の周期で全体画像情報を取得する。表示画像生成部50は、最初の周期において、全体画像情報の示す全体画像の一部を切り出し、端末1で表示可能な参照領域を生成する。表示部60は、その参照領域を画面に表示する(ステップS1)。次の周期において、全体画像を取得する時刻になったとき、画像変化取得部30は、全体画像情報を取得する(ステップS2)。
ユーザが操作部10を操作すると、キー操作検出部20は、キーの種別と操作時刻とを示す操作情報を取得する(ステップS3)。画像変化検出部30は、前回の全体画像と今回の全体画像とを比較し、変化領域及び変化時刻を示す画像変化情報を取得する(ステップS4)。
操作領域検出部40は、操作領域の候補を検出するための操作領域検出処理を実行する(ステップS5)。表示画像生成部50は、検出された操作領域の候補を画像に表示するための操作領域付画像生成処理を実行する(ステップS6)。
端末1は、テキスト作成用のアプリケーションが終了したか否かを判断する(ステップS7)。アプリケーションが終了していなければ(ステップS7:NO)、端末1はステップS2に戻る。アプリケーションが終了したのであれば(ステップS7:YES)、端末1は動作を終了する。
図8は、図7のステップS5の操作領域検出処理を示すフローチャートである。図8を参照すると、操作領域検出部40は、操作情報から操作キーの種別を取得し、検出対象とするキーの操作時刻のみを抽出する(ステップS51)。検出対象とするキーは、例えば、文字入力に用いられるキーとする。
操作領域検出部40は、検出対象のキーの操作時刻と変化時刻との差が閾値以内であるか否かを判断する(ステップS52)。
操作時刻と変化時刻との差が閾値以内であれば(ステップS52:YES)、操作領域検出部40は、その変化時刻に対応する変化領域を操作領域として検出する(ステップS53)。
操作領域検出部40は、記憶しておいた現操作領域を読み出す(ステップS54)。操作領域検出部40は、検出した操作領域と現操作領域との間の距離を比較し、検出した操作領域が現操作領域内にあるか否かを判断する(ステップS55)。
操作領域が現操作領域内になければ(ステップS55:NO)、操作領域検出部40は、検出した操作領域を操作領域候補とする。操作領域検出部40は、操作領域候補の頂点の座標を示す操作領域候補情報を生成する(ステップS56)。
操作時刻と変化時刻との差が閾値以内でない場合(ステップS52:NO)、操作領域が現操作領域内にある場合(ステップS55:YES)、又は、ステップS56の後、操作領域検出部40は、操作領域検出処理を終了する。
図9は、図7のステップS6の操作領域付画像生成処理を示すフローチャートである。図9を参照すると、表示画像生成部50は、全体画像情報の示す全体画像のうち、操作領域候補情報の示す座標内の画像を取得する(ステップS61)。
表示画像生成部50は、取得した操作領域候補の縦、横の画素数が、端末1に表示可能な画素数のK倍よりも大きいか否かを判断する(ステップS62)。
操作領域候補の縦、横の画素数が、端末1に表示可能な画素数のK倍よりも大きければ(ステップS62:YES)、操作領域候補の縦、横の画素数がK倍以内となるように、操作領域候補の画像を加工する(ステップS63)。
操作領域候補の縦、横の画素数が、端末1に表示可能な画素数のK倍以内である場合(ステップS62:NO)、又は、ステップS63の後、表示画像生成部50は、参照領域及び操作領域候補を合成して操作領域付画像を生成し、表示部60に表示する(ステップS64)。そして、表示画像生成部50は、操作領域付画像における操作領域を現操作領域として操作画像検出部40に保存する(ステップS65)。ステップS65の後、表示画像生成部50は、操作領域付画像生成処理を終了する。
図10は、端末1の動作の一例を示すシーケンス図である。図10を参照すると、操作部10は、ユーザの操作に応じて入力情報を入力する(ステップT1)。表示画像生成部50は、入力情報を基に全体画像を生成し、画像変化検出部30へ出力する。また、表示画像生成部50は、全体画像の一部を切り出し、参照領域を生成する(ステップT2)。表示部60は、その参照領域を端末1の画面に表示する(ステップT3)。
キー操作検出部20は、特定のキーの操作を検出し、操作情報を生成する(ステップT4)。画像変化検出部30は、全体画像を取得する時刻になったとき、全体画像を取得する(ステップT5)。画像変化検出部30は、今回の全体画像と前回の全体画像とを比較し、変化領域及び変化時刻を取得する(ステップT6)。
操作領域検出部40は、操作時刻と変化時刻との間の差が閾値内であるか否かを判断する(ステップT7)。操作時刻と変化時刻との間の差が閾値内であれば(ステップT7:YES)、操作領域検出部40は、変化領域を操作領域として検出する(ステップT8)。そして、操作領域検出部40は、現操作領域を読み出す(ステップT9)。
操作領域検出部40は、検出した操作領域が現操作領域内にあるか否かを判断する(ステップT10)。操作領域が現操作領域内にない場合(ステップT10:NO)、操作領域検出部40は、その操作領域を操作領域候補として、表示画像生成部50へ出力する(ステップT11)。
表示画像生成部50は、参照領域と操作領域候補とを合成して操作領域付全体画像を生成する(ステップT12)。表示部60は、その操作領域付全体画像を表示する(ステップT13)。
そして、表示画像生成部50は、操作領域付候補画像における操作領域を現操作領域として操作領域検出部40に保存する(ステップT14)。
続いて、図11〜図13を参照して、端末1の動作結果の一例について説明する。図11Aは、キー操作により変化する前の全体画像G1の一例である。図1Aに示すように、テキスト作成用のアプリケーションが実行されたとき、ウィンドウW1を含む全体画像G1が生成される。
端末1は、図11Bに示すように、ウィンドウW1の一部を端末1の画面に表示できる大きさに切りだし、参照領域として表示する。
そして、全体画像G1が取得されてから、次の周期が経過するまでに、「ABCD」が入力された場合について考える。この場合、図12Aに示すように、ウィンドウW2内に、入力された「ABCD」を含む全体画像G2が生成される。端末1は、全体画像G1、G2を比較し、図12Bに示すように、端末1は、「ABCD」を含む矩形領域を変化領域として抽出する。変化時刻と操作時刻とが同じであったので、端末1は、この変化領域を操作領域として検出する。
図12Cに示すように、端末1は、操作領域と参照領域とを合成して操作領域付画像を生成し、表示する。例えば、端末1は、操作領域が最前面となるように、参照領域に操作領域を重ね合わせる。端末1は、この操作領域付画像における操作領域を現操作領域として保存する。
図13Aに示すように、「ABCD」が入力されてから、次の全体画像情報を取得する時刻になるまでに「EFGHIJKL」が入力された場合について考える。
この場合、端末1は、図13Bに示すように、端末1は、「EFGHIJKL」を含む矩形領域を操作領域として検出する。ここで、図13Cに示すように、現操作領域は、「ABCD」を含む矩形領域である。検出された操作領域は、現操作領域内に含まれないので、端末1は、検出された操作領域及び参照領域を基に操作領域付画像情報を生成し、現操作領域を更新する。
なお、本実施形態では、入力情報を文字情報としているが、ユーザの入力操作に応じて画面が変化する情報であれば、文字以外の情報を入力情報としてもよい。例えば、文字以外の記号や、音符などであってもよい。
本実施形態の操作部10が本発明の入力部に該当し、本実施形態の全体画像生成部501が本発明の全体画像生成部に該当する。また、本実施形態のキー操作検出部20が本発明の操作時刻取得部及びキー種別取得部に該当し、本実施形態の操作領域判断部402が本発明の判断部に該当し、本実施形態の現操作領域記憶部402が本発明の現操作領域記憶部に該当する。また、本実施形態の画像変化検出部30が本発明の画像変化取得部に該当し、本実施形態の操作領域検出部40が本発明の操作領域取得部に該当し、本実施形態の画像加工部502が本発明の操作領域付画像生成部に該当する。
以上説明したように本実施形態によれば、端末1は、操作時刻と画面が変化した変化時刻との差が所定値以下であれば、変化した領域を操作領域として、参照領域にその操作領域を合成した画像を生成するので、ユーザは、参照領域を参照しながら、操作領域に情報を入力できる。このため、入力操作が容易となる。
また、端末1は、周期的に全体画像を取得するので、その周期内になされたユーザの操作に追従して操作領域を更新できる。
画像変化検出部30は、変化領域の対向する頂点の座標を示す情報を生成するので、変化領域自体を示す画像自体の情報を生成する場合と比較して、生成する情報のデータ量が小さくなり、処理が速くなる。
操作領域検出部40は、文字入力のためのキーを検出対象とするので、文字入力以外のキー操作に追従して操作領域を更新することがなくなり、無駄な処理が減少する。
表示画像生成部50は、操作領域を加工するので、端末1の画面内に操作領域の内容を表示しきれなくなることを防止できる。
操作領域検出部40は、検出された変化領域が現操作領域内になければ、現操作領域を更新するので、ユーザの操作に応じて変化領域が移動した場合であっても、表示部60は、追従して操作領域を表示できる。
(第2の実施形態)
本発明の第2の実施形態について、図14を参照して説明する。図14は、本実施形態の端末2及び計算機3の構成を示す全体図である。本実施形態の端末2及び計算機3は、第1の実施形態における端末1の各機能を2台の装置に分散している点で第1の実施形態と異なる。端末2及び計算機3は、パーソナルコンピュータなどの情報処理装置である。
本実施形態では、端末2は、端末1における操作部10、キー操作検出部20、画像変化検出部30、操作領域検出部40、表示画像生成部50、及び表示部60のうち、操作部10、キー操作検出部20、及び表示部60を有する。
一方、計算機3は、残りの画像変化検出部30、操作領域検出部40、及び表示画像生成部50を有する。
本実施形態によれば、機能分散により、装置1台にかかる負荷が軽減される。また、故障時のリスクを分散できる。
(第3の実施形態)
本発明の第3の実施形態について、図15を参照して説明する。図15は、本実施形態の端末4及び計算機5の構成を示す全体図である。本実施形態の端末4及び計算機5は、第1の実施形態における端末1の各機能を2台の装置に分散している点で第1の実施形態と異なる。端末4及び計算機5は、パーソナルコンピュータなどの情報処理装置である。
本実施形態では、端末4は、端末1における操作部10、キー操作検出部20、画像変化検出部30、操作領域検出部40、表示画像生成部50、及び表示部60のうち、操作部10、キー操作検出部20、操作領域検出部40、表示画像生成部50、及び表示部60を有する。
一方、計算機5は、残りの画像変化検出部30を有する。
本実施形態の表示画像生成部50が本発明の送信部に該当する。
なお、第2の実施形態や第3の実施形態で示した構成以外の構成で機能を分散してもよいのは勿論である。
以上、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されものでない。本発明の構成や詳細には、本発明の範囲内で当業者が理解し得る様々な変更をすることができる。
本出願は、2009年8月31日に出願された日本出願特願2009−200062を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (11)

  1. 所定のアプリケーションを実行することにより、全体画像を生成する全体画像生成部と、
    ユーザが情報を入力するための操作を行った操作時刻を取得する操作時刻取得部と、
    前記全体画像生成部により生成された前記全体画像が変化した場合、該全体画像のうち変化のあった領域を含む矩形領域を変化領域として取得するとともに、該全体画像が変化した変化時刻を取得する画像変化取得部と、
    前記操作時刻取得部により取得された前記操作時刻と前記画像変化取得部により取得された前記変化時刻との差が所定値以下であれば、前記画像変化取得部により取得された前記変化領域を、前記ユーザが情報を入力している操作領域として取得する操作領域取得部と、
    前記全体画像取得部により生成された前記全体画像のうち情報処理装置の画面に表示する矩形領域を参照領域として取得し、前記操作領域取得部により取得された前記操作領域を該参照領域に合成して操作領域付画像を生成する操作領域付画像生成部と、
    を有する情報処理装置。
  2. 前記画像変化取得部は、前記全体画像生成部により生成された前記全体画像を周期的に取得し、今回取得した全体画像と前回取得した全体画像とを比較することにより、前記変化領域を取得する、請求項1に記載の情報処理装置。
  3. 前記画像変化取得部は、前記変化領域の対向する2つの頂点の座標を示す変化領域情報を生成し、
    前記操作領域付画像生成部は、前記操作領域取得部により生成された前記変化領域情報に基づいて前記変化領域を特定する、請求項1又は2に記載の情報処理装置。
  4. 前記操作が行われたキーの種別を示す種別情報を取得するキー種別取得部を更に有し、
    前記操作領域取得部は、前記キー種別取得部により取得された前記キーの種別が所定の種別であり、且つ、前記操作時刻と前記変化時刻との差が所定値以下であれば、前記変化領域を前記操作領域として取得する、請求項1乃至3のいずれか1項に記載の情報処理装置。
  5. 前記操作領域付画像生成部は、前記操作領域の縦方向の総画素数、又は、該操作領域の横方向の総画素数が最大値以上であるか否かを判断し、該総画素数が該最大値以上であれば、該総画素数が該最大値未満となるように該操作領域を加工し、加工後の該操作領域を前記参照領域に合成する、請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 前記操作領域取得部は、
    前記操作領域画像生成部により生成された前記操作領域付画像における前記操作領域を現操作領域として記憶する現操作領域記憶部と、
    前記操作時刻と前記変化時刻との間の差が所定値以下であれば、前記変化領域が、前記現操作領域記憶部に記憶された前記現操作領域に含まれているか否かを判断し、該変化領域が該現操作領域に含まれていなければ、該変化領域を前記操作領域として取得する判断部と、
    を有する、請求項5に記載の情報処理装置。
  7. ユーザの操作に応じて情報を入力する入力部を更に有し、
    前記操作時刻取得部は、前記入力部により情報が入力された時刻を操作時刻として取得する、請求項1乃至6のいずれか1項に記載の情報処理装置。
  8. 前記操作領域付画像生成部により取得された前記参照領域、又は、前記操作領域付画像生成部により生成された前記操作領域付画像を表示する表示部を更に有する、請求項1乃至7のいずれか1項に記載の情報処理装置。
  9. 前記全体画像生成部により生成された前記全体画像を自己以外の情報処理装置に送信する送信部を更に有し、
    前記画像変化取得部は、自己以外の情報処理装置から前記全体画像を受信する、請求項1乃至8のいずれか1項に記載の情報処理装置。
  10. 全体画像生成部が、所定のアプリケーションを実行することにより、全体画像を生成し、
    操作時刻取得部が、ユーザが情報を入力するための操作を行った操作時刻を取得し、
    画像変化取得部が、前記全体画像生成部により生成された前記全体画像が変化した場合、該全体画像のうち変化のあった領域を含む矩形領域を変化領域として取得するとともに、該全体画像が変化した変化時刻を取得し、
    操作領域取得部が、前記操作時刻取得部により取得された前記操作時刻と前記画像変化取得部により取得された前記変化時刻との差が所定値以下であれば、前記画像変化取得部により取得された前記変化領域を、前記ユーザが情報を入力している操作領域として取得し、
    操作領域付画像生成部が、前記全体画像取得部により生成された前記全体画像のうち情報処理装置の画面に表示する矩形領域を参照領域として取得し、前記操作領域取得部により取得された前記操作領域を該参照領域に合成して操作領域付画像を生成する、情報処理装置の制御方法。
  11. コンピュータに、
    所定のアプリケーションを実行することにより、全体画像を生成する全体画像生成手順、
    ユーザが情報を入力するための操作を行った操作時刻を取得する操作時刻取得手順、
    前記画像生成手順で生成された前記全体画像が変化した場合、該全体画像のうち変化のあった領域を含む矩形領域を変化領域として取得するとともに、該全体画像が変化した変化時刻を取得する画像変化取得手順、
    前記操作時刻取得手順で取得された前記操作時刻と前記画像変化取得手順で取得された前記変化時刻との差が所定値以下であれば、前記画像変化取得手順で取得された前記変化領域を、前記ユーザが情報を入力している操作領域として取得する操作領域取得手順、及び
    前記全体画像取得手順で生成された前記全体画像のうち情報処理装置の画面に表示する矩形領域を参照領域として取得し、前記操作領域取得手順で取得された前記操作領域を該参照領域に合成して操作領域付画像を生成する操作領域付画像生成手順、
    を実行させるためのプログラム。
JP2011528688A 2009-08-31 2010-06-03 情報処理装置、情報処理装置の制御方法、及びプログラム Expired - Fee Related JP5447525B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011528688A JP5447525B2 (ja) 2009-08-31 2010-06-03 情報処理装置、情報処理装置の制御方法、及びプログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2009200062 2009-08-31
JP2009200062 2009-08-31
JP2011528688A JP5447525B2 (ja) 2009-08-31 2010-06-03 情報処理装置、情報処理装置の制御方法、及びプログラム
PCT/JP2010/059455 WO2011024531A1 (ja) 2009-08-31 2010-06-03 情報処理装置、情報処理装置の制御方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2011024531A1 JPWO2011024531A1 (ja) 2013-01-24
JP5447525B2 true JP5447525B2 (ja) 2014-03-19

Family

ID=43627644

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011528688A Expired - Fee Related JP5447525B2 (ja) 2009-08-31 2010-06-03 情報処理装置、情報処理装置の制御方法、及びプログラム

Country Status (6)

Country Link
US (1) US20120154432A1 (ja)
EP (1) EP2474892A4 (ja)
JP (1) JP5447525B2 (ja)
KR (1) KR101388119B1 (ja)
CN (2) CN102483678B (ja)
WO (1) WO2011024531A1 (ja)

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0772855B2 (ja) * 1985-07-31 1995-08-02 キヤノン株式会社 情報処理方法
JPS6232537A (ja) * 1985-08-05 1987-02-12 Mitsubishi Electric Corp 計算機システムのサ−ビス・プロセツサにおける画面処理方法
US5665927A (en) * 1993-06-30 1997-09-09 Casio Computer Co., Ltd. Method and apparatus for inputting musical data without requiring selection of a displayed icon
JPH0793574A (ja) * 1993-09-27 1995-04-07 Toshiba Corp データ処理装置及び表示制御方法
JP2000187544A (ja) * 1998-12-22 2000-07-04 Seiko Epson Corp データ入力装置およびその方法並びに記録媒体
US7437670B2 (en) * 2001-03-29 2008-10-14 International Business Machines Corporation Magnifying the text of a link while still retaining browser function in the magnified display
US20030206193A1 (en) * 2002-04-17 2003-11-06 Keizo Sato Communication control system and storage medium for storing image transfer program
JP4326836B2 (ja) 2003-05-21 2009-09-09 株式会社エヌ・ティ・ティ・ドコモ シンクライアントシステム、シンクライアント端末機、中継装置及びシンクライアント端末画面更新方法
KR20040096879A (ko) * 2004-10-05 2004-11-17 장중혁 디스플레이와 화면 이동 정보 입력 장치가 장착된 기기를 이용한 gui 인터페이스 조작 방법
JP4900640B2 (ja) 2005-03-30 2012-03-21 京セラ株式会社 携帯端末装置およびその文書表示制御方法
JP4956938B2 (ja) * 2005-08-25 2012-06-20 富士通株式会社 リモート操作プログラム、方法及び端末装置
CN101078958A (zh) * 2006-05-24 2007-11-28 胡有文 一种设有手写板式代替键盘的电脑
JP4957126B2 (ja) * 2006-08-31 2012-06-20 カシオ計算機株式会社 クライアント装置およびプログラム
US7778953B2 (en) * 2007-02-19 2010-08-17 Kabushiki Kaisha Toshiba Document management apparatus and document management method
CN101414213A (zh) * 2007-10-19 2009-04-22 杭州惠道科技有限公司 人类语言、文字、符号点划式人机界面
CN101162489B (zh) * 2007-11-26 2014-07-16 施霞虹 用于保密输入的伪装图片产生方法及其使用方法
JP4827950B2 (ja) * 2008-07-31 2011-11-30 富士通株式会社 サーバ装置

Also Published As

Publication number Publication date
US20120154432A1 (en) 2012-06-21
CN103558967A (zh) 2014-02-05
JPWO2011024531A1 (ja) 2013-01-24
CN102483678A (zh) 2012-05-30
EP2474892A1 (en) 2012-07-11
EP2474892A4 (en) 2015-11-11
KR20120054053A (ko) 2012-05-29
CN102483678B (zh) 2014-06-04
WO2011024531A1 (ja) 2011-03-03
KR101388119B1 (ko) 2014-04-23

Similar Documents

Publication Publication Date Title
JP4776995B2 (ja) コンピュータ装置およびその制御方法およびプログラム
US8332770B2 (en) Apparatus and method for providing character deletion function
US10810698B2 (en) Information processing method and client
JP2015219738A (ja) コンテンツ表示装置、コンテンツ表示方法及びプログラム
KR20160051373A (ko) 사용자 단말 장치 및 이의 제어 방법
JP4812077B2 (ja) データ表示方法及びデータ表示装置並びにプログラム
US20140359419A1 (en) Electronic apparatus and method for creating document using the same
JP2015095066A (ja) 情報処理装置及び情報処理プログラム
JP2009252083A (ja) 情報処理装置、ウィンドウ表示方法および表示制御プログラム
US10114518B2 (en) Information processing system, information processing device, and screen display method
JP5447525B2 (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
US8520030B2 (en) On-screen marker to assist usability while scrolling
JP5573693B2 (ja) 情報表示方法、情報表示プログラム、および情報表示装置
JP2015032261A (ja) 表示装置および制御方法
JP5957026B2 (ja) 入力領域の生成方法、生成装置、および生成プログラム
US11074392B2 (en) Information processing apparatus and non-transitory computer readable medium for switching between an attribute information mode and an image information mode
KR102223554B1 (ko) 단말기, 이의 제어 방법 및 상기 방법을 구현하기 위한 프로그램을 기록한 기록 매체
CN113168286A (zh) 终端、用于该终端的控制方法以及记录用于实现该方法的程序的记录介质
US20140156737A1 (en) Method for controlling information processing apparatus and information processing apparatus
JP2020160746A (ja) Webサイト設計支援装置、Webサイト設計支援方法、及びプログラム
JP2005100132A (ja) 表示制御装置
JP2007328506A (ja) 電子ボードシステム
JP6470136B2 (ja) 画面イメージ生成装置
CN113542872B (zh) 一种图像处理方法、装置及电子设备
JP2017107290A (ja) 表示システム、表示端末、表示方法、および表示プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131216

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

LAPS Cancellation because of no payment of annual fees