JP6366267B2 - 情報処理装置、その情報処理方法、プログラム、及び記憶媒体 - Google Patents

情報処理装置、その情報処理方法、プログラム、及び記憶媒体 Download PDF

Info

Publication number
JP6366267B2
JP6366267B2 JP2013267140A JP2013267140A JP6366267B2 JP 6366267 B2 JP6366267 B2 JP 6366267B2 JP 2013267140 A JP2013267140 A JP 2013267140A JP 2013267140 A JP2013267140 A JP 2013267140A JP 6366267 B2 JP6366267 B2 JP 6366267B2
Authority
JP
Japan
Prior art keywords
update
display screen
information processing
processing apparatus
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013267140A
Other languages
English (en)
Other versions
JP2015125457A5 (ja
JP2015125457A (ja
Inventor
辰哉 武市
辰哉 武市
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013267140A priority Critical patent/JP6366267B2/ja
Priority to US14/581,552 priority patent/US9891730B2/en
Publication of JP2015125457A publication Critical patent/JP2015125457A/ja
Publication of JP2015125457A5 publication Critical patent/JP2015125457A5/ja
Application granted granted Critical
Publication of JP6366267B2 publication Critical patent/JP6366267B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/957Browsing optimisation, e.g. caching or content distillation
    • G06F16/9577Optimising the visualization of content, e.g. distillation of HTML documents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Description

本発明は表示画面上に指示される位置情報に基づいて操作を認識する技術に関する。
Webページなどをブラウザで閲覧しているときに、同じページを閲覧しているにもかかわらず、予期しないタイミングで、画面に表示された画像が更新され、コンテンツが増減することがある。これは閲覧しているページの読み込みを完了する前にブラウザが描画する場合や、スクリプト制御などによって画像が新たに読みこまれる場合などに発生する。
特許文献1では、画面更新前に入力操作が行われることが予測される位置には、更新後の画面では操作項目を配置することを避ける。これにより画面更新のタイミングとユーザによる入力操作のタイミングが重なった場合に、画面更新後に入力を受信してしまっても、誤操作となることを低減する。
特開2011−180625号公報
しかしながら、従来技術では、操作項目を配置しない領域を確保するために、表示更新後の表示画面のレイアウトが崩れる場合があった。
そこで本発明では、表示更新のタイミングとユーザの入力操作のタイミングとが重なった場合にも、表示更新後の表示レイアウトを維持しつつ、誤動作を低減することを目的とする。
上記課題を解決するために、本発明に係る情報処理装置は、表示画面に表示させた画像の少なくとも一部を更新する更新指示を受信する受信手段と、前記受信手段によって受信された更新指示に従って前記画像が更新される前のユーザ入力の検出状態に基づいて、その後のユーザ入力によって指示される前記表示画面上の指示位置を推定する推定手段と、前記受信手段によって受信された更新指示に従って前記表示画面に表示させた画像を更新する場合、更新の前に前記表示画面に表示された画像において前記推定された指示位置に表示されているオブジェクトを、前記更新の後においても前記表示画面上の前記推定手段によって推定された前記指示位置に表示させる表示制御手段と、を備え、前記更新の後において、更新された後の画像を構成する複数のオブジェクトのレイアウトを変更せず維持するように画面更新をさせ前記表示制御手段による制御を行う第1モードと、前記表示制御手段による制御を行わない第2モードとを備え、前記更新指示を行うユーザの指示に基づいて、前記第1モードと前記第2モードとを切り替える。
本発明によれば、表示更新のタイミングとユーザの入力操作のタイミングとが重なった場合にも、表示更新後の表示レイアウトを維持しつつ、誤動作を低減することができる。
情報処理装置のハードウェア構成の一例を示すブロック図。 実施例1における情報処理装置の機能構成の一例を示すブロック図。 実施例1における情報処理装置の処理の流れを示すフローチャート。 実施例1における情報処理装置の処理の流れを示すフローチャート。 実施例1における情報処理装置の処理内容を説明する模式図。 実施例1における情報処理装置の処理内容を説明する模式図。 実施例1における情報処理装置の処理内容を説明する模式図。 実施例2における情報処理装置の機能構成の一例を示すブロック図。 実施例2における情報処理装置の処理の流れを示すフローチャート。 実施例2における情報処理装置の処理内容を説明する模式図。 実施例3における情報処理装置の機能構成の一例を示すブロック図。 実施例3における情報処理装置の処理の流れを示すフローチャート。 実施例3における情報処理装置の処理内容を説明する模式図。
以下、本発明の実施例について、図面を参照して説明する。なお、以下の実施例は本発明の一例を示すものであり、これに限定するものとは限らない。また、各実施例で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一な構成については、できるだけ同じ符号を付して説明する。
<実施例1>
図1は本実施例における情報処理装置のハードウェア構成について示したブロック図である。図1において、情報処理装置100は、バス101、CPU102、ROM103、RAM104、描画ユニット105、タッチパネルディスプレイ106から構成されている。CPU102は装置に備える各処理部の機能を実行させ、それらの協同実行や実行タイミングなどを制御する。ROM103は変更を必要としないプログラムや各種パラメータを格納する。RAM104はSDRAM、DRAMなどによって構成され、外部装置などから供給されるプログラムやデータを一時記憶する。また、CPU102の処理のワーク領域、エラー処理時のデータの退避領域、上記制御プログラムのロード領域などを有する。描画ユニット105はプログラムによって描画したグラフィックスを、タッチパネルディスプレイに対し出力する。タッチパネルディスプレイ106は、ユーザの入力操作情報を取り込むためのタッチセンサ等と表示出力を行う表示画面を兼ねるデバイスである。タッチパネルディスプレイ106は、表示画面が人の手などでタッチされた場合にその接触部分を検出し、表示画面上に定義される座標平面上で、タッチされている位置を1つの座標点として特定する。接触部分が面積を有する場合にはその重心あるいは中心の座標を特定する。以下、当該点をタッチ位置と言う。なお、タッチ位置は、タッチパネルに検出されている1以上の接触部分のうち、独立しているとみなされる1以上の接触部分(例えば、複数の指でタッチされた場合、接触部分は複数存在する)のそれぞれについて検出可能とする。すなわち本実施例のタッチパネルディスプレイ106は、いわゆるマルチタッチ検出が可能なものであって、同時刻において指示されている1以上のタッチ位置を全て検出することができるものである。また、本実施例では、表示画面の表面に接触していない、近接した状態でのユーザの指の先端などの位置情報(タッチ位置と同じ座標系での点として扱う)を、近接位置として検出する。タッチ及び近接の検出方式は、本実施例では、静電容量方式であるとする。ただし、抵抗膜方式、赤外線方式、超音波方式、音響波方式、振動検出方式等の各種タッチパネルを利用することも可能である。他にも、距離画像センサや、ステレオカメラなどの三次元空間での位置を検出できるもので入力対象面に触れたかどうかを検出し、入力対象面上で定義される位置情報を取得してもよい。なお、本実施例では、タッチ位置および近接位置は1点の座標点として検出するものとするが、これに限らない。面積を持った接触部分をタッチ位置や近接位置とみなしてもよく、また例えば表示画面をアレイ状の検出エリアに区分し、いずれのエリアにおいてタッチあるいは近接が検出されているかを示すエリアの識別情報を、位置情報として扱うこともできる。バス101はシステムバスであって、CPU102、ROM103、RAM104、描画ユニット105およびタッチパネルディスプレイ106を接続する。
次に、本発明を適用した情報処理装置の処理の流れについて、図2に示した機能構成ブロック図と図3に示したフローチャートを参照して説明する。図2に示すように、本実施例の情報処理装置100は、推定部201、指示受信部202、特定部203、部品配置取得部204、移動量決定部205、表示制御部206に構成される。本実施例では、これらの各機能部は、CPU102がROM103に格納されたプログラムをRAM104に展開し実行することでその機能を実現する。ただし、本発明は、これらの機能部をハードウェアで実現する情報処理装置によっても、同様に実現可能である。その場合には、各機能部の処理に対応させた演算部や回路を構成すればよい。
図3は、本実施例の情報処理装置100が実行する操作認識処理のメインの流れを示す。本処理は、タッチパネルつきディスプレイ上にオブジェクトが配置されて表示されている状態から開始する。本実施例で想定するオブジェクトは、GUIを構成し、タッチされることによって予め設定されたコマンドを発生させるUI部品である。処理の開始時点における操作画面は図5(a)に示したようなレイアウトでUIが配置されているものとする。図5(b)はタッチパネルつきディスプレイ501の画面上にどのように表示されているかを示した図である。
まず推定部201において、タッチパネルディスプレイ106が検出する位置情報に基づいて、ユーザが指定しようとしているタッチパネル上の位置を推定し、RAM104上に格納する(ステップS301)。本実施例のタッチパネルディスプレイ106である静電式タッチパネルでは、ある程度近接したオブジェクトであれば静電容量の変化量から、タッチパネル上における近接位置を検出することができる。本実施例では、静電容量の変化量の最も大きい点のタッチパネル上の座標を取得する。ただし、オブジェクトが検出可能範囲を越えているために近接位置を検出できない場合は、不検出であることを示す値を格納する。不検出であることを示す値は、タッチパネル上に存在しない座標値を用いてもよく、ここでは不検出を示す値の表現方法については限定しない。
次に指示受信部202において、画面更新の指示があったかどうかを確認する(ステップS302)。本実施例において画面更新とは、受信した指示に従って段階的に1つの画像を形成し表示出力する各段階で、内容が変更されたときに発生する更新である。形成される画像には複数のコンテンツが含まれ、画面更新の度に、それまでに形成された画像の少なくとも一部が更新される。例えば、Webブラウザアプリケーションでは、インターネット上のデータを取得しながら描画処理を行い、データの取得が完了するまでに複数回、画面更新されることがある。また、取得したデータに含まれているスクリプト言語により、例えば表示画面内の画像を入れ替える処理が行われた結果、画面更新されることがある。また、システムやアプリケーションからの割り込み要求でポップアップ画面が表示されるのも画面更新の一例である。表示している画像に含まれるコンテンツが増減する画面更新の際に、更新前の状態の画像に含まれたコンテンツの表示位置が変化する場合がある。本実施例では、ユーザが指定しようとする位置をその指定前に推定し、指定操作される可能性が高いオブジェクトの表示位置を、段階的に表示画像が形成されていく過程において同一の位置にとなるように制御することで、誤動作を低減するものである。なお、指定操作とは例えば、タッチによりUI部品に関連付けられたコマンドを発行し、情報処理装置100にコマンドに応じた処理を実行させる操作である。ステップS302において画面更新指示がない場合はステップS301に戻り、ユーザが指定しようとしている位置の決定を行い、決定した値または不検出を示す値を格納する。
ステップS302において画面更新指示があった場合は、ステップS301で格納された位置が存在するかどうかを確認する(ステップS303)。不検出を示す値ではなく位置が格納されていた場合は、特定部203においてその位置に存在する画面更新前の操作画面におけるオブジェクトを取得する(ステップS304)。ここでは格納されていた位置の座標が(60,50)とする。図5(c)は、格納された位置と表示画面の関係を示す。位置505はボタンB503の内部にあり、ステップS304で取得されるオブジェクトはボタンB503となる。なお、図5(c)において位置507(座標(60,35))は、どのオブジェクト上にも存在していないので、ステップS304で取得されるオブジェクトは存在しない。
次に、位置にオブジェクトが存在するかどうかを判定し(ステップS305)、存在した場合は部品配置取得部204において画面更新後の操作画面のレイアウト情報を取得する(ステップS306)。レイアウト情報は、操作画面の表示範囲外の領域の情報も含むとする。図5(d)は、画面更新後の操作画面のレイアウト情報を図示する。この図では、画像506がボタンA502の上にレイアウトされ、ボタンC504はX軸より下側、すなわちY座標が負の領域にレイアウトされている。次に、ステップS304で取得したオブジェクトが画面更新後の操作画面のレイアウト情報に含まれているか判定する(ステップS307)。図5(d)によればボタンB503は画面更新後の操作画面のレイアウト情報に含まれているので、次に部品配置取得部204においてボタンB503の画面更新後の操作画面のレイアウト情報を取得する(ステップS308)。図5(d)より、ボタンB503のレイアウト情報は、左下の点の座標が(10,10)、幅が60、高さが20の矩形と取得される。なお、ステップS306で取得した画面更新後の操作画面のレイアウト情報が図6(b)に示したようにボタンB503が含まれていなかった場合は、ステップS307において画面更新後にオブジェクトが存在しないと判定される。
次に、移動量決定部205において、ステップS304で取得した位置にステップS307で取得したオブジェクトが重なるように、ステップS308で取得したオブジェクトのレイアウト情報に基づいて平行移動量を決定する(ステップS309)。ここでステップS309の処理について、図4(a)に示したフローチャートを用いて、オブジェクトの中央がステップS301で格納された位置に重なるような平行移動量を計算により決定する例について説明する。ボタンB503のレイアウト情報から、画面更新後の操作画面におけるボタンB503の中央を計算する(ステップS401)。図5(c)より、ボタンB503の中央の座標は(40,20)と求められる。次にボタンB503の中央点の座標から位置505の座標までのベクトルを計算する(ステップS402)。ベクトルは(20,30)となり、これが求める移動量となる。ただし、計算処理を行わず、予め用意されたルックアップテーブルを参照するなどにより、オブジェクトと近接位置の位置関係に対応する所定の移動量を決定してもよい。
表示制御部206において、ステップS309で求めた移動量に基づいて平行移動して画面更新後の操作画面を生成し、画面更新を行う(ステップS310)。図5(e)は、画面更新によって画面上に表示される操作画面を示す。画面更新が完了した後、タッチパネルディスプレイ106においてタッチ入力が検出された場合は、タッチされた位置に表示されたオブジェクトに応じた処理を実行する。このように、本実施例では、ユーザの指がオブジェクト近傍で近接していることを検出した時点から、近接位置をユーザが指定しようとしている位置であるとみなしてオブジェクトの配置を制御することで、ユーザの意図に沿ったタッチ操作を認識できる。つまり、ユーザが指定しようとしている位置に存在するオブジェクトが更新前後において同一の位置に表示されるように制御しながら、画面の更新を行う。これにより、表示更新のタイミングとユーザの入力操作のタイミングとが重なった場合にも、表示更新後の表示レイアウトを維持しつつ、誤動作を低減することができる。なお、情報処理装置100は、このようにユーザが指定しようとする位置に表示されたオブジェクトを固定して画面更新をさせるモードと、しないモードを備え、ユーザが任意に切り替え可能であっても良い。また、アプリケーションごとにいずれのモードを採用するかが設定されても良い。さらに、Webページなどの記述の仕方で、ブラウザ側でオブジェクトの位置の固定制御をさせないようにしても良い。
ここまで、ステップS309の処理について、オブジェクトの中央がステップS301で格納された位置に重なるような平行移動量を計算する方法を説明したが、オブジェクトがその位置に重なるようにする方法は代替可能である。変形例について、図4(b)のフローチャートを用いて説明する。この例では、画面更新前の操作画面におけるオブジェクトとユーザが指定しようとしている位置の相対関係を加味して平行移動量を計算する。以下では、ユーザが指定しようとしている位置は図5(c)に示した位置505(60,50)と仮定し、オブジェクトはボタンB503の場合について説明する。まず、画面更新前の操作画面におけるオブジェクトとユーザが指定しようとしている位置の相対位置関係として、オブジェクトの左下の座標(最も原点に近い座標)から、ステップS301で格納された位置へのベクトルを取得する(ステップS403)。ボタンB503の左下座標は図5(a)に示した画面更新前の操作画面のレイアウト情報から(10,40)であるので、ベクトルは(50,10)と求められる。次に、画面更新後の操作画面の操作画面におけるボタンB503のレイアウト情報から、ボタンB503の左下の座標からステップS403で求めたベクトルを足した点Pを求める(ステップS404)。画面更新後のボタンB503の左下の座標は図5(d)より(10,10)なので、点Pは(60,20)と求められる。次に、移動量を点Pから位置505までのベクトルとして求める(ステップS405)。点Pから位置505までのベクトルは(0,30)である。この移動量を適用してステップS310で画面更新後の操作画面を生成する。図5(f)は、画面更新を行った結果を示す。ここでは相対的な位置関係として座標を用いて説明したが、ユーザが指定しようとしている位置をオブジェクトの高さ、幅に対する割合で計算するよう構成してもよい。この方法を用いると、オブジェクトが画面更新後に高さ、幅が変更された場合にも適用可能である。
なお、ステップS303で格納されている位置が不検出を示す値であった場合は、平行移動処理を適用せずにステップS310において画面更新後の操作画面を生成し、画面更新を行う。図6(a)は画面更新後に画面上に表示される操作画面を示した図である。ここでは平行移動処理を適用していないため、図5(d)で示したレイアウト情報に基づいて画面に表示されている。また、ステップS304において、ユーザが指定しようとしている位置が図5(c)における位置507のようにオブジェクトが取得されない場合は、ステップS305においてオブジェクトが存在しないと判定される。そして、同様にステップS310において更新後の操作画面を生成し、画面更新を行う。更新後の画面上に表示される操作画面も同様に図6(a)のようになる。また、ステップS306で取得した画面更新後の操作画面のレイアウト情報にステップS304で取得したオブジェクトが存在しない場合は、ステップS308,ステップS309の処理を行わず、ステップS310で画面更新後の画像を生成し画面更新を行う。ステップS306で図6(b)に示したレイアウト情報を取得したとすると、画面更新後に画面上に表示される操作画面は図6(c)のようになる。あるいは、図6(f)のように、ステップS301で格納された位置にオブジェクトが重ならないように再配置してもよい。
上述した例では、ステップS304において、ステップS301で格納された位置に存在する画面更新前の操作画面におけるオブジェクトを取得する際、格納されている位置がオブジェクトの内部にあるかどうかで判定していた。ただし、その位置に最も近いオブジェクトを取得するようにしてもよい。例えば図6(d)に位置601のように、どのオブジェクトの内部にも存在していない場合でも、位置601に最も近いオブジェクトとしてボタンB503を取得するように構成してもよい。また、所定の閾値を設定して、その閾値の範囲内でユーザが指定しようとしている位置に最も近いオブジェクトを取得するように構成してもよい。あるいは、その位置がオブジェクトそのものの内部かどうかを基準に判定するのではなく、オブジェクトを包含し、オブジェクトより大きな面積をもつ領域を設定し、その領域の内部かどうかを判定するようにしてもよい。例えば、図6(e)に示したように、ボタンA502、ボタンB503、ボタンC504に対して、それぞれボタンA判定領域602、ボタンB判定領域603、ボタンC判定領域604を設定する。位置601はボタンB判定領域603に含まれるので、ステップS304ではボタンB503を取得する。
また、重力方向を検出可能な携帯端末において、携帯端末の向きと重力方向を組み合わせて表示を切り替えているものがあるが、これも画面更新の一例であるため、本実施例を適応できる。ここで、画面更新によって操作画面が縦長のレイアウトから横長のレイアウトに変更される例について説明する。図7(a)に示した操作画面が表示されている状態で、ステップS301で格納された位置が位置701、座標が(14,44)であった場合と、位置702、座標が(40,50)であった場合のそれぞれについて説明する。図7(b)は、重力方向とタッチパネルつきディスプレイの向きの関係の変化によって、操作画面のレイアウトが変更されるときの、ステップS306で取得される画面更新後の操作画面のレイアウト情報を図示したものである。このように本実施例では、ディスプレイの向きが変化した際に鉛直方向にオブジェクトの上下方向を合わせるため、オブジェクトの幅などが変更される。このような場合にも、本実施例では、ユーザが指定することが推定された位置に表示されたオブジェクトが画面更新の前後で同一となるように、画面更新後の画面表示位置を制御する。ステップS301で格納された位置が位置701あるいは位置702のときは、ステップS304で取得されるオブジェクトはボタンB503である。図7(b)より、ステップS307では画面更新後の操作画面のレイアウトにボタンB503は存在すると判定し、ステップS308でボタンB503のレイアウト情報を取得する。続いてステップS309において平行移動量を決定する。ステップS309の処理は図4(a)で示したオブジェクトの中央とステップS301で格納された位置が重なるような移動量を計算して決定しもよい。また、図4(b)のようにオブジェクトとステップS301で格納された位置の相対的な位置関係を加味して計算してもよい。ここでは別の方法として、軸方向の平行移動を優先させて計算する処理について説明する。図4(c)は図3におけるステップS309の処理を、軸方向の平行移動を優先させる方法について説明したフローチャートである。はじめに、ステップS301で格納された位置と画面更新後のオブジェクトが重なっているかどうかを判定する(ステップS406)。重なっていると判定されれば、移動する必要がないため、移動量決定部205において移動量なしと決定し(ステップS407)、ステップS309の処理を終了する。ステップS406で重なっていないと判定された場合は、オブジェクトを軸方向に平行移動することでステップS301で格納された位置と重なるかどうかを判定する(ステップS408)。軸方向に平行移動してその位置と重なると判定された場合は、軸方向への平行移動量を算出する(ステップS409)。X軸方向に平行移動して重なると判定された場合は、オブジェクトのY軸方向の中心線とステップS301で格納された位置が重なるまでのX軸方向の平行移動量を計算する。Y軸方向に平行移動して重なると判定された場合は、オブジェクトのX軸方向の中心線とステップS301で格納された位置が重なるまでのY軸方向の平行移動量を計算する。ステップS408でいずれの軸方向への平行移動でも重ならないと判定された場合は、図4(b)で示した処理と同じ処理を行ってステップS309の処理を終了する。図7(a)および図7(b)で示した位置701と画面更新後の操作画面のレイアウトによると、画面更新後のボタンB503と位置701は重ならず、ボタンB503はX軸の負方向に平行移動させると重なる。この場合はステップS409の処理を行う。具体的にはまず画面更新後のレイアウト情報に基づき、ボタンB503のY軸方向の中心線を計算する。ボタンB503のY軸方向の中心はX=40であるので、位置701(14,44)と重なるまでの平行移動量は(−26,0)と求められる。ステップS310で画面更新した結果表示される操作画面とステップS301で格納された位置を重ねて図示したのが図7(d)である。一方、ボタンB503の画面更新後の領域と位置702は重なるため、ステップS407において移動量なしと計算される。この場合はステップS310で画面更新した結果表示される操作画面とステップS301で格納された位置を重ねて図示すると図7(c)のようになる。これは図7(b)で示したレイアウトどおりに表示されている。このように本実施形態では、ディスプレイの向きが変更されたことに応じ、オブジェクトの向き及び幅が変わる画面更新の場合も、更新前にユーザが指定することが推定された位置に表示されたオブジェクトを、更新後にも同一の位置に表示させる。ここで同一の位置に表示するとは、当該推定された位置に、更新前に表示されていたのと同一のオブジェクトが重なるように表示されることである。つまり、オブジェクトの向きや大きさが一致することは問わず、当該位置をタッチした場合に、更新前後において同じオブジェクトに対する操作を入力することが可能な状況であればよい。
なお、タッチ操作を認識するアプリケーションによっては、タッチパネルから指あるいはペンなどを離した位置(タッチアップした位置)を特定し、その位置に存在するオブジェクトの処理を開始するように構成されるものが存在する。この場合はタッチを開始した位置(タッチダウンした位置)を、ユーザが指定しようとする位置とみなしてステップS301で格納してもよい。この場合は、タッチダウンされた後、指あるいはペンを離す(タッチアップする)までの間に発生する画面更新において、これまで説明してきたような処理を実行する。それにより、指定しようとした位置に表示されていたオブジェクトが更新後にも同一の位置に表示されるように制御し、誤動作を低減する効果を得ることが可能である。
さらに、本実施例で説明した静電式タッチパネルつきディスプレイ以外の入出力デバイスであっても適用可能である。例えば、操作画面が表示されている表示画面上でユーザがマウスカーソルなどの操作指示体を移動させ、クリック操作によって操作指示体の位置にあるオブジェクトの処理を実行する場合にも適用可能である。すなわち、推定部201においてマウスカーソルの表示位置を、指定されようとしている位置とみなして取得、格納(ステップS301)する。そして、ステップS302からステップS310の処理を行うことによって、画面更新前にマウスカーソルの位置にあったオブジェクトは画面更新後もマウスカーソルの位置にレイアウトされる。また、ユーザの視線を検出し、ユーザが注目している点を指定されようとする位置であると推定し、ステップS301において取得するようにしてもかまわない。
以上説明した処理制御を行うことで、ユーザが指定しようとした瞬間に画面更新が発生しても、指定しようとしていたオブジェクトが画面更新後もユーザが指定しようとしている位置に存在するので、誤操作を低減することが可能となる。
<実施例2>
実施例1では、ユーザが指定しようとしている位置と重なる、あるいは近傍に存在する単一のオブジェクトに基づいて操作画面の表示を制御する方法について説明した。本実施例においては、ユーザが指定しようとしている位置に近接する複数のオブジェクトに基づいて操作画面の表示を制御する方法について説明する。
実施例2における表示制御システムのハードウェア構成は実施例1で説明したものと同一であるため説明を省略する。実施例2における機能構成を示したブロック図を図8に、処理の流れを示したフローチャートを図9に示す。図8のブロック図の、図2との差分は、確率取得部801が追加されていることにある。確率取得部801は、近接位置の近傍に存在する1以上のオブジェクトのうち優先して表示位置をずらさないように制御すべき部品を特定するために、いずれの部品が操作されようとしているのかを示す指標を取得する。本実施例では、確率取得部801は、非操作確率を計算する。
ステップS301からステップS303は実施例1で説明した内容と同一なので、説明を省略する。ステップS303において、格納された位置が不検出を示す値であれば、実施例1で説明したのと同じように、ステップS310において画面更新を行い、処理を終了する。ここで格納されている位置は座標(39,46)であるとする。図10(a)は画面更新前の操作画面のレイアウト情報を示した模式図である。ステップS303において不検出を示す値ではなく位置が格納されていた場合、特定部203において格納されている位置を含む所定の範囲内に含まれるオブジェクトを取得する(ステップS901)。そして、その位置近傍にオブジェクトがあるかどうかを判定する(ステップS902)。操作画面が表示されている様子と格納されている位置の関係を示した模式図が図10(b)である。ここでは、ステップS301で格納された位置を含む所定の範囲を、ディスプレイ1007に表示されている範囲で、かつその位置を中心とした半径15の円であるとすると、図10(b)のオブジェクト取得範囲1006に示した範囲となる。オブジェクト取得範囲1006と重なるオブジェクトはボタンB1002、ボタンC1003となり、ボタンA1001とボタンD1004は範囲に含まれない。オブジェクト取得範囲内にオブジェクトがない場合はステップS310において画面更新を行い、処理を終了する。オブジェクト取得範囲内にオブジェクトがある場合は、確率取得部801において、取得したオブジェクトの被操作確率を取得する(ステップS903)。被操作確率とはつまり、この時点以降に当該UI品がタッチされるであろう確率であって、最もタッチされやすい部品の表示位置を優先して制御するために用いる指標の一例である。ここでは位置1005から各部品までの最短距離の逆数の比を計算することによって、被操作確率として扱う値を取得する。図10(a)および図10(b)より、位置1005からボタンB1002までの最短距離は4、位置1005からボタンC1003までの最短距離は6となるので、ボタンB1002の被操作確率は60%、ボタンC1003の被操作確率は40%となる。
次に画面更新後の操作画面のレイアウト情報を取得する(ステップS904)。ここで取得されるレイアウト情報の例を図示したのが図10(c)の模式図である。ボタンB1002とボタンC1003の幅がそれぞれ変更されている。次に、画面更新後の操作画面のレイアウト情報に、ステップS901で取得したオブジェクトが存在しているかどうかを判定する(ステップS905)。存在していない場合はステップS310において画面更新を行い、処理を終了する。この例では、ボタンB1002、ボタンC1003がともに存在しているので、それぞれのレイアウト情報を取得する(ステップS906)。次に、ステップS903で求めた被操作確率をもとに画面更新後の操作画面の移動量を計算する(ステップS907)。
ステップS907の処理についてここで詳細に説明する。ボタンB1002の輪郭とボタンC1003の輪郭からのそれぞれの最短距離がオブジェクトの被操作確率の逆数比になる点の集合を求める。この点の集合を図示したのが図10(c)における分割線1008である。分割線1008は座標(44,40)から座標(44,60)までの線分として求められる。次に分割線1008の中点(44,50)から位置1005(39,46)へのベクトルを計算する。このベクトルは(−5,−4)と求められ、これを移動量として適用した画面更新後の操作画面を生成し、画面更新を行うと、図10(d)に示したような操作画面となる。
なお、ここでは2つのオブジェクトの被操作確率を計算し、それに基づいた移動量を適用する情報処理方法について説明したが、3つ以上のオブジェクトの被操作確率から計算することも可能である。また、ステップS905において、ステップS901で取得したすべてのオブジェクトが画面更新後の操作画面のレイアウト情報に含まれなかった場合は、画面更新後の操作画面のレイアウト情報に含まれているオブジェクトのみから計算してもよい。また、画面更新後の操作画面のレイアウト情報において、ステップS901で取得したオブジェクトが所定の値より離れてレイアウトされた場合は移動量なしとして処理するように構成してもよい。
以上説明した処理制御を行うことで、ユーザが指定しようとした瞬間に画面更新が発生しても、指定しようとしていた位置近傍に存在した複数のオブジェクトが、画面更新後にその位置近傍に表示されるので、誤操作を低減することが可能となる。また、指定する可能性が高いオブジェクトほど、画面更新後にその位置の近くに表示されるため、誤操作を低減することが可能となる。
<実施例3>
実施例1および実施例2では、ボタンのようにオブジェクトの表示領域内であればどの位置を指定しても実行される処理が1つである例について説明した。本実施例では、オブジェクトを指定する位置によって異なる処理が実行される場合に操作画面の表示を制御する方法について説明する。
実施例3における表示制御システムのハードウェア構成は実施例1で説明したものと同一であるため説明を省略する。実施例3における機能構成を示したブロック図を図11に、処理の流れを示したフローチャートを図12に示す。図11と図2の差分は、複合判定部1101とサブオブジェクト取得部1102が追加されていることである。複合判定部は、ユーザが指定しようとしているとみなされる位置に存在するオブジェクトが、複合オブジェクトか否かを判断する。本実施例において複合オブジェクトとは、1つの表示オブジェクトであっても、その表示領域内で指定される位置により、異なる処理を指示するコマンドが受け付けられるUI部品を示す。またサブオブジェクト取得部1102は、複合オブジェクトを構成する各要素となるUI部品(コマンド1つずつに対応するUI部品)を取得する。
画面更新前の操作画面のレイアウトは図13(a)に図示したようになっているものとする。ボタンA1301、ボタンB1302は、領域内のどの位置を指定されても1つの処理を実行するオブジェクトである。コンボボックス1303は、テキストボックス1304とドロップダウンボタン1305から構成される。テキストボックス1304の領域を指定するとテキスト編集モードに移行し、ドロップダウンボタン1305を指定するとドロップダウンメニューが表示される。本実施例では、このような指定する位置によって処理が異なるオブジェクトを複合オブジェクトと定義する。複合オブジェクトとしては、他にもスピンボタン、スライダーなどがある。また、複合オブジェクトを構成するオブジェクトをサブオブジェクトサブオブジェクトと定義する。例えば、コンボボックス1303におけるサブオブジェクトはテキストボックス1304とドロップダウンボタン1305である。
図12において、ステップS301からステップS307までは実施例1で説明した内容と同一であるので説明を省略する。ステップS301で取得、格納された位置を(66,74)とする。画面上に表示される画面更新前の操作画面にステップS301で格納された位置を重畳させて示した模式図が図13(b)である。ステップS305において、位置1306とコンボボックス1303が重なっているので、その位置にオブジェクトが存在すると判定される。ステップS306で取得された画面更新後の操作画面のレイアウトを図示したのが図13(c)である。コンボボックス1303が画面更新後の操作画面のレイアウトに存在するので、ステップS307では画面更新後に同じオブジェクトが存在すると判定される。
次に、複合判定部1101において画面更新前にステップS301で格納された位置に存在したオブジェクトが複合オブジェクトであるかどうかを判定する(ステップS1201)。複合オブジェクトかどうかの判定は、あらかじめオブジェクトが複合オブジェクトかどうかの種別をリストに登録しておき、そのリストを参照するように構成してもよいし、また他の方法であってもかまわない。複合オブジェクトでなかった場合は実施例1で説明したステップS308、ステップS309の処理を実行し、計算された移動量を適用して画面更新後の操作画面生成し、画面更新を行って本処理を終了する。複合オブジェクトであった場合は、サブオブジェクト取得部1102においてステップS301で格納された位置に存在するサブオブジェクトを取得する(ステップS1202)。図13(b)より、ステップS1202で取得されるサブオブジェクトはドロップダウンボタン1305である。次に、移動量決定部205において、画面更新後の操作画面の移動量を、ステップS1202で取得したサブオブジェクトに基づいて計算する(ステップS1203)。ここでは、画面更新後の操作画面が、ステップS1202で取得したサブオブジェクトの中央と格納された位置が一致するような平行移動量を計算する。画面更新後の操作画面におけるドロップダウンボタン1305の中央の座標は(20,85)である。位置1306の座標は(66,74)であるので、平行移動量は(46,−11)と求められる。ステップS1203で求めた移動量を適用し、ステップS310において画面更新後の操作画面を生成し、画面更新を行う。本実施例における画面更新後の操作画面の表示は図13(d)のようになる。
以上説明した処理制御を行うことで、ユーザが指定しようとした瞬間に画面更新が発生しても、指定しようとしていたオブジェクトに含まれるサブオブジェクトが、指定しようとしていた位置近傍に表示されるので、誤操作を低減することが可能となる。
<その他の実施例>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (21)

  1. 表示画面に表示させた画像の少なくとも一部を更新する更新指示を受信する受信手段と、
    前記受信手段によって受信された更新指示に従って前記画像が更新される前のユーザ入力の検出状態に基づいて、その後のユーザ入力によって指示される前記表示画面上の指示位置を推定する推定手段と、
    前記受信手段によって受信された更新指示に従って前記表示画面に表示させた画像を更新する場合、更新の前に前記表示画面に表示された画像において前記推定された指示位置に表示されているオブジェクトを、前記更新の後においても前記表示画面上の前記推定手段によって推定された前記指示位置に表示させる表示制御手段と、
    を備え
    前記更新の後において、更新された後の画像を構成する複数のオブジェクトのレイアウトを変更せず維持するように画面更新をさせ前記表示制御手段による制御を行う第1モードと、前記表示制御手段による制御を行わない第2モードとを備え、前記更新指示を行うユーザの指示に基づいて、前記第1モードと前記第2モードとを切り替えることを特徴とする情報処理装置。
  2. 前記受信手段は、前記表示画面に表示された画像の内容が増減することによって生じる更新指示を受信することを特徴とする請求項1に記載の情報処理装置。
  3. 前記ユーザ入力によって前記指示位置が決定されたことに応じて、前記表示画面において前記決定された指示位置に表示されているオブジェクトに応じた動作を実行する実行手段を更に備えることを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記表示制御手段は、前記推定手段によって推定された前記指示位置に表示されているオブジェクトを、前記更新の前の表示画面と、前記更新の後の表示画面において同一の位置に表示させることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
  5. 前記表示制御手段は、前記更新の前の表示画面において、前記推定手段によって推定された前記指示位置に表示されているオブジェクトが表示されていた範囲と、前記更新の後の表示画面において該オブジェクトが表示される範囲とが重なるように制御することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 前記表示画面に表示されている画像において、前記推定手段によって推定された前記指示位置に表示されているオブジェクトを特定する特定手段を更に備え、
    前記表示制御手段は、前記特定手段によって特定されたオブジェクトを、前記更新の後においても前記推定手段によって推定された前記指示位置に表示させることを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
  7. 前記表示制御手段は、前記更新を行う前に、前記表示画面に表示されている画像における前記特定手段によって特定されたオブジェクトの位置と、前記更新が行われた場合に前記更新の後に前記表示画面に表示される画像における前記特定手段によって特定されたオブジェクトの位置とに基づいて、前記オブジェクトが、前記更新の前後において前記表示画面上の同一の位置に表示されるように制御することを特徴とする請求項6に記載の情報処理装置。
  8. 前記受信手段によって受信された更新指示に従う更新が行われる前に、前記更新が行われた場合に前記表示画面に表示される画像での、前記特定手段によって特定されたオブジェクトの配置を取得する配置取得手段とを更に備え、
    前記表示制御手段は、前記配置取得手段によって取得された配置と、前記推定手段によって推定された位置とに基づいて、前記更新の後の前記表示画面において、前記特定手段によって特定されたオブジェクトが表示される位置を制御することを特徴とする請求項6又は7のいずれか1項に記載の情報処理装置。
  9. 前記推定手段によって推定された位置と、前記配置取得手段によって取得された配置とに基づいて、前記更新の後に前記表示画面に表示される画像を前記表示画面に平行な方向に移動させる移動量を決定する決定手段を更に備え、
    前記表示制御手段は、前記決定手段が決定した移動量の分、前記更新の後に前記表示画面に表示される画像を、所定の表示位置から移動させることによって、前記特定手段によって特定されたオブジェクトが表示される位置を制御することを特徴とする請求項8に記載の情報処理装置。
  10. 前記特定手段は、前記表示画面に表示されている画像において、前記推定手段によって推定された位置の近傍に存在するオブジェクトを特定し、
    前記決定手段は、前記推定手段によって推定された位置が、前記更新の後に前記表示画面に表示される画像における前記特定手段によって特定されたオブジェクトの中心に位置するように前記移動量を決定することを特徴とする請求項9に記載の情報処理装置。
  11. 前記決定手段は、前記推定手段によって推定された位置と、前記特定手段によって特定されたオブジェクトとの相対位置関係を、前記更新の後の前記表示画面においても維持するように、前記移動量を決定することを特徴とする請求項9に記載の情報処理装置。
  12. 前記決定手段は、前記推定手段によって推定された位置が、前記特定手段によって特定されたオブジェクトと重なるように前記更新の後に前記表示画面に表示される画像を移動させる移動量を決定することを特徴とする請求項9に記載の情報処理装置。
  13. 前記推定手段によって推定された位置に基づいて、前記表示画面に表示された1以上のオブジェクトのそれぞれが操作される確率を取得する確率取得手段を更に備え、
    前記特定手段は、前記確率取得手段によって取得された確率に基づいてオブジェクトを特定することを特徴とする請求項9乃至12のいずれか1項に記載の情報処理装置。
  14. 前記表示制御手段は、前記表示画面に表示されている画像において前記推定手段によって推定された位置に表示されるオブジェクトが、複数のサブオブジェクトによって構成される複合オブジェクトである場合には、
    前記決定手段は、前記推定手段によって推定された位置に表示されたサブオブジェクトを、前記更新の後においても前記更新の前と同一の位置に表示させることを特徴とする請求項9乃至13のいずれか1項に記載の情報処理装置。
  15. 前記指示位置は、前記表示画面に物体が接触したことが検出される位置であって、前記推定手段は、前記表示画面に前記物体が近接したことが検出される位置に基づいて、前記指示位置を推定することを特徴とする請求項1乃至14のいずれか1項に記載の情報処理装置。
  16. 前記推定手段は、前記表示画面に物体が接触したことが検出された位置に基づいて、前記指示位置を推定し、前記物体が前記表示画面から離れたことが検出される位置が前記指示位置として決定されることを特徴とする請求項1乃至14のいずれか1項に記載の情報処理装置。
  17. 前記指示位置は、前記表示画面に対して入力されるクリックによって決定される位置であって、
    前記推定手段は、前記表示画面上に指定されるマウスカーソルの表示位置の位置に基づいて、前記指示位置を推定することを特徴とする請求項1乃至14のいずれか1項に記載の情報処理装置。
  18. さらにユーザの視線を検出する手段を備え、前記推定手段は、前記ユーザの視線に基づいて、前記表示画面上のユーザが注目しているとみなされる位置を、前記指示位置として推定することを特徴とする請求項1乃至14のいずれか1項に記載の情報処理装置。
  19. 前記表示画面に表示させた画像とは、Webブラウザアプリケーションにおいて表示されるWebページであって、
    前記受信手段は、Webブラウザアプリケーションがインターネット上のデータを取得しながら実行する描画処理において、新たに受信されたデータによって表示されている前記Webページの少なくとも一部を更新する更新指示を受信することを特徴とする請求項1乃至18のいずれか1項に記載の情報処理装置。
  20. 受信手段により、表示画面に表示させた画像の少なくとも一部を更新する更新指示を受信する受信工程と、
    推定手段により、受信された前記更新指示に従って前記画像が更新される前のユーザ入力の検出状態に基づいて、その後のユーザ入力によって指示される前記表示画面上の指示位置を推定する推定工程と、
    表示制御手段により、受信された前記更新指示に従って前記表示画面に表示させた画像を更新する場合、更新の前に前記表示画面に表示された画像において前記推定された指示位置に表示されているオブジェクトを、前記更新の後においても前記表示画面上の前記推定手段によって推定された前記指示位置に表示させる表示制御工程と、
    を備え
    前記更新の後において、更新された後の画像を構成する複数のオブジェクトのレイアウトを変更せず維持するように画面更新をさせ前記表示制御工程での制御を行う第1モードと、前記表示制御工程での制御を行わない第2モードとがあり、前記更新指示を行うユーザの指示に基づいて、前記第1モードと前記第2モードとを切り替えることを特徴とする情報処理装置の制御方法。
  21. コンピュータに読み込ませ実行させることで、該コンピュータを請求項1乃至19の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2013267140A 2013-12-25 2013-12-25 情報処理装置、その情報処理方法、プログラム、及び記憶媒体 Active JP6366267B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013267140A JP6366267B2 (ja) 2013-12-25 2013-12-25 情報処理装置、その情報処理方法、プログラム、及び記憶媒体
US14/581,552 US9891730B2 (en) 2013-12-25 2014-12-23 Information processing apparatus, information processing method therefor, and non-transitory storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013267140A JP6366267B2 (ja) 2013-12-25 2013-12-25 情報処理装置、その情報処理方法、プログラム、及び記憶媒体

Publications (3)

Publication Number Publication Date
JP2015125457A JP2015125457A (ja) 2015-07-06
JP2015125457A5 JP2015125457A5 (ja) 2017-02-02
JP6366267B2 true JP6366267B2 (ja) 2018-08-01

Family

ID=53400205

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013267140A Active JP6366267B2 (ja) 2013-12-25 2013-12-25 情報処理装置、その情報処理方法、プログラム、及び記憶媒体

Country Status (2)

Country Link
US (1) US9891730B2 (ja)
JP (1) JP6366267B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017021449A (ja) * 2015-07-07 2017-01-26 富士通株式会社 情報処理装置、表示制御方法および表示制御プログラム
JP2018041201A (ja) * 2016-09-06 2018-03-15 富士通株式会社 表示制御プログラム、表示制御方法および情報処理装置
CN109710865B (zh) * 2018-12-06 2021-05-07 天津字节跳动科技有限公司 开放式自动布局方法、装置、电子设备和存储介质
CN112394851B (zh) * 2020-11-30 2022-04-05 Oppo广东移动通信有限公司 屏幕尺寸的控制方法、电子装置、介质和设备

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5564004A (en) * 1994-04-13 1996-10-08 International Business Machines Corporation Method and system for facilitating the selection of icons
JPH0962446A (ja) * 1995-08-22 1997-03-07 Matsushita Electric Works Ltd タッチパネル入力方法及びその装置
US6269403B1 (en) * 1997-06-30 2001-07-31 Microsoft Corporation Browser and publisher for multimedia object storage, retrieval and transfer
US7614008B2 (en) * 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
JP2004301869A (ja) * 2003-03-28 2004-10-28 Takuya Shinkawa 音声出力装置およびポインティングデバイス
US7565157B1 (en) * 2005-11-18 2009-07-21 A9.Com, Inc. System and method for providing search results based on location
JP2010067208A (ja) * 2008-09-12 2010-03-25 Kyocera Mita Corp 表示制御装置、画像形成装置、及び表示制御プログラム
JP4522475B1 (ja) * 2009-03-19 2010-08-11 Smk株式会社 操作入力装置、制御方法、およびプログラム
JP2011180625A (ja) * 2010-02-26 2011-09-15 Brother Industries Ltd 入力装置および入力制御プログラム
JP5293691B2 (ja) * 2010-06-28 2013-09-18 ブラザー工業株式会社 入力装置、複合機および入力制御プログラム
JP2013090264A (ja) * 2011-10-21 2013-05-13 Konica Minolta Business Technologies Inc 画像処理装置、表示制御方法、ブラウザプログラムおよびアプリケーションプログラム
US9317119B2 (en) * 2012-04-27 2016-04-19 Panasonic Intellectual Property Management Co., Ltd. Haptic feedback device, haptic feedback method, driving signal generating device and driving signal generation method
JP2013037709A (ja) * 2012-09-20 2013-02-21 Ricoh Co Ltd 情報処理装置、表示制御方法、及び表示制御プログラム
US9842511B2 (en) * 2012-12-20 2017-12-12 The United States Of America As Represented By The Secretary Of The Army Method and apparatus for facilitating attention to a task

Also Published As

Publication number Publication date
US20150178249A1 (en) 2015-06-25
JP2015125457A (ja) 2015-07-06
US9891730B2 (en) 2018-02-13

Similar Documents

Publication Publication Date Title
US9069386B2 (en) Gesture recognition device, method, program, and computer-readable medium upon which program is stored
JP6132644B2 (ja) 情報処理装置、表示制御方法、コンピュータプログラム、及び記憶媒体
JP6073782B2 (ja) 表示装置、表示制御方法及び表示制御プログラム、並びに、入力装置、入力支援方法及びプログラム
US9430089B2 (en) Information processing apparatus and method for controlling the same
JP6410537B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
US20130067397A1 (en) Control area for a touch screen
JP6171643B2 (ja) ジェスチャ入力装置
JP5640486B2 (ja) 情報表示装置
US9916043B2 (en) Information processing apparatus for recognizing user operation based on an image
US20130328804A1 (en) Information processing apparatus, method of controlling the same and storage medium
KR102205283B1 (ko) 적어도 하나의 어플리케이션을 실행하는 전자 장치 및 그 제어 방법
KR20120058996A (ko) 객체 제어 장치 및 방법
US20140292728A1 (en) Information processing device, control method, and storage medium
KR101392936B1 (ko) 사용자 맞춤형 인터페이스 시스템 및 그 구현 방법
JP6366267B2 (ja) 情報処理装置、その情報処理方法、プログラム、及び記憶媒体
US20150199020A1 (en) Gesture ui device, gesture ui method, and computer-readable recording medium
CN108733302B (zh) 手势触发方法
US10222967B2 (en) Method, apparatus, and computer program for scrolling a document on a touch panel
US9804773B2 (en) Multi-touch based drawing input method and apparatus
US20150185975A1 (en) Information processing device, information processing method, and recording medium
US20150277649A1 (en) Method, circuit, and system for hover and gesture detection with a touch screen
US10318047B2 (en) User interface for electronic device, input processing method, and electronic device
KR20160019449A (ko) 간접 입력의 명확화 기법
JP6034281B2 (ja) オブジェクト選択方法、装置及びコンピュータ・プログラム
US10564762B2 (en) Electronic apparatus and control method thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161214

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180703

R151 Written notification of patent or utility model registration

Ref document number: 6366267

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151