JP5295328B2 - スクリーンパッドによる入力が可能なユーザインタフェース装置、入力処理方法及びプログラム - Google Patents

スクリーンパッドによる入力が可能なユーザインタフェース装置、入力処理方法及びプログラム Download PDF

Info

Publication number
JP5295328B2
JP5295328B2 JP2011166608A JP2011166608A JP5295328B2 JP 5295328 B2 JP5295328 B2 JP 5295328B2 JP 2011166608 A JP2011166608 A JP 2011166608A JP 2011166608 A JP2011166608 A JP 2011166608A JP 5295328 B2 JP5295328 B2 JP 5295328B2
Authority
JP
Japan
Prior art keywords
finger
contact
screen
screen pad
pressing force
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011166608A
Other languages
English (en)
Other versions
JP2013030050A (ja
Inventor
友明 松木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2011166608A priority Critical patent/JP5295328B2/ja
Priority to US14/233,518 priority patent/US9244544B2/en
Priority to PCT/JP2012/066736 priority patent/WO2013018480A1/ja
Publication of JP2013030050A publication Critical patent/JP2013030050A/ja
Application granted granted Critical
Publication of JP5295328B2 publication Critical patent/JP5295328B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position

Description

本発明は、画像を表示するディスプレイと、ユーザインタフェースとしてのタッチパネルとを備えたユーザインタフェース装置に関する。
従来、画面に指、スタイラス等で触れることによって入力操作を行う、タッチパネルを搭載したユーザインタフェース装置が広く普及している。特に、近年、スマートフォン、タブレット型コンピュータ、電子書籍、PDA(Personal Digital Assistant)のようなユーザインタフェース装置、いわゆる携帯型情報機器では、指による操作を受け入れるユーザインタフェースとしてタッチパネルが積極的に採用されている。
携帯型情報機器は、携帯性を高めるべく小型化を必要とする。このため、ユーザインタフェースとして物理的な入力キーを採用した場合、これら入力キー自体のサイズを小さくしなければならず、操作性の低下が懸念される。これに対し、タッチパネルを採用した場合、仮想ボタンのサイズを、アプリケーションの機能に応じて適切に変更することができ、操作性の向上を図ることができる。
このタッチパネルへの入力では、指を接触させてタッチパネル上の所定の位置を的確に指定することが、所望の動作を確実に発動させる上で非常に重要となる。例えば、表示された画像における画面の枠近傍の位置や、表示された画像内の細かいパターンの位置を、指で正確に指定できることが要求される。
この要求に対処するため、例えば、特許文献1では、指だけでカーソル指定座標を指定する技術が開示されている。この技術では、タッチ位置を移動させることにより、不動支点を間に挟んでタッチ位置の反対側に描かれたカーソル図形を移動させ、カーソル指定座標を指定している。
また、表示手段が設けられた面とは反対側の面にトラックパッドを設けた携帯型情報通信装置も提案されている(特許文献2参照)。この装置では、片手で装置筐体を保持し、この保持した手の指をトラックパッドに接触させて操作を行う。これにより、片手の指で操作し、所定の位置を指定することが可能になるとしている。
特開2010−211352号公報 特開平9−198352号公報
しかしながら、依然として、携帯型情報機器を保持した片手の指で、画面内の任意の位置を容易に指定することは困難である。
特に、近年、多様且つ大容量の情報を見易く表示するため、ディスプレイの画面は、機器の前面のほぼ全域を占める場合が多い。ここで、このような機器を片手で保持した場合、この片手において保持に関係せず自由に動かし易い指は、実際のところ、親指となる。しかしながら、親指は、一般に他の指に比べて短く、この広い画面における保持した片手とは反対側の端及びその近傍には届き難い。
この問題は、特許文献1及び2に開示されたような従来技術を適用しても解決し難い。例えば、特許文献1に開示された技術では、カーナビゲーション装置等の設置型の情報機器が前提となっており、装置を片手で保持しての操作は考慮されていない。また、それ故に、不動支点の図形を表示させ、この不動支点の位置に基づいて反対側のタッチ位置からカーソル図形を移動させる、といった複雑な動作が想定されており、親指では操作し難い。
一方、特許文献2に開示された技術では、確かに、装置を保持した片手の指での操作が意図されている。しかしながら、装置の裏面に設けられたトラックパッドに指を接触させる以上、この指は、保持に関係している中指、薬指等の親指以外の指であり、自由に動かし難いことは否めない。
そこで、本発明は、装置を保持した片手の指で、画面内の任意の位置を容易に指定することができるユーザインタフェース装置、入力処理方法及びプログラムを提供することを目的とする。
本発明によれば、画像を画面に表示する画像表示部と、指の接触位置を時間経過に応じて逐次出力するタッチパネルとを備えたユーザインタフェース装置において、
当該指によってタッチパネルに与えられる押圧力を検出する押圧力検出部と、
表示された当該画像全体を縮小して表示するスクリーンパッドを、画面内に表示させるスクリーンパッド制御手段と、
当該指がスクリーンパッドに接触し、且つ当該指の接触位置が所定時間以上継続して変化しなかったか否かを判定する接触判定手段と、
接触判定手段が真の判定を行った際、画面内に、当該指の接触位置に対応した該画面内での位置を指し示すポインタを表示させるポインタ表示手段と、
前記押圧力が所定閾値以上であるか否かを判定する押圧力判定手段と、
接触判定手段によって当該指の接触位置が所定時間以内に変化したとの判定が行われた際、当該指の接触位置の変化に応じて当該画像全体を移動させ、一方、接触判定手段が真の判定を行った際、当該画像全体を固定することによって、当該指の接触位置を所定時間以上静止させた後に当該指を継続して接触させつつ当該指によってスクリーンパッド内を押し込む一連の操作を可能とする「タッチフォーカス」モードを動作させ、「タッチフォーカス」モードの動作下、ポインタが当該指の接触位置に対応した位置を指し示す際、指し示された当該位置に当該指が接触したとするならば本来起こるべき動作を発動させ、当該指を接触させたままで当該指によってスクリーンパッド内を押し込むことによって、ポインタが当該指の接触位置に対応した位置を指し示し且つ押圧力判定手段が真の判定を行った際、指し示された当該位置に当該指が接触したまま所定閾値以上の押圧力で押し込まれたとするならば本来起こるべき動作を発動させる動作制御手段と
を有するユーザインタフェース装置が提供される。
本発明のユーザインタフェース装置における他の実施形態によれば、動作制御手段は、ポインタの指し示す位置であって当該指の接触位置に対応した位置ある軌跡をなす際、当該指が当該軌跡をなすように接触しつつ移動したとするならば本来起こるべき動作を発動させることも好ましい。
本発明のユーザインタフェース装置における他の実施形態によれば、スクリーンパッドは、ユーザがユーザインタフェース装置を片手で保持した場合に該片手の指が該スクリーンパッド上のいずれの地点にも接触することができるような位置に表示されることも好ましい。
さらに、この「タッチフォーカス」モードの動作下、ポインタが、当該画像に含まれる操作対象であるオブジェクトの表示位置範囲内の位置を指し示す際、動作制御手段は、該オブジェクトを選択する「フォーカス」操作が行われたとして対応する動作を発動させることも好ましい。
本発明のユーザインタフェース装置における他の実施形態によれば、「タッチフォーカス」モードの動作下、動作制御手段は、ポインタが当該画像に含まれる操作対象であるオブジェクトの表示位置範囲内の位置を指し示し且つスクリーンパッドに接触した当該指による押圧力が所定閾値以上である場合、該オブジェクトの機能を発動させる「クリック」操作が行われたとして対応する動作を発動させることも好ましい。
さらに、この実施形態において、タッチパネルに接触した当該指に対して触覚応答を与える触覚応答機構部と、
「クリック」操作が行われた際、当該指に対してタッチパネルを介して触覚応答を与えるべく触覚応答機構部を制御する触覚応答制御手段と
を更に有することも好ましい。
本発明のユーザインタフェース装置における他の実施形態によれば、接触判定手段によって、当該指がスクリーンパッドに接触してこの接触位置が所定時間以内に変化し、その後該接触位置が停止したと判定された場合、動作制御手段は、当該指の移動に応じた当該画像全体の移動の後、押圧力の大きさに応じた速度で当該画像全体を更に移動させる「ドラッグクリック」操作が行われたとして対応する動作を発動させることも好ましい。
本発明のユーザインタフェース装置における他の実施形態によれば、ユーザの操作から見て、当該指がディスプレイの画面におけるスクリーンパッドの範囲外の領域に接触した場合、動作制御手段は、当該指の接触位置に当該指が接触するならば本来起こるべき動作を発動させることも好ましい。
本発明によれば、さらに、画像を画面に表示する画像表示部と、指の接触位置を時間経過に応じて逐次出力するタッチパネルとを備えたユーザインタフェース装置に搭載されたプログラムにおいて、
上記ユーザインタフェース装置は、当該指によってタッチパネルに与えられる押圧力を検出する押圧力検出部を更に備えており、
上記プログラムは、
表示された当該画像全体を縮小して表示するスクリーンパッドを、画面内に表示させるスクリーンパッド制御手段と、
当該指がスクリーンパッドに接触し、且つ当該指の接触位置が所定時間以上継続して変化しなかったか否かを判定する接触判定手段と、
接触判定手段が真の判定を行った際、画面内に、当該指の接触位置に対応した該画面内での位置を指し示すポインタを表示させるポインタ表示手段と、
押圧力が所定閾値以上であるか否かを判定する押圧力判定手段と、
接触判定手段によって当該指の接触位置が所定時間以内に変化したとの判定が行われた際、当該指の接触位置の変化に応じて当該画像全体を移動させ、一方、接触判定手段が真の判定を行った際、当該画像全体を固定することによって、当該指の接触位置を所定時間以上静止させた後に当該指を継続して接触させつつ当該指によってスクリーンパッド内を押し込む一連の操作を可能とする「タッチフォーカス」モードを動作させ、「タッチフォーカス」モードの動作下、ポインタが当該指の接触位置に対応した位置を指し示す際、指し示された当該位置に当該指が接触したとするならば本来起こるべき動作を発動させ、当該指を接触させたままで当該指によってスクリーンパッド内を押し込むことによって、ポインタが当該指の接触位置に対応した位置を指し示し且つ押圧力判定手段が真の判定を行った際、指し示された当該位置に当該指が接触したまま所定閾値以上の押圧力で押し込まれたとするならば本来起こるべき動作を発動させる動作制御手段と
してコンピュータを機能させる、ユーザインタフェース装置用のプログラムが提供される。
本発明によれば、さらにまた、画像を画面に表示する画像表示部と、指の接触位置を時間経過に応じて逐次出力するタッチパネルとを備えたユーザインタフェース装置における入力処理方法において、
上記ユーザインタフェース装置は、当該指によってタッチパネルに与えられる押圧力を検出する押圧力検出部を更に備えており、
上記入力処理方法は、
表示された当該画像全体を縮小して表示するスクリーンパッドを、画面内に表示させる第1のステップと、
当該指がスクリーンパッドに接触し、且つ当該指の接触位置が所定時間以上継続して変化しなかったか否かを判定する第2のステップと、
第2のステップで真の判定がなされた際、画面内に、当該指の接触位置に対応した該画面内での位置を指し示すポインタを表示させる第3のステップと、
押圧力が所定閾値以上であるか否かを判定する第4のステップと、
第2のステップにおいて当該指の接触位置が所定時間以内に変化したとの判定が行われた際、当該指の接触位置の変化に応じて当該画像全体を移動させ、一方、第2のステップで真の判定が行われた際、当該画像全体を固定することによって、当該指の接触位置を所定時間以上静止させた後に当該指を継続して接触させつつ当該指によってスクリーンパッド内を押し込む一連の操作を可能とする「タッチフォーカス」モードを動作させ、「タッチフォーカス」モードの動作下、ポインタが当該指の接触位置に対応した位置を指し示す際、指し示された当該位置に当該指が接触したとするならば本来起こるべき動作を発動させ、当該指を接触させたままで当該指によってスクリーンパッド内を押し込むことによって、ポインタが当該指の接触位置に対応した位置を指し示し且つ第4のステップで真の判定が行われた際、指し示された当該位置に当該指が接触したまま所定閾値以上の押圧力で押し込まれたとするならば本来起こるべき動作を発動させる第5のステップと
を有する入力処理方法が提供される。
本発明のユーザインタフェース装置、入力処理方法及びプログラムによれば、装置を保持した片手の指で、画面内の任意の位置を容易に指定することができる。
スクリーンパッドが表示された携帯型情報機器の前面図、及び指による操作の概略図である。 「フォーカス」操作及び「クリック」操作を説明するための、携帯型情報機器の前面図である。 「ドラッグクリック」操作を説明するための、携帯型情報機器の前面図である。 本発明による携帯型情報機器の構成を概略的に示す斜視図、及び本発明によるスクリーンパッドを用いた入力処理方法の一実施形態を示すフローチャートである。 本発明による携帯型情報機器の一実施形態を示す機能構成図である。
以下、本発明の実施形態について、図面を用いて詳細に説明する。
本発明によるユーザインタフェース装置は、ディスプレイの画面に表示された画像全体を縮小して表示する「スクリーンパッド」を、この画面内に設定する点に特徴を有する。ユーザの指がこのスクリーンパッドに接触することによって、ディスプレイに表示された画像に直接接触するのと同等の操作が可能となる。
ここで、「画像全体」とは、ディスプレイの画面に表示された全画像のうち、指による操作対象を含む部分である。当然に、表示された全画像でもあり得る。例えば、複数のアイコンが配列された領域をなす画像部分は、この操作対象を含む部分に相当する。また、時刻表示部分、バッテリメータ、電波強度インジケータ等の表示部分は「画像全体」に含まれない、とすることも可能である。
尚、本発明が対象とするユーザインタフェース装置では、装置を保持した片手の指がスクリーンパッドに接触することによって情報が入力される。このため、当該装置の多くは、片手でも保持することが可能な、スマートフォンやタブレット型コンピュータのような携帯型情報機器である。従って、以下、本発明の実施形態として、携帯型情報機器を説明する。
図1は、スクリーンパッドが表示された携帯型情報機器の前面図、及び指による操作の概略図である。
図1(A)は、ディスプレイ101の画面内にスクリーンパッド105が表示された状態を示している。この図によれば、携帯型情報機器1は、画像を表示するディスプレイ101と、ディスプレイ101の画面上に配置されたタッチパネル100とを備えている。
また、ディスプレイ101に表示された画像に、複数のアイコン104が含まれている。アイコン104は、アプリケーションを起動させるための、ユーザにとっての操作対象(オブジェクト)である。ここで、ユーザは、指を直接アイコン104に接触させることによって、アイコン104を選択することができる。
スクリーンパッド105は、ディスプレイ101の画面内に表示されており、画面に表示された画像全体が縮小して表示された画像領域である。スクリーンパッド105に表示された画像は、画面に表示された画像全体に対し、相似比が1未満の相似形であってもよい。または、x軸(X軸)方向の縮小率とy軸(Y軸)方向の縮小率とが互いに異なる縮小形であってもよい。
さらに、スクリーンパッド105の形状として、矩形、菱形、その他の多角形、若しくはこれらの形状で角が丸められたもの、又は楕円形、若しくは円形等、種々の形状が採用可能である。いずれにしても、スクリーンパッド105には、複数のアイコン104のそれぞれに対応した複数のアイコンイメージ104aが表示される。
ユーザは、携帯型情報機器1を片手(図1(A)では右手)で保持し、この片手の親指をスクリーンパッド105(内のタッチパネル100部分)に接触させる。親指は、保持に関係しないため、自由に動かし易く操作に適している。この親指が、例えば、スクリーンパッド105内に表示されたアイコンイメージ104aに接触すると、この接触位置に対応したアイコン104の位置を指し示すポインタ106が、画面内に表示される。
この際、ポインタ106の指し示すアイコン104の位置に指が接触するならば起こるべき動作が発動される。例えば、アイコン104を選択する操作である、後に詳述する「フォーカス」操作が行われたとして、選択動作が発動される。この選択動作としては、例えばアイコン104が浮き上がって見えたり光ったりする強調表示が可能である。
スクリーンパッド105は、機器1を保持した片手の親指がスクリーンパッド105上のいずれの地点にも接触することができるような位置に表示されることが好ましい。これにより、例えば、親指がアイコン104に届かず、直接接触し得ない場合でも、ユーザは、アイコンイメージ104aに親指を接触させることができる。その結果、アイコン104に直接接触したのと同等の動作を発動させることができるのである。
尚、スクリーンパッド105に表示される(アイコンイメージ104aを含む)画像は、半透明であることも好ましい。これにより、ディスプレイ101に表示された画像全体の中でスクリーンパッド105と重畳した部分も、スクリーンパッド105を透過して視認可能となる。
また、スクリーンパッド105の表示又は非表示が選択可能であることが好ましい。スクリーンパッド105を非表示にすると、画面に表示された画像全体が、遮るもの無く視認可能となる。この場合、スクリーンパッド105の機能は停止しており、指を直接画像に接触させて操作を行う。スクリーンパッド105の表示は、例えば、指によって所定のアイコンを発動させることによって、又は機械的ボタンを押下することによって行われる。一方、スクリーンパッド105の非表示は、例えば、指によってスクリーンパッド105内に表示された所定のアイコンイメージを発動させることによって行われる。
さらに、スクリーンパッド105は、画面内で移動することができ、画面内の任意の位置に設定可能であることが好ましい。この移動は、例えば、スクリーンパッド105のいずれかの端、又は所定の領域に指を接触させたまま動かして、スクリーンパッド105をドラッグする(引きずる)ことにより行われる。
また、画面に表示された画像全体に対するスクリーンパッド105の縮小率も、変化させられることが好ましい。さらに、x軸(X軸)方向での縮小率α及びy軸(Y軸)方向での縮小率βをそれぞれ独立に変化させられることも好ましい。この縮小率の調整は、例えば、スクリーンパッド105の角に、又は端辺の中点に表示されるマーカに指を接触させたまま動かすことにより行われる。
さらに、ユーザの指が、ディスプレイ101の画面におけるスクリーンパッド105の範囲外の領域に接触した場合、この指の接触位置に、指が接触するならば本来起こるべき動作が発動する。例えば、ユーザの指が、スクリーンパッド105の範囲外に位置するアイコン104に接触した場合、後に詳述する「フォーカス」操作が行われたとして、このアイコン104の選択動作が発動される。
図1(B)は、親指の接触位置とポインタ106の指し示す位置との対応関係を示している。この図によれば、親指は接触しつつ移動し、その接触位置は、スクリーンパッド105内の点Sから点Sまで変化する。これに伴い、ポインタ106も移動し、ポインタ106の指し示す位置も、ディスプレイ101の画面内の点Pから点Pまで変化する。スクリーンパッド105にxy座標系の第1象限を適用し、さらにディスプレイ101の画面に、xy座標系と同縮尺の目盛を有するXY座標系の第1象限を適用して、これらの点を以下のような座標で表す。
(a) 点S:(x,y)、 点S:(x,y
(b) 点P:(X,Y)、 点P:(X,Y
この場合、上記座標には、以下の関係が存在する。
(c) X=α−1・x、 Y=β−1・y
(d) X=α−1・x、 Y=β−1・y
ここで、αは、画面に表示された画像全体に対するスクリーンパッド105のx軸(X軸)方向での縮小率であり、βは、画像全体に対するスクリーンパッド105のy軸(Y軸)方向での縮小率である。例えば、スクリーンパッド105が相似比1/3の相似形である場合、α−1=β−1=3となる。
同じく図1(B)では、親指は、点Sに接触した直後に、接触したまま点Sまで移動している。これは、スクリーンパッド105内でのいわゆるドラッグ操作に相当する。このため、スクリーンパッド105内のアイコンイメージ104aを含む画像も、点Sから点Sへの向きに、点Sから点Sまでの距離だけ移動する。
このような親指の接触位置の移動に応じて、ポインタ106(の指し示す位置)は、点Pから点Pまで移動する。その結果、アイコン104を含む画像全体も、点Pから点Pへの向きに、点Pから点Pまでの距離だけ移動する。これは、指を点Pから点Pまで接触させながら移動させるドラッグ操作による動作に相当する。このように、スクリーンパッド105を用いることによって、ポインタ106の指し示す位置に指が接触し、この位置のなす(画面内での)軌跡に指が追随して接触するならば起こるべき動作を発動させることが可能となる。
以下、スクリーンパッド105を介して行うことができる操作の他の形態を説明する。この操作の例として、
(1) 「フォーカス」操作:アイコン等のオブジェクトを選択する、
(2) 「クリック」操作:オブジェクトの機能を発動させる、
(3) 「ドラッグクリック」操作:ドラッグ操作後、指をタッチパネルに押し込んで画像全体を更にスクロールさせる
が挙げられる。ここで、(1)「フォーカス」操作及び(2)「クリック」操作は、後に詳述する「タッチフォーカス」モードの動作下で実施可能となる。
尚、当然に、上記以外の従来の操作、例えばフリック操作、ピンチイン操作、ピンチアウト操作等も、スクリーンパッド105を介して行うことができるように設定することもできる。
図2は、「フォーカス」操作及び「クリック」操作を説明するための、携帯型情報機器の前面図である。
図2(A)は、「フォーカス」操作を示している。最初に、この図を用いて「フォーカス」操作が行われる「タッチフォーカス」モードを説明する。図2(A)によれば、ユーザの指が、スクリーンパッド105(内のタッチパネル100部分)に接触し、所定時間以上接触位置を維持した後、接触を保ちながらスクリーンパッド105上をなぞるように移動(スライド)している。ここで、アイコン104を含む画像全体、及び対応するアイコンイメージ104aを含むスクリーンパッド105内の画像は、指の移動にもかかわらず移動せず、固定された状態となっている。
従って、ユーザは、指を接触させたまま移動させ、位置が固定されたアイコンイメージ104aに順次触れていくことができる。これに応じて、ポインタ106も画面内を移動し、位置が固定されたアイコン104を順次指し示していく。また、後述する接触判定部122(図5)が、指の移動中も、指の接触位置とアイコンイメージ104aの表示位置範囲とが重畳したか否かを判定している。このように画面に表示された画像全体を移動させることなく固定した状態で指の接触位置をモニタするモードが、「タッチフォーカス」モードである。
この「タッチフォーカス」モードは、例えば、指でスクリーンパッド105をなぞりつつ、表示された画像内に所望のアイコン104が存在するか否かを確かめながら、対応したアイコンイメージ104aの表示位置範囲まで指を確実に進めたい場合に適している。
ここで、「タッチフォーカス」モードが動作する条件を説明する。最初に、指がスクリーンパッド105に接触する。この時刻をtとする(t=t)。次いで、指は、接触位置を変化させずに停止した状態を経て、同じく接触したまま移動を開始する。この移動を開始する時刻をtS2とする(t=tS2)。この場合、指の接触位置は、時間(tS2−t)だけ継続して変化しなかったことになる。この時間(tS2−t)が所定時間tTH以上の場合に((tS2−t)≧tTH)、後述する動作制御部125(図5)が、「タッチフォーカス」モードを動作させる。尚、所定時間tTHは、例えば200msecに設定可能である。
同じく図2(A)において、「タッチフォーカス」モードの動作下、ユーザは、スクリーンパッド105をなぞりながら、指を移動させる。その後、所望のアイコン104を探し出し、対応するアイコンイメージ104aの表示位置範囲内に指を進める。このように、「タッチフォーカス」モードの動作下、指の接触位置をアイコンイメージ104aの表示位置範囲に重畳させる操作(ポインタ106の指し示す位置をアイコン104の表示位置範囲に重畳させる操作)を、以後、「フォーカス」操作と称する。「フォーカス」操作は、ユーザがアイコン104を選択する操作であり、その後のアイコン104の機能を発動させる操作を確実に行うための準備動作としての役割を果たす。
尚、指の接触位置がアイコンイメージ104aの表示位置範囲に重畳した際には、後述する触覚応答機構部102(図4)が、指に、物理的な押下ボタンの存在を感じさせる振動を与えることができる。これにより、ユーザは、「フォーカス」操作が受け入れられたことを確認でき、安定した確実な操作感を得ることができる。
ここで、物理的な押下ボタンの存在を感じさせる振動の例として、以下のものが挙げられる。最初に、アイコン104があたかも高さ(画面に垂直な方向の厚み)を有するかのように、アイコン104の表示位置範囲の各点に高さ情報を付与する。その後、指がアイコン104の表示位置範囲に差し掛かり当該範囲内に入って以降、この高さ情報から算出された勾配の大きさに応じた強度の振動を指に与える。これにより、指は、飛び出た押下ボタンをなぞったような感触を受ける。
図2(B)は、「クリック」操作を示している。この図によれば、「タッチフォーカス」モードの動作下、指が、所望のアイコンイメージ104aの位置まで進み、その結果、指の接触位置がアイコンイメージ104aの表示位置範囲と重畳する。これに対応して、ポインタ106の指し示す位置もアイコン104の表示位置範囲に重畳する。この状態から、ユーザが指をスクリーンパッド105に押し込むと、対応するアイコン104の機能が発動する。このように、アイコン104の機能を発動させるために指でアイコンイメージ104a(タッチパネル100)を押圧する操作を、以後、「クリック」操作と称する。
ここで、「クリック」操作と判定される条件を説明する。「タッチフォーカス」モードの動作下、指の接触位置が、所望のアイコンイメージ104aの表示位置範囲と重畳する。すなわち「フォーカス」操作が行われる。次いで、この状態から、ユーザが指を強く押し込み、指による押圧力pが所定の押圧力閾値pTH以上となる場合(p≧pTH)、後述する動作制御部125(図5)で、「クリック」操作が行われたと判定され、アイコン104の機能が発動する。このように、押圧力pが所定閾値pTH以上であることが、「クリック」操作と判定される条件となる。尚、押圧力閾値pTHは、例えば、0.5N(ニュートン)乃至2.0Nの範囲内の値に設定可能である。
この際、後述する触覚応答機構部102(図4)が、指に、物理的な押下ボタンを実際に押下したかのような感覚を付与する振動を与えることもできる。すなわち、ユーザは、「フォーカス」操作を行った際に、振動を受けて物理的な押下ボタンの存在を感じ、この感覚に基づき確信をもって「クリック」操作を行う。その際、さらに別種の振動を受けることにより、この仮想の押下ボタンを実際に押下したような感覚を得る。その結果、ユーザは、スクリーンパッド105上の操作であるにもかかわらず、物理的な押下ボタンを実際に操作した、との安定した確実な操作感を得ることができる。
以上、図2を用いて説明したように、本発明によれば、スクリーンパッド105を用いることによって、携帯型情報機器1を保持した片手の指で、画面内の任意の位置を容易に指定することができる。
さらに、それ故に、この保持した片手の指で、オブジェクト(例えばアイコン104)を選択する「フォーカス」操作、及びオブジェクトの機能を発動させる「クリック」操作を容易に行うことができる。この際、対象となるオブジェクトが指の届かない位置にあっても、スクリーンパッド105内の対応する位置に指を接触させることによってこれらの操作が可能となる。
また、「タッチフォーカス」モードは、指でなぞるという非常に容易な動作を可能とする。その結果、このモードの動作下、比較的狭い領域であるスクリーンパッド105上で操作が行われても、所望の動作が確実に発動される。
図3は、「ドラッグクリック」操作を説明するための、携帯型情報機器の前面図である。
図3(A)乃至(C)は、「ドラッグクリック」操作の一連の流れを示している。最初に、図3(A)によれば、ディスプレイ101の画面に、検索エンジンを用いて検索された結果を含む画像が表示されている。本実施形態では、50件の検索結果107のうち、第1件乃至第5件のみが画面に表示されている。また、これに応じて、スクリーンパッド105には、対応する検索結果イメージ107aのうち、第1件乃至第5件が、縮小されて表示されている。
ユーザは、指を、スクリーンパッド105に接触させて直ちに、接触を保ったまま上側に移動(スライド)させる。すなわちいわゆるドラッグ操作を行う。これにより、図3(B)に示したように、スクリーンパッド105内の検索結果イメージ107aを含む画像も、この指の移動に合わせて上側にスクロールされる。その結果、例えば、検索結果イメージ107aの第4件から第8件までが表示される。また、これに対応して、検索結果107を含む画像全体も、上側にスクロールされる。その結果、例えば、検索結果107の第4件から第8件までが表示される。
このドラッグ操作の直後、ユーザは、ドラッグ操作が終了した指の接触位置で、指をスクリーンパッド105(内のタッチパネル100部分)に押し込む。これらドラッグ操作とその後の指による押し込みという一連の操作が、「ドラッグクリック」操作である。この操作によって、図3(C)に示したように、スクリーンパッド105内の検索結果イメージ107aを含む画像も、検索結果107を含む画像全体も、ドラッグ操作によるスクロールに引き続き、指の押し込みに対応した速度で、更にスクロールされる。
ここで、ユーザは、指の押し込みの強さを加減しながらスクロールの速度を調整することができる。その結果、例えば、検索結果107における表示されていない遠い位置であった第42件から第46件までが、短時間で表示される。その後、ユーザは、例えば、所望の第45件を見つけ出して選択し、起動させることができる。
尚、「ドラッグクリック」操作を行っても、「タッチフォーカス」モードは動作しない。従って、ドラッグ操作後の押圧動作が、図2(B)を用いて説明した「クリック」操作と判定されることはない。また、ドラッグ操作後のスクロールの向きは、ドラッグ操作時のスクロールの向きに一致させることが好ましい。これにより、ユーザは、ドラッグ操作によって意図した向きのスクロールを、更に継続して行うことができる。
ドラッグ操作後の指の押し込みは、タッチパネル100に対して押圧力pを及ぼす。この押圧力pの大きさに応じて、後述する動作制御部125(図5)で、ドラッグ操作後のスクロールの速度が決定される。例えば、押圧力pが押圧力閾値pTH0以上である場合に、(p−pTH0)の値に比例させて、スクロール速度を増加させることも可能である。この場合、ドラッグ操作後に指を押し込めば押し込むほど、その分に比例して、より速く画像全体がスクロールされることになる。
尚、後述する触覚応答機構部102(図4)が、指に、スクロールの速度に応じた触覚応答を与えることができる。例えば、スクロールの速度がより高くなるほど、より強い振動が指に与えられる。これにより、ユーザは、スクロールの速度の増減を指から体感でき、リアルな操作感を得ることができる。
以上、図3を用いて説明したように、本発明によれば、スクリーンパッド105を用いることによって、携帯型情報機器1を保持した片手の指で、画面内の任意の位置を容易に指定することができる。
さらに、それ故に、この保持した片手の指で、制御された速度でのスクロールが可能な「ドラッグクリック」操作を行うことができる。この際、最初のドラッグ操作においては、スクリーンパッド105内での指の小さな移動距離をもってして、画面に表示された画像における、指の届かない位置までの大きな移動距離を実現することができる。また、次いで行われる指の押圧動作においては、指が届くスクリーンパッド105内の地点を押し込むという容易な動作だけで、何度もドラッグ操作を行うことなく、所望の移動距離だけのスクロールを短時間で行うことができる。
また、「ドラッグクリック」操作は、指を接触させたままの非常に容易な操作である。その結果、この操作が比較的狭い領域であるスクリーンパッド105上で行われても、所望の動作が確実に発動される。
図4は、本発明による携帯型情報機器の構成を概略的に示す斜視図、及び本発明によるスクリーンパッドを用いた入力処理方法の一実施形態を示すフローチャートである。また、図5は、本発明による携帯型情報機器の一実施形態を示す機能構成図である。
図4によれば、携帯型情報機器1は、タッチパネル100と、ディスプレイ101と、触覚応答機構部102と、押圧力検出部103と、プロセッサ・メモリとを有する。ここで、プロセッサ・メモリは、プログラムを実行することによってその機能を実現させる。
ディスプレイ101は、画面に画像を表示する。また、タッチパネル100は、ディスプレイ100の画面上に配置されており、ユーザの指の接触位置を時間経過に応じて逐次出力する。このタッチパネル100として、投影型静電容量方式タッチパネル、表面型静電容量方式タッチパネル、抵抗膜方式タッチパネル、超音波表面弾性波方式タッチパネル、又は赤外線走査方式タッチパネル等を採用することができる。
触覚応答機構部102は、タッチパネル100に接触した指に対して、タッチパネル100を振動させることにより触覚応答を与える。例えば、上述した「フォーカス」操作時、「クリック」操作時、及び/又は「ドラッグクリック」操作時に、操作内容に応じた種類及び強度の振動を指に与える。触覚応答機構部102は、例えば、PZT(チタン酸ジルコン酸鉛)等の圧電材料を用いて形成された圧電アクチュエータとすることができる。
押圧力検出部103は、指によってタッチパネル100に与えられる押圧力pを検出する。押圧力検出部103は、例えば、タッチパネル100の四隅下に設置されており、指を押し付けられて撓んだタッチパネル100が自身に及ぼす押圧の合計を、押圧力pとして検出する。この押圧力検出部103が出力する押圧力信号は、後述する押圧力判定部124に入力される。押圧力検出部103は、例えば、PZT等の圧電材料を用いて形成された圧電センサとすることができる。また、圧電アクチュエータで構成された触覚応答機構部102を設ける代わりに又は設けると共に、押圧力検出部103を触覚応答機構部として利用することも可能である。
プロセッサ・メモリは、タッチパネル100から出力される指の接触位置信号と、押圧力検出部103から出力される押圧力信号とを入力し、これらの信号に基づいてユーザの指による操作を認定し、その操作の内容に応じた動作を発動させる。特に、プロセッサ・メモリは、ユーザの指がスクリーンパッド105に接触した際の接触位置信号と押圧力信号とを入力して、指の接触位置に対応した位置を指し示すポインタ106を表示させる。次いで、この指し示した位置及びその軌跡に対応した動作を発動させる。ここで、図5を用いて、このプロセッサ・メモリの機能構成を説明する。
図5によれば、プロセッサ・メモリは、スクリーンパッド制御部121と、接触判定部122と、ポインタ表示部123と、押圧力判定部124と、動作制御部125と、触覚応答制御部126と、表示制御部111と、アプリケーション処理部112とを有する。
スクリーンパッド制御部121は、ディスプレイ101の画面に表示された画像全体を縮小して表示するスクリーンパッド105を、この画面内に表示するように表示制御部111に指示する。尚、スクリーンパッド105の表示は、例えば、指による所定のアイコンの発動、又は機械的ボタンの押下等によって、スクリーンパッド制御部121に表示の指示情報を送信することにより行われる。
また、スクリーンパッド制御部121は、スクリーンパッド105の表示位置を決定し、決定された位置での表示を表示制御部111に指示する。尚、スクリーンパッド105の(表示位置の)移動は、例えば、スクリーンパッド105のいずれかの端、又は所定の領域に指を接触させたまま動かして、スクリーンパッド105をドラッグする(引きずる)ことにより行われる。スクリーンパッド制御部121は、このような操作の情報を入力し、表示位置及びその移動を決定する。
さらに、スクリーンパッド制御部121は、スクリーンパッド105の画像全体に対する縮小率を決定し、決定された縮小率での表示を表示制御部111に指示する。尚、スクリーンパッド105の縮小率は、例えば、スクリーンパッド105の角に、又は端辺の中点に表示されるマーカに指を接触させたまま動かすことにより調整される。スクリーンパッド制御部121は、このような操作の情報を入力し、縮小率を決定する。
接触判定部122は、タッチパネル100から出力される指の接触位置信号と、スクリーンパッド制御部121から出力されるスクリーンパッド105の位置情報とを入力し、指が表示されたスクリーンパッド105に接触したか否かを判定する。さらに、この判定結果を動作制御部123に出力する。また、接触判定部122が、上述した「タッチフォーカス」モードの動作下で、指の接触位置とアイコンイメージ104aの表示位置範囲とが重畳したか否かを判定し、この判定結果を動作制御部123に出力することも好ましい。
ポインタ表示部123は、接触判定部122から出力される判定結果及び指の接触位置情報を入力し、ディスプレイ101の画面内に、指の接触位置に対応した位置を指し示すポインタ106を表示するように表示制御部111に指示する。
押圧力判定部124は、押圧力検出部103からの押圧力信号を入力し、指による押圧力pが所定の押圧力閾値pTH(又はpTH0)以上であるか否かを判定する。さらに、この判定結果を、動作制御部125へ出力する。
動作制御部125は、接触判定部122から判定結果及び指の接触位置情報を入力する。動作制御部125は、この入力情報を基に、ポインタ106の指し示す位置に指が接触し、この位置のなす軌跡に指が追随して接触するならば起こるべき動作を発動させる。また、この動作に応じた画像を表示するように表示制御部111に指示する。さらに、接触判定部122によって、指がスクリーンパッド105に接触し且つこの接触位置が所定時間tTH以上継続して変化しなかったと判定された場合、動作制御部125が、上述した「タッチフォーカス」モードを動作させることも好ましい。
また、「タッチフォーカス」モードの動作下、ポインタ106がオブジェクト(例えばアイコン104)の表示位置範囲内の位置を指し示す際、動作制御部125によって、上述した「フォーカス」操作が行われたと判定されることも好ましい。さらに、ポインタ106がオブジェクトの表示位置範囲内の位置を指し示し且つ押圧力pが所定の閾値pTH以上である場合、動作制御部125によって、上述した「クリック」操作が行われたと判定されることも好ましい。動作制御部125は、これらの操作に対応する動作を発動させる。
触覚応答制御部126は、動作制御部125から出力される動作指示情報を入力する。次いで、この情報に基づいて、スクリーンパッド105に接触した指に対して触覚応答を与えるべく、触覚応答機構部102を制御する。
表示制御部111は、アプリケーション処理部112からのアプリケーション処理情報を入力して、アプリケーションの実行に応じた画像をディスプレイ101に表示させる。また、表示制御部111は、動作制御部125から出力される動作指示情報を入力し、指示された動作に応じた画像をディスプレイ101に表示させる。
次いで、図4に示されたフローチャートを用いて、プロセッサ・メモリで実施される、本発明のスクリーンパッド105を用いた入力処理方法の一実施形態を説明する。
図4によれば、最初に、スクリーンパッド制御部121が、ディスプレイ101の画面に表示された画像全体を縮小して表示するスクリーンパッド105を、この画面内に表示させる(ステップS401)。次いで、タッチパネル100が、指の接触を検知する(ステップS402)。次いで、接触判定部122が、スクリーンパッド105に指が接触したか否かを判定する(ステップS403)。
次いで、接触判定部122が真の判定、すなわち指がスクリーンパッド105に接触したとの判定を行った際、ポインタ表示部123が、指の接触位置に対応した、画面内での位置を指し示すポインタ106を表示させる(ステップS404)。その後、動作制御部125は、ポインタ106の指し示す位置に指が接触し、この位置のなす軌跡に指が追随して接触するならば起こるべき動作を発動させる(ステップS405)。例えば、上述した「タッチフォーカス」モードに応じた動作、又は「フォーカス」操作、「クリック」操作、若しくは「ドラッグクリック」操作に応じた動作を発動させる。
以上、詳細に説明したように、本発明のユーザインタフェース装置、入力処理方法及びプログラムでは、装置を保持した片手の指をスクリーンパッド105に接触させて、ポインタ106が所望の位置を指し示すように操作することができる。その結果、装置を保持した片手の指で、画面内の任意の位置を容易に指定することが可能となるのである。
前述した本発明の種々の実施形態について、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。
1 携帯型情報機器(ユーザインタフェース装置)
100 タッチパネル
101 ディスプレイ
102 触覚応答機構部
103 押圧力検出部
104 アイコン
104a アイコンイメージ
105 スクリーンパッド
106 ポインタ
107 検索結果
107a 検索結果イメージ
111 表示制御部
112 アプリケーション処理部
121 スクリーンパッド制御部
122 接触判定部
123 ポインタ表示部
124 押圧力判定部
125 動作制御部
126 触覚応答制御部

Claims (10)

  1. 画像を画面に表示する画像表示部と、指の接触位置を時間経過に応じて逐次出力するタッチパネルとを備えたユーザインタフェース装置において、
    当該指によって前記タッチパネルに与えられる押圧力を検出する押圧力検出部と、
    表示された当該画像全体を縮小して表示するスクリーンパッドを、前記画面内に表示させるスクリーンパッド制御手段と、
    当該指が前記スクリーンパッドに接触し、且つ当該指の接触位置が所定時間以上継続して変化しなかったか否かを判定する接触判定手段と、
    前記接触判定手段が真の判定を行った際、前記画面内に、当該指の接触位置に対応した該画面内での位置を指し示すポインタを表示させるポインタ表示手段と、
    前記押圧力が所定閾値以上であるか否かを判定する押圧力判定手段と、
    前記接触判定手段によって当該指の接触位置が前記所定時間以内に変化したとの判定が行われた際、当該指の接触位置の変化に応じて当該画像全体を移動させ、一方、前記接触判定手段が真の判定を行った際、当該画像全体を固定することによって、当該指の接触位置を前記所定時間以上静止させた後に当該指を継続して接触させつつ当該指によって前記スクリーンパッド内を押し込む一連の操作を可能とする「タッチフォーカス」モードを動作させ、当該「タッチフォーカス」モードの動作下、前記ポインタが当該指の接触位置に対応した位置を指し示す際、指し示された当該位置に当該指が接触したとするならば本来起こるべき動作を発動させ、当該指を接触させたままで当該指によって前記スクリーンパッド内を押し込むことによって、前記ポインタが当該指の接触位置に対応した位置を指し示し且つ前記押圧力判定手段が真の判定を行った際、指し示された当該位置に当該指が接触したまま前記所定閾値以上の押圧力で押し込まれたとするならば本来起こるべき動作を発動させる動作制御手段と
    を有することを特徴とするユーザインタフェース装置。
  2. 前記動作制御手段は、前記ポインタの指し示す位置であって当該指の接触位置に対応した位置がある軌跡をなす際、当該指が当該軌跡をなすように接触しつつ移動したとするならば本来起こるべき動作を発動させることを特徴とする請求項1に記載のユーザインタフェース装置。
  3. 前記スクリーンパッドは、ユーザが前記ユーザインタフェース装置を片手で保持した場合に該片手の指が該スクリーンパッド上のいずれの地点にも接触することができるような位置に表示されることを特徴とする請求項1又は2に記載のユーザインタフェース装置。
  4. 前記「タッチフォーカス」モードの動作下、前記ポインタが、当該画像に含まれる操作対象であるオブジェクトの表示位置範囲内の位置を指し示す際、前記動作制御手段は、該オブジェクトを選択する「フォーカス」操作が行われたとして対応する動作を発動させることを特徴とする請求項1から3のいずれか1項に記載のユーザインタフェース装置。
  5. 前記「タッチフォーカス」モードの動作下、前記動作制御手段は、前記ポインタが当該画像に含まれる操作対象であるオブジェクトの表示位置範囲内の位置を指し示し且つ前記スクリーンパッドに接触した当該指による押圧力が前記所定閾値以上である場合、該オブジェクトの機能を発動させる「クリック」操作が行われたとして対応する動作を発動させることを特徴とする請求項に記載のユーザインタフェース装置。
  6. 前記タッチパネルに接触した当該指に対して触覚応答を与える触覚応答機構部と、
    前記「クリック」操作が行われた際、当該指に対して前記タッチパネルを介して触覚応答を与えるべく前記触覚応答機構部を制御する触覚応答制御手段と
    を更に有することを特徴とする請求項に記載のユーザインタフェース装置。
  7. 前記接触判定手段によって、当該指が前記スクリーンパッドに接触してこの接触位置が所定時間以内に変化し、その後該接触位置が停止したと判定された場合、前記動作制御手段は、当該指の移動に応じた当該画像全体の移動の後、前記押圧力の大きさに応じた速度で当該画像全体を更に移動させる「ドラッグクリック」操作が行われたとして対応する動作を発動させることを特徴とする請求項1から3のいずれか1項に記載のユーザインタフェース装置。
  8. ユーザの操作から見て、当該指が前記画面における前記スクリーンパッドの範囲外の領域に接触した場合、前記動作制御手段は、当該指の接触位置に当該指が接触するならば本来起こるべき動作を発動させることを特徴とする請求項1からのいずれか1項に記載のユーザインタフェース装置。
  9. 画像を画面に表示する画像表示部と、指の接触位置を時間経過に応じて逐次出力するタッチパネルとを備えたユーザインタフェース装置に搭載されたプログラムにおいて、
    前記ユーザインタフェース装置は、当該指によって前記タッチパネルに与えられる押圧力を検出する押圧力検出部を更に備えており、
    前記プログラムは、
    表示された当該画像全体を縮小して表示するスクリーンパッドを、前記画面内に表示させるスクリーンパッド制御手段と、
    当該指が前記スクリーンパッドに接触し、且つ当該指の接触位置が所定時間以上継続して変化しなかったか否かを判定する接触判定手段と、
    前記接触判定手段が真の判定を行った際、前記画面内に、当該指の接触位置に対応した該画面内での位置を指し示すポインタを表示させるポインタ表示手段と、
    前記押圧力が所定閾値以上であるか否かを判定する押圧力判定手段と、
    前記接触判定手段によって当該指の接触位置が前記所定時間以内に変化したとの判定が行われた際、当該指の接触位置の変化に応じて当該画像全体を移動させ、一方、前記接触判定手段が真の判定を行った際、当該画像全体を固定することによって、当該指の接触位置を前記所定時間以上静止させた後に当該指を継続して接触させつつ当該指によって前記スクリーンパッド内を押し込む一連の操作を可能とする「タッチフォーカス」モードを動作させ、当該「タッチフォーカス」モードの動作下、前記ポインタが当該指の接触位置に対応した位置を指し示す際、指し示された当該位置に当該指が接触したとするならば本来起こるべき動作を発動させ、当該指を接触させたままで当該指によって前記スクリーンパッド内を押し込むことによって、前記ポインタが当該指の接触位置に対応した位置を指し示し且つ前記押圧力判定手段が真の判定を行った際、指し示された当該位置に当該指が接触したまま前記所定閾値以上の押圧力で押し込まれたとするならば本来起こるべき動作を発動させる動作制御手段と
    してコンピュータを機能させることを特徴とするユーザインタフェース装置用のプログラム。
  10. 画像を画面に表示する画像表示部と、指の接触位置を時間経過に応じて逐次出力するタッチパネルとを備えたユーザインタフェース装置における入力処理方法において、
    前記ユーザインタフェース装置は、当該指によって前記タッチパネルに与えられる押圧力を検出する押圧力検出部を更に備えており、
    前記入力処理方法は、
    表示された当該画像全体を縮小して表示するスクリーンパッドを、前記画面内に表示させる第1のステップと、
    当該指が前記スクリーンパッドに接触し、且つ当該指の接触位置が所定時間以上継続して変化しなかったか否かを判定する第2のステップと、
    第2のステップで真の判定がなされた際、前記画面内に、当該指の接触位置に対応した該画面内での位置を指し示すポインタを表示させる第3のステップと、
    前記押圧力が所定閾値以上であるか否かを判定する第4のステップと、
    第2のステップにおいて当該指の接触位置が前記所定時間以内に変化したとの判定が行われた際、当該指の接触位置の変化に応じて当該画像全体を移動させ、一方、第2のステップで真の判定が行われた際、当該画像全体を固定することによって、当該指の接触位置を前記所定時間以上静止させた後に当該指を継続して接触させつつ当該指によって前記スクリーンパッド内を押し込む一連の操作を可能とする「タッチフォーカス」モードを動作させ、当該「タッチフォーカス」モードの動作下、前記ポインタが当該指の接触位置に対応した位置を指し示す際、指し示された当該位置に当該指が接触したとするならば本来起こるべき動作を発動させ、当該指を接触させたままで当該指によって前記スクリーンパッド内を押し込むことによって、前記ポインタが当該指の接触位置に対応した位置を指し示し且つ第4のステップで真の判定が行われた際、指し示された当該位置に当該指が接触したまま前記所定閾値以上の押圧力で押し込まれたとするならば本来起こるべき動作を発動させる第5のステップと
    を有することを特徴とする入力処理方法。
JP2011166608A 2011-07-29 2011-07-29 スクリーンパッドによる入力が可能なユーザインタフェース装置、入力処理方法及びプログラム Active JP5295328B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011166608A JP5295328B2 (ja) 2011-07-29 2011-07-29 スクリーンパッドによる入力が可能なユーザインタフェース装置、入力処理方法及びプログラム
US14/233,518 US9244544B2 (en) 2011-07-29 2012-06-29 User interface device with touch pad enabling original image to be displayed in reduction within touch-input screen, and input-action processing method and program
PCT/JP2012/066736 WO2013018480A1 (ja) 2011-07-29 2012-06-29 タッチ入力が可能な画面内に原画像を縮小表示するタッチパッドを有するユーザインタフェース装置、入力処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011166608A JP5295328B2 (ja) 2011-07-29 2011-07-29 スクリーンパッドによる入力が可能なユーザインタフェース装置、入力処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2013030050A JP2013030050A (ja) 2013-02-07
JP5295328B2 true JP5295328B2 (ja) 2013-09-18

Family

ID=47629013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011166608A Active JP5295328B2 (ja) 2011-07-29 2011-07-29 スクリーンパッドによる入力が可能なユーザインタフェース装置、入力処理方法及びプログラム

Country Status (3)

Country Link
US (1) US9244544B2 (ja)
JP (1) JP5295328B2 (ja)
WO (1) WO2013018480A1 (ja)

Families Citing this family (113)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9542091B2 (en) 2010-06-04 2017-01-10 Apple Inc. Device, method, and graphical user interface for navigating through a user interface using a dynamic object selection indicator
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
KR20130017241A (ko) * 2011-08-10 2013-02-20 삼성전자주식회사 터치 스크린 단말기에서 입출력 방법 및 장치
KR101496512B1 (ko) 2012-03-08 2015-02-26 엘지전자 주식회사 이동 단말기 및 그 제어방법
EP2847657B1 (en) 2012-05-09 2016-08-10 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
WO2013169882A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving and dropping a user interface object
CN104487928B (zh) 2012-05-09 2018-07-06 苹果公司 用于响应于手势而在显示状态之间进行过渡的设备、方法和图形用户界面
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
CN108241465B (zh) 2012-05-09 2021-03-09 苹果公司 用于针对在用户界面中执行的操作提供触觉反馈的方法和装置
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
AU2013259614B2 (en) 2012-05-09 2016-08-25 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
WO2013169877A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting user interface objects
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
KR20140017429A (ko) * 2012-08-01 2014-02-11 삼성전자주식회사 화면 동작 방법 및 그 전자 장치
JP5798532B2 (ja) * 2012-08-23 2015-10-21 株式会社Nttドコモ ユーザインタフェース装置、ユーザインタフェース方法及びプログラム
EP3182261A1 (en) * 2012-09-17 2017-06-21 Huawei Device Co., Ltd. Touch operation processing method and terminal device
US10289204B2 (en) * 2012-11-15 2019-05-14 Quantum Interface, Llc Apparatuses for controlling electrical devices and software programs and methods for making and using same
KR102047689B1 (ko) * 2012-12-17 2019-11-22 엘지전자 주식회사 택타일 사용자 인터페이스의 미니-맵을 제공하는 터치 센서티브 디바이스 및 제어 방법
JP2014120091A (ja) * 2012-12-19 2014-06-30 Riso Kagaku Corp 電子機器
EP3467634B1 (en) 2012-12-29 2020-09-23 Apple Inc. Device, method, and graphical user interface for navigating user interface hierarchies
AU2013368443B2 (en) 2012-12-29 2016-03-24 Apple Inc. Device, method, and graphical user interface for transitioning between touch input to display output relationships
WO2014105275A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
WO2014105277A2 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
AU2013368445B8 (en) 2012-12-29 2017-02-09 Apple Inc. Device, method, and graphical user interface for determining whether to scroll or select contents
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
JP6137453B2 (ja) * 2013-02-08 2017-05-31 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 制御装置及び制御プログラム
US8769431B1 (en) * 2013-02-28 2014-07-01 Roy Varada Prasad Method of single-handed software operation of large form factor mobile electronic devices
JP6043221B2 (ja) * 2013-03-19 2016-12-14 株式会社Nttドコモ 情報端末、操作領域制御方法及び操作領域制御プログラム
JP6221293B2 (ja) * 2013-03-27 2017-11-01 富士通株式会社 情報処理装置,情報処理方法,プログラム
JP6297787B2 (ja) * 2013-04-25 2018-03-20 京セラ株式会社 携帯電子機器
KR102056316B1 (ko) 2013-05-03 2020-01-22 삼성전자주식회사 터치 스크린 동작 방법 및 그 전자 장치
KR102212830B1 (ko) * 2013-05-24 2021-02-08 삼성전자 주식회사 휴대 단말기에서 화면을 표시하는 방법 및 장치
US10691291B2 (en) 2013-05-24 2020-06-23 Samsung Electronics Co., Ltd. Method and apparatus for displaying picture on portable device
JP5998105B2 (ja) * 2013-06-26 2016-09-28 京セラ株式会社 携帯機器、携帯機器の制御方法およびプログラム
JP6046562B2 (ja) * 2013-06-26 2016-12-14 京セラ株式会社 携帯機器、携帯機器の制御方法およびプログラム
WO2014208691A1 (ja) * 2013-06-26 2014-12-31 京セラ株式会社 携帯機器、携帯機器の制御方法
JP2015032019A (ja) * 2013-07-31 2015-02-16 株式会社ニコン 電子機器、および電子機器の制御プログラム
KR20150016695A (ko) * 2013-08-05 2015-02-13 삼성전자주식회사 디스플레이장치 및 그 제어방법
CN104423548B (zh) * 2013-08-28 2018-08-10 联想(北京)有限公司 一种控制方法及装置
US9696882B2 (en) * 2013-08-28 2017-07-04 Lenovo (Beijing) Co., Ltd. Operation processing method, operation processing device, and control method
CN104516618B (zh) * 2013-09-27 2020-01-14 中兴通讯股份有限公司 界面功能解析显示方法及装置
KR20150037014A (ko) * 2013-09-30 2015-04-08 삼성전자주식회사 전자장치 및 전자장치의 사용자 인터페이스 제공방법
JP6015866B2 (ja) * 2013-10-25 2016-10-26 株式会社村田製作所 携帯端末用表示装置
JP2015099526A (ja) * 2013-11-20 2015-05-28 富士通株式会社 情報処理装置および情報処理プログラム
JP6031080B2 (ja) * 2013-11-29 2016-11-24 株式会社 ハイディープHiDeep Inc. 仮想タッチパッド操作方法及びこれを行う端末機
KR101692848B1 (ko) * 2013-11-29 2017-01-05 주식회사 하이딥 호버링을 이용하는 가상 터치패드 조작방법 및 이를 수행하는 단말기
KR101802835B1 (ko) * 2013-12-03 2017-11-29 후아웨이 테크놀러지 컴퍼니 리미티드 처리 방법, 처리 장치, 및 단말기
US20150186011A1 (en) * 2013-12-30 2015-07-02 Samsung Electronics Co., Ltd. Apparatus and method for interacting with items on a portable terminal
US20150193096A1 (en) * 2014-01-07 2015-07-09 Samsung Electronics Co., Ltd. Electronic device and method for operating the electronic device
US20150212610A1 (en) * 2014-01-30 2015-07-30 Samsung Display Co., Ltd. Touch-in-touch display apparatus
KR20150099297A (ko) * 2014-02-21 2015-08-31 삼성전자주식회사 전자장치의 화면 표시 방법
US10073493B2 (en) 2014-03-19 2018-09-11 Sony Corporation Device and method for controlling a display panel
WO2015180013A1 (zh) * 2014-05-26 2015-12-03 华为技术有限公司 一种终端的触摸操作方法及装置
US9898162B2 (en) 2014-05-30 2018-02-20 Apple Inc. Swiping functions for messaging applications
US9971500B2 (en) 2014-06-01 2018-05-15 Apple Inc. Displaying options, assigning notification, ignoring messages, and simultaneous user interface displays in a messaging application
JP5656307B1 (ja) * 2014-06-20 2015-01-21 パナソニック株式会社 電子機器
US11079895B2 (en) * 2014-10-15 2021-08-03 Samsung Electronics Co., Ltd. Method and apparatus for providing user interface
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US10152208B2 (en) 2015-04-01 2018-12-11 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
JP6492910B2 (ja) * 2015-04-13 2019-04-03 ブラザー工業株式会社 携帯端末
US10346030B2 (en) * 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
DK179116B1 (en) * 2015-06-07 2017-11-06 Apple Inc Devices and Methods for Navigating Between User Interfaces
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
AU2016231472B1 (en) * 2015-06-07 2016-11-10 Apple Inc. Devices and methods for navigating between user interfaces
US20170024086A1 (en) * 2015-06-23 2017-01-26 Jamdeo Canada Ltd. System and methods for detection and handling of focus elements
CN106371688B (zh) 2015-07-22 2019-10-01 小米科技有限责任公司 全屏幕单手操作方法及装置
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
CN105117056B (zh) * 2015-08-17 2019-02-01 青岛海信移动通信技术股份有限公司 一种操作触摸屏的方法和设备
EP3356918A1 (en) * 2015-09-29 2018-08-08 Telefonaktiebolaget LM Ericsson (publ) Touchscreen device and method thereof
KR20170085419A (ko) * 2016-01-14 2017-07-24 삼성전자주식회사 터치 입력에 기반한 동작 방법 및 그 전자 장치
CN105487273A (zh) * 2016-01-15 2016-04-13 京东方科技集团股份有限公司 显示面板及其驱动方法和制作方法、显示装置
JP6213581B2 (ja) * 2016-01-20 2017-10-18 コニカミノルタ株式会社 情報処理装置及び情報処理装置の制御プログラム
DE102016001369B4 (de) * 2016-02-06 2018-03-29 Audi Ag Verfahren zur automatischen Benutzeranpassung der Reizcharakteristik eines aktiven Bedienelementes eines Fahrzeugs
JP2017157079A (ja) 2016-03-03 2017-09-07 富士通株式会社 情報処理装置、表示制御方法、及び表示制御プログラム
KR102526860B1 (ko) * 2016-03-18 2023-05-02 삼성전자주식회사 전자 장치 및 전자 장치 제어 방법
KR101976605B1 (ko) * 2016-05-20 2019-05-09 이탁건 전자기기 및 그 동작 방법
JP6762770B2 (ja) * 2016-06-06 2020-09-30 株式会社デンソーテン タッチパネル装置及びタッチパネルの制御方法
CN106354418B (zh) * 2016-11-16 2019-07-09 腾讯科技(深圳)有限公司 一种基于触摸屏的操控方法和装置
JP6800714B2 (ja) * 2016-11-28 2020-12-16 シャープ株式会社 電子機器および表示制御方法
EP3333688B1 (en) * 2016-12-08 2020-09-02 LG Electronics Inc. Mobile terminal and method for controlling the same
JP6450794B2 (ja) 2017-03-27 2019-01-09 株式会社コナミデジタルエンタテインメント ゲームシステム、ゲーム制御装置、及びプログラム
US11237699B2 (en) 2017-08-18 2022-02-01 Microsoft Technology Licensing, Llc Proximal menu generation
US20190056857A1 (en) * 2017-08-18 2019-02-21 Microsoft Technology Licensing, Llc Resizing an active region of a user interface
US10417991B2 (en) 2017-08-18 2019-09-17 Microsoft Technology Licensing, Llc Multi-display device user interface modification
US11301124B2 (en) 2017-08-18 2022-04-12 Microsoft Technology Licensing, Llc User interface modification using preview panel
WO2019090486A1 (zh) * 2017-11-07 2019-05-16 华为技术有限公司 一种触摸控制方法及装置
CN108363508B (zh) * 2018-01-13 2021-03-23 江南大学 一种手机触控屏Mark定位非接触式视觉检测方法
JP6666525B2 (ja) 2018-02-08 2020-03-13 楽天株式会社 選択装置、選択方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体
US11467712B1 (en) * 2019-04-03 2022-10-11 David Graham Boyers Method and graphical user interface for positioning a preselection and selecting on a smart-watch with a touch-sensitive display
US11409279B1 (en) * 2019-09-26 2022-08-09 Amazon Technologies, Inc. Autonomously motile device with remote control
US11731037B2 (en) * 2020-09-11 2023-08-22 Riot Games, Inc. Rapid target selection with priority zones
US20220155948A1 (en) * 2020-11-13 2022-05-19 Adobe Inc. Offset touch screen editing
CN114546145B (zh) * 2020-11-24 2024-03-01 明基智能科技(上海)有限公司 游标控制方法及应用其的触控显示装置
US11669241B2 (en) * 2020-12-23 2023-06-06 Lenovo (Beijing) Limited Touch control method, apparatus, and device and computer-readable storage medium
CN113849093A (zh) * 2021-09-28 2021-12-28 联想(北京)有限公司 一种控制方法、装置及电子设备

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2585922B2 (ja) 1992-05-29 1997-02-26 日立ソフトウエアエンジニアリング株式会社 電子黒板装置
JPH09198352A (ja) 1996-01-18 1997-07-31 Mitsubishi Electric Corp 携帯型情報通信装置
JPH10293644A (ja) * 1997-04-18 1998-11-04 Idec Izumi Corp タッチパネル付表示装置
US6118435A (en) 1997-04-10 2000-09-12 Idec Izumi Corporation Display unit with touch panel
JP2000105671A (ja) * 1998-05-11 2000-04-11 Ricoh Co Ltd 座標入力/検出装置および電子黒板システム
JP2004151987A (ja) * 2002-10-30 2004-05-27 Casio Comput Co Ltd 情報処理装置、及び情報処理方法、並びにプログラム
US7499040B2 (en) * 2003-08-18 2009-03-03 Apple Inc. Movable touch pad with added functionality
JP4394062B2 (ja) * 2005-10-28 2010-01-06 アルプス電気株式会社 パッド型入力装置
JP2008257374A (ja) * 2007-04-03 2008-10-23 Sharp Corp 携帯情報端末及び携帯電話機
US8315672B2 (en) * 2008-12-01 2012-11-20 Research In Motion Limited Portable electronic device and method of controlling same
JP5157968B2 (ja) 2009-03-09 2013-03-06 株式会社Jvcケンウッド タッチパネル座標指定方法およびタッチパネル座標指定装置
WO2012077273A1 (ja) * 2010-12-07 2012-06-14 パナソニック株式会社 電子機器

Also Published As

Publication number Publication date
US9244544B2 (en) 2016-01-26
JP2013030050A (ja) 2013-02-07
US20140160073A1 (en) 2014-06-12
WO2013018480A1 (ja) 2013-02-07

Similar Documents

Publication Publication Date Title
JP5295328B2 (ja) スクリーンパッドによる入力が可能なユーザインタフェース装置、入力処理方法及びプログラム
JP6546301B2 (ja) 動的な触覚効果を有するマルチタッチデバイス
JP4734435B2 (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置
JP5759660B2 (ja) タッチ・スクリーンを備える携帯式情報端末および入力方法
JP3734936B2 (ja) 座標入力装置
TWI382739B (zh) 用以提供資訊的卷軸運動之方法、電腦程式產品、電子裝置及卷軸多功能鍵模組
JP3909994B2 (ja) 入力装置
EP2733591A1 (en) User interface device capable of execution of input by finger contact in plurality of modes, input operation assessment method, and program
US9448714B2 (en) Touch and non touch based interaction of a user with a device
US20090109187A1 (en) Information processing apparatus, launcher, activation control method and computer program product
US20110060986A1 (en) Method for Controlling the Display of a Touch Screen, User Interface of the Touch Screen, and an Electronic Device using The Same
KR20130052749A (ko) 터치 기반 사용자 인터페이스 장치 및 방법
JPH10149254A6 (ja) 座標入力装置
JP2004265450A6 (ja) 座標入力装置
JP2004265453A6 (ja) 座標入力装置
JP2004265451A6 (ja) 座標入力装置
WO2014041436A2 (en) Processing user input pertaining to content movement
JP5220898B2 (ja) 押圧によるスクロール制御が可能なユーザインタフェース装置、画像スクロール方法及びプログラム
JP2011034169A (ja) 情報入力装置および情報入力方法
JP2008257629A (ja) タッチ式入力装置
JP2000181617A (ja) タッチパッド及びタッチパッドによるスクロール制御方法
WO2012169189A1 (ja) タッチパネル入力装置
JP5713400B2 (ja) ポインタを用いた指による操作が可能なユーザインタフェース装置、動作発動方法及びプログラム
JP2002236550A (ja) 画面位置入力方法および装置
JP2013196465A (ja) オブジェクト選択時に触覚応答が付与されるユーザインタフェース装置、触覚応答付与方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121121

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130322

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20130418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130611

R150 Certificate of patent or registration of utility model

Ref document number: 5295328

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150