JP2012503799A - マルチポイントタッチセンサデバイス用のユーザインタフェース - Google Patents
マルチポイントタッチセンサデバイス用のユーザインタフェース Download PDFInfo
- Publication number
- JP2012503799A JP2012503799A JP2011527449A JP2011527449A JP2012503799A JP 2012503799 A JP2012503799 A JP 2012503799A JP 2011527449 A JP2011527449 A JP 2011527449A JP 2011527449 A JP2011527449 A JP 2011527449A JP 2012503799 A JP2012503799 A JP 2012503799A
- Authority
- JP
- Japan
- Prior art keywords
- fingers
- data item
- user interface
- interface unit
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000004044 response Effects 0.000 claims abstract description 5
- 238000000926 separation method Methods 0.000 claims description 22
- 238000000034 method Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims 2
- 230000003993 interaction Effects 0.000 description 8
- 230000015654 memory Effects 0.000 description 7
- 230000008901 benefit Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000005057 finger movement Effects 0.000 description 3
- 230000007480 spreading Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/28—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
- G11B27/32—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
- G11B27/327—Table of contents
- G11B27/329—Table of contents on a disc [VTOC]
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/34—Indicating arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Abstract
マルチポイントタッチセンサデバイス3からの信号を解釈するためのユーザインタフェースユニット13が開示される。ユーザインタフェースユニット13は、ユーザが、指を用いて少なくとも1つのデータアイテムに触れて前記少なくとも1つのデータアイテムを選択し、2つの指が離れた状態であるとともにユーザインタフェースユニット13と接触した状態に保持される間、少なくとも1つの選択されたデータアイテムに関する情報を表示するために少なくとも2つの指を少なくとも1つの選択されたデータアイテムと接触した状態で保持してこれら2つの指を広げ、ユーザインタフェースユニット13と接触した状態であり離れた状態で保持された少なくとも2つの指を解放することに応答して、選択されたデータアイテムに関する情報を表示させないことを可能にするように構成されたジェスチャユニット13aを有する。これは、概して、リスト中のコンテンツを表示するデバイスにおいて有用であり、リストの各アイテムは、関連付けられたメタデータを有する。
Description
本発明の主題は、ユーザがアイテムを選択し、選択されたアイテムの情報を得ることを可能とするマルチポイントタッチセンサデバイス用のユーザインタフェースに関する。
米国特許出願公開第2007/0152984号明細書は、マルチタッチポイントを備えた携帯用通信デバイスを開示している。この開示されたデバイスは、1又はそれ以上のマルチタッチ接触及び動作を検出することができ、1又はそれ以上のマルチタッチ接触及び/又は動作に基づいてオブジェクトに対して1又はそれ以上の操作を実行することができる。開示されたデバイスは、一般に、複数のユーザインタラクションが、選択されたオブジェクトの情報表示を有効/無効にすることをもたらし、これは面倒である。
従って、本発明の主題は、好ましくは、前述された欠点のうち1又はそれ以上を、単独で又は組み合わせて、軽減、緩和又は除去しようとする。特に、ユーザが最小限のユーザインタラクションで選択されたオブジェクトに対応する情報を見ることができるユーザインタフェースを提供することが、本発明の目的として理解され得る。
本発明は、独立請求項により規定される。従属請求項は、有利な実施形態を規定する。
この目的及び幾つかの他の目的は、マルチポイントタッチセンサデバイスからの信号を解釈するためのユーザインタフェースユニットを提供することによる本発明の主題の第1の態様において得られる。本ユーザインタフェースユニットは、データアイテムが表示された位置で前記データアイテムを選択するようにマルチポイントタッチセンサデバイスにユーザが触れたかどうかを検出し、少なくとも2つの指を、前記データアイテムが表示された前記位置で前記マルチポイントタッチセンサデバイスと接触した状態にユーザが保持しているかどうかを検出し、及び、前記2つの指が離れた状態であるとともに前記マルチポイントタッチセンサデバイスに接触した状態に保持されている間、ユーザが前記データアイテムに関する情報を表示させるように前記2つの指を広げるかどうかを検出し、並びに、前記データアイテムに関する情報を表示させないように、前記2つの指を、離れた状態であるとともに前記マルチポイントタッチセンサデバイスに接触した状態に保持するのをユーザがやめているかどうかを検出するように構成されたジェスチャユニットを有する。
一般に、携帯用デバイスでは、コンテンツがリストとして表示される。コンテンツは、メタデータ(追加情報)に関連付けられている。ここで、メタデータは、関連付けられたデータの内容の記述であり、音楽ファイルに関する曲名、アーティスト名、又は、メール交換データの場合において受信された送信者及び受信者のような、異なるカテゴリにおいて順序付けられ得るデータとして理解される。説明例として、ウィンドウズ(登録商標)エクスプローラアプリケーションにおいて、ファイルがリスト化され、各ファイルは、一般に、ファイル所有者、ファイルサイズ、ファイル作成日及びファイル変更日のようなメタデータ情報をもつ。ユーザがリスト全体を閲覧しており、ユーザが彼/彼女の選択のアイテムを選択するときには、ユーザは、選択されたアイテムの詳細を見たいと思っている。これは、選択されたアイテムに対して実行されるべき複数のインタラクションを必要とする場合がある。
一般に、選択されたアイテムの情報を表示するために用いられたアプローチは、特定のタイムアウトに基づいている。選択されたアイテムに関する情報は、選択されたアイテムの上にドロップダウンメニューとして表示される。説明例として、マウスがユーザインタフェースとして用いられるときには、ポインタが特定のアイテムにポイントされて、特定のタイムアウトの後にメタデータ情報が表示される。ユーザが次のアイテムに移動しようとしたときには、ドロップダウンメニューは除去され、焦点が次のアイテムに移動される。このメカニズムは、タイムアウトの間ユーザを待たせ、これは、望ましくない。
他のアプローチにおいて、概して、メニューキーにより有効にされ得る文脈的オプションメニューが設けられる。ユーザは、複数のオプションから情報オプションを選択し、選択されたアイテムの関連情報を取得しなければならない。情報メニューを除去するために、ユーザは、メニューキーを再び押すか、又は、タイムアウトの間待たなければならない。これは、複数のユーザインタラクションをもたらす。
前述されたアプローチの双方は、複数のユーザインタラクションをもたらし、面倒である。開示されたユーザインタフェースユニットでは、ユーザがアイテムを選択すると、ユーザは、彼の指を適切に広げ、選択されたアイテムに対応する必要な情報を見るためにユーザインタフェースに対して保持する。それ故、ユーザインタラクションの数が最小化され得る。
開示されたユーザインタフェースユニットは、以下の利点をもつ。
(i)ユーザインタラクションの数を削減することができる。
(ii)メタデータの詳細を見るために"情報"オプションを選択するためのオプションメニューとのインタラクションを除去することができる。
(i)ユーザインタラクションの数を削減することができる。
(ii)メタデータの詳細を見るために"情報"オプションを選択するためのオプションメニューとのインタラクションを除去することができる。
ジェスチャユニットは、少なくとも2つの指の広がりと、前記少なくとも2つの指をユーザインタフェースユニットと接触した状態に保持することとを検出するように構成される。これは、ユーザが、これらの指の間隔を適切に空け、データの選択されたアイテムの必要な情報を得ることを可能にする。
ジェスチャユニットは、2つの指が広げられた後にユーザインタフェースユニットに接触している少なくとも2つの指の分離を検出するように更に構成される。これは、2つの指が広げられた後にユーザインタフェースユニットに接触している少なくとも2つの指の分離量に基づいて、揮発性又は不揮発性メモリから対応する情報を取り出すという点で有利である。
更なる実施形態において、ジェスチャユニットは、少なくとも2つの指の間の最大許容分離距離が、データアイテムに関して利用可能な完全な情報に対応するように構成され、ユーザが前記最大許容分離距離に関連して少なくとも2つの指を広げていることを検出し、ユーザインタフェースユニットに対して保持することは、データアイテムに対応する情報の相応の部分を見ることを可能にし、最大許容分離距離は、ユーザインタフェースユニットのサイズに基づいて決定される。これは、ユーザが少なくとも2つの指の間の分離距離に基づいて必要なデータを見ることを支援するためのスニークピーク(sneak peek)メカニズムを提供するという利点をもつ。更に、2つの指の広がりは、関連情報を表示するために適切に制御され、最大の分離は、選択されたデータアイテムに対応する完全な情報を与え得る。
更なる実施形態において、ジェスチャユニットは、少なくとも2つの指を最大許容分離距離の約50%に広げることは、少なくとも1つの選択されたデータアイテムに対応する完全に利用可能な情報の約50%の相応の表示を可能にする。
本発明の主題の第2の態様において、マルチポイントタッチセンサデバイスからの信号を解釈するためのユーザインタフェースユニットを提供する方法が開示されている。本方法は、ユーザが指を用いて少なくとも1つのデータアイテムに触れて前記少なくとも1つのデータアイテムを選択することを可能にするステップと、ユーザが、2つの指が離れた状態であるとともにユーザインタフェースユニットと接触した状態に保持されている間、少なくとも1つの選択されたデータアイテムに関する情報を表示させるために、少なくとも2つの指を少なくとも1つの選択されたデータアイテムに接触した状態に保持するとともに2つの指を広げることを可能にし、ユーザインタフェースユニットと接触して離れた状態で保持された少なくとも2つの指を解除することに応答して、選択されたデータアイテムに関する情報を表示させないことを可能にするステップとを有する。
本方法の一実施形態において、本方法は、2つの指の間の最大許容分離距離が、選択されたデータアイテムに関する完全な利用可能な情報に対応するように構成され、少なくとも2つの指を最大許容分離距離に関連して広げて、ユーザインタフェースユニットに対して保持することは、少なくとも1つの選択されたデータアイテムに対応する情報の相応の部分を見ることを可能にし、最大許容分離距離は、ユーザインタフェースユニットのサイズに基づいて決定される。
これら並びに他の態様、特徴及び利点は、添付図面を参照して、単なる例により、以下の説明により更に説明されるだろう。添付図面において、同一の参照番号は、同一又は類似のパーツを示す。
図1によれば、ポータブルメディアプレーヤは、
1.ハウジング2
2.マルチポイントタッチセンサストリップ
3.ディスプレイデバイスのスクリーン4
4.ユーザ入力を与えるための手段としてのキー5(オプション)
1.ハウジング2
2.マルチポイントタッチセンサストリップ
3.ディスプレイデバイスのスクリーン4
4.ユーザ入力を与えるための手段としてのキー5(オプション)
代替の構成も可能である。例えば、マルチポイントタッチセンサストリップ3がスクリーン4の直下に配置されてもよい。
図2によれば、ポータブルメディアプレーヤ1は、データプロセッサ6及びワーキングメモリ7を備えている。データプロセッサ6は、不揮発性メモリ8に格納された命令を実行することにより、ポータブルメディアプレーヤ1の動作を制御する。不揮発性メモリ8は、任意の1又はそれ以上の固体メモリデバイス、光ディスク、磁気ハードディスク等を有する。
一例として、オーディオファイルは、不揮発性メモリ8に格納される。オーディオデコーダ9は、音楽ファイルに含まれたデジタル信号を解凍及び/又は復号する。サウンドは、オーディオ出力ステージ10によりユーザに達する。
グラフィックプロセッサ11及びディスプレイドライバ12は、スクリーン4をもつディスプレイデバイスを制御する信号を供給する。ユーザインタフェースユニット13は、ジェスチャユニット13aを有する。ジェスチャユニット13aは、タッチセンサストリップ3(図1参照)からの信号を解釈する。
タッチセンサストリップ3(図3参照)は、マルチポイントタイプのものである。これは、タッチセンサストリップ3に対して保持されたユーザの体、例えば2つの指上の少なくとも2つの基準ポイントを同時に追跡可能である。追跡は、ストリップ3の長さに沿った位置14,15だけが追跡されるように、一の次元において実行される。参照番号14は、位置1を示し、参照番号15は、位置2を示す。矢印は、双方の指の移動方向を示す。ポータブルメディアプレーヤ1は、ストリップ3に沿って移動する指を介して伝達されたジェスチャを認識する。反対方向へのストリップ3に沿った指の移動は、拡大ジェスチャ17に対応する。換言すれば、外方への移動は、拡大ジェスチャと呼ばれる。2つの指の間の最大許容分離距離は、マルチタッチセンサストリップ3の長さに基づいて決定される。
一実施形態において、不揮発性メモリ8に格納されたオーディオトラックに対応するファイルは、ポータブルメディアプレーヤ1により保持された、フラットな階層において、又は、任意のファイル階層における同一のレベルで、格納される。例えばキー5のうち1つの活性化により、第1のスクリーンビュー20が、図4に示されるように、スクリーン4上に示される。これは、スクリーン4上のオーディオトラックのリストを表示するための利用可能なオプションのメニューに対応する。第1のスクリーンビュー20に対応するメニュー部分において、ユーザは、タッチセンサストリップ3を用いて、選択バー21にリスト中のアイテムからアイテムへ移動させることができる。
図5によれば、ユーザが第1のアイテム(即ち、Abc)を選択し、スクリーンが第1のアイテムに焦点を合わせた全てのトラックのリストからの表示遷移を示す。これらのトラックは、6つの異なる特性、即ち、アーティスト、アルバム、ジャンル、時間、作成者及び年をもつ。ユーザは、1つの指を用いて第1のアイテム(即ち、Abc)を選択する。次に、ユーザは、2つの指を用いて第1の選択されたアイテム(即ち、Abc)に触れる。これらの指は、最大許容分離距離の約50%だけ広げられる。それ故、6つの属性の中から3つの属性(即ち、アーティスト、アルバム及びジャンル)だけが比例的に表示される。図5は、2つの指を広げる(即ち、最大許容分離距離の50%だけ広げる)ことによりトリガされた表示されたメタデータ情報を表す変換された表示を示す。ユーザが双方の指をユーザインタフェースユニットから除去したときには(即ち、ユーザインタフェースユニットとの指接触を中止すると)、表示はノーマルに戻る。更に、リスト中の後続するアイテム(即ち、Acc,Adc)は、情報の属性又はレンダリング空間の利用可能性に基づいて表示され得る。
図6によれば、第1のアイテム(即ち、Abc)が選択される。2つの指が100%広げられる。図6は、第1のアイテム(即ち、Abc)に対応する完全なメタデータ情報を表示する変換された表示を示す。アイテムAbcに対応する6つの属性、即ち、アーティスト、アルバム、ジャンル、時間、作成者及び年の全てが表示される。更に、リスト中の後続のアイテムは、レンダリングスペースの利用可能性に基づいて表示される(即ち、Acc)。
マルチタッチセンサデバイスからの信号を解釈するためのユーザインタフェースユニットを設ける方法700は、データプロセッサ6により実行されるステップを示す図7において簡単に示される。
ステップ702において、ユーザの指接触が検出され、触れられたデータアイテムが選択される。ステップ704において、選択されたデータアイテムに関する指の移動が検出される。ステップ706において、2つの指の広がり、及び、これらの指のユーザインタフェースユニットに対する保持が検出される。更に、広がりの長さ、又は、指の間の分離距離が決定される。ステップ708において、広げられた指を保持した状態で、データプロセッサ6は、例えば揮発性又は不揮発性メモリから、選択されたデータアイテムに対応する相応のメタデータ情報を取り出す。相応のメタデータ情報は、ディスプレイデバイスのスクリーン4上に表示される。ステップ710において、広げられた指の保持が検出され、広げられた指が離れた状態に保持された場合において、相応のメタデータ情報の表示が継続される。広げられた指の保持が解放された(即ち、ユーザインタフェースユニットとの接触が中止された)場合において、スクリーンがリフレッシュされ、これにより、メタデータ情報を除去する。
開示された方法は、ユーザが2つの指を広げて2つの指を離れた状態で保持し、これらの指の解放に応答して、選択されたデータアイテムに対応する情報を表示させないことを可能にすることにより、選択されたデータアイテムの情報のスニークピーク(sneak peek)を提供することができる。
概して、開示されたユーザインタフェースユニットは、以下の特徴をもつように構成され得る。
(i)拡大ジェスチャ、即ち2つの指の広がりを検出する
(ii)拡張ジェスチャ後の双方の指の保持を検出する
(iii)取り得る完全な拡大と比較した拡大量を検出し、拡大をパーセンテージとして与える
(iv)拡大ジェスチャ後の指の解放を検出し、情報サマリをリフレッシュする
(i)拡大ジェスチャ、即ち2つの指の広がりを検出する
(ii)拡張ジェスチャ後の双方の指の保持を検出する
(iii)取り得る完全な拡大と比較した拡大量を検出し、拡大をパーセンテージとして与える
(iv)拡大ジェスチャ後の指の解放を検出し、情報サマリをリフレッシュする
更に、前記の入力に基づいてトリガされ得る適切なソフトウェアが用いられてもよい。ソフトウェアは、それ自身が、拡大及び保持ジェスチャ後の現時点でフォーカスされたアイテムを検出し、揮発性又は不揮発性メモリからの対応する情報を取り出すように構成され得る。ソフトウェアは、拡大のパーセンテージを使用し、表示されるべき情報の対応するパーセンテージを決定し得る。また、ソフトウェアは、拡大ジェスチャ後の指の除去を検出し、情報サマリを表示させないように再描画をトリガする。
開示されたユーザインタフェースユニットが使用され得る幾つかのアプリケーションが以下に記載される。
(i)ファイルブラウザ
(ii)メールエージェントの受信箱
(iii)ジュークボックス
(iv)携帯電話機のメッセージボックス
(v)電話連絡帳
(i)ファイルブラウザ
(ii)メールエージェントの受信箱
(iii)ジュークボックス
(iv)携帯電話機のメッセージボックス
(v)電話連絡帳
要約すると、マルチポイントタッチセンサデバイスからの信号を解釈するためのユーザインタフェースユニットが開示される。ユーザインタフェースユニットは、ユーザが、指を用いて少なくとも1つのデータアイテムに触れて前記少なくとも1つのデータアイテムを選択し、2つの指が離れた状態であるとともにユーザインタフェースユニットと接触した状態に保持される間、少なくとも1つの選択されたデータアイテムに関する情報を表示するために少なくとも2つの指を少なくとも1つの選択されたデータアイテムと接触した状態で保持してこれら2つの指を広げ、ユーザインタフェースユニットと接触した状態であり離れた状態で保持された少なくとも2つの指を解放することに応答して、選択されたデータアイテムに関する情報を表示させないことを可能にするように構成されたジェスチャユニットを有する。これは、概して、リスト中のコンテンツを表示するデバイスにおいて有用であり、リストの各アイテムは、関連付けられたメタデータを有する。
請求項は、特徴の特定の組み合わせに対してこの出願において述べられているが、本発明の主題の開示の範囲は、任意の請求項に現時点で記載されたのと同一の主題に関連するか否かに関わらず、及び、本発明の主題と同一の技術的課題のうちいずれか又は全てを軽減するか否かに関わらず、明示的又は黙示的にここに開示された特徴の任意の新規な特徴若しくは任意の新規な組み合わせ又はこれらの任意の一般化を含み得ることが理解されるべきである。
更に、本主題が図面及び前述の説明において詳細に説明された一方で、斯様な図示及び説明は、例示又は単なる例であり、限定するものではないと見なされるべきである。即ち、本主題は、開示された実施形態に限定されるものではない。開示された実施形態に対する他のバリエーションは、図面、開示及び特許請求の範囲の研究から、当業者により理解され達成され得る。一例として、タッチセンサストリップ3に類似するアーチファクトが斯様なタッチスクリーンのエリア内に供給されてもよい。更に他の実施形態において、人差し指がデータアイテムを選択するために用いられ得る一方で、中指の移動が、データアイテムに関する情報の表示をトリガし、中指の移動は、人差し指の位置を含まないラインに沿う。従って、請求項において、"広げる"という用語は、2つの指の頂部の間の距離の任意の増大を伝達するものとして理解されるべきである。本発明は、ポータブルメディアプレーヤ用のグラフィカルユーザインタフェースに限定されるものではなく、コンピュータデバイスにより実行された機能又はルーティンに対応するものを含む、他のデータアイテムのリストを閲覧するために用いられ得る。
"有する"という用語の使用及びその活用は、請求項又は説明に記載されたもの以外の要素の存在を除外するものではない。要素又はステップの単数表記の使用は、斯様な要素又はステップの複数の存在を除外するものではない。単一のユニット(例えば、プログラム可能なデバイス)は、請求項に記載された幾つかのアイテムの機能を満たし得る。特定の手段が相互に異なる従属請求項に記載されるという単なる事実は、これらの組み合わせが有利に用いられ得ないことを示すものではない。図面及び説明は、単なる例示であり、本主題を限定するものではないと見なされるべきである。請求項における任意の参照符号は、範囲を限定するものとして考慮されるべきではない。
Claims (6)
- マルチポイントタッチセンサデバイスからの信号を解釈するためのユーザインタフェースユニットであって、
データアイテムが表示された位置で前記データアイテムを選択するように前記マルチポイントタッチセンサデバイスにユーザが触れたかどうかを検出し、
少なくとも2つの指を、前記データアイテムが表示された前記位置で前記マルチポイントタッチセンサデバイスと接触した状態にユーザが保持しているかどうかを検出し、及び、前記2つの指が離れた状態であるとともに前記マルチポイントタッチセンサデバイスに接触した状態に保持されている間、ユーザが前記データアイテムに関する情報を表示させるように前記2つの指を広げるかどうかを検出し、並びに、
前記データアイテムに関する情報を表示させないように、前記2つの指を、離れた状態であるとともに前記マルチポイントタッチセンサデバイスに接触した状態に保持するのをユーザがやめているかどうかを検出するように構成されたジェスチャユニットを有する、ユーザインタフェースユニット。 - 前記ジェスチャユニットは、前記少なくとも2つの指の間の最大許容分離距離が、前記データアイテムに関して利用可能な完全な情報に対応するように構成され、ユーザが前記少なくとも2つの指を前記最大許容分離距離に関して広げていることを検出し、前記ユーザインタフェースユニットに対して保持することは、前記データアイテムに対応する情報の相応の部分を表示することを可能にし、前記最大許容分離距離は、前記ユーザインタフェースユニットのサイズに基づいて決定される、請求項1に記載のユーザインタフェースユニット。
- 前記ジェスチャユニットは、前記少なくとも2つの指を前記最大許容分離距離の約50%に広げることは、少なくとも1つの選択されたデータアイテムに対応する完全に利用可能な情報の約50%の相応の表示を可能にする、請求項2に記載のユーザインタフェースユニット。
- マルチポイントタッチセンサデバイスからの信号を解釈するためのユーザインタフェースユニットを提供する方法であって、
ユーザが指を用いて少なくとも1つのデータアイテムに触れて前記少なくとも1つのデータアイテムを選択することを可能にするステップと、
ユーザが、少なくとも2つの指が離れた状態であるとともにユーザインタフェースユニットと接触した状態に保持されている間、少なくとも1つの選択されたデータアイテムに関する情報を表示させるために、前記2つの指を少なくとも1つの選択されたデータアイテムに接触した状態に保持するとともに前記2つの指を広げることを可能にし、前記ユーザインタフェースユニットと接触して離れた状態で保持された前記少なくとも2つの指を解除することに応答して、選択されたデータアイテムに関する情報を表示させないことを可能にするステップとを有する、方法。 - 前記2つの指の間の前記最大許容分離距離が、選択されたデータアイテムに関する完全な利用可能な情報に対応するように構成され、前記少なくとも2つの指を前記最大許容分離距離に関して広げて、前記ユーザインタフェースユニットに対して保持することは、少なくとも1つの選択されたデータアイテムに対応する情報の相応の部分を表示することを可能にし、前記最大許容分離距離は、前記ユーザインタフェースユニットのサイズに基づいて決定される、請求項4に記載の方法。
- マルチポイントタッチセンサデバイスからの信号を解釈するためのユーザインタフェースユニットで使用するプログラムコード手段を有するコンピュータプログラムであって、
前記インタフェースユニットは、ジェスチャユニットを有し、
前記プログラムコード手段は、
ユーザが、指を用いて少なくとも1つのデータアイテムに触れて前記少なくとも1つのデータアイテムを選択し、少なくとも2つの指が離れた状態であるとともに前記ユーザインタフェースユニットと接触した状態に保持されている間、少なくとも1つの選択されたデータアイテムに関する情報を表示させるために、前記2つの指を少なくとも1つの選択されたデータアイテムに接触した状態に保持するとともに前記2つの指を広げることを可能にし、前記ユーザインタフェースユニットと接触して離れた状態で保持された前記少なくとも2つの指を解除することに応答して、選択されたデータアイテムに関する情報を表示させないことを可能にすることを、プログラム可能なデバイスに可能にさせる、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP08164970.9 | 2008-09-24 | ||
EP08164970 | 2008-09-24 | ||
PCT/IB2009/054065 WO2010035180A2 (en) | 2008-09-24 | 2009-09-17 | A user interface for a multi-point touch sensitive device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012503799A true JP2012503799A (ja) | 2012-02-09 |
Family
ID=42060180
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011527449A Withdrawn JP2012503799A (ja) | 2008-09-24 | 2009-09-17 | マルチポイントタッチセンサデバイス用のユーザインタフェース |
Country Status (9)
Country | Link |
---|---|
US (1) | US20110175839A1 (ja) |
JP (1) | JP2012503799A (ja) |
KR (1) | KR20110066950A (ja) |
CN (1) | CN102165402A (ja) |
BR (1) | BRPI0913777A2 (ja) |
MX (1) | MX2011003069A (ja) |
RU (1) | RU2011116237A (ja) |
TW (1) | TW201017511A (ja) |
WO (1) | WO2010035180A2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013542482A (ja) * | 2010-08-30 | 2013-11-21 | サムスン エレクトロニクス カンパニー リミテッド | マルチタッチによるリストデータ出力制御方法及びこれを支援する携帯端末機 |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101691823B1 (ko) * | 2009-09-09 | 2017-01-02 | 엘지전자 주식회사 | 이동 단말기 및 이것의 디스플레이 제어 방법 |
KR101699739B1 (ko) * | 2010-05-14 | 2017-01-25 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작방법 |
EP2600231A4 (en) * | 2010-07-30 | 2016-04-27 | Sony Computer Entertainment Inc | ELECTRONIC DEVICE, DISPLAYED OBJECT DISPLAY METHOD, AND SEARCH METHOD |
KR101729523B1 (ko) * | 2010-12-21 | 2017-04-24 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
US9471145B2 (en) | 2011-01-06 | 2016-10-18 | Blackberry Limited | Electronic device and method of displaying information in response to a gesture |
US9015641B2 (en) | 2011-01-06 | 2015-04-21 | Blackberry Limited | Electronic device and method of providing visual notification of a received communication |
US9465440B2 (en) | 2011-01-06 | 2016-10-11 | Blackberry Limited | Electronic device and method of displaying information in response to a gesture |
US9477311B2 (en) | 2011-01-06 | 2016-10-25 | Blackberry Limited | Electronic device and method of displaying information in response to a gesture |
US9423878B2 (en) | 2011-01-06 | 2016-08-23 | Blackberry Limited | Electronic device and method of displaying information in response to a gesture |
US9766718B2 (en) | 2011-02-28 | 2017-09-19 | Blackberry Limited | Electronic device and method of displaying information in response to input |
KR20120080922A (ko) * | 2011-01-10 | 2012-07-18 | 삼성전자주식회사 | 디스플레이 장치 및 그 디스플레이 방법 |
JP5714935B2 (ja) * | 2011-02-24 | 2015-05-07 | 京セラ株式会社 | 携帯電子機器、接触操作制御方法および接触操作制御プログラム |
JP2012174247A (ja) * | 2011-02-24 | 2012-09-10 | Kyocera Corp | 携帯電子機器、接触操作制御方法および接触操作制御プログラム |
US9213421B2 (en) | 2011-02-28 | 2015-12-15 | Blackberry Limited | Electronic device and method of displaying information in response to detecting a gesture |
KR20130052753A (ko) * | 2011-08-16 | 2013-05-23 | 삼성전자주식회사 | 터치스크린을 이용한 어플리케이션 실행 방법 및 이를 지원하는 단말기 |
KR101326994B1 (ko) * | 2011-10-05 | 2013-11-13 | 기아자동차주식회사 | 이동단말기의 화면출력 최적화를 위한 컨텐츠 제어 방법 및 그 시스템 |
US9619038B2 (en) | 2012-01-23 | 2017-04-11 | Blackberry Limited | Electronic device and method of displaying a cover image and an application image from a low power condition |
US9058168B2 (en) | 2012-01-23 | 2015-06-16 | Blackberry Limited | Electronic device and method of controlling a display |
US9778706B2 (en) | 2012-02-24 | 2017-10-03 | Blackberry Limited | Peekable user interface on a portable electronic device |
CN102880422A (zh) * | 2012-09-27 | 2013-01-16 | 深圳Tcl新技术有限公司 | 触摸屏智能设备文字处理方法和装置 |
US9448719B2 (en) * | 2012-12-14 | 2016-09-20 | Barnes & Noble College Booksellers, Llc | Touch sensitive device with pinch-based expand/collapse function |
US9690476B2 (en) | 2013-03-14 | 2017-06-27 | Blackberry Limited | Electronic device and method of displaying information in response to a gesture |
US20140282233A1 (en) * | 2013-03-15 | 2014-09-18 | Google Inc. | Graphical element expansion and contraction |
US9507495B2 (en) | 2013-04-03 | 2016-11-29 | Blackberry Limited | Electronic device and method of displaying information in response to a gesture |
US20160092071A1 (en) * | 2013-04-30 | 2016-03-31 | Hewlett-Packard Development Company, L.P. | Generate preview of content |
US20150067582A1 (en) * | 2013-09-05 | 2015-03-05 | Storehouse Media, Inc. | Content navigation structure and transition mechanism |
WO2016007192A1 (en) | 2014-07-10 | 2016-01-14 | Ge Intelligent Platforms, Inc. | Apparatus and method for electronic labeling of electronic equipment |
US11054981B2 (en) * | 2015-06-10 | 2021-07-06 | Yaakov Stein | Pan-zoom entry of text |
US10845987B2 (en) | 2016-05-03 | 2020-11-24 | Intelligent Platforms, Llc | System and method of using touch interaction based on location of touch on a touch screen |
US11079915B2 (en) | 2016-05-03 | 2021-08-03 | Intelligent Platforms, Llc | System and method of using multiple touch inputs for controller interaction in industrial control systems |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9292111B2 (en) * | 1998-01-26 | 2016-03-22 | Apple Inc. | Gesturing with a multipoint sensing device |
WO1999038149A1 (en) * | 1998-01-26 | 1999-07-29 | Wayne Westerman | Method and apparatus for integrating manual input |
EP2254025A3 (en) * | 2002-05-16 | 2016-03-30 | Sony Corporation | Input method and input apparatus |
GB2401272B (en) * | 2003-04-30 | 2007-11-21 | Hewlett Packard Development Co | Method and apparatus for enhancing user interest in static digital images |
US7411575B2 (en) * | 2003-09-16 | 2008-08-12 | Smart Technologies Ulc | Gesture recognition method and touch system incorporating the same |
US20050162402A1 (en) * | 2004-01-27 | 2005-07-28 | Watanachote Susornpol J. | Methods of interacting with a computer using a finger(s) touch sensing input device with visual feedback |
US7743348B2 (en) * | 2004-06-30 | 2010-06-22 | Microsoft Corporation | Using physical objects to adjust attributes of an interactive display application |
AU2006332488A1 (en) * | 2005-12-30 | 2007-07-12 | Apple Inc. | Portable electronic device with multi-touch input |
TWI399670B (zh) * | 2006-12-21 | 2013-06-21 | Elan Microelectronics Corp | 操作控制方法及系統及其機器可讀取媒體 |
US9311528B2 (en) * | 2007-01-03 | 2016-04-12 | Apple Inc. | Gesture learning |
-
2009
- 2009-09-17 CN CN2009801374678A patent/CN102165402A/zh active Pending
- 2009-09-17 WO PCT/IB2009/054065 patent/WO2010035180A2/en active Application Filing
- 2009-09-17 JP JP2011527449A patent/JP2012503799A/ja not_active Withdrawn
- 2009-09-17 KR KR1020117009122A patent/KR20110066950A/ko not_active Application Discontinuation
- 2009-09-17 US US13/119,533 patent/US20110175839A1/en not_active Abandoned
- 2009-09-17 BR BRPI0913777A patent/BRPI0913777A2/pt not_active IP Right Cessation
- 2009-09-17 MX MX2011003069A patent/MX2011003069A/es not_active Application Discontinuation
- 2009-09-17 RU RU2011116237/08A patent/RU2011116237A/ru not_active Application Discontinuation
- 2009-09-23 TW TW098132129A patent/TW201017511A/zh unknown
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013542482A (ja) * | 2010-08-30 | 2013-11-21 | サムスン エレクトロニクス カンパニー リミテッド | マルチタッチによるリストデータ出力制御方法及びこれを支援する携帯端末機 |
Also Published As
Publication number | Publication date |
---|---|
BRPI0913777A2 (pt) | 2015-10-20 |
TW201017511A (en) | 2010-05-01 |
US20110175839A1 (en) | 2011-07-21 |
CN102165402A (zh) | 2011-08-24 |
MX2011003069A (es) | 2011-04-19 |
WO2010035180A3 (en) | 2011-05-05 |
KR20110066950A (ko) | 2011-06-17 |
WO2010035180A2 (en) | 2010-04-01 |
RU2011116237A (ru) | 2012-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012503799A (ja) | マルチポイントタッチセンサデバイス用のユーザインタフェース | |
US20220326817A1 (en) | User interfaces for playing and managing audio items | |
US11467726B2 (en) | User interfaces for viewing and accessing content on an electronic device | |
US11210458B2 (en) | Device, method, and graphical user interface for editing screenshot images | |
US11334229B2 (en) | Device, method, and graphical user interface for manipulating user interface objects | |
US8525839B2 (en) | Device, method, and graphical user interface for providing digital content products | |
CN108334264B (zh) | 在便携式终端中用于提供多点触摸交互的方法和设备 | |
JP5982369B2 (ja) | タッチ感応式デバイスにおけるフォルダー運用方法および装置 | |
EP2659347B1 (en) | Method for moving object between pages and interface apparatus | |
US10394428B2 (en) | Method and electronic device for manipulating a first or a second user interface object | |
EP2975512B1 (en) | Device and method for displaying a virtual loupe in response to a user contact | |
US9367232B2 (en) | Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display | |
US20100088598A1 (en) | Function execution method and mobile terminal operating with the same | |
WO2018213136A1 (en) | Displaying a set of application views | |
US20150347358A1 (en) | Concurrent display of webpage icon categories in content browser | |
US20110179097A1 (en) | Creating virtual targets in directory structures | |
US20150346919A1 (en) | Device, Method, and Graphical User Interface for Navigating a Content Hierarchy | |
EP3912030A1 (en) | User interfaces for presenting information about and facilitating application functions | |
JP5719153B2 (ja) | 複数のオブジェクトを操作する方法、並びにそのコンピュータ及びコンピュータ・プログラム | |
US20130290907A1 (en) | Creating an object group including object information for interface objects identified in a group selection mode | |
WO2022036212A1 (en) | Audio media playback user interface |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20121204 |