JP2012503799A - マルチポイントタッチセンサデバイス用のユーザインタフェース - Google Patents

マルチポイントタッチセンサデバイス用のユーザインタフェース Download PDF

Info

Publication number
JP2012503799A
JP2012503799A JP2011527449A JP2011527449A JP2012503799A JP 2012503799 A JP2012503799 A JP 2012503799A JP 2011527449 A JP2011527449 A JP 2011527449A JP 2011527449 A JP2011527449 A JP 2011527449A JP 2012503799 A JP2012503799 A JP 2012503799A
Authority
JP
Japan
Prior art keywords
fingers
data item
user interface
interface unit
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011527449A
Other languages
English (en)
Inventor
スドヒル ムローア プラブフ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2012503799A publication Critical patent/JP2012503799A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/327Table of contents
    • G11B27/329Table of contents on a disc [VTOC]
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

マルチポイントタッチセンサデバイス3からの信号を解釈するためのユーザインタフェースユニット13が開示される。ユーザインタフェースユニット13は、ユーザが、指を用いて少なくとも1つのデータアイテムに触れて前記少なくとも1つのデータアイテムを選択し、2つの指が離れた状態であるとともにユーザインタフェースユニット13と接触した状態に保持される間、少なくとも1つの選択されたデータアイテムに関する情報を表示するために少なくとも2つの指を少なくとも1つの選択されたデータアイテムと接触した状態で保持してこれら2つの指を広げ、ユーザインタフェースユニット13と接触した状態であり離れた状態で保持された少なくとも2つの指を解放することに応答して、選択されたデータアイテムに関する情報を表示させないことを可能にするように構成されたジェスチャユニット13aを有する。これは、概して、リスト中のコンテンツを表示するデバイスにおいて有用であり、リストの各アイテムは、関連付けられたメタデータを有する。

Description

本発明の主題は、ユーザがアイテムを選択し、選択されたアイテムの情報を得ることを可能とするマルチポイントタッチセンサデバイス用のユーザインタフェースに関する。
米国特許出願公開第2007/0152984号明細書は、マルチタッチポイントを備えた携帯用通信デバイスを開示している。この開示されたデバイスは、1又はそれ以上のマルチタッチ接触及び動作を検出することができ、1又はそれ以上のマルチタッチ接触及び/又は動作に基づいてオブジェクトに対して1又はそれ以上の操作を実行することができる。開示されたデバイスは、一般に、複数のユーザインタラクションが、選択されたオブジェクトの情報表示を有効/無効にすることをもたらし、これは面倒である。
従って、本発明の主題は、好ましくは、前述された欠点のうち1又はそれ以上を、単独で又は組み合わせて、軽減、緩和又は除去しようとする。特に、ユーザが最小限のユーザインタラクションで選択されたオブジェクトに対応する情報を見ることができるユーザインタフェースを提供することが、本発明の目的として理解され得る。
本発明は、独立請求項により規定される。従属請求項は、有利な実施形態を規定する。
この目的及び幾つかの他の目的は、マルチポイントタッチセンサデバイスからの信号を解釈するためのユーザインタフェースユニットを提供することによる本発明の主題の第1の態様において得られる。本ユーザインタフェースユニットは、データアイテムが表示された位置で前記データアイテムを選択するようにマルチポイントタッチセンサデバイスにユーザが触れたかどうかを検出し、少なくとも2つの指を、前記データアイテムが表示された前記位置で前記マルチポイントタッチセンサデバイスと接触した状態にユーザが保持しているかどうかを検出し、及び、前記2つの指が離れた状態であるとともに前記マルチポイントタッチセンサデバイスに接触した状態に保持されている間、ユーザが前記データアイテムに関する情報を表示させるように前記2つの指を広げるかどうかを検出し、並びに、前記データアイテムに関する情報を表示させないように、前記2つの指を、離れた状態であるとともに前記マルチポイントタッチセンサデバイスに接触した状態に保持するのをユーザがやめているかどうかを検出するように構成されたジェスチャユニットを有する。
一般に、携帯用デバイスでは、コンテンツがリストとして表示される。コンテンツは、メタデータ(追加情報)に関連付けられている。ここで、メタデータは、関連付けられたデータの内容の記述であり、音楽ファイルに関する曲名、アーティスト名、又は、メール交換データの場合において受信された送信者及び受信者のような、異なるカテゴリにおいて順序付けられ得るデータとして理解される。説明例として、ウィンドウズ(登録商標)エクスプローラアプリケーションにおいて、ファイルがリスト化され、各ファイルは、一般に、ファイル所有者、ファイルサイズ、ファイル作成日及びファイル変更日のようなメタデータ情報をもつ。ユーザがリスト全体を閲覧しており、ユーザが彼/彼女の選択のアイテムを選択するときには、ユーザは、選択されたアイテムの詳細を見たいと思っている。これは、選択されたアイテムに対して実行されるべき複数のインタラクションを必要とする場合がある。
一般に、選択されたアイテムの情報を表示するために用いられたアプローチは、特定のタイムアウトに基づいている。選択されたアイテムに関する情報は、選択されたアイテムの上にドロップダウンメニューとして表示される。説明例として、マウスがユーザインタフェースとして用いられるときには、ポインタが特定のアイテムにポイントされて、特定のタイムアウトの後にメタデータ情報が表示される。ユーザが次のアイテムに移動しようとしたときには、ドロップダウンメニューは除去され、焦点が次のアイテムに移動される。このメカニズムは、タイムアウトの間ユーザを待たせ、これは、望ましくない。
他のアプローチにおいて、概して、メニューキーにより有効にされ得る文脈的オプションメニューが設けられる。ユーザは、複数のオプションから情報オプションを選択し、選択されたアイテムの関連情報を取得しなければならない。情報メニューを除去するために、ユーザは、メニューキーを再び押すか、又は、タイムアウトの間待たなければならない。これは、複数のユーザインタラクションをもたらす。
前述されたアプローチの双方は、複数のユーザインタラクションをもたらし、面倒である。開示されたユーザインタフェースユニットでは、ユーザがアイテムを選択すると、ユーザは、彼の指を適切に広げ、選択されたアイテムに対応する必要な情報を見るためにユーザインタフェースに対して保持する。それ故、ユーザインタラクションの数が最小化され得る。
開示されたユーザインタフェースユニットは、以下の利点をもつ。
(i)ユーザインタラクションの数を削減することができる。
(ii)メタデータの詳細を見るために"情報"オプションを選択するためのオプションメニューとのインタラクションを除去することができる。
ジェスチャユニットは、少なくとも2つの指の広がりと、前記少なくとも2つの指をユーザインタフェースユニットと接触した状態に保持することとを検出するように構成される。これは、ユーザが、これらの指の間隔を適切に空け、データの選択されたアイテムの必要な情報を得ることを可能にする。
ジェスチャユニットは、2つの指が広げられた後にユーザインタフェースユニットに接触している少なくとも2つの指の分離を検出するように更に構成される。これは、2つの指が広げられた後にユーザインタフェースユニットに接触している少なくとも2つの指の分離量に基づいて、揮発性又は不揮発性メモリから対応する情報を取り出すという点で有利である。
更なる実施形態において、ジェスチャユニットは、少なくとも2つの指の間の最大許容分離距離が、データアイテムに関して利用可能な完全な情報に対応するように構成され、ユーザが前記最大許容分離距離に関連して少なくとも2つの指を広げていることを検出し、ユーザインタフェースユニットに対して保持することは、データアイテムに対応する情報の相応の部分を見ることを可能にし、最大許容分離距離は、ユーザインタフェースユニットのサイズに基づいて決定される。これは、ユーザが少なくとも2つの指の間の分離距離に基づいて必要なデータを見ることを支援するためのスニークピーク(sneak peek)メカニズムを提供するという利点をもつ。更に、2つの指の広がりは、関連情報を表示するために適切に制御され、最大の分離は、選択されたデータアイテムに対応する完全な情報を与え得る。
更なる実施形態において、ジェスチャユニットは、少なくとも2つの指を最大許容分離距離の約50%に広げることは、少なくとも1つの選択されたデータアイテムに対応する完全に利用可能な情報の約50%の相応の表示を可能にする。
本発明の主題の第2の態様において、マルチポイントタッチセンサデバイスからの信号を解釈するためのユーザインタフェースユニットを提供する方法が開示されている。本方法は、ユーザが指を用いて少なくとも1つのデータアイテムに触れて前記少なくとも1つのデータアイテムを選択することを可能にするステップと、ユーザが、2つの指が離れた状態であるとともにユーザインタフェースユニットと接触した状態に保持されている間、少なくとも1つの選択されたデータアイテムに関する情報を表示させるために、少なくとも2つの指を少なくとも1つの選択されたデータアイテムに接触した状態に保持するとともに2つの指を広げることを可能にし、ユーザインタフェースユニットと接触して離れた状態で保持された少なくとも2つの指を解除することに応答して、選択されたデータアイテムに関する情報を表示させないことを可能にするステップとを有する。
本方法の一実施形態において、本方法は、2つの指の間の最大許容分離距離が、選択されたデータアイテムに関する完全な利用可能な情報に対応するように構成され、少なくとも2つの指を最大許容分離距離に関連して広げて、ユーザインタフェースユニットに対して保持することは、少なくとも1つの選択されたデータアイテムに対応する情報の相応の部分を見ることを可能にし、最大許容分離距離は、ユーザインタフェースユニットのサイズに基づいて決定される。
これら並びに他の態様、特徴及び利点は、添付図面を参照して、単なる例により、以下の説明により更に説明されるだろう。添付図面において、同一の参照番号は、同一又は類似のパーツを示す。
ポータブルメディアプレーヤの正面図の一例を概略的に表す。 本発明の一実施形態によるポータブルメディアプレーヤの幾つかの構成要素を示す概略図である。 2つの指により与えられたポータブルメディアプレーヤに対するマルチポイントタッチセンサ入力の図である。 ポータブルメディアプレーヤのマルチポイントタッチセンサ入力により供給されたメニューに含まれるスクリーン画面の第1の例である。 スクリーン画面の第2の例である。 スクリーン画面の第3の例である。 本発明の一実施形態によるユーザインタフェースユニットを設ける方法のステップを示す簡単なフローチャートである。
図1によれば、ポータブルメディアプレーヤは、
1.ハウジング2
2.マルチポイントタッチセンサストリップ
3.ディスプレイデバイスのスクリーン4
4.ユーザ入力を与えるための手段としてのキー5(オプション)
代替の構成も可能である。例えば、マルチポイントタッチセンサストリップ3がスクリーン4の直下に配置されてもよい。
図2によれば、ポータブルメディアプレーヤ1は、データプロセッサ6及びワーキングメモリ7を備えている。データプロセッサ6は、不揮発性メモリ8に格納された命令を実行することにより、ポータブルメディアプレーヤ1の動作を制御する。不揮発性メモリ8は、任意の1又はそれ以上の固体メモリデバイス、光ディスク、磁気ハードディスク等を有する。
一例として、オーディオファイルは、不揮発性メモリ8に格納される。オーディオデコーダ9は、音楽ファイルに含まれたデジタル信号を解凍及び/又は復号する。サウンドは、オーディオ出力ステージ10によりユーザに達する。
グラフィックプロセッサ11及びディスプレイドライバ12は、スクリーン4をもつディスプレイデバイスを制御する信号を供給する。ユーザインタフェースユニット13は、ジェスチャユニット13aを有する。ジェスチャユニット13aは、タッチセンサストリップ3(図1参照)からの信号を解釈する。
タッチセンサストリップ3(図3参照)は、マルチポイントタイプのものである。これは、タッチセンサストリップ3に対して保持されたユーザの体、例えば2つの指上の少なくとも2つの基準ポイントを同時に追跡可能である。追跡は、ストリップ3の長さに沿った位置14,15だけが追跡されるように、一の次元において実行される。参照番号14は、位置1を示し、参照番号15は、位置2を示す。矢印は、双方の指の移動方向を示す。ポータブルメディアプレーヤ1は、ストリップ3に沿って移動する指を介して伝達されたジェスチャを認識する。反対方向へのストリップ3に沿った指の移動は、拡大ジェスチャ17に対応する。換言すれば、外方への移動は、拡大ジェスチャと呼ばれる。2つの指の間の最大許容分離距離は、マルチタッチセンサストリップ3の長さに基づいて決定される。
一実施形態において、不揮発性メモリ8に格納されたオーディオトラックに対応するファイルは、ポータブルメディアプレーヤ1により保持された、フラットな階層において、又は、任意のファイル階層における同一のレベルで、格納される。例えばキー5のうち1つの活性化により、第1のスクリーンビュー20が、図4に示されるように、スクリーン4上に示される。これは、スクリーン4上のオーディオトラックのリストを表示するための利用可能なオプションのメニューに対応する。第1のスクリーンビュー20に対応するメニュー部分において、ユーザは、タッチセンサストリップ3を用いて、選択バー21にリスト中のアイテムからアイテムへ移動させることができる。
図5によれば、ユーザが第1のアイテム(即ち、Abc)を選択し、スクリーンが第1のアイテムに焦点を合わせた全てのトラックのリストからの表示遷移を示す。これらのトラックは、6つの異なる特性、即ち、アーティスト、アルバム、ジャンル、時間、作成者及び年をもつ。ユーザは、1つの指を用いて第1のアイテム(即ち、Abc)を選択する。次に、ユーザは、2つの指を用いて第1の選択されたアイテム(即ち、Abc)に触れる。これらの指は、最大許容分離距離の約50%だけ広げられる。それ故、6つの属性の中から3つの属性(即ち、アーティスト、アルバム及びジャンル)だけが比例的に表示される。図5は、2つの指を広げる(即ち、最大許容分離距離の50%だけ広げる)ことによりトリガされた表示されたメタデータ情報を表す変換された表示を示す。ユーザが双方の指をユーザインタフェースユニットから除去したときには(即ち、ユーザインタフェースユニットとの指接触を中止すると)、表示はノーマルに戻る。更に、リスト中の後続するアイテム(即ち、Acc,Adc)は、情報の属性又はレンダリング空間の利用可能性に基づいて表示され得る。
図6によれば、第1のアイテム(即ち、Abc)が選択される。2つの指が100%広げられる。図6は、第1のアイテム(即ち、Abc)に対応する完全なメタデータ情報を表示する変換された表示を示す。アイテムAbcに対応する6つの属性、即ち、アーティスト、アルバム、ジャンル、時間、作成者及び年の全てが表示される。更に、リスト中の後続のアイテムは、レンダリングスペースの利用可能性に基づいて表示される(即ち、Acc)。
マルチタッチセンサデバイスからの信号を解釈するためのユーザインタフェースユニットを設ける方法700は、データプロセッサ6により実行されるステップを示す図7において簡単に示される。
ステップ702において、ユーザの指接触が検出され、触れられたデータアイテムが選択される。ステップ704において、選択されたデータアイテムに関する指の移動が検出される。ステップ706において、2つの指の広がり、及び、これらの指のユーザインタフェースユニットに対する保持が検出される。更に、広がりの長さ、又は、指の間の分離距離が決定される。ステップ708において、広げられた指を保持した状態で、データプロセッサ6は、例えば揮発性又は不揮発性メモリから、選択されたデータアイテムに対応する相応のメタデータ情報を取り出す。相応のメタデータ情報は、ディスプレイデバイスのスクリーン4上に表示される。ステップ710において、広げられた指の保持が検出され、広げられた指が離れた状態に保持された場合において、相応のメタデータ情報の表示が継続される。広げられた指の保持が解放された(即ち、ユーザインタフェースユニットとの接触が中止された)場合において、スクリーンがリフレッシュされ、これにより、メタデータ情報を除去する。
開示された方法は、ユーザが2つの指を広げて2つの指を離れた状態で保持し、これらの指の解放に応答して、選択されたデータアイテムに対応する情報を表示させないことを可能にすることにより、選択されたデータアイテムの情報のスニークピーク(sneak peek)を提供することができる。
概して、開示されたユーザインタフェースユニットは、以下の特徴をもつように構成され得る。
(i)拡大ジェスチャ、即ち2つの指の広がりを検出する
(ii)拡張ジェスチャ後の双方の指の保持を検出する
(iii)取り得る完全な拡大と比較した拡大量を検出し、拡大をパーセンテージとして与える
(iv)拡大ジェスチャ後の指の解放を検出し、情報サマリをリフレッシュする
更に、前記の入力に基づいてトリガされ得る適切なソフトウェアが用いられてもよい。ソフトウェアは、それ自身が、拡大及び保持ジェスチャ後の現時点でフォーカスされたアイテムを検出し、揮発性又は不揮発性メモリからの対応する情報を取り出すように構成され得る。ソフトウェアは、拡大のパーセンテージを使用し、表示されるべき情報の対応するパーセンテージを決定し得る。また、ソフトウェアは、拡大ジェスチャ後の指の除去を検出し、情報サマリを表示させないように再描画をトリガする。
開示されたユーザインタフェースユニットが使用され得る幾つかのアプリケーションが以下に記載される。
(i)ファイルブラウザ
(ii)メールエージェントの受信箱
(iii)ジュークボックス
(iv)携帯電話機のメッセージボックス
(v)電話連絡帳
要約すると、マルチポイントタッチセンサデバイスからの信号を解釈するためのユーザインタフェースユニットが開示される。ユーザインタフェースユニットは、ユーザが、指を用いて少なくとも1つのデータアイテムに触れて前記少なくとも1つのデータアイテムを選択し、2つの指が離れた状態であるとともにユーザインタフェースユニットと接触した状態に保持される間、少なくとも1つの選択されたデータアイテムに関する情報を表示するために少なくとも2つの指を少なくとも1つの選択されたデータアイテムと接触した状態で保持してこれら2つの指を広げ、ユーザインタフェースユニットと接触した状態であり離れた状態で保持された少なくとも2つの指を解放することに応答して、選択されたデータアイテムに関する情報を表示させないことを可能にするように構成されたジェスチャユニットを有する。これは、概して、リスト中のコンテンツを表示するデバイスにおいて有用であり、リストの各アイテムは、関連付けられたメタデータを有する。
請求項は、特徴の特定の組み合わせに対してこの出願において述べられているが、本発明の主題の開示の範囲は、任意の請求項に現時点で記載されたのと同一の主題に関連するか否かに関わらず、及び、本発明の主題と同一の技術的課題のうちいずれか又は全てを軽減するか否かに関わらず、明示的又は黙示的にここに開示された特徴の任意の新規な特徴若しくは任意の新規な組み合わせ又はこれらの任意の一般化を含み得ることが理解されるべきである。
更に、本主題が図面及び前述の説明において詳細に説明された一方で、斯様な図示及び説明は、例示又は単なる例であり、限定するものではないと見なされるべきである。即ち、本主題は、開示された実施形態に限定されるものではない。開示された実施形態に対する他のバリエーションは、図面、開示及び特許請求の範囲の研究から、当業者により理解され達成され得る。一例として、タッチセンサストリップ3に類似するアーチファクトが斯様なタッチスクリーンのエリア内に供給されてもよい。更に他の実施形態において、人差し指がデータアイテムを選択するために用いられ得る一方で、中指の移動が、データアイテムに関する情報の表示をトリガし、中指の移動は、人差し指の位置を含まないラインに沿う。従って、請求項において、"広げる"という用語は、2つの指の頂部の間の距離の任意の増大を伝達するものとして理解されるべきである。本発明は、ポータブルメディアプレーヤ用のグラフィカルユーザインタフェースに限定されるものではなく、コンピュータデバイスにより実行された機能又はルーティンに対応するものを含む、他のデータアイテムのリストを閲覧するために用いられ得る。
"有する"という用語の使用及びその活用は、請求項又は説明に記載されたもの以外の要素の存在を除外するものではない。要素又はステップの単数表記の使用は、斯様な要素又はステップの複数の存在を除外するものではない。単一のユニット(例えば、プログラム可能なデバイス)は、請求項に記載された幾つかのアイテムの機能を満たし得る。特定の手段が相互に異なる従属請求項に記載されるという単なる事実は、これらの組み合わせが有利に用いられ得ないことを示すものではない。図面及び説明は、単なる例示であり、本主題を限定するものではないと見なされるべきである。請求項における任意の参照符号は、範囲を限定するものとして考慮されるべきではない。

Claims (6)

  1. マルチポイントタッチセンサデバイスからの信号を解釈するためのユーザインタフェースユニットであって、
    データアイテムが表示された位置で前記データアイテムを選択するように前記マルチポイントタッチセンサデバイスにユーザが触れたかどうかを検出し、
    少なくとも2つの指を、前記データアイテムが表示された前記位置で前記マルチポイントタッチセンサデバイスと接触した状態にユーザが保持しているかどうかを検出し、及び、前記2つの指が離れた状態であるとともに前記マルチポイントタッチセンサデバイスに接触した状態に保持されている間、ユーザが前記データアイテムに関する情報を表示させるように前記2つの指を広げるかどうかを検出し、並びに、
    前記データアイテムに関する情報を表示させないように、前記2つの指を、離れた状態であるとともに前記マルチポイントタッチセンサデバイスに接触した状態に保持するのをユーザがやめているかどうかを検出するように構成されたジェスチャユニットを有する、ユーザインタフェースユニット。
  2. 前記ジェスチャユニットは、前記少なくとも2つの指の間の最大許容分離距離が、前記データアイテムに関して利用可能な完全な情報に対応するように構成され、ユーザが前記少なくとも2つの指を前記最大許容分離距離に関して広げていることを検出し、前記ユーザインタフェースユニットに対して保持することは、前記データアイテムに対応する情報の相応の部分を表示することを可能にし、前記最大許容分離距離は、前記ユーザインタフェースユニットのサイズに基づいて決定される、請求項1に記載のユーザインタフェースユニット。
  3. 前記ジェスチャユニットは、前記少なくとも2つの指を前記最大許容分離距離の約50%に広げることは、少なくとも1つの選択されたデータアイテムに対応する完全に利用可能な情報の約50%の相応の表示を可能にする、請求項2に記載のユーザインタフェースユニット。
  4. マルチポイントタッチセンサデバイスからの信号を解釈するためのユーザインタフェースユニットを提供する方法であって、
    ユーザが指を用いて少なくとも1つのデータアイテムに触れて前記少なくとも1つのデータアイテムを選択することを可能にするステップと、
    ユーザが、少なくとも2つの指が離れた状態であるとともにユーザインタフェースユニットと接触した状態に保持されている間、少なくとも1つの選択されたデータアイテムに関する情報を表示させるために、前記2つの指を少なくとも1つの選択されたデータアイテムに接触した状態に保持するとともに前記2つの指を広げることを可能にし、前記ユーザインタフェースユニットと接触して離れた状態で保持された前記少なくとも2つの指を解除することに応答して、選択されたデータアイテムに関する情報を表示させないことを可能にするステップとを有する、方法。
  5. 前記2つの指の間の前記最大許容分離距離が、選択されたデータアイテムに関する完全な利用可能な情報に対応するように構成され、前記少なくとも2つの指を前記最大許容分離距離に関して広げて、前記ユーザインタフェースユニットに対して保持することは、少なくとも1つの選択されたデータアイテムに対応する情報の相応の部分を表示することを可能にし、前記最大許容分離距離は、前記ユーザインタフェースユニットのサイズに基づいて決定される、請求項4に記載の方法。
  6. マルチポイントタッチセンサデバイスからの信号を解釈するためのユーザインタフェースユニットで使用するプログラムコード手段を有するコンピュータプログラムであって、
    前記インタフェースユニットは、ジェスチャユニットを有し、
    前記プログラムコード手段は、
    ユーザが、指を用いて少なくとも1つのデータアイテムに触れて前記少なくとも1つのデータアイテムを選択し、少なくとも2つの指が離れた状態であるとともに前記ユーザインタフェースユニットと接触した状態に保持されている間、少なくとも1つの選択されたデータアイテムに関する情報を表示させるために、前記2つの指を少なくとも1つの選択されたデータアイテムに接触した状態に保持するとともに前記2つの指を広げることを可能にし、前記ユーザインタフェースユニットと接触して離れた状態で保持された前記少なくとも2つの指を解除することに応答して、選択されたデータアイテムに関する情報を表示させないことを可能にすることを、プログラム可能なデバイスに可能にさせる、コンピュータプログラム。
JP2011527449A 2008-09-24 2009-09-17 マルチポイントタッチセンサデバイス用のユーザインタフェース Withdrawn JP2012503799A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP08164970.9 2008-09-24
EP08164970 2008-09-24
PCT/IB2009/054065 WO2010035180A2 (en) 2008-09-24 2009-09-17 A user interface for a multi-point touch sensitive device

Publications (1)

Publication Number Publication Date
JP2012503799A true JP2012503799A (ja) 2012-02-09

Family

ID=42060180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011527449A Withdrawn JP2012503799A (ja) 2008-09-24 2009-09-17 マルチポイントタッチセンサデバイス用のユーザインタフェース

Country Status (9)

Country Link
US (1) US20110175839A1 (ja)
JP (1) JP2012503799A (ja)
KR (1) KR20110066950A (ja)
CN (1) CN102165402A (ja)
BR (1) BRPI0913777A2 (ja)
MX (1) MX2011003069A (ja)
RU (1) RU2011116237A (ja)
TW (1) TW201017511A (ja)
WO (1) WO2010035180A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013542482A (ja) * 2010-08-30 2013-11-21 サムスン エレクトロニクス カンパニー リミテッド マルチタッチによるリストデータ出力制御方法及びこれを支援する携帯端末機

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101691823B1 (ko) * 2009-09-09 2017-01-02 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
KR101699739B1 (ko) * 2010-05-14 2017-01-25 엘지전자 주식회사 휴대 단말기 및 그 동작방법
EP2600231A4 (en) * 2010-07-30 2016-04-27 Sony Computer Entertainment Inc ELECTRONIC DEVICE, DISPLAYED OBJECT DISPLAY METHOD, AND SEARCH METHOD
KR101729523B1 (ko) * 2010-12-21 2017-04-24 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US9471145B2 (en) 2011-01-06 2016-10-18 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9015641B2 (en) 2011-01-06 2015-04-21 Blackberry Limited Electronic device and method of providing visual notification of a received communication
US9465440B2 (en) 2011-01-06 2016-10-11 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9477311B2 (en) 2011-01-06 2016-10-25 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9423878B2 (en) 2011-01-06 2016-08-23 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9766718B2 (en) 2011-02-28 2017-09-19 Blackberry Limited Electronic device and method of displaying information in response to input
KR20120080922A (ko) * 2011-01-10 2012-07-18 삼성전자주식회사 디스플레이 장치 및 그 디스플레이 방법
JP5714935B2 (ja) * 2011-02-24 2015-05-07 京セラ株式会社 携帯電子機器、接触操作制御方法および接触操作制御プログラム
JP2012174247A (ja) * 2011-02-24 2012-09-10 Kyocera Corp 携帯電子機器、接触操作制御方法および接触操作制御プログラム
US9213421B2 (en) 2011-02-28 2015-12-15 Blackberry Limited Electronic device and method of displaying information in response to detecting a gesture
KR20130052753A (ko) * 2011-08-16 2013-05-23 삼성전자주식회사 터치스크린을 이용한 어플리케이션 실행 방법 및 이를 지원하는 단말기
KR101326994B1 (ko) * 2011-10-05 2013-11-13 기아자동차주식회사 이동단말기의 화면출력 최적화를 위한 컨텐츠 제어 방법 및 그 시스템
US9619038B2 (en) 2012-01-23 2017-04-11 Blackberry Limited Electronic device and method of displaying a cover image and an application image from a low power condition
US9058168B2 (en) 2012-01-23 2015-06-16 Blackberry Limited Electronic device and method of controlling a display
US9778706B2 (en) 2012-02-24 2017-10-03 Blackberry Limited Peekable user interface on a portable electronic device
CN102880422A (zh) * 2012-09-27 2013-01-16 深圳Tcl新技术有限公司 触摸屏智能设备文字处理方法和装置
US9448719B2 (en) * 2012-12-14 2016-09-20 Barnes & Noble College Booksellers, Llc Touch sensitive device with pinch-based expand/collapse function
US9690476B2 (en) 2013-03-14 2017-06-27 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US20140282233A1 (en) * 2013-03-15 2014-09-18 Google Inc. Graphical element expansion and contraction
US9507495B2 (en) 2013-04-03 2016-11-29 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US20160092071A1 (en) * 2013-04-30 2016-03-31 Hewlett-Packard Development Company, L.P. Generate preview of content
US20150067582A1 (en) * 2013-09-05 2015-03-05 Storehouse Media, Inc. Content navigation structure and transition mechanism
WO2016007192A1 (en) 2014-07-10 2016-01-14 Ge Intelligent Platforms, Inc. Apparatus and method for electronic labeling of electronic equipment
US11054981B2 (en) * 2015-06-10 2021-07-06 Yaakov Stein Pan-zoom entry of text
US10845987B2 (en) 2016-05-03 2020-11-24 Intelligent Platforms, Llc System and method of using touch interaction based on location of touch on a touch screen
US11079915B2 (en) 2016-05-03 2021-08-03 Intelligent Platforms, Llc System and method of using multiple touch inputs for controller interaction in industrial control systems

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9292111B2 (en) * 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
WO1999038149A1 (en) * 1998-01-26 1999-07-29 Wayne Westerman Method and apparatus for integrating manual input
EP2254025A3 (en) * 2002-05-16 2016-03-30 Sony Corporation Input method and input apparatus
GB2401272B (en) * 2003-04-30 2007-11-21 Hewlett Packard Development Co Method and apparatus for enhancing user interest in static digital images
US7411575B2 (en) * 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US20050162402A1 (en) * 2004-01-27 2005-07-28 Watanachote Susornpol J. Methods of interacting with a computer using a finger(s) touch sensing input device with visual feedback
US7743348B2 (en) * 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
AU2006332488A1 (en) * 2005-12-30 2007-07-12 Apple Inc. Portable electronic device with multi-touch input
TWI399670B (zh) * 2006-12-21 2013-06-21 Elan Microelectronics Corp 操作控制方法及系統及其機器可讀取媒體
US9311528B2 (en) * 2007-01-03 2016-04-12 Apple Inc. Gesture learning

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013542482A (ja) * 2010-08-30 2013-11-21 サムスン エレクトロニクス カンパニー リミテッド マルチタッチによるリストデータ出力制御方法及びこれを支援する携帯端末機

Also Published As

Publication number Publication date
BRPI0913777A2 (pt) 2015-10-20
TW201017511A (en) 2010-05-01
US20110175839A1 (en) 2011-07-21
CN102165402A (zh) 2011-08-24
MX2011003069A (es) 2011-04-19
WO2010035180A3 (en) 2011-05-05
KR20110066950A (ko) 2011-06-17
WO2010035180A2 (en) 2010-04-01
RU2011116237A (ru) 2012-10-27

Similar Documents

Publication Publication Date Title
JP2012503799A (ja) マルチポイントタッチセンサデバイス用のユーザインタフェース
US20220326817A1 (en) User interfaces for playing and managing audio items
US11467726B2 (en) User interfaces for viewing and accessing content on an electronic device
US11210458B2 (en) Device, method, and graphical user interface for editing screenshot images
US11334229B2 (en) Device, method, and graphical user interface for manipulating user interface objects
US8525839B2 (en) Device, method, and graphical user interface for providing digital content products
CN108334264B (zh) 在便携式终端中用于提供多点触摸交互的方法和设备
JP5982369B2 (ja) タッチ感応式デバイスにおけるフォルダー運用方法および装置
EP2659347B1 (en) Method for moving object between pages and interface apparatus
US10394428B2 (en) Method and electronic device for manipulating a first or a second user interface object
EP2975512B1 (en) Device and method for displaying a virtual loupe in response to a user contact
US9367232B2 (en) Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
US20100088598A1 (en) Function execution method and mobile terminal operating with the same
WO2018213136A1 (en) Displaying a set of application views
US20150347358A1 (en) Concurrent display of webpage icon categories in content browser
US20110179097A1 (en) Creating virtual targets in directory structures
US20150346919A1 (en) Device, Method, and Graphical User Interface for Navigating a Content Hierarchy
EP3912030A1 (en) User interfaces for presenting information about and facilitating application functions
JP5719153B2 (ja) 複数のオブジェクトを操作する方法、並びにそのコンピュータ及びコンピュータ・プログラム
US20130290907A1 (en) Creating an object group including object information for interface objects identified in a group selection mode
WO2022036212A1 (en) Audio media playback user interface

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20121204