JP2017123179A - 複数接触ジェスチャのために触知出力の生成を見合わせるためのデバイス、方法、及びグラフィカルユーザインタフェース - Google Patents

複数接触ジェスチャのために触知出力の生成を見合わせるためのデバイス、方法、及びグラフィカルユーザインタフェース Download PDF

Info

Publication number
JP2017123179A
JP2017123179A JP2017024234A JP2017024234A JP2017123179A JP 2017123179 A JP2017123179 A JP 2017123179A JP 2017024234 A JP2017024234 A JP 2017024234A JP 2017024234 A JP2017024234 A JP 2017024234A JP 2017123179 A JP2017123179 A JP 2017123179A
Authority
JP
Japan
Prior art keywords
touch
sensitive surface
user interface
tactile output
contact
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017024234A
Other languages
English (en)
Other versions
JP2017123179A5 (ja
JP6328281B2 (ja
Inventor
ジェフリー トレイヤー バーンシュタイン,
Traer Bernstein Jeffrey
ジェフリー トレイヤー バーンシュタイン,
ジュリアン ミッシグ,
Missig Julian
ジュリアン ミッシグ,
アヴィ イー. チェプリンスキ,
E Cieplinski Avi
アヴィ イー. チェプリンスキ,
マイラ ハガティー,
Haggerty Myra
マイラ ハガティー,
ウェイン シー. ウェスターマン,
Wayne C Westerman
ウェイン シー. ウェスターマン,
パトリック ケスラー,
Kessler Patrick
パトリック ケスラー,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2017123179A publication Critical patent/JP2017123179A/ja
Publication of JP2017123179A5 publication Critical patent/JP2017123179A5/ja
Application granted granted Critical
Publication of JP6328281B2 publication Critical patent/JP6328281B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/014Force feedback applied to GUI
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】より高速でより効率的な入力方法を提供する。【解決手段】ディスプレイと、タッチ感知面と、タッチ感知面との接触の強度を検出するための1つ以上のセンサと、を備える電子デバイスは、タッチ感知面上において、対応する強度閾値を上回る接触の強度の増大を含むジェスチャを検出する。ジェスチャを検出したことに応答して、ジェスチャは第1の数の接触を含むとの判定に従い、デバイスはタッチ感知面上に触知出力を生成し、ジェスチャは、第1の数と異なる第2の数の接触を含むとの判定に従い、デバイスは、タッチ感知面上に触知出力を生成することを見合わせる。【選択図】図17B

Description

[関連出願]
本出願は、2013年3月12日出願の、「Device,Method,and Graphical User Interface for Forgoing Generation of Tactile Output for a Multi−Contact Gesture」と題された米国仮特許出願第61/778,239号、2012年12月29日出願の、「Device,Method,and Graphical User Interface for Manipulating User Interface Objects with Visual and/or Haptic Feedback」と題された米国特許仮出願第61/747,278号に対する優先権を主張する。これらの出願はそれらの全体が本明細書において参照により組み込まれている。
本出願はまた、2013年3月12日出願の、「Device,Method,and Graphical User Interface for Selecting Object within a Group of Objects」と題された米国特許仮出願第61/778,092号、2013年3月12日出願の、「Device,Method,and Graphical User Interface for Navigating User Interface Hierarchies」と題された米国特許仮出願第61/778,125号、2013年3月12日出願の、「Device,Method,and Graphical User Interface for Manipulating Framed Graphical Objects」と題された米国特許仮出願第61/778,156号、2013年3月12日出願の、「Device,Method,and Graphical User Interface for Scrolling Nested Regions」と題された米国特許仮出願第61/778,179号、2013年3月12日出願の、「Device,Method,and Graphical User Interface for Displaying Additional Information in Response to a User Contact」と題された米国特許仮出願第61/778,171号、2013年3月12日出願の、「Device,Method,and Graphical User Interface for Displaying User Interface Objects Corresponding to an Application」と題された米国特許仮出願第61/778,191号、2013年3月12日出願の、「Device,Method,and Graphical User Interface for Facilitating User Interaction with Controls in a User Interface」と題された米国特許仮出願第61/778,211号、2013年3月12日出願の、「Device,Method,and Graphical User Interface for Providing Tactile Feedback for Operations Performed in a User Interface」と題された米国特許仮出願第61/778,284号、2013年3月12日出願の、「Device,Method,and Graphical User Interface for Providing Feedback for Changing Activation States of a User Interface Object」と題された米国特許仮出願第61/778,287号、2013年3月12日出願の、「Device,Method,and Graphical User Interface for Transitioning between Touch Input to Display Output Relationships」と題された米国特許仮出願第61/778,363号、2013年3月12日出願の、「Device,Method,and Graphical User Interface for Moving a User Interface Object Based on an Intensity of a Press Input」と題された米国特許仮出願第61/778,367号、2013年3月12日出願の、「Device,Method,and Graphical User Interface for Transitioning between Display States in Response to a Gesture」と題された米国特許仮出願第61/778,265号、2013年3月12日出願の、「Device,Method,and Graphical User Interface for Managing Activation of a Control Based on Contact Intensity」と題された米国特許仮出願第61/778,373号、2013年3月13日出願の、「Device,Method,and Graphical User Interface for Displaying Content Associated with a Corresponding Affordance」と題された米国特許仮出願第61/778,412号、2013年3月13日出願の、「Device,Method,and Graphical User Interface for Selecting User Interface Objects」と題された米国特許仮出願第61/778,413号、2013年3月13日出願の、「Device,Method,and Graphical User Interface for Moving and Dropping a User Interface Object」と題された米国特許仮出願第61/778,414号、2013年3月13日出願の、「Device,Method,and Graphical User Interface for Determining Whether to Scroll or Select Content」と題された米国特許仮出願第61/778,416号、2013年3月13日出願の、「Device,Method,and Graphical User Interface for Switching between User Interfaces」と題された米国特許仮出願第61/778,418号、に関連する。これらの出願はそれらの全体が本明細書において参照により組み込まれている。
本出願はまた、2012年5月9日出願の「Adaptive Haptic Feedback for Electronic Devices」と題された米国仮特許出願第61/645,033号、2012年6月28日出願の「Adaptive Haptic Feedback for Devices」と題された同第61/665,603号、及び2012年8月8日出願の「Adaptive Haptic Feedback for Electronic Devices」と題された同第61/681,098号にも関するものであり、これらは、その全体が参照により本明細書に組み込まれる。
[技術分野]
本出願は、全般的に、タッチ感知面を備える電子デバイスに関し、その電子デバイスとしては、ユーザインタフェースを操作するための入力を検出するタッチ感知面を備える、電子デバイスが挙げられるが、これに限定されない。
コンピュータ及び他の電子計算デバイス用の入力デバイスとしてのタッチ感知面の使用は、近年では、著しく増大している。例示的なタッチ感知面としては、タッチパッド及びタッチスクリーンディスプレイが挙げられる。このような面は、ディスプレイ上でユーザインタフェースオブジェクトを操作するために幅広く使用されている。
例示的な操作としては、1つ以上のユーザインタフェースオブジェクトの位置及び/又はサイズを調節すること、あるいは、ボタンをアクティブにするか、又はユーザインタフェースオブジェクトによって表されるファイル/アプリケーションを開くこと、並びに1つ以上のユーザインタフェースオブジェクトにメタデータを関連付けること、又は他の方式でユーザインタフェースを操作することが挙げられる。例示的なユーザインタフェースオブジェクトには、デジタルイメージ、映像、テキスト、アイコン、ボタンなどの制御要素及びその他の図形が挙げられる。ユーザは、いくつかの状況において、ファイル管理プログラム(例えば、カリフォルニア州クパチーノのApple Inc.製のFinder)、イメージ管理アプリケーション(例えば、カリフォルニア州クパチーノのApple Inc.製のAperture又はiPhoto)、デジタルコンテンツ(例えば、映像及びミュージック)管理アプリケーション(例えば、カリフォルニア州クパチーノのApple Inc.製のiTunes)、描画アプリケーション、プレゼンテーションアプリケーション(例えば、カリフォルニア州クパチーノのApple Inc.製のKeynote)、文書作成アプリケーション(例えば、カリフォルニア州クパチーノのApple Inc.製のPages)、ウェブサイト作成アプリケーション(例えば、カリフォルニア州クパチーノのApple Inc.製のiWeb)、ディスクオーサリングアプリケーション(例えば、カリフォルニア州クパチーノのApple Inc.製のiDVD)、又はスプレッドシートアプリケーション(例えば、カリフォルニア州クパチーノのApple Inc.製のNumbers)においてユーザインタフェースオブジェクト上でこのような操作を実行する必要がある。
しかしながら、これらの操作を実行するための既存の方法は、煩雑かつ非効率的である。加えて、既存の方法は必要以上に時間を要し、それによってエネルギーを無駄にしてしまう。この後者の考慮事項は、バッテリ動作デバイスにおいては特に重要である。
したがって、ユーザインタフェースを操作するための、より高速でより効率的な方法及びインタフェースを備える、電子デバイスが必要とされている。そのような方法及びインタフェースは、ユーザインタフェースを操作するための従来の方法を、任意選択的に補完するか、又は置き換える。このような方法及びインタフェースは、ユーザの認知負担を軽減し、より効率的なヒューマンマシンインタフェースを作り出す。バッテリ作動装置の場合、このような方法及びインタフェースは、電力を節約し、バッテリ充電間隔を長くする。
タッチ感知式表面を有する電子デバイスのユーザインタフェースに関連した上記の欠陥及びその他の問題は、本願で開示されているデバイスによって低減又は取り除くことができる。いくつかの実施形態において、このデバイスは、デスクトップコンピュータである。いくつかの実施形態において、このデバイスは、ポータブル(例えば、ノートブックコンピュータ、タブレットコンピュータ、又はハンドヘルドデバイス)である。いくつかの実施形態において、このデバイスは、タッチパッドを有する。いくつかの実施形態では、このデバイスは、タッチ感知ディスプレイ(別名「タッチスクリーン」又は「タッチスクリーンディスプレイ」)を有する。いくつかの実施形態において、このデバイスは、グラフィカルユーザインタフェース(GUI)、1つ以上のプロセッサ、メモリ、及び複数の機能を実行するためにメモリに記憶された1つ以上のモジュール、プログラム、又は命令セットを有する。いくつかの実施形態において、ユーザは主にタッチ感知面上での指の接触及びジェスチャを介してGUIと対話する。いくつかの実施形態において、機能は、画像編集、描画、プレゼンテイング、文書作成、ウェブサイト作成、ディスクオーサリング、スプレッドシートの作成、ゲームプレイ、電話をかけること、ビデオ会議、電子メール送信、インスタントメッセージ、トレーニングサポート、デジタル写真撮影、デジタル映像撮影、ウェブブラウジング、デジタル音楽の再生、及び/又はデジタル映像の再生を任意選択的に、含む。これらの機能を実行するための実行可能命令は、永続的コンピュータ可読記憶媒体又は1つ以上のプロセッサによって実行するように構成された他のコンピュータプログラム製品に、任意選択的に、含まれる。
フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供するためのより効率的な方法及びインタフェースを備える電子デバイスが必要とされている。このような方法及びインタフェースは、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供するための従来の方法を補完するか、又はそれらに取って代わり得る。このような方法及びインタフェースは、ユーザの認知負担を軽減し、より効率的なヒューマンマシンインタフェースを作り出す。
いくつかの実施形態によれば、方法は、ディスプレイ及びタッチ感知面を備えた電子デバイスにおいて実施される。本方法は、ディスプレイ上に複数のユーザインタフェースオブジェクトを表示することであって、複数のユーザインタフェースオブジェクトの各々は複数の小部分を含む、表示することを含む。本方法は、複数のユーザインタフェースオブジェクト内の対応するユーザインタフェースオブジェクト上へのフォーカスセレクタの移動に対応するタッチ感知面上の接触の移動を検出することを更に含む。本方法は、接触の移動を検出したことに応答して、出力基準が満たされたとの判定に従い、対応するユーザインタフェースオブジェクトの対応する境界及び対応するユーザインタフェースオブジェクトの小部分に対応する触知出力を生成することと、出力基準は満たされなかったとの判定に従い、対応するユーザインタフェースオブジェクトの小部分に対応する触知出力を生成することなく、対応するユーザインタフェースオブジェクトの対応する境界に対応する触知出力を生成することと、を更に含む。
いくつかの実施形態によれば、電子デバイスは、1つ以上のユーザインタフェースオブジェクトを表示するように構成される表示ユニットと、ユーザによる接触を受けるように構成されるタッチ感知面ユニットと、表示ユニット及びタッチ感知面ユニットに結合される処理ユニットと、を含む。処理ユニットは、表示ユニット上における複数のユーザインタフェースオブジェクトの表示を可能にすることであって、複数のユーザインタフェースオブジェクトの各々は複数の小部分を含む、可能にすることと、複数のユーザインタフェースオブジェクト内の対応するユーザインタフェースオブジェクト上へのフォーカスセレクタの移動に対応するタッチ感知面上の接触の移動を検出することと、をするように構成される。処理ユニットは、接触の移動を検出したことに応答して、出力基準が満たされたとの判定に従い、対応するユーザインタフェースオブジェクトの対応する境界及び対応するユーザインタフェースオブジェクトの小部分に対応する触知出力を生成することと、出力基準は満たされなかったとの判定に従い、対応するユーザインタフェースオブジェクトの小部分に対応する触知出力を生成することなく、対応するユーザインタフェースオブジェクトの対応する境界に対応する触知出力を生成することと、をするように更に構成される。
それゆえ、ディスプレイとタッチ感知面とを備える電子デバイスに、フォーカスセレクタがユーザインタフェースオブジェクトの小部分上に移動する際のフィードバックを提供するためのより高速、より効率的な方法及びインタフェースが提供され、それにより、このようなデバイスの有効性、効率、及びユーザ満足度が増す。このような方法及びインタフェースは、フォーカスセレクタがユーザインタフェースオブジェクトの小部分上に移動する際のフィードバックを提供するための従来の方法を補完するか、又はそれらに取って代わり得る。
例えば、選択イベントに対応するフィードバックを、アクティブ化イベントに対応するフィードバックとより効率的に差別化するために、ユーザインタフェースオブジェクトと対話する際のフィードバックを提供するためのより高速、より効率的な方法及びインタフェースを備える電子デバイスが必要とされている。このような方法及びインタフェースは、ユーザインタフェースオブジェクトと対話する際のフィードバックを提供するための従来の方法を補完するか、又はそれらに取って代わり得る。このような方法及びインタフェースは、ユーザの認知負担を軽減し、より効率的なヒューマンマシンインタフェースを作り出す。バッテリ作動装置の場合、このような方法及びインタフェースは、電力を節約し、バッテリ充電間隔を長くする。
いくつかの実施形態では、ディスプレイ、タッチ感知面、及びタッチ感知面との接触の強度を検出するための1つ以上のセンサを備える、電子デバイスで、方法が実行される。本方法は、タッチ感知面の接触を検出することであって、接触がディスプレイ上のフォーカスセレクタに対応する、検出することを含む。本方法は、接触からの入力に基づくジェスチャを検出することを更に含む。本方法は、ジェスチャの検出に応答して、ジェスチャは、対応するユーザインタフェースオブジェクト上への、対応するユーザインタフェースオブジェクトをアクティブ化することのないフォーカスセレクタの移動に対応するとの判定に従い、タッチ感知面上に、対応するユーザインタフェースオブジェクト上へのフォーカスセレクタの移動に対応する第1の触知出力を生成することと、ジェスチャは、フォーカスセレクタが対応するユーザインタフェースオブジェクト上にある間におけるアクティブ化強度閾値を上回る接触の強度の増大に対応するとの判定に従い、タッチ感知面上に、対応するユーザインタフェースオブジェクトのアクティブ化に対応する、第1の触知出力と異なる第2の触知出力を生成することと、を更に含む。
いくつかの実施形態によれば、電子デバイスは、1つ以上のユーザインタフェースオブジェクトを表示するように構成される表示ユニットと、ユーザによる接触を受けるように構成されるタッチ感知面ユニットと、表示ユニット及びタッチ感知面ユニットに結合される処理ユニットと、を含む。処理ユニットは、表示ユニット上における1つ以上のユーザインタフェースオブジェクトの表示を可能にすることと、タッチ感知面ユニット上の接触を検出することであって、接触は表示ユニット上へのフォーカスセレクタに対応する、検出することと、接触からの入力に基づくジェスチャを検出することと、をするように構成される。処理ユニットは、ジェスチャの検出に応答して、ジェスチャは、対応するユーザインタフェースオブジェクト上への、対応するユーザインタフェースオブジェクトをアクティブ化することのないフォーカスセレクタの移動に対応するとの判定に従い、タッチ感知面上に、対応するユーザインタフェースオブジェクト上へのフォーカスセレクタの移動に対応する第1の触知出力を生成することと、ジェスチャは、フォーカスセレクタが対応するユーザインタフェースオブジェクト上にある間におけるアクティブ化強度閾値を上回る接触の強度の増大に対応するとの判定に従い、タッチ感知面上に、対応するユーザインタフェースオブジェクトのアクティブ化に対応する、第1の触知出力と異なる第2の触知出力を生成することと、をするように更に構成される。
それゆえ、ディスプレイと、タッチ感知面と、タッチ感知面との接触の強度を検出するための1つ以上のセンサとを備える電子デバイスに、ユーザインタフェースオブジェクトと対話する際のフィードバックを提供するためのより高速、より効率的な方法及びインタフェースが提供され、それにより、このようなデバイスの有効性、効率、及びユーザ満足度が増す。このような方法及びインタフェースは、ユーザインタフェースオブジェクトと対話する際のフィードバックを提供するための従来の方法を補完するか、又はそれらに取って代わり得る。
フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供するためのより高速、より効率的な方法及びインタフェースを備える電子デバイスが必要とされている。このような方法及びインタフェースは、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供するための従来の方法を補完するか、又はそれらに取って代わり得る。このような方法及びインタフェースは、ユーザの認知負担を軽減し、より効率的なヒューマンマシンインタフェースを作り出す。バッテリ作動装置の場合、このような方法及びインタフェースは、電力を節約し、バッテリ充電間隔を長くする。
いくつかの実施形態によれば、方法は、ディスプレイ及びタッチ感知面を備えた電子デバイスにおいて実施される。本方法は、ディスプレイ上に、コントロール領域、及びコントロール領域と別個のコンテンツ領域を含むアプリケーションウィンドウを表示することであって、コントロール領域は、コンテンツ領域内のコンテンツに対して動作を実行するための複数のアフォーダンスを含み、コンテンツ領域は、コンテンツ内に組み込まれた1つ以上のアフォーダンスを含むコンテンツを表示する、表示することを含む。本方法は、タッチ感知面上の接触を検出することを更に含む。本方法は、アプリケーションウィンドウを横切るディスプレイ上のフォーカスセレクタの移動に対応するタッチ感知面を横切る接触の移動を含むジェスチャを検出することを更に含む。本方法は、ジェスチャの検出に応答して、ジェスチャはコントロール領域内の第1のアフォーダンス上へのフォーカスセレクタの移動に対応するとの判定に従い、タッチ感知面上に、コントロール領域内のアフォーダンス上へのフォーカスセレクタの移動に対応する第1の触知出力を生成することと、ジェスチャはコンテンツ領域内の第2のアフォーダンス上へのフォーカスセレクタの移動に対応するとの判定に従い、タッチ感知面上に、コンテンツ領域内のアフォーダンス上へのフォーカスセレクタの移動に対応する、第1の触知出力と異なる第2の触知出力を生成することと、を更に含む。
いくつかの実施形態によれば、電子デバイスは、アプリケーションウィンドウを表示するように構成される表示ユニットと、ユーザによる接触を受けるように構成されるタッチ感知面ユニットと、表示ユニット及びタッチ感知面ユニットに結合される処理ユニットと、を含む。処理ユニットは、ディスプレイ上における、コントロール領域、及びコントロール領域と別個のコンテンツ領域を含むアプリケーションウィンドウの表示を可能にすることをするように構成される。コントロール領域は、コンテンツ領域内のコンテンツに対して動作を実行するための複数のアフォーダンスを含み、コンテンツ領域は、コンテンツ内に組み込まれた1つ以上のアフォーダンスを含むコンテンツを表示する。処理ユニットは、タッチ感知面ユニット上の接触を検出するように更に構成される。処理ユニットは、アプリケーションウィンドウを横切るディスプレイ上のフォーカスセレクタの移動に対応するタッチ感知面ユニットを横切る接触の移動を含むジェスチャを検出するように更に構成される。プロセッサユニットは、ジェスチャの検出に応答して、ジェスチャはコントロール領域内の第1のアフォーダンス上へのフォーカスセレクタの移動に対応するとの判定に従い、タッチ感知面ユニット上に、コントロール領域内のアフォーダンス上へのフォーカスセレクタの移動に対応する第1の触知出力を生成することと、ジェスチャはコンテンツ領域内の第2のアフォーダンス上へのフォーカスセレクタの移動に対応するとの判定に従い、タッチ感知面ユニット上に、コンテンツ領域内のアフォーダンス上へのフォーカスセレクタの移動に対応する、第1の触知出力と異なる第2の触知出力を生成することと、をするように更に構成される。
それゆえ、ディスプレイとタッチ感知面とを備える電子デバイスに、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供するためのより高速、より効率的な方法及びインタフェースが提供され、それにより、このようなデバイスの有効性、効率、及びユーザ満足度が増す。このような方法及びインタフェースは、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供するための従来の方法を補完するか、又はそれらに取って代わり得る。
音量レベルの調整に従って触知出力レベルを調整するためのより高速、より効率的な方法及びインタフェースを備える電子デバイスが必要とされている。このような方法及びインタフェースは、触知出力レベルを調整するための従来の方法を補完するか、又はそれらに取って代わり得る。このような方法及びインタフェースは、ユーザの認知負担を軽減し、より効率的なヒューマンマシンインタフェースを作り出す。バッテリ作動装置の場合、このような方法及びインタフェースは、電力を節約し、バッテリ充電間隔を長くする。
いくつかの実施形態によれば、方法は、ディスプレイ及びタッチ感知面を備えた電子デバイスにおいて実行される。本方法は、タッチ感知面上の第1の複数の入力を検出することと、第1の複数の入力を検出したことに応答して、デバイスの触知出力レベルに従って触知を提供することと、デバイスの音量レベルを対応する量だけ調整せよとの要求を受信することと、を含む。本方法は、音量レベルを調整せよとの要求に応答して、音量レベルを対応する量だけ第1の非0の音量レベルから第2の非0の音量レベルへ調整することと、デバイスの触知出力レベルを対応する量に従って調整することと、を更に含む。
いくつかの実施形態によれば、電子デバイスは、情報を表示するように構成される表示ユニットと、接触を受けるように構成されるタッチ感知面ユニットと、触知フィードバックを提供するように構成される触知フィードバックユニットと、少なくとも音量レベルに従ってオーディオ信号及びオーディオ制御信号を生成するように構成されるオーディオユニットと、表示ユニット、タッチ感知面ユニット、触知フィードバックユニット、及びオーディオユニットに結合される処理ユニットと、を含む。処理ユニットは、タッチ感知面ユニット上の第1の複数の入力を検出することと、第1の複数の入力を検出したことに応答して、触知フィードバックユニットフィードバックを介してデバイスの触知出力レベルに従って触知を提供することと、デバイスの音量レベルを対応する量だけ調整せよとの要求を受信することと、をするように構成される。処理ユニットは、音量レベルを調整せよとの要求に応答して、音量レベルを対応する量だけ調整することと、デバイスの触知出力レベルを対応する量に従って調整することと、をするように更に構成される。
それゆえ、ディスプレイとタッチ感知面とを備える電子デバイスに、音量レベルの調整に従って触知出力レベルを調整するためのより高速、より効率的な方法及びインタフェースが提供され、それにより、このようなデバイスの有効性、効率、及びユーザ満足度が増す。このような方法及びインタフェースは、触知出力レベルを調整するための従来の方法を補完するか、又はそれらに取って代わり得る。
第1の数の接触を有するジェスチャ(例えば、単一接触ジェスチャ)のためには触知出力を生成し、第2の数の接触を有するジェスチャ(例えば、複数接触ジェスチャ)のためには触知出力の生成を見合わせるためのより効率的な方法及びインタフェースを備える電子デバイスが必要とされている。このような方法及びインタフェースは、触知出力生成のための従来の方法を補完するか、又はそれらに取って代わり得る。このような方法及びインタフェースは、ユーザの認知負担を軽減し、より効率的なヒューマンマシンインタフェースを作り出す。バッテリ作動装置の場合、このような方法及びインタフェースは、電力を節約し、バッテリ充電間隔を長くする。
いくつかの実施形態では、ディスプレイとタッチ感知面とを備える電子デバイスであって、このデバイスは、タッチ感知面との接触の強度を検出するための1つ以上のセンサを含む、電子デバイスにおいて、方法が実行される。本方法は、タッチ感知面上において、対応する強度閾値を上回る接触の強度の増大を含むジェスチャを検出することを含む。本方法は、ジェスチャを検出したことに応答して、ジェスチャは第1の数の接触を含むとの判定に従い、タッチ感知面上に触知出力を生成することと、ジェスチャは、第1の数と異なる第2の数の接触を含むとの判定に従い、タッチ感知面上に触知出力を生成することを見合わせることと、を更に含む。
いくつかの実施形態によれば、電子デバイスは、グラフィカルユーザインタフェースを表示するように構成される表示ユニットと、接触を受けるように構成されるタッチ感知面ユニットと、タッチ感知面ユニットとの接触の強度を検出するように構成される1つ以上のセンサユニットと、触知出力を生成するように構成される触知出力ユニットと、表示ユニット、タッチ感知面ユニット、1つ以上のセンサユニット、及び触知出力ユニットに結合される処理ユニットと、を含む。処理ユニットは、タッチ感知面ユニット上において、対応する強度閾値を上回る接触の強度の増大を含むジェスチャを検出するように構成される。処理ユニットは、ジェスチャを検出したことに応答して、ジェスチャは第1の数の接触を含むとの判定に従い、触知出力ユニットを介してタッチ感知面ユニット上に触知出力を生成することと、ジェスチャは、第1の数と異なる第2の数の接触を含むとの判定に従い、タッチ感知面ユニット上に触知出力を生成することを見合わせることと、をするように更に構成される。
それゆえ、ディスプレイと、タッチ感知面と、タッチ感知面との接触の強度を検出するための1つ以上のセンサとを備える電子デバイスに、第1の数の接触を有するジェスチャのためには触知出力を生成し、第2の数の接触を有するジェスチャのためには触知出力の生成を見合わせるためのより効率的な方法及びインタフェースが提供され、それにより、このようなデバイスの有効性、効率、及びユーザ満足度が増す。このような方法及びインタフェースは、第1の数の接触を有するジェスチャのためには触知出力を生成し、第2の数の接触を有するジェスチャのためには触知出力の生成を見合わせるための従来の方法を補完するか、又はそれらに取って代わり得る。
いくつかの実施形態において、電子デバイスは、ディスプレイと、タッチ感知面と、任意選択的に、このタッチ感知面との接触の強度を検出するための1つ以上のセンサと、1つ以上のプロセッサと、メモリと、1つ以上のプログラムと、を含み、1つ以上のプログラムはメモリ内に記憶され、1つ以上のプロセッサによって実行されるように構成され、1つ以上のプログラムは、段落[0059]において言及されている方法のうちのいずれかの動作を実行するための命令を含む。いくつかの実施形態によれば、ディスプレイ、タッチ感知面、タッチ感知面との接触の強度を検出するための任意選択の1つ以上のセンサ、メモリ、及びメモリ内に記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサを備える電子デバイス上の、グラフィカルユーザインタフェースは、パラグラフ[0059]で言及される方法のうちのいずれかで表示される要素のうちの1つ以上を含み、それらの要素は、パラグラフ[0059]で言及される方法のうちのいずれかで説明されるように、入力に応答して更新される。いくつかの実施形態によれば、コンピュータ可読記憶媒体は、その内部に命令を記憶しており、その命令は、ディスプレイ、タッチ感知面、及びタッチ感知面との接触の強度を検出するための任意選択の1つ以上のセンサを備える電子デバイスによって実行されると、パラグラフ[0059]で言及される方法のうちのいずれかの動作を、そのデバイスに実行させる。いくつかの実施形態によれば、電子デバイスは、ディスプレイ、タッチ感知面、及びタッチ感知面との接触の強度を検出するための任意選択の1つ以上のセンサ、及び、パラグラフ[0059]で言及される方法のうちのいずれかの動作を実行するための手段を含む。いくつかの実施形態によれば、ディスプレイ及びタッチ感知面、タッチ感知面との接触の強度を検出するための任意選択の1つ以上のセンサを備える電子デバイス内で使用するための、情報処理装置が、パラグラフ[0059]で言及される方法のうちのいずれかの動作を実行するための手段を含む。
説明される様々な実施形態のより良好な理解のために、以下の図面と併せて、以下の「実施形態の説明」を参照されたく、類似の参照番号は、それらの図の全体を通じて対応する部分を指す。
いくつかの実施形態に係る、タッチ感知式ディスプレイを有するポータブル多機能デバイスを説明するためのブロック図である。
いくつかの実施形態に係る、イベント処理用の例示的コンポーネントを説明するためのブロック図である。
いくつかの実施形態に係る、タッチスクリーンを備えたポータブル多機能デバイスを示す図である。
いくつかの実施形態に係る、ディスプレイ及びタッチ感知面を備えた例示的な多機能デバイスのブロック図である。
いくつかの実施形態に係る、ポータブル多機能デバイスにおけるアプリケーションのメニュのための例示的なユーザインタフェースを示す図である。
いくつかの実施形態に係る、ディスプレイとは別個のタッチ感知面を備えた多機能デバイスのための例示的なユーザインタフェースを示す図である。
いくつかの実施形態に係る、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供するための例示的なユーザインタフェースを示す図である。
いくつかの実施形態に係る、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供する方法を示すフロー図である。 いくつかの実施形態に係る、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供する方法を示すフロー図である。 いくつかの実施形態に係る、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供する方法を示すフロー図である。
いくつかの実施形態に係る電子デバイスの機能ブロック図である。
いくつかの実施形態に係る、ユーザインタフェースオブジェクトと対話する際のフィードバックを提供するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、ユーザインタフェースオブジェクトと対話する際のフィードバックを提供するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、ユーザインタフェースオブジェクトと対話する際のフィードバックを提供するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、ユーザインタフェースオブジェクトと対話する際のフィードバックを提供するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、ユーザインタフェースオブジェクトと対話する際のフィードバックを提供するための例示的なユーザインタフェースを示す図である。
いくつかの実施形態に係る、触知出力を生成するための運動プロファイルの例示的な波形を示す図である。 いくつかの実施形態に係る、触知出力を生成するための運動プロファイルの例示的な波形を示す図である。 いくつかの実施形態に係る、触知出力を生成するための運動プロファイルの例示的な波形を示す図である。
いくつかの実施形態に係る、ユーザインタフェースオブジェクトと対話する際のフィードバックを提供する方法を示すフロー図である。
いくつかの実施形態に係る電子デバイスの機能ブロック図である。
いくつかの実施形態に係る、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供するための例示的なユーザインタフェースを示す図である。
いくつかの実施形態に係る、触知出力を生成するための運動プロファイルの例示的な波形を示す図である。 いくつかの実施形態に係る、触知出力を生成するための運動プロファイルの例示的な波形を示す図である。 いくつかの実施形態に係る、触知出力を生成するための運動プロファイルの例示的な波形を示す図である。
いくつかの実施形態に係る、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供する方法を示すフロー図である。 いくつかの実施形態に係る、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供する方法を示すフロー図である。
いくつかの実施形態に係る電子デバイスの機能ブロック図である。
いくつかの実施形態に係る、音量レベルの調整に従って触知出力レベルを調整するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、音量レベルの調整に従って触知出力レベルを調整するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、音量レベルの調整に従って触知出力レベルを調整するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、音量レベルの調整に従って触知出力レベルを調整するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、音量レベルの調整に従って触知出力レベルを調整するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、音量レベルの調整に従って触知出力レベルを調整するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、音量レベルの調整に従って触知出力レベルを調整するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、音量レベルの調整に従って触知出力レベルを調整するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、音量レベルの調整に従って触知出力レベルを調整するための例示的なユーザインタフェースを示す図である。
いくつかの実施形態に係る、音量レベルの調整に従って触知出力レベルを調整する方法を示すフロー図である。 いくつかの実施形態に係る、音量レベルの調整に従って触知出力レベルを調整する方法を示すフロー図である。 いくつかの実施形態に係る、音量レベルの調整に従って触知出力レベルを調整する方法を示すフロー図である。
いくつかの実施形態による、電子デバイスの機能ブロック図である。
いくつかの実施形態に係る、第1の数の接触を有するジェスチャのためには触知出力を生成し、第2の数の接触を有するジェスチャのためには触知出力の生成を見合わせるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第1の数の接触を有するジェスチャのためには触知出力を生成し、第2の数の接触を有するジェスチャのためには触知出力の生成を見合わせるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第1の数の接触を有するジェスチャのためには触知出力を生成し、第2の数の接触を有するジェスチャのためには触知出力の生成を見合わせるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第1の数の接触を有するジェスチャのためには触知出力を生成し、第2の数の接触を有するジェスチャのためには触知出力の生成を見合わせるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第1の数の接触を有するジェスチャのためには触知出力を生成し、第2の数の接触を有するジェスチャのためには触知出力の生成を見合わせるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第1の数の接触を有するジェスチャのためには触知出力を生成し、第2の数の接触を有するジェスチャのためには触知出力の生成を見合わせるための例示的なユーザインタフェースを示す図である。
いくつかの実施形態に係る、第1の数の接触を有するジェスチャのためには触知出力を生成し、第2の数の接触を有するジェスチャのためには触知出力の生成を見合わせる方法を示すフロー図である。
いくつかの実施形態に係る電子デバイスの機能ブロック図である。
本明細書で説明される方法、デバイス、及びGUIは、ユーザインタフェースオブジェクトの操作を、より効率的かつユーザにとって直感的にさせる、視覚フィードバック及び/又は触覚フィードバックを提供する。例えば、トラックパッドのクリック動作が、アクティブ化閾値に到達するために必要な接触強度(例えば、接触力、接触圧、又はそれらの代替)から切り離されるシステムでは、そのデバイスは、異なるアクティブ化イベントに関する異なる触知出力(例えば、「異なるクリック」)を生成することができる(例えば、それにより、特定の結果を達成するクリックは、結果を生み出さないクリック、又はその特定の結果とは異なる結果を達成するクリックから差異化される)。加えて、触知出力は、ユーザインタフェースオブジェクトが、特定の位置、境界、若しくは向きに移動される場合、又はイベントがデバイスで発生する場合に、触知出力(例えば、「デテント」)が生成されるなどの、接触の強度の増大に関連しない他のイベントに応答して生成することができる。
加えて、トラックパッド又はタッチスクリーンディスプレイが、1つ又は2つよりも多くの(例えば、単純なオン/オフ、2値強度判定よりも多くの)特定の強度値を含む、接触強度の範囲に敏感であるシステムでは、ユーザインタフェースは、その範囲内での接触の強度を示す応答(例えば、視覚又は触知キュー)を提供することができる。いくつかの実装では、入力に対する事前アクティブ化閾値応答及び/又は事後アクティブ化閾値応答が、連続アニメーションとして表示される。そのような応答の一実施例として、動作を実行するためのアクティブ化閾値を依然として下回る、接触強度の増大の検出に応答して、その動作のプレビューが表示される。そのような応答の別の実施例として、動作に対するアクティブ化閾値に到達した後でさえも、その動作に関連付けられたアニメーションが継続する。これらの実施例の双方とも、ユーザの接触の力又は圧力に対する継続的応答をユーザに提供するものであり、このことによって、より豊かでより直感的な視覚フィードバック及び/又は触覚フィードバックが、ユーザに提供される。より具体的には、そのような継続的な力応答は、軽く押圧することによって、動作をプレビューし、及び/又は深く押圧することによって、その動作に対応する既定のユーザインタフェース状態を押し「退ける」か、若しくは押し「通す」ことが可能であるという経験を、ユーザに与える。
更には、接触強度の範囲に敏感であるタッチ感知面を備えるデバイスに関しては、そのデバイスによって複数の接触強度閾値を監視することができ、異なる機能を異なる接触強度閾値にマッピングすることができる。このことは、第2の「深い押圧」強度閾値での接触の強度の増大、又はその強度閾値を超える接触の強度の増大が、接触の強度が第1の「アクティブ化」強度閾値と第2の「深い押圧」強度閾値との間である場合に実行される動作とは異なる動作を、デバイスに実行させることになることを知っているユーザに、拡張機能への容易なアクセスを提供する、利用可能な「ジェスチャ空間」を増大させるために役立つ。第1の「アクティブ化」強度閾値での周知の機能性を維持しつつ、第2の「深い押圧」強度閾値に追加機能性を割り当てる利点は、いくつかの状況では、追加機能性によって混乱する経験の浅いユーザが、第1の「アクティブ化」強度閾値までの強度を単に適用することによって、周知の機能性を使用することができる一方で、より経験豊富なユーザが、第2の「深い押圧」強度閾値での強度を適用することによって、その追加機能性を活用することができる点である。
更には、接触強度の範囲に敏感であるタッチ感知面を備えるデバイスに関しては、そのデバイスは、単一の継続的接触でユーザが複雑な操作を実行することを可能にすることによって、追加機能性を提供することができる。例えば、オブジェクトのグループを選択する場合、ユーザは、タッチ感知面の周囲で継続的接触を移動させることができ、ドラッグしつつ押圧する(例えば、「深い押圧」強度閾値よりも大きい強度を適用する)ことによって、追加要素を選択に加えることができる。この方式で、ユーザは、ユーザインタフェースと直感的にやりとりすることができ、接触と共により強く押圧することによって、ユーザインタフェース内のオブジェクトに、「より定着した」ものにさせる。
クリック動作が、アクティブ化閾値に到達するために必要な力から切り離され、かつ/又は、デバイスが広範囲の接触強度に敏感な、デバイス上の直感的なユーザインタフェースを提供するための、数多くの異なる手法を、以下で説明する。これらの方法(任意選択的に、それぞれの併用)のうちの1つ以上を使用することが、ユーザに追加の情報又は機能を直観的に提供するユーザインタフェースを提供することを支援し、したがって、ユーザの認知的負担を低減し、ヒューマンマシンインタフェースを高める。そのようなヒューマンマシンインタフェースの改善により、ユーザは、より速く、より効率的にデバイスを使用することが可能となる。バッテリ動作デバイスに関しては、これらの改善により、電力が節約され、バッテリを充電する間隔が増大する。説明を簡単にするために、これらの方法のうちのいくつかの例示的実施例を含む、システム、方法、及びユーザインタフェースが以下で説明されている。
●以下において説明される方法及びユーザインタフェースは、ユーザが、より大きなユーザインタフェースオブジェクト(例えば、テキストのブロック)の特定の小部分(例えば、個々の単語文字又はスペース)上にスクロールしたか又はそれを選択したことを指示する触知フィードバックを提供することによって、この視覚フィードバックを改善する。特に、図5A〜図5Mは、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供するための例示的なユーザインタフェースを示す。図6A〜図6Cは、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供する方法を示すフロー図である。図5A〜図5Mのユーザインタフェースは、図6A〜図6Cのプロセスを説明するために使用される。
フォーカスセレクタが対応するユーザインタフェースオブジェクト上に移動する際には、ユーザがその後に対応するユーザインタフェースオブジェクトをアクティブ化する際とは異なる触知フィードバックをユーザに提供することによって。特に、図8A〜図8Eは、ユーザインタフェースオブジェクトと対話する際のフィードバックを提供するための例示的なユーザインタフェースを示す。図9は、ユーザインタフェースオブジェクトと対話する際のフィードバックを提供する方法を示すフロー図である。図8A〜図8Eのユーザインタフェースは、図9のプロセスを説明するために使用される。
多くの電子デバイスは、コントロールアフォーダンスなどのコンテンツ非依存アフォーダンスを表示するための分離した領域を有するアプリケーションウィンドウを表示するグラフィカルユーザインタフェースを有する。以下において説明される実施形態は、フォーカスセレクタが、アプリケーションウィンドウのコントロール領域内に表示されるアフォーダンス及びコンテンツ領域内に表示されるアフォーダンス上に移動する際に異なる触知フィードバックをユーザに提供することによって、複雑なユーザインタフェース環境をナビゲートするユーザへのフィードバックを生成するための改善された方法及びユーザインタフェースを提供する。特に、図11A〜図11Dは、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供するための例示的なユーザインタフェースを示す。図12A〜図12Bは、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供する方法を示すフロー図である。図11A〜図11Dのユーザインタフェースは、図12A〜図12Bのプロセスを説明するために使用される。
●多くの電子デバイスは、デバイスの設定又はモードの有効化に応答してデバイスの知覚特性の出力レベルを変更する。しかし、時には、調整するべき知覚特性が多数存在することがあり、これらの知覚特性の出力レベルを別個に調整することはユーザにとって分かりにくく、難しくなり得る。以下の実施形態は、デバイスの音量レベルの調整に連動してデバイスの触知出力レベルを調整することによって、より使い勝手が良く、直感的なユーザインタフェースを提供する。特に、図14A〜図14Iは、音量レベルの調整に従って触知出力レベルを調整するための例示的なユーザインタフェースを示す。図15A〜図15Cは、音量レベルの調整に従って触知出力レベルを調整する方法を示すフロー図である。図14A〜図14Iのユーザインタフェースは、図15A〜図15Cのプロセスを説明するために使用される。
●多くの電子デバイスは、ユーザアクションによってイベントがトリガされることに応答して確認のフォームをユーザに提供する。例えば、ユーザが、対応するコンテンツ(例えば、電子文書、画像、又はビデオ)に対応するアフォーダンス(例えば、アイコンボタン)をクリックすると、ユーザがアフォーダンスをクリックしていることを確認するためにオーディオ出力がスピーカを介してユーザに提供される。しかし、この確認又はフィードバックは、それが、フィードバックに対応しない入力に応答して生じる場合には、ユーザにとって気を散らすか又は混乱させるものになり得る。以下において説明される実施形態は、第1の数の接触(例えば、1つの接触)を含むジェスチャを検出したことに応答して触知出力を生成し、ジェスチャが第2の数の接触(例えば、2つ以上の接触)を含む場合には、触知出力を生成することをフォージすることによって、より使い勝手が良く、直感的なインタフェースを提供する。特に、図17A〜図17Fは、第1の数の接触を有するジェスチャのためには触知出力を生成し、第2の数の接触を有するジェスチャのためには触知出力の生成を見合わせるための例示的なユーザインタフェースを示す。図18は、第1の数の接触を有するジェスチャのためには触知出力を生成し、第2の数の接触を有するジェスチャのためには触知出力の生成を見合わせる方法を示すフロー図である。図17A〜図17Fのユーザインタフェースは、図18のプロセスを説明するために使用される。
例示的デバイス
実施例が添付の図面に示されている実施形態が、詳細に参照される。以下の詳細な説明では、説明される様々な実施形態の完全な理解を提供するために、数多くの具体的な詳細が記載される。しかしながら、説明されている様々な実施形態は、これらの具体的な詳細を伴わずとも実践し得ることが、当業者には明らかであろう。他の例においては、周知の方法、手続き、コンポーネント、回路、及びネットワークは、実施形態の態様を不必要に不明瞭なものとしないよう、詳細には説明されていない。
本明細書では、第1、第2などの用語は、いくつかの実例で、様々な要素を説明するために使用されるが、これらの要素は、それらの用語によって限定されるべきではないことも理解されるであろう。これらの用語は、ある要素を別の要素と区別するためのみに使用される。例えば、説明されている様々な実施形態の範囲から逸脱することなく、第1の接触は、第2の接触と称することができ、同様に、第2の接触は、第1の接触と称し得る。第1の接点及び第2の接点は両方接点であるが、それらは同じ接点ではない。
本明細書で説明される様々な実施形態の説明で使用される用語法は、特定の実施形態を説明することのみを目的とするものであって、限定することを意図するものではない。様々な記載の実施形態、及び添付の特許請求の範囲で使用される時に、単数形「a」、「an」、及びthe」は、文脈が別途明確に示さない限り、複数形をも含むことが意図されている。本明細書で使用される時に、用語「及び/又は」が、関連するリスト化された項目のうちの1つ以上の任意の全ての可能な組合せを指し、これを含むことをも理解されるであろう。更に、用語「includes(含む)」、「including(含む)」、「comprises(含む)」及び/又は「comprising(含む)」が、本明細書で使用される時に、述べられた特徴、整数、ステップ、動作、要素、及び/又はコンポーネントの存在を指定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、コンポーネント、及び/又はその群の存在又は追加を除外しないことが理解されるであろう。
本明細書で使用される時、用語「if(〜の場合には)」は、任意選択的に、文脈に応じて「when(の時〜)」、「upon(〜する際)」、「in response to determining(〜という判定に応答して)」、又は「in response to detecting(〜の検出に応答して)」を意味するものと解釈される。同様に、句「if it is determined(〜と判定される場合に)」又は「if(a stated condition or event)is detected((述べられる条件又はイベント)が検出される場合に)」を、文脈に応じて「upon determining(〜と判定される時に)」、「in response to determining(〜との判定に応答して)」、「upon detecting(the stated condition or event)((述べられる条件又はイベント)の検出時に)」、又は「in response to detecting(the stated condition or event)((述べられる条件又はイベント)の検出に応答して)」を意味すると、任意選択的に、解釈する。
電子デバイス、かかるデバイスのユーザインタフェース、及びかかるデバイスを用いるための関連付けられたプロセスの実施形態が説明されている。いくつかの実施形態において、デバイスは、モバイル電話などのポータブル通信デバイスであって、PDA及び/又はミュージックプレーヤ機能などのその他の機能も含有する。ポータブル多機能デバイスの例示的な実施例には、カリフォルニア州クパチーノのApple Inc.社製のiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)が挙げられるが、これらに限定されない。タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を備えたラップトップ又はタブレットコンピュータなど他のポータブル電子デバイスも使用できる。また、いくつかの実施形態において、このデバイスはポータブル通信デバイスではなく、タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を備えたデスクトップコンピュータであることを理解されたい。
以下の考察において、ディスプレイとタッチ感知式表面を有する電子デバイスが説明されている。しかし、この電子デバイスが、物理キーボード、マウス、及び/又はジョイスティックなどの1つ以上の他の物理ユーザインタフェース機器を、任意選択的に、含むことを理解されたい。
デバイスは、典型的には、1つ以上の様々なアプリケーションをサポートする。これらのアプリケーションには、例えば、作図アプリケーション、プレゼンテーションアプリケーション、文書作成アプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、スプレッドシートアプリケーション、ゲームアプリケーション、電話アプリケーション、ビデオ会議アプリケーション、電子メールアプリケーション、インスタントメッセージアプリケーション、ワークアウトのサポートアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、ウェブブラウジングアプリケーション、デジタルミュージックプレイヤーアプリケーション、及び/又はデジタルビデオプレイヤーアプリケーションが含まれる。
このデバイス上で実行される様々なアプリケーションは、タッチ感知面などの、少なくとも1つの通常の物理ユーザインタフェースデバイスを、任意選択的に使用する。タッチ感知面の1つ以上の機能並びに機器上に表示される対応する情報は、1つのアプリケーションから次のアプリケーションへ、及び/又は対応するアプリケーションの中で、任意選択的に、調整し、及び/又は変更される。この方式で、そのデバイスの通常の(タッチ感知面などの)物理アーキテクチャは、ユーザにとって直観的かつ透過的なユーザインタフェースを備える種々のアプリケーションを、任意選択的にサポートする。
タッチ感知ディスプレイを備えたポータブルデバイスの実施形態に注目を向ける。図1Aは、いくつかの実施形態に係る、タッチ感知式ディスプレイ112を有するポータブル多機能デバイス100を説明するためのブロック図である。タッチ感知ディスプレイ112は、便宜上「タッチスクリーン」と呼ばれる場合があり、タッチ感知ディスプレイシステムとして既知であるか、又はそのように呼ばれる場合もある。機器100は、メモリ102(任意選択的に、1つ以上のコンピュータ可読記憶媒体を含む)、メモリコントローラ122、1つ以上の処理ユニット(CPU)120、周辺機器インタフェース118、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、入出力(I/O)サブシステム106、他の入力又は制御機器116、及び外部ポート124を含む。機器100は、1つ以上の光センサ164を、任意選択的に、含む。デバイス100は、デバイス100(例えば、デバイス100のタッチ感知ディスプレイシステム112などのタッチ感知面)上の接触の強度を検出するための、1つ以上の強度センサ165を、任意選択的に備える。デバイス100は、デバイス100上に触知出力を生成する(例えば、デバイス100のタッチ感知ディスプレイシステム112又はデバイス300のタッチパッド355などの、タッチ感知面上に触知出力を生成する)ための、1つ以上の触知出力発生器167を、任意選択的に備える。これらの構成要素は、1つ以上の通信バス又は信号ライン103を介して、任意選択的に、通信する。
本明細書及び特許請求の範囲で使用される時、タッチ感知面上の接触の「強度」という用語は、タッチ感知面上の接触(例えば、指接触)の力又は圧力(単位面積当りの力)、あるいはタッチ感知面上の接触の力又は圧力の代替物(代用物)を指す。接触の強度は、少なくとも4つの異なる数値を含み、より典型的には、数百以上の異なる数値(例えば、少なくとも256)を含む、数値の範囲を有する。接触の強度は、様々な方法及び様々なセンサ、又はセンサの組み合わせを使用して、任意選択的に、判定(又は、測定)される。例えば、タッチ感知面の下に又は隣接して配置された1つ以上のセンサは、タッチ感知面上の様々な点における力を測定するために、任意選択的に、用いられる。いくつかの実装において、複数の力センサの力測定値は、接触の推定の力を判定するために組み合わされる(例えば、加重平均される)。同様に、スタイラスの感圧性先端部を任意選択的に使用して、タッチ感知面上のスタイラスの圧力を判定する。別の方法としては、タッチ感知面上で検出される接触領域のサイズ及び/若しくはその変化、接触に近接するタッチ感知面の電気容量及び/若しくはその変化、並びに/又は、接触に近接するタッチ感知面の抵抗及び/若しくはその変化が、タッチ感知面上の接触の力又は圧力の代用物として、任意選択的に、用いられる。いくつかの実装では、これらの接触力又は圧力の代替測定値を直接使用して、強度閾値が超過されているか否かを判定する(例えば、この強度閾値は、代替測定値に対応する単位で説明される)。いくつかの実装において、接触の力又は圧力の代替的測定値は、推定される力又は圧力に変換され、この推定される力又は圧力を用いて、強度閾値を超えているか判定される(例えば、強度閾値は、圧力の単位で測定された圧力閾値である)。
本明細書及び特許請求の範囲で使用される時、用語「触知出力」は、ユーザの触覚でユーザによって検出されることになる、デバイスの従前の位置に対するデバイスの物理的変位、デバイスの構成要素(例えば、タッチ感知面)の、デバイスの別の構成要素(例えば、筐体)に対する物理的変位、又はデバイスの質量中心に対する構成要素の変位を指す。例えば、機器又は機器の構成要素が、タッチに敏感なユーザの表面(例えば、ユーザの手の指、手のひら、又は他の部分)に接触している状況において、物理的変位によって生成された触覚出力は、機器又は機器の構成要素の物理的特性の認識された変化に相当する触感としてユーザによって解釈される。例えば、タッチ感知面(例えば、タッチ感知ディスプレイ又はトラックパッド)の移動は、ユーザによって、物理アクチュエータボタンの「ダウンクリック」又は「アップクリック」として、任意選択的に、解釈される。いくつかの場合、ユーザの移動により物理的に押された(例えば、変位された)タッチ感知面に関連付けられた物理アクチュエータボタンの移動がない時でさえ、ユーザは「ダウンクリック」又は「アップクリック」などの触感を感じる。別の例として、タッチ感知面の移動は、タッチ感知面の平滑度に変化がない時でさえ、タッチ感知面の「粗さ」としてユーザによって、任意選択的に、解釈又は感じられる。このようなユーザによるタッチの解釈は、ユーザの個別の感覚認知によるが、大多数のユーザに共通したタッチの感覚認知が数多くある。したがって、触覚出力が、ユーザの特定の感覚認知(例えば、「アップクリック」「ダウンクリック」、「粗さ」)に対応するものと記述される場合、別途記載のない限り、生成された触覚出力は、典型的な(又は、平均的な)ユーザの記述された感覚認知を生成する機器、又は機器の構成要素の物理的変位に対応する。
デバイス100は、ポータブル多機能デバイスの一実施例に過ぎず、デバイス100は、示されるものよりも多いか又は少ない構成要素を任意選択的に有するか、2つ以上の構成要素を任意選択的に組み合わせるか、又は構成要素の異なる構成若しくは配置を任意選択的に有することを理解されたい。図1Aに示される様々な構成要素は、1つ以上の信号処理、及び/又はアプリケーション固有の集積回路を含む、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの両方の組み合わせで実現される。
メモリ102は、任意選択的に高速ランダムアクセスメモリを含み、また任意選択的に、1つ以上の磁気ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性半導体メモリデバイスなどの、不揮発性メモリも含む。CPU 120及び周辺機器インタフェース118などの、機器100の他の構成要素によるメモリ102へのアクセスは、メモリコントローラ122により、任意選択的に、制御される。
周辺機器インタフェース118は、デバイスの入力及び出力周辺機器をCPU 120及びメモリ102に結合するために使用してもよい。1つ以上のプロセッサ120は、デバイス100のための様々な機能を実行するため並びにデータ処理を行うために、メモリ102に記憶された様々なソフトウェアプログラム及び/若しくは命令セットを走らせたり、又は実行したりする。
いくつかの実施形態において、周辺機器インタフェース118、CPU 120、及びメモリコントローラ122は、任意選択的に、チップ104などの単一チップ上に実装される。いくつかの他の実施形態において、これらは、個別のチップ上に、任意選択的に、実装される。
RF(無線周波数)回路108は、電磁信号とも呼ばれるRF信号を受信したり送信したりする。RF回路108は、電気信号を電磁信号に、又は電磁信号を電気信号に変換し、電磁信号を介して通信ネットワーク及び他の通信デバイスと通信する。RF回路108は、アンテナシステム、RF送受信機、1つ以上の増幅器、同調器、1つ以上の発振器、デジタル信号プロセッサ、CODECチップセット、加入者識別モジュール(SIM)カード、メモリなどを含むがこれらに限定されない、上記の機能を実行するための周知の回路を、任意選択的に、含む。RF回路108は、インターネット情報検索システム(WWW)とも呼ばれるインターネットなどのネットワーク、イントラネット及び/又はセルラー電話ネットワークなどの無線ネットワーク、ワイアレスローカルエリアネットワーク(LAN)及び/又はメトロポリタンエリアネットワーク(MAN)、及び無線通信による他の機器と、任意選択的に、通信する。無線通信は、複数の通信規格、通信プロトコル、及び通信技術のうちのいずれかを、任意選択的に使用し、それらの通信規格、通信プロトコル、及び通信技術としては、移動通信用のグローバルシステム(GSM(登録商標))、拡張データGSM(登録商標)環境(EDGE)、高速ダウンリンクパケット接続(HSDPA)、高速アップリンクパケット接続(HSUPA)、Evolution,Data−Only(EV−DO)、HSPA、HSPA+、デュアルセルHSPA(DC−HSPDA)、ロングタームエボリューション(LTE)、近距離無線通信(NFC)、広帯域符号分割多元接続(W−CDMA)、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、Bluetooth(登録商標)、Wireless Fidelity(Wi−Fi)(登録商標)(例えば、IEEE 802.11a、IEEE 802.11b、IEEE 802.11g、及び/若しくはIEEE 802.11n)、ボイスオーバーインターネットプロトコル(VoIP)、Wi−MAX、電子メール用のプロトコル(例えば、インターネットメッセージアクセスプロトコル(IMAP)及び/若しくはポストオフィスプロトコル(POP))、インスタントメッセージング(例えば、拡張可能メッセージング及びプレゼンスプロトコル(XMPP)、インスタントメッセージング及びプレゼンス利用拡張向けセッション開始プロトコル(SIMPLE)、インスタントメッセージング及びプレゼンスサービス(IMPS))、及び/又はショートメッセージサービス(SMS)、又は本文書の出願日現在までに未だ開発されていない通信プロトコルを含む任意の他の好適な通信プロトコルが挙げられるが、これらに限定されない。
オーディオ回路機構110、スピーカ111、及びマイクロフォン113は、ユーザとデバイス100との間のオーディオインタフェースを提供する。オーディオ回路機構110は、周辺機器インタフェース118からオーディオデータを受信し、そのオーディオデータを電気信号に変換し、その電気信号をスピーカ111に送信する。スピーカ111は、その電気信号を人間に可聴の音波に変換する。オーディオ回路機構110はまた、マイクロフォン113によって音波から変換された電気信号も受信する。オーディオ回路機構110は、その電気信号をオーディオデータに変換し、そのオーディオデータを、処理のために周辺機器インタフェース118に送信する。音声データは、周辺機器インタフェース118によって任意選択的に、メモリ102及び/若しくはRF回路108から取り込まれ、並びに/又はメモリ102及び/若しくはRF回路108へ送出される。いくつかの実施形態において、オーディオ回路機構110は更にヘッドセットジャック(例えば、図2の212)を備える。ヘッドセットジャックは、オーディオ回路機構110と、出力専用ヘッドホン又は出力(例えば、片耳又は両耳用のヘッドホン)及び入力(例えば、マイクロフォン)の両方を持つヘッドセットなどの、取り外し可能なオーディオ入出力周辺機器との間のインタフェースを提供する。
I/Oサブシステム106は、周辺機器インタフェース118に、タッチスクリーン112及び他の入力制御デバイス116などのデバイス100の入出力周辺機器を結合する。I/Oサブシステム106は、ディスプレイコントローラ156、光センサコントローラ158、強度センサコントローラ159、触覚フィードバックコントローラ161、及び他の入力又は制御機器用の1つ以上の入力コントローラ160を、任意選択的に、含む。1つ以上の入力コントローラ160は、他の入力又は制御デバイス116から/へ電気信号を受信/送信する。他の入力制御機器116は、物理ボタン(例えば、プッシュボタン、ロッカボタンなど)、ダイアル、スライダースイッチ、ジョイスティック、クリックホイールなどを、任意選択的に、含む。いくつかの代替的実施形態において、入力コントローラ(1つ又は複数)160は、キーボード、赤外線ポート、USBポート、及びマウスなどのポインタ機器のうちのいずれかに、任意選択的に、連結される(又は、いずれにも連結されない)。1つ以上のボタン(例えば、図2の208)は、スピーカ111及び/又はマイクロフォン113の音量調節のためのアップ/ダウンボタンを、任意選択的に、含む。1つ以上のボタンは、プッシュボタン(例えば、図2の206)を、任意選択的に、含む。
タッチ感知ディスプレイ112は、デバイスとユーザとの間の入力インタフェース及び出力インタフェースを提供する。ディスプレイコントローラ156は、タッチスクリーン112から/へ電気信号を受信及び/又は送信する。タッチスクリーン112は、ユーザへ視覚出力を表示する。視覚出力は、グラフィック、テキスト、アイコン、映像、及びこれらの任意の組み合わせ(総称して「グラフィック」と称する)を、任意選択的に、含む。いくつかの実施形態において、視覚出力の一部又は全ては、ユーザインタフェースオブジェクトに対応する。
タッチスクリーン112は、触覚及び/若しくは触感の接触に基づくユーザからの入力を受け付けるタッチ感知面、センサ、又はセンサのセットを有している。タッチスクリーン112及びディスプレイコントローラ156(メモリ102内の任意の関連モジュール及び/又は命令セットと共に)は、タッチスクリーン112上で接触(及び任意の移動又は接触の中断)を検出し、検出された接触をタッチスクリーン112上に表示されたユーザインタフェースオブジェクト(例えば、1つ以上のソフトキー、アイコン、ウェブページ、又は画像)との対話に変換する。ある例示的な実施形態において、タッチスクリーン112とユーザとの間の接触点は、ユーザの指に対応する。
タッチスクリーン112は、任意選択的に、LCD(液晶ディスプレイ)技術、LPD(発光ポリマーディスプレイ)技術、又はLED(発光ダイオード)技術を使用するが、他の実施形態において、他のディスプレイ技術が使用される。タッチスクリーン112及びディスプレイコントローラ156は、静電容量技術、抵抗性技術、赤外線技術、及び表面超音波技術、並びに、タッチスクリーン112との1つ以上の接触点を判定するための他の近接センサアレイ又は他の要素を含むが、これらに限定されない、現在公知の若しくは後日に開発される複数のタッチ感知技術のうちのいずれかを使用して、接触及び任意の移動又はその中断を、任意選択的に、検出する。例示的な実施形態において、カリフォルニア州クパチーノのApple Inc.社製iPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)などに見られる、投影相互静電容量感知技術が用いられている。
タッチスクリーン112は、任意選択的に、100dpiを超えるビデオ解像度を有する。いくつかの実施形態において、タッチスクリーンは約160dpiのビデオ解像度を有する。ユーザは、スタイラス、指などの任意の好適なオブジェクト又は付属器を使用して、タッチスクリーン112と、任意選択的に、接触する。いくつかの実施形態において、ユーザインタフェースは、主として指ベースの接触及びジェスチャで機能するように設計され、タッチスクリーン上の指の接触面積が広いことにより、スタイラスベースの入力よりも精度が低いことがある。いくつかの実施形態において、デバイスは、粗い指ベースの入力を正確なポインタ/カーソル位置又はユーザの望むアクションを実行するためのコマンドへ変換する。
いくつかの実施形態において、タッチスクリーンに加えて、デバイス100は、特定の機能をアクティブ化又は非アクティブ化させるためのタッチパッド(図示せず)を、任意選択的に含む。いくつかの実施形態において、タッチパッドは、タッチスクリーンとは異なり、視覚出力を表示しない、デバイスのタッチ感知エリアである。タッチパッドは、任意選択的に、タッチスクリーン112とは別個のタッチ感知面、又はタッチスクリーンによって形成されたタッチ感知面の延長である。
デバイス100は更に、様々なコンポーネントに電力を供給するための電力システム162を含む。電力システム162は、任意選択的に、電力管理システム、1つ以上の電源(例えば、バッテリ、交流(AC))、再充電システム、停電検出回路、電力コンバータ又はインバータ、電力状態インジケータ(例えば、発光ダイオード(LED))、並びにポータブルデバイス内での電力の生成、管理、及び分配に関連付けられた任意の他のコンポーネントを含む。
機器100は、1つ以上の光センサ164も、任意選択的に、含む。図1Aは、I/Oサブシステム106内の光学センサコントローラ158に結合された光学センサを示す。光センサ164は、電荷結合デ機器(CCD)又は相補的金属酸化物半導体(CMOS)フォトトランジスタを、任意選択的に、含む。光センサ164は、1つ以上のレンズを通して投影された、環境からの光を受光し、その光を画像を表すデータに変換する。撮像モジュール143(カメラモジュールとも称する)と併用して、光センサ164は、静止画像又は映像を、任意選択的に、キャプチャする。いくつかの実施形態において、タッチスクリーンディスプレイを静止画像及び/又は映像取得のためのビューファインダとして使用することができるように、光センサは、機器の前面のタッチスクリーンディスプレイ112の反対側である、機器100の背面に配置されている。いくつかの実施形態において、ユーザがタッチスクリーンディスプレイ上で他のビデオ会議参加者を見ている間に、ユーザの画像を、ビデオ会議のために、任意選択的に、得るように、別の光センサが機器の前面に配置される。
デバイス100はまた、1つ以上の接触強度センサ165も任意選択的に含む。図1Aは、I/Oサブシステム106内の強度センサコントローラ159に連結された接触強度センサを示す。接触強度センサ165は、1つ以上のピエゾ抵抗ひずみゲージ、電気容量式力センサ、電気力センサ、圧電力センサ、光学力センサ、容量式タッチ感知面、又は他の強度センサ(例えば、タッチ感知面上の接触の力(又は圧力)を測定するために使用するセンサ)を、任意選択的に、含む。接触強度センサ165は、環境から接触強度情報(例えば、圧力情報又は圧力情報のプロキシ)を受け付ける。いくつかの実施形態において、少なくとも1つの接触強度センサが、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)に併置されているか、又は近接している。いくつかの実施形態において、少なくとも1つの接触強度センサが、機器100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、機器100の背面に配置されている。
機器100は、1つ以上の近接センサ166も、任意選択的に、含む。図1Aは、周辺機器インタフェース118に結合された近接センサ166を示す。あるいは、近接センサ166は、I/Oサブシステム106内の入力コントローラ160に連結される。いくつかの実施形態において、多機能デバイスがユーザの耳の近くに配置されている場合(例えば、ユーザが電話通話を行っている場合)、近接センサがオフになり、タッチスクリーン112が無効になる。
デバイス100はまた、1つ以上の触知出力生成器167も任意選択的に含む。図1Aは、I/Oサブシステム106内の触覚フィードバックコントローラ161に連結された触覚出力生成器を示す。触覚出力生成器167は、スピーカ又は他の音声構成要素などの1つ以上の電気音響機器及び/又はモータ、ソレノイド、電気活性ポリマ、圧電アクチュエータ、静電アクチュエータ、又は他の触覚出力構成要素(例えば、機器上で電気信号を触覚出力に変換する構成要素)などの、エネルギーを直線運動に変換する電気機械機器を、任意選択的に、含む。接触強度センサ165は、触覚フィードバックモジュール133から触覚フィードバック生成命令を受け付け、機器100のユーザが感知できる触覚出力を機器100上で生成する。いくつかの実施形態において、少なくとも1つの触覚出力生成器が、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)と併置されているか、又は近接しており、タッチ感知面を垂直方向に(例えば、機器100の表面の内/外)又は横方向(例えば、機器100の表面と同じ平面の前後方向)に移動することによって触覚出力を、任意選択的に、生成する。いくつかの実施形態において、少なくとも1つの触覚出力生成器センサが、機器100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、機器100の背面に配置されている。
デバイス100はまた、1つ以上の加速度計168も任意選択的に含む。図1Aは、周辺機器インタフェース118に結合された加速度計168を示す。あるいは、加速度計168は、I/Oサブシステム106内の入力コントローラ160に、任意選択的に、連結される。いくつかの実施形態において、情報は、1つ以上の加速度計から受け取ったデータの分析に基づいて、ポートレートビュー又はランドスケープビューでタッチスクリーンディスプレイ上に表示される。デバイス100は、必要に応じて、加速度計(1つ又は複数)168に加えて、磁力計(図示せず)並びにデバイス100の位置及び向き(例えば、ポートレート又はランドスケープ)に関する情報を取得するためのGPS(又はGLONASS又は他のグローバルナビゲーションシステム)受信部(図示せず)を備える。
いくつかの実施形態において、メモリ102に記憶されたソフトウェアコンポーネントは、オペレーティングシステム126、通信モジュール(又は命令セット)128、接触/動きモジュール(又は命令セット)130、グラフィックモジュール(又は命令セット)132、テキスト入力モジュール(又は命令セット)134、全地球測位システム(GPS)モジュール(又は命令セット)135、及びアプリケーション(命令セット)136を含む。更に、いくつかの実施形態において、メモリ102は、図1A及び3に示すように、デバイス/グローバル内部状態157を記憶する。デバイス/グローバル内部状態157は、存在する場合には、いずれのアプリケーションが現在アクティブであるかを示す、アクティブアプリケーション状態、いずれのアプリケーション、ビュー、又は他の情報が、タッチスクリーンディスプレイ112の様々な領域を占有するかを示す、ディスプレイ状態、デバイスの様々なセンサ及び入力制御デバイス116から取得した情報を含む、センサ状態、並びにデバイスの場所及び/又は姿勢に関する場所情報のうちの、1つ以上を含む。
オペレーティングシステム126(例えば、Darwin(登録商標)、RTXC(登録商標)、LINUX(登録商標)、UNIX(登録商標)、OS X(登録商標)、WINDOWS(登録商標)、又はVxWorks(登録商標)などの組み込みオペレーティングシステム)は、一般的なシステムタスク(例えば、メモリ管理、記憶デバイス制御、電力管理など)を制御及び管理するための様々なソフトウェアコンポーネント及び/又はドライバを含み、様々なハードウェアとソフトウェアコンポーネントとの間の通信を容易にする。
通信モジュール128は、1つ以上の外部ポート124を介して他のデバイスとの通信を容易にし、RF回路108及び/又は外部ポート124が受信したデータを処理するための様々なソフトウェアコンポーネントを含む。外部ポート124(例えば、ユニバーサルシリアルバス(USB)、FIREWIRE(登録商標)など)は、直接的に、又はネットワーク(例えば、インターネット、無線LANなど)を介して間接的に他のデバイスに結合するように適合される。いくつかの実施形態において、外部ポートは、iPod(Apple Inc.の登録商標)デバイス上で使用される30ピンコネクタと同一の、又はこれに類似した及び/若しくは互換性のあるマルチピン(例えば、30ピン)コネクタである。
接触/動きモジュール130は、任意選択的に、(ディスプレイコントローラ156と共に)タッチスクリーン112との接触、及び他のタッチ感知デバイス(例えば、タッチパッド又は物理クリックホイール)との接触を検出する。接触/動きモジュール130は、接触が生じたか否かを判定すること(例えば、指を下ろすイベントを検出すること)、接触の強度(例えば、接触の力若しくは圧力、又は接触の力若しくは圧力の代替物)を判定すること、接触の移動が存在するか否かを判定し、タッチ感知面を横断する移動を追跡すること(例えば、指をドラッグする1つ以上のイベントを検出すること)、及び接触が停止したか否かを判定すること(例えば、指を上げるイベント又は接触の中断を検出すること)などの、接触の検出に関する種々の動作を実行するための、種々のソフトウェアコンポーネントを含む。接触/動きモジュール130は、タッチ感知面から接触データを受け取る。一連の接触データにより表される接触点の移動を判定することは、接触点の速さ(大きさ)、速度(大きさ及び方向)、及び/又は加速度(大きさ及び/又は方向の変化)を判定することを、任意選択的に、含む。これらの動作は、任意選択的に、単一の接触(例えば、1つの指の接触)又は複数の同時接触(例えば、「マルチタッチ」/複数の指の接触)に適用される。いくつかの実施形態において、コンタクト/動作モジュール130及びディスプレイコントローラ156は、タッチパッド上のコンタクトを検知する。
いくつかの実施形態において、接触/動きモジュール130は、ユーザによって動作が実行されたか否かを判定するための(例えば、ユーザがアイコン上で「クリック」したか否かを判定するための)、1つ以上の強度閾値のセットを使用する。いくつかの実施形態において、少なくとも強度閾値のサブセットが、ソフトウェアパラメータに従って判定される(例えば、強度閾値は、特定の物理アクチュエータのアクティブ化閾値によって判定されず、機器100の物理ハードウェアを変更することなく調整し得る)。例えば、トラックパッド又はタッチスクリーンディスプレイのマウス「クリック」閾値は、トラックパッド又はタッチスクリーンディスプレイハードウェアを変更することなく広範囲の既定の閾値のうちのいずれかに設定し得る。さらに加えて、いくつかの実装では、デバイスのユーザには、(例えば、個別の強度閾値を調節することによって、かつ/又は、システムレベルのクリック「強度」パラメータを使用して、一度に複数の強度閾値を調節することによって)強度閾値のセットのうちの1つ以上を調節するための、ソフトウェア設定が提供される。
接触/動きモジュール130は、任意選択的に、ユーザによるジェスチャ入力を検出する。タッチ感知面上での様々なジェスチャは、様々な接触パターン及び接触強度を有する。したがって、ジェスチャは、特定の接触パターンを検出することによって、任意選択的に、検出される。例えば、フィンガタップジェスチャの検出は、フィンガダウンイベントを検出し、続いてフィンガダウンイベント(例えば、アイコンの位置)と同じ位置(又は、実質的に同じ位置)でのフィンガアップ(リフトオフ)イベントを検出することを含む。他の実施例として、タッチ感知面でのフィンガスワイプジェスチャの検出は、フィンガダウンイベントを検出し、続いて1つ以上のフィンガドラッギングイベントを検出し、その後、フィンガアップ(リフトオフ)イベントを検出することを含む。
グラフィックモジュール132は、表示されるグラフィックの視覚的効果(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚特性)を変更するための構成要素を含めた、タッチスクリーン112又は他のディスプレイ上にグラフィックをレンダリングして表示するための、様々な既知のソフトウェア構成要素を含む。本明細書で使用する時、用語「グラフィック」は、ユーザに対して表示することができる任意のオブジェクトを含み、それらのオブジェクトとしては、テキスト、ウェブページ、アイコン(ソフトキーを含むユーザインタフェースオブジェクトなど)、デジタル画像、ビデオ、アニメーションなどが挙げられるが、これらに限定されない。
いくつかの実施形態において、グラフィックモジュール132は、使用されるグラフィックを表すデータを記憶する。対応するグラフィックには、対応するコードが、任意選択的に、割り当てられる。グラフィックモジュール132は、アプリケーションなどから、必要に応じて座標データ及び他のグラフィック特性データと共に、表示されるグラフィックを指定する1つ以上のコードを受信して、次いで、ディスプレイコントローラ156に出力するためのスクリーン画像データを生成する。
触覚フィードバックモジュール133は、デバイス100とのユーザ対話に応答して、デバイス100上の1つ以上の場所で触知出力を生成するために、触知出力生成器(1つ又は複数)167によって使用される命令を生成するための、様々なソフトウェア構成要素を含む。
テキスト入力モジュール134は、任意選択的にグラフィックモジュール132の構成要素であり、様々なアプリケーション(例えば、連絡先137、電子メール140、IM 141、ブラウザ147、及びテキスト入力を必要とする任意の他のアプリケーション)でテキストを入力するための、ソフトキーボードを提供する。
GPSモジュール135は、デバイスの位置を判定し、この情報を様々なアプリケーションで使用するために提供する(例えば、ロケーションベースダイアル発呼で使用するための電話138へ、ピクチャ/ビデオのメタデータとしてカメラ143へ、並びに気象ウィジェット、地方のイエローページウィジェット、及び地図/ナビゲーションウィジェットなどのロケーションベースのサービスを提供するアプリケーションへ)。
アプリケーション136は、任意選択的に、以下のモジュール(又は、命令のセット)、又はそれらの部分集合若しくは上位集合を含む。
●連絡先モジュール137(アドレス帳又は連絡先リストと呼ばれる場合もある)、
●電話モジュール138、
●テレビ会議モジュール139、
●電子メールクライアントモジュール140、
●インスタントメッセージング(IM)モジュール141、
●トレーニングサポートモジュール142、
●静止画像及び/又はビデオ画像用のカメラモジュール143、
●画像管理モジュール144、
●ブラウザモジュール147、
●カレンダーモジュール148、
●気象ウィジェット149−1、株価ウィジェット149−2、電卓ウィジェット149−3、アラーム時計ウィジェット149−4、辞書ウィジェット149−5、及びユーザによって取得された他のウィジェット、並びにユーザ作成ウィジェット149−6のうちの1つ以上を任意選択的に含む、ウィジェットモジュール149、
●ユーザ作成ウィジェット149−6を作るためのウィジェット作成モジュール150、
●検索モジュール151、
●任意選択的に、映像プレーヤモジュール及びミュージックプレーヤモジュールから成る、映像及びミュージックプレーヤモジュール152、
●メモモジュール153、
●地図モジュール154、並びに/あるいは
●オンラインビデオモジュール155。
任意選択的にメモリ102内に記憶される他のアプリケーション136の例としては、他のワードプロセッシングアプリケーション、他の画像編集アプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、JAVA(登録商標)対応アプリケーション、暗号化、デジタル著作権管理、音声認識、及び音声複製が挙げられる。
タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と共に、連絡先モジュール137は、任意選択的に、(例えば、メモリ102又はメモリ370内の連絡先モジュール137のアプリケーション内部状態192内に記憶される)アドレス帳又は連絡先リストを管理するために使用され、この管理には、アドレス帳に名前(1つ又は複数)を追加すること、アドレス帳から名前(1つ又は複数)を削除すること、電話番号(1つ又は複数)、電子メールアドレス(1つ又は複数)、実際の住所(1つ又は複数)、又は他の情報を名前と関連付けること、画像を名前と関連付けること、名前を分類して並び替えること、電話138、ビデオ会議139、電子メール140、又はIM 141などによる通信を開始及び/又は促進するために、電話番号又は電子メールアドレスを提供することなどが含まれる。
RF回路機構108、オーディオ回路機構110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と共に、電話モジュール138は、電話番号に対応する一連の文字を入力し、アドレス帳137内の1つ以上の電話番号にアクセスし、入力されている電話番号を修正し、対応の電話番号をダイアルし、会話を行い、会話が完了した際に接続を切るか又は電話を切るために、任意選択的に使用される。上述のように、無線通信は、複数の通信規格、プロトコル、及び技術のうちのいずれかを、任意選択的に、使用する。
RF回路108、オーディオ回路機構110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、光センサ164、光センサコントローラ158、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、連絡先リスト137、及び電話モジュール138と関連して、ビデオ会議モジュール139は、ユーザの指示に従って、ユーザと1人以上の他の参加者との間のビデオ会議を開始し、行い、終了するための実行可能命令を含む。
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と関連して、電子メールクライアントモジュール140は、ユーザの指示に応答して、電子メールを作成し、送信し、受信し、管理するための実行可能命令を含む。画像管理モジュール144と関連して、電子メールクライアントモジュール140により、カメラモジュール143で撮影した静止画像又はビデオを作成し、電子メールを送ることが非常に簡単になる。
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と関連して、インスタントメッセージモジュール141は、インスタントメッセージに対応する文字のシーケンスを入力したり、入力済みの文字を修正したり、対応するインスタントメッセージを送信したり(例えば、電話ベースのインスタントメッセージのためのショートメッセージサービス(SMS)若しくはマルチメディアメッセージサービス(MMS)プロトコルを使用して、又はインターネットベースのインスタントメッセージのためのXMPP、SIMPLE、若しくはIMPSを使用して)、インスタントメッセージを受信して、受信したインスタントメッセージを表示したりするための実行可能命令を含む。いくつかの実施形態において、送信及び/又は受信されたインスタントメッセージは、MMS及び/又は拡張メッセージングサービス(EMS)でサポートされるように、グラフィック、写真、オーディオファイル、映像ファイル、及び/又は他の添付を、任意選択的に、含む。本明細書で使用する時、「インスタントメッセージング」とは、電話ベースのメッセージ(例えば、SMS又はMMSを使用して送信されるメッセージ)及びインターネットベースのメッセージ(例えば、XMPP、SIMPLE又はIMPSを使用して送信されるメッセージ)の双方を示す。
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、地図モジュール154、及び音楽再生ジュール146と関連して、トレーニングサポートモジュール142は、トレーニングを作成したり(例えば、時間、距離、及び/又はカロリー消費目標に関して)、トレーニングセンサ(スポーツデバイス)と通信したり、トレーニングセンサデータを受信したり、トレーニングを監視するために用いられるセンサを較正したり、トレーニングのための音楽を選択して再生したり、トレーニングデータを表示、記憶、送信したりするための実行可能命令を含む。
タッチスクリーン112、ディスプレイコントローラ156、光センサ(1つ又は複数)164、光センサコントローラ158、接触モジュール130、グラフィックモジュール132、及び画像管理モジュール144と関連して、カメラモジュール143は、静止画像又はビデオ(ビデオストリームを含む)をキャプチャしてメモリ102にそれらを記憶したり、静止画像又はビデオの特徴を変更したり、又はメモリ102から静止画像若しくは動画を削除したりするための実行可能命令を含む。
タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びカメラモジュール143と関連して、画像管理モジュール144は、静止画像及び/又はビデオを配置し、修正し(例えば、編集し)、また別の方法で操作し、ラベルを付け、削除し、提示し(例えば、デジタルスライドショー又はアルバム内で)、並びに記憶したりするための実行可能命令を含む。
RF回路108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と関連して、ブラウザモジュール147は、ウェブページ又はそれらの一部、並びにウェブページにリンクされた添付及び他のファイルを検索し、リンク付け、受信し、表示することを含むユーザの指示に従い、インターネットをブラウズするための実行可能命令を含む。
RF回路機構108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と共に、カレンダーモジュール148は、カレンダー、及びカレンダーに関連付けられたデータ(例えば、カレンダー項目、To Doリストなど)を、ユーザの指示に従って作成し、表示し、修正し、記憶するための、実行可能命令を含む。
RF回路機構108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と共に、ウィジェットモジュール149は、ユーザによって任意選択的にダウンロードされ、使用されるミニアプリケーション(例えば、気象ウィジェット149−1、株価ウィジェット149−2、計算機ウィジェット149−3、アラーム時計ウィジェット149−4、及び辞書ウィジェット149−5)、又はユーザによって作成されるミニアプリケーション(例えば、ユーザ作成ウィジェット149−6)である。いくつかの実施形態において、ウィジェットは、HTML(ハイパーテキストマークアップ言語)ファイル、CSS(カスケーディングスタイルシート)ファイル、及びJavaScript(登録商標)ファイルを含む。いくつかの実施形態において、ウィジェットは、XML(拡張可能マークアップ言語)ファイル及びJavaScript(登録商標)ファイル(例えば、Yahoo!(登録商標)ウィジェット)を含む。
RF回路機構108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と共に、ウィジェット作成モジュール150は、ウィジェットを作成する(例えば、ウェブページのユーザ指定箇所をウィジェットに変える)ために、ユーザによって任意選択的に使用される。
タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と関連して、検索モジュール151は、ユーザの指示に従い、1つ以上の検索判断基準(例えば、1つ以上のユーザ指定の検索語句)と一致する、メモリ102内のテキスト、音楽、音、画像、ビデオ、及び/又は他のファイルを検索するための実行可能命令を含む。
タッチスクリーン112、ディスプレイシステムコントローラ156、コンタクトモジュール130、図形モジュール132、オーディオ回路110、スピーカ111、RF回路108、及びブラウザモジュール147と協働して、ビデオ及びミュージックモジュール152は、ユーザが、MP3又はAACファイルなどの1つ以上のファイルフォーマットに記憶されている記録されたミュージック及びその他のサウンドファイルをダウンロード及び再生することを可能にする実行可能な命令と、(例えば、タッチスクリーン112上又は外部ポート124を介して外部に接続されたディスプレイ)で動画を表示、提示又は再生する実行可能な命令と、を有する。いくつかの実施形態において、機器100は、任意選択的に、iPod(Apple Inc.の登録商標)などのMP3プレーヤの機能を含む。
タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と共に、メモモジュール153は、ユーザの指示に従って、メモ、To Doリストなどを作成及び管理するための、実行可能命令を含む。
RF回路機構108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、及びブラウザモジュール147と共に、地図モジュール154は、ユーザの指示に従って、地図、及び地図に関連付けられたデータ(例えば、運転方向、特定の場所若しくはその付近の店舗及び関心対象の他の地点についてのデータ、並びに場所に基づく他のデータ)を受信し、表示し、修正し、記憶するために、任意選択的に使用される。
タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、オーディオ回路機構110、スピーカ111、RF回路108、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と関連して、オンラインビデオモジュール155は、ユーザがH.264などの1つ以上のファイル形式のオンラインビデオにアクセスし、ブラウズし、受信し(例えば、ストリーミング及び/又はダウンロードにより)、再生し(例えば、タッチスクリーン上で又は外部ポート124を介して接続された外部のディスプレイ上で)、特定のオンラインビデオへのリンクを含む電子メールを送信し、別の方法で管理できるようにする命令を含む。いくつかの実施形態においては、電子メールクライアントモジュール140ではなく、インスタントメッセージモジュール141が、特定のオンラインビデオへのリンクを送るために用いられる。
上記で識別されたモジュール及びアプリケーションのそれぞれは、1つ又はそれ以上の上記の機能を実行するための実行可能命令セット及び本出願に記載の方法(例えば、コンピュータにより実行される方法及び本明細書に記載の他の情報処理方法)に対応する。これらのモジュール(すなわち、命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実装される必要はなく、したがって、これらのモジュールの様々なサブセットは、様々な実施形態において、任意選択的に、組み合わせ、又は再配置される。いくつかの実施形態において、メモリ102は、上記の識別されたモジュール及びデータ構造のサブセットを、任意選択的に、記憶する。更に、メモリ102は、上述されていない追加のモジュール及びデータ構造を、任意選択的に、記憶する。
いくつかの実施形態において、デバイス100は、デバイス上の機能の既定のセットの動作が排他的にタッチスクリーン及び/又はタッチパッドを介して実行されるデバイスである。機器100の動作のための主要入力制御機器としてタッチスクリーン及び/又はタッチパッドを使用することにより、機器100上の物理的な入力制御機器(プッシュボタン、ダイアル、及び類似物など)の数を、任意選択的に、減らす。
排他的にタッチスクリーン及び/又はタッチパッドを介して実行される、既定の機能のセットは、任意選択的に、ユーザインタフェース間のナビゲーションを含む。いくつかの実施形態において、タッチパッドは、ユーザによってタッチされると、機器100上に表示される任意のユーザインタフェースから、メインメニュ、ホームメニュ、又はルートメニュへ機器100をナビゲートする。かかる実施形態において、「メニュボタン」はタッチパッドを使って実装される。いくつかの他の実施形態におい、メニュボタンは、タッチパッドの代わりに、物理的なプッシュボタン又は他の物理的な入力制御機器である。
図1Bは、いくつかの実施形態に係る、イベント処理用の例示的コンポーネントを説明するためのブロック図である。いくつかの実施形態において、メモリ102(図1A)又は370(図3)は、(例えば、オペレーティングシステム126内の)イベントソータ170及び対応するアプリケーション136−1(例えば、上記のアプリケーション137〜151、155、380〜390のいずれか)を有する。
イベントソータ170は、イベント情報を受信し、イベント情報を配信するアプリケーション136−1及びアプリケーション136−1のアプリケーションビュー191を決定する。イベントソータ170は、イベントモニタ171及びイベントディスパッチャモジュール174を含む。いくつかの実施形態において、アプリケーション136−1は、アプリケーションがアクティブ又は実行中の時、タッチ感知ディスプレイ112で上に表示される現在のアプリケーションビュー(1つ又は複数)を示す、アプリケーション内部状態192を含む。いくつかの実施形態において、デバイス/グローバル内部状態157は、現在アクティブなアプリケーション(1つ又は複数)を判定するためにイベントソータ170によって使用され、アプリケーション内部状態192は、イベント情報の送付先のアプリケーションビュー191を決定するためにイベントソータ170によって使用される。
いくつかの実施形態において、アプリケーション内部状態192は、追加情報として、例えば、アプリケーション136−1が実行を再開する際に用いられる再開情報、アプリケーション136−1により表示されている又は表示の準備ができている情報を示すユーザインタフェース状態情報、ユーザがアプリケーション136−1の以前の状態又はビューに戻ることを可能にするための状態の待ち行列、及びユーザが以前にとったアクションのやり直し/アンドゥの待ち行列のうちの1つ以上を含む。
イベントモニタ171は、周辺機器インーフェース118よりイベント情報を受信する。イベント情報は、サブイベント(例えば、マルチタッチジェスチャの一部としての、タッチ感知ディスプレイ112上のユーザタッチ)の情報を含む。周辺機器インタフェース118は、I/Oサブシステム106又は(オーディオ回路機構110を介して)近接センサ166、加速度計(1つ又は複数)168、及び/若しくはマイクロフォン113などのセンサから受信する情報を送信する。周辺機器インタフェース118がI/Oサブシステム106から受信する情報は、タッチ感知ディスプレイ112又はタッチ感知面からの情報を含む。
いくつかの実施形態において、イベントモニタ171は、所定の間隔で周辺機器インタフェース118に要求を送信する。これに応じて、周辺機器インタフェース118は、イベント情報を送信する。他の実施形態において、周辺機器ンタフェース118は、重要なイベント(例えば、所定のノイズ閾値を超える、及び/又は所定時間以上の入力を受け取ること)がある場合にのみイベント情報を送信する。
いくつかの実施形態において、イベントソータ170はまた、ヒットビュー判定モジュール172及び/又はアクティブイベント認識部判定モジュール173を含む。
ヒットビュー判定モジュール172は、タッチ感知ディスプレイ112が1つ以上のビューを表示した際に、1つ以上のビュー内のどこにおいてサブイベントが発生したかを判定するためのソフトウェア手続きを提供する。ビューは、ユーザがディスプレイ上で見ることができる制御及びその他の要素で構成されている。
アプリケーションに関連付けられたユーザインタフェースの別の態様は、本明細書中では、情報が表示されタッチベースのジェスチャが発生する、アプリケーションビュー又はユーザインタフェースウィンドウと呼ばれることもあるビューのセットである。タッチが検出される(対応するアプリケーションの)アプリケーションビューは、アプリケーションのプログラム階層又はビュー階層内のプログラムレベルに、任意選択的に、対応する。例えば、タッチが検出される最低レベルのビューは、任意選択的に、ヒットビューと呼ばれ、適切な入力として認識されるイベントのセットは、少なくとも部分的に、タッチベースのジェスチャを開始する最初のタッチのヒットビューに基づいて、任意選択的に、判定される。
ヒットビュー判定モジュール172は、タッチベースのジェスチャのサブイベントに関連した情報を受信する。階層として編成された複数のビューがアプリケーションにある場合は、ヒットビュー判定モジュール172は、ヒットビューを、サブイベントを処理すべき階層の中の最低のビューとして識別する。ほとんどの状況では、ヒットビューは、最初のサブイベント(すなわち、イベント又は潜在的なイベントを形成するサブイベントのシーケンスにおける最初のサブイベント)が発生する最低レベルのビューである。ヒットビューがヒットビュー判定モジュールによって識別されると、ヒットビューは、典型的には、それがヒットビューとして識別された、同じタッチ又は入力ソースに関連する全てのサブイベントを受け取る。
アクティブイベント認識部判定モジュール173は、ビュー階層内のどのビュー(1つ又は複数)がサブイベントの特定のシーケンスを受け取るべきかを判定する。いくつかの実施形態において、アクティブイベント認識部判定モジュール173は、ヒットビューのみがサブイベントの特定のシーケンスを受け取るべきであると判定する。他の実施形態において、アクティブイベント認識部判定モジュール173は、サブイベントの物理的な位置を含む全てのビューはアクティブに関わっているビューであると判定し、したがって、全てのアクティブに関わっているビューは、サブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態において、タッチサブイベントがある特定のビューに関連付けられた領域に完全に限定されたとしても、階層の上位のビューはアクティブに関わっているビューのままであるであろう。
イベントディスパッチャモジュール174は、イベント情報をイベント認識部(例えば、イベント認識部180)に送信する。アクティブイベント認識部判定モジュール173を含む実施形態において、イベントディスパッチャモジュール174は、アクティブイベント認識部判定モジュール173により判定されたイベント認識部にイベント情報を送付する。いくつかの実施形態において、イベントディスパッチャモジュール174は、対応するイベントレシーバーモジュール182により取得されるイベント情報をイベント待ち行列内に記憶する。
いくつかの実施形態において、オペレーティングシステム126は、イベントソータ170を含む。あるいは、アプリケーション136−1がイベントソータ170を含む。更に他の実施形態において、イベントソータ170は、スタンドアロンモジュール、又は接触/動きモジュール130などのメモリ102に記憶された他のモジュールの一部である。
いくつかの実施形態において、アプリケーション136−1は、そのアプリケーションのユーザインタフェースの各ビュー内で発生するタッチイベントを処理するための命令をそれぞれが含む、複数のイベントハンドラ190及び1つ以上のアプリケーションビュー191を含む。アプリケーション136−1の対応するアプリケーションビュー191は、1つ以上のイベント認識部180を含む。典型的に、対応するアプリケーョンビュー191は、複数のイベント認識部180を含む。他の実施形態において、イベント認識部180の1つ以上は、ユーザインタフェースキット(図示せず)又はアプリケーション136−1が方法及び他の性質を継承する上位レベルのオブジェクトなど、別個のモジュールの一部である。いくつかの実施形態において、対応するイベントハンドラ190は、データアップデータ176、オブジェクトアップデータ177、GUIアップデータ178、及び/又はイベントソータ170から受け取ったイベントデータ179のうちの1つ以上を含む。イベントハンドラ190は、アプリケーション内部状態192を更新するために、任意選択的に、データアップデータ176、オブジェクトアップデータ177、又はGUIアップデータ178を利用するか、若しくは呼び出す。あるいは、アプリケーションビュー191の1つ以上は、1つ以上の対応するイベントハンドラ190を備える。また、いくつかの実施形態において、データアップデータ176、オブジェクトアップデータ177、及びGUIアップデータ178の1つ以上が対応するアプリケーションビュー191内に含まれている。
各イベント認識部180は、イベントソータ170からイベント情報(例えば、イベントデータ179)を受信して、そのイベント情報からイベントを特定する。イベント認識部180は、イベントレシーバー182及びイベント比較部184を含む。いくつかの実施形態において、イベント認識部180はまた、メタデータ183及びイベント送付命令188(任意選択的に、サブイベント送付命令を含む)の少なくともサブセットを含む。
イベントレシーバー182は、イベントソータ170よりイベント情報を受信する。イベント情報は、例えば、タッチ又はタッチの移動などのサブイベントの情報を含む。サブイベントによっては、イベント情報は、サブイベントの位置などの追加情報を更に含む。サブイベントが、タッチの移動に関わる時、イベント情報は、サブイベントの速度及び方向を、任意選択的に、更に含む。いくつかの実施形態において、イベントは、ある向きから別の向きへ(例えば、ポートレートの向きからランドスケープの向きへ、又はその逆)のデバイスの回転を含み、イベント情報は、デバイスの現在の向き(デバイスの姿勢とも呼ばれる)についての対応する情報を含む。
イベント比較部184は、イベント情報を既定のイベント又はサブイベントの定義と比較し、その比較により、イベント又はサブイベントを判定、又はイベント若しくはサブイベントの状態を判定又は更新する。いくつかの実施形態において、イベント比較部184は、イベント定義186を含む。イベント定義186は、イベントの定義(例えば、サブイベントの既定のシーケンス)、例えば、イベント1(187−1)、イベント2(187−2)、及びその他を含有する。いくつかの実施形態において、イベント187内のサブイベントは、例えば、タッチ開始、タッチ終了、タッチの移動、タッチの中止、及び複数のタッチを含む。ある実施例において、イベント1(187−1)の定義は、表示されたオブジェクト上のダブルタップである。ダブルタップは、例えば、表示されたオブジェクト上の所定の段階についての第1のタッチ(タッチ開始)、所定の段階についての第1のリフトオフ(タッチ終了)、表示されたオブジェクト上の所定の段階についての第2のタッチ(タッチ開始)、及び所定の段階についての第2のリフトオフ(タッチ終了)を含む。別の実施形態において、イベント2(187−2)の定義は、表示されたオブジェクト上のドラッギングである。ドラッギングは、例えば、表示されたオブジェクト上の所定の段階についてのタッチ(又は接触)、タッチ感知ディスプレイ112にわたるタッチの移動、及びタッチのリフトオフ(タッチ終了)を含む。いくつかの実施形態において、イベントは、1つ以上の関連するイベントハンドラ190についての情報も含む。
いくつかの実施形態において、イベント定義187は、対応するユーザインタフェースオブジェクト用のイベントの定義を含む。いくつかの実施形態において、イベント比較部184は、サブイベントに関連付けられたユーザインタフェースオブジェクトを判定するヒットテストを実行する。例えば、3つのユーザインタフェースオブジェクトがタッチ感知ディスプレイ112に表示されるアプリケーションビューにおいて、タッチ感知ディスプレイ112上でタッチが検出されると、イベント比較部184は、3つのユーザインタフェースオブジェクトのうちのどれがタッチ(サブイベント)に関連付けられているかを判定するためのヒットテストを行う。表示された対応するオブジェクトが、対応するイベントハンドラ190に関連付けられている場合、イベント比較部はヒットテストの結果を用いて、アクティブにする必要のあるイベントハンドラ190を判定する。例えば、イベント比較部184は、サブイベント及びヒットテストのトリガとなるオブジェクトに関連付けられたイベントハンドラを選択する。
いくつかの実施形態において、各イベント187に関する定義はまた、サブイベントのシーケンスがイベント認識部のイベントタイプに対応するか否かが判定されるまで、イベント情報の配信を遅延させる、遅延作用も含む。
対応するイベント認識部180は、一連のサブイベントがイベント定義186のイベントのいずれとも一致しないと判断した場合、対応するイベント認識部180は、イベント不可能、イベント失敗、又はイベント終了の状態に入り、その後は、タッチベースのジェスチャの次のサブイベントを無視する。この状況では、もしあれば、ヒットビューについてアクティブのままである他のイベント認識部は、進行中のタッチベースのジェスチャのサブイベントの追跡及び処理を続行する。
いくつかの実施形態において、対応するイベント認識部180は、構成可能なプロパティ、フラグ、及び/又はイベント配信システムがアクティブに関わっているイベント認識部にどのようにサブイベント配信を実行するかについて示すリストを持つメタデータ183を含む。いくつかの実施形態において、メタデータ183は、イベント認識部が互いにどのように対話し得るかについて示す構成可能なプロパティ、フラグ、及び/又はリストを含む。いくつかの実施形態において、メタデータ183は、構成可能なプロパティ、フラグ、及び/又はサブイベントがビュー階層又はプログラム階層内の様々なレベルに配信されるかどうかを示すリストを含む。
いくつかの実施形態において、対応するイベント認識部180は、イベントの1つ以上の特定のサブイベントが認識された時に、イベントに関連付けられたイベントハンドラ190をアクティブ化する。いくつかの実施形態において、対応するイベント認識部180は、イベントハンドラ190に、イベントに関連付けられたイベント情報を送付する。イベントハンドラ190をアクティブ化することと、対応するヒットビューにサブイベントを送信(及び送信を延期する)することとは、区別される。いくつかの実施形態において、イベント認識部180は、認識されたイベントに関連付けられたフラグをスローし、フラグに関連付けられたイベントハンドラ190はフラグをキャッチし、既定の処理を実行する。
いくつかの実施形態において、イベント配信命令188は、イベントハンドラをアクティブ化せずにサブイベントに関するイベント情報を配信するサブイベント配信命令を含む。その代わりに、サブイベント送付命令は、一連のサブイベントに関連したイベントハンドラ又はアクティブに関わっているビューにイベント情報を送付する。一連のサブイベント又はアクティブに関わっているビューに関連付けられているイベントハンドラは、イベント情報を受信し、所定の処理を実行する。
いくつかの実施形態において、データアップデータ176は、アプリケーション136−1で使用されるデータを作成及び更新する。例えば、データアップデータ176は、連絡先モジュール137で使用される電話番号を更新したり、ビデオプレーヤモジュール145で使用されるビデオファイルを記憶したりする。いくつかの実施形態において、オブジェクトアップデータ177は、アプリケーション136−1で使用されるオブジェクトを作成及び更新する。例えば、オブジェクトアップデータ176は、新たなユーザインタフェースオブジェクトを作成したり、ユーザインタフェースオブジェクトの位置を更新したりする。GUIアップデータ178は、GUIを更新する。例えば、GUIアップデータ178は、表示情報を準備し、タッチ感知ディスプレイ上に表示するため、表示情報をグラフィックモジュール132に送信する。
いくつかの実施形態において、イベントハンドラ(1つ又は複数)190は、データアップデータ176、オブジェクトアップデータ177、及びGUIアップデータ178を含むか、若しくはそれらに対するアクセスを有する。いくつかの実施形態において、データアップデータ176、オブジェクトアップデータ177、及びGUIアップデータ178は、対応するアプリケーション136−1又はアプリケーションビュー191の1つのモジュールに含まれる。他の実施形態において、それらは、2つ以上のソフトウェアモジュールに含まれる。
タッチ感知ディスプレイ上のユーザのタッチのイベント処理に関する前述の論考はまた、入力デバイスを使用して多機能デバイス100を動作させるための他の形態のユーザ入力にも適用されるが、その全てがタッチスクリーン上で開始されるわけではないことが理解されよう。例えば、単一又は複数のキーボードの押圧若しくは保持に、任意選択的に、合わせたマウスの移動及びマウスボタンの押圧、タッチパッド上でのタップ、ドラッグ、スクロール等の接触移動、ペンスタイラス入力、デバイスの移動、口頭による命令、検出された眼球運動、バイオメトリック入力、並びに/あるいはこれらの任意の組み合わせが、認識対象のイベントを定義するサブイベントに対応する入力として、任意選択的に、利用される。
図2は、いくつかの実施形態に係る、タッチスクリーン112を有するポータブル多機能デバイス100を示す図である。タッチスクリーンは、ユーザインタフェース(UI)200内に1つ以上のグラフィックを、任意選択的に、表示する。後述する実施形態並びに本実施形態において、ユーザは、例えば、1本以上の指202(図には、正確な縮尺率では描かれていない)又は1つ以上のスタイラス203(図には、正確な縮尺率では描かれていない)を用いてグラフィック上でジェスチャを行うことにより、グラフィックのうちの1つ以上を選択できる。いくつかの実施形態において、ユーザが1つ以上のグラフィックとの接触を断った際に、1つ以上のグラフィックの選択が生じる。いくつかの実施形態において、ジェスチャは、1回以上のタップ、1回以上のスワイプ(左から右へ、右から左へ、上方向へ、及び/又は下方向へ)、及び/又は機器100と接触した指のローリング(右から左へ、左から右へ、上方向へ、及び/又は下方向へ)を、任意選択的に、含む。いくつかの実装又は状況において、グラフィックとの偶発的な接触は、グラフィックを選択しない例えば、選択に対応するジェスチャがタップである場合、アプリケーションアイコンの上をスワイプするスワイプジェスチャは、対応するアプリケーションを、任意選択的に、選択しない。
デバイス100はまた、「ホーム」又はメニュボタン204などの、1つ以上の物理ボタンも任意選択的に含む。前述のように、メニュボタン204は、機器100上で、任意選択的に、実行するアプリケーションのセット内の任意のアプリケーション136へのナビゲーションに、任意選択的に、使用される。あるいは、いくつかの実施形態において、メニュボタンは、タッチスクリーン112に表示されたGUIにおけるソフトキーとして実装されている。
ある実施形態において、デバイス100は、タッチスクリーン112、メニュボタン204、デバイスへの電源をオン/オフしてデバイスをロックするためのプッシュボタン206、音量調整ボタン(1つ又は複数)208、受信者識別モジュール(SIM)カードスロット210、ヘッドセットジャック212、及びドッキング/充電用外部ポート124を含む。プッシュボタン206は、ボタンを押して押された状態を既定の時間保ち続けることで、機器上の電源をオン/オフし、ボタンを押して既定の時間間隔が経過する前にボタンを解放することにより機器をロックし、及び/又は機器をロック解除若しくはロック解除処理を開始するために、任意選択的に、用いる。代替的実施形態において、機器100はまた、マイクロフォン113を通して、いくつかの機能をアクティブ化し、又はディアクティブ化するための口頭入力を受け付ける。また、機器100は、タッチスクリーン112への接触の強度を検出するための1つ以上の接触強度センサ165及び/又は機器100のユーザの触覚出力を生成するための1つ以上の触覚出力生成器167を、任意選択的に、含む。
図3は、いくつかの実施形態に係る、ディスプレイ及びタッチ感知面を備えた例示的な多機能デバイスのブロック図である。デバイス300は、ポータブルでなくてもよい。いくつかの実施形態において、デバイス300は、ラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、マルチメディア再生デバイス、ナビゲーションデバイス、教育デバイス(子供の学習玩具など)、ゲームシステム、又は制御デバイス(例えば、家庭用又は産業用コントローラ)である。デバイス300は、典型的には、1つ以上の処理ユニット(CPU)310、1つ以上のネットワーク又は他の通信インタフェース360、メモリ370、及びこれらの構成要素を相互接続するための1つ以上の通信バス320を含む。通信バス320は、システム構成要素間の通信を相互接続及び制御する回路(チップセットと称することがある)を、任意選択的に含む。デバイス300は、典型的にはタッチスクリーンディスプレイである、ディスプレイ340を備える、入出力(I/O)インタフェース330を含む。入出力インタフェース330は、また、キーボード及び/又はマウス(又は他のポインティングデバイス)350並びにタッチパッド355、デバイス300上に触知出力を発生させるための(例えば、図1Aを参照して上述された触知出力発生器(1つ又は複数)167と同様の)触知出力発生器357、センサ359(例えば、光センサ、加速度センサ、近接センサ、タッチ感知センサ、及び/又は図1Aを参照して上述された接触強度センサ(1つ又は複数)165と同様の接触強度センサ)を、任意選択的に含む。メモリ370は、DRAM、SRAM、DDR RAM、又は他のランダムアクセスソリッドステートメモリデバイスなどの、高速ランダムアクセスメモリを含み、また任意選択的に、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステート記憶デバイスなどの、不揮発性メモリを含む。メモリ370は、CPU(1つ又は複数)310からは離れて位置する1つ以上の記憶機器を、任意選択的に、含む。いくつかの実施形態において、メモリ370は、ポータブル多機能機器100(図1A)のメモリ102に記憶されたプログラム、モジュール、及びデータ構造、プログラム、モジュール、及びデータ構造、又はそれらのサブセットを記憶する。更に、メモリ370は、携帯型多機能機器100のメモリ102内に存在しない追加プログラム、モジュール、及びデータ構造を記憶し得る。例えば、機器300のメモリ370は、描画モジュール380、プレゼンテーションモジュール382、文書作成モジュール384、ウェブサイト作成モジュール386、ディスクオーサリングモジュール388、及び/又はスプレッドシートモジュール390を、任意選択的に記憶するが、携帯型多機能機器100(図1A)のメモリ102は、これらのモジュールを、任意選択的に記憶しない。
上記で特定された図3の要素のそれぞれは、任意選択的に、前述のメモリデバイスのうちの1つ以上に記憶される。上記で識別された対応するモジュールは、上述した機能を実行するための命令セットに対応する。上述の識別されたモジュール又はプログラム(すなわち、命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実施される必要はなく、したがって、様々な実施形態において、これらのモジュールの様々なサブセットを、任意選択的に、組み合わされるか、又は別の方法で再配置される。いくつかの実施形態において、メモリ370は、上述の識別されたモジュール及びデータ構造のサブセットを、任意選択的に記憶する。更に、メモリ370は、上述されていない追加のモジュール及びデータ構造を、任意選択的に記憶する。
ここで、ポータブル多機能デバイス100上に任意選択的に実装される、ユーザインタフェース(「UI」)の実施形態に注意を向ける。
図4Aは、いくつかの実施形態に係る、ポータブル多機能デバイス100上のアプリケーションのメニュの例示的ユーザインタフェースを示す。同様のユーザインタフェースが機器300上に。任意選択的に、実装され得る。いくつかの実施形態において、ユーザインタフェース400は次の要素若しくはそのサブセット又はスーパーセットを有する:
●セルラー信号及びWi−Fi信号などの無線通信(1つ又は複数)に関する信号強度インジケータ(1つ又は複数)402、
●時刻404、
●Bluetooth(登録商標)インジケータ405、
●バッテリ状態インジケータ406、
●以下のような、頻繁に使用されるアプリケーション用のアイコンを有するトレイ408、
○不在着信又は音声メールメッセージの数のインジケータ414を任意選択的に含む、「電話」とラベル付けされる、電話モジュール138用のアイコン416、
○未読電子メールの数のインジケータ410を任意選択的に含む、「メール」とラベル付けされた、電子メールクライアントモジュール140用のアイコン418、
○「ブラウザ」とラベル付けされた、ブラウザモジュール147用のアイコン420、及び
○「iPod」とラベル付けされた、iPod(Apple Inc.の登録商標)モジュール152とも称されるビデオ及び音楽再生モジュール152用のアイコン422、並びに
●以下のような、他のアプリケーション用のアイコン、
○「テキスト」とラベル付けされた、IMモジュール141用のアイコン424、
○「カレンダー」とラベル付けされた、カレンダーモジュール148用のアイコン426、
○「写真」とラベル付けされた、画像管理モジュール144用のアイコン428、
○「カメラ」とラベル付けされた、カメラモジュール143用のアイコン430、
○「オンラインビデオ」とラベル付けされた、オンラインビデオモジュール155用のアイコン432、
○「株価」とラベル付けされた、株価ウィジェット149−2用のアイコン434、
○「マップ」とラベル付けされた、地図モジュール154用のアイコン436、
○「天気」とラベル付けされた、気象ウィジェット149−1用のアイコン438、
○「時計」とラベル付けされた、アラーム時計ウィジェット149−4用のアイコン440、
○「トレーニングサポート」とラベル付けされた、トレーニングサポートモジュール142用のアイコン442、
○「メモ」とラベル付けされた、メモモジュール153用のアイコン444、及び
○デバイス100及びその種々のアプリケーション136に対する設定へのアクセスを提供する、設定アプリケーション又はモジュール用のアイコン446。
図4Aに示されているアイコンのラベルは、単に例示的であることが理解されよう。例えば、映像及びミュージックプレーヤモジュール152のアイコン422は、「ミュージック」又は「ミュージックプレーヤ」としてラベル付けされている。他のラベルは、様々なアプリケーション用に用いられ得る。いくつかの実施形態において、対応のアプリケーションアイコンに対するラベルは、対応のアプリケーションアイコンに対応するアプリケーションの名前を含む。いくつかの実施形態において、特定のアプリケーションアイコンのラベルは、特定のアプリケーションアイコンに対応するアプリケーションの名前とは異なる。
図4Bは、ディスプレイ450(例えば、タッチスクリーンディスプレイ112)とは別個のタッチ感知面451(例えば、図3のタブレット又はタッチパッド355)を備えたデバイス(例えば、図3のデバイス300)上の例示的なユーザインタフェースを示す。デバイス300は、また、タッチ感知面451上の接触の強度を検出するための、1つ以上の接触強度センサ(例えば、センサ357のうちの1つ以上)、及び/又はデバイス300のユーザに対する触知出力を発生させるための、1つ以上の触知出力発生器359を、任意選択的に含む。
以下の実施例のうちのいくつかは、タッチスクリーンディスプレイ112上の入力(タッチ感知面とディスプレイとが組み合わされている場合)を参照して説明されるが、いくつかの実施形態において、デバイスは、図4Bに示すように、ディスプレイとは別個のタッチ感知面上で入力を検出する。いくつかの実施形態において、タッチ感知面(例えば、図4Bの451)は、ディスプレイ(例えば、450)上の主軸(例えば、図4Bの453)に対応する主軸(例えば、図4Bの452)を有する。これらの実施形態によれば、デバイスは、ディスプレイ上の対応するロケーションに対応するロケーション(例えば、図4Bにおいて、460は468と対応し、462は470と対応する)でのタッチ感知面451との接触(例えば、図4Bの460及び462)を検出する。このように、タッチ感知面がディスプレイとは別々のものである場合、タッチ感知面(例えば、図4Bの451)上でデバイスによって検出されたユーザ入力(例えば、接触460及び462、及びそれらの移動)は、多機能デバイスのディスプレイ(例えば、図4Bの450)上のユーザインタフェースを操作するためにデバイスによって使用される。同様の方法が、本明細書に記載の他のユーザインタフェースに、任意選択的に使用されることを理解されたい。
更には、以下の説明は、主に指入力(例えば、指の接触、指のタップジェスチャ、指のスワイプジェスチャ)を参照して説明されるが、いくつかの実施形態において、それらの指入力のうちの1つ以上は、別の入力デバイスからの入力(例えば、マウスに基づく入力又はスタイラス入力)で置き換えられることを理解されたい。例えば、スワイプジェスチャは、任意選択的に、(例えば、接触の代わりに)マウスクリックと置換され、その後、(例えば、接触の移動の代わりに)スワイプの経路に沿ってカーソルの移動が行われる。別の実施例として、タップジェスチャは、(例えば、接触の検出に続いて接触の検出を停止する代わりに)カーソルがタップジェスチャの位置上に配置される間、任意選択的に、マウスクリックと置換される。同様に、複数のユーザ入力が同時に検出される時、複数のコンピュータマウスが同時に、任意選択的に用いられ、又はマウスと指接触が同時に用いられることが理解されよう。
本明細書で使用される時、用語「フォーカスセレクタ」とは、ユーザが対話しているユーザインタフェースの現在の部分を示す、入力要素を指す。カーソル又は他のロケーションマーカを含む実装において、カーソルは、タッチ感知面(例えば、図3のタッチパッド355、又は図4Bのタッチ感知面451)上で入力(例えば、押圧入力)が検出された時に、カーソルが特定のユーザインタフェース要素(例えば、ボタン、ウィンドウ、スライダ、又は他のユーザインタフェース要素)の上にある時、「フォーカスセレクタ」として機能し、特定のユーザインタフェース要素が、検出された入力に従って調整される。タッチスクリーンディスプレイ上のユーザインタフェース要素との直接的なやりとりを可能にする、タッチスクリーンディスプレイ(例えば、図1Aのタッチ感知ディスプレイシステム112、又は図4Aのタッチスクリーン112)を含むいくつかの実装では、タッチスクリーン上で検出される接触が「フォーカスセレクタ」の役割を果たすため、入力(例えば、接触による押圧入力)が、タッチスクリーンディスプレイ上の特定のユーザインタフェース要素(例えば、ボタン、ウィンドウ、スライダ、又は他のユーザインタフェース要素)のロケーションで検出されると、その特定のユーザインタフェース要素が、検出された入力に従って調節される。いくつかの実装において、(例えば、タブキー又は矢印キーを使ったフォーカスの1つのボタンから別のボタンへの移動により)タッチスクリーン上の対応するカーソルの移動又は接触の移動なしに、フォーカスが、ユーザインタフェースの1つの領域からユーザインタフェースの別の領域に移動される。これらの実装において、フォーカスセレクタは、ユーザインタフェースの異なる領域間でのフォーカスの移動に従って移動する。フォーカスセレクタが取る特定のフォームに関係なく、フォーカスセレクタは、全体的に、ユーザのユーザインタフェースとの意図した(例えば、ユーザが対話したいと思っているユーザインタフェースの要素を機器に指示することによる)対話を伝達するように、ユーザによって制御されたユーザインタフェース要素(又は、タッチスクリーンディスプレイ上の接触)である。例えば、押圧入力がタッチ感知面(例えば、タッチパッド又はタッチスクリーン)上で検出された時に対応するボタンの上にあるフォーカスセレクタ(例えば、カーソル、接触又は選択ボックス)の位置は、(機器のディスプレイ上に示されている他のユーザインタフェース要素とは反対に)ユーザが、対応するボタンをアクティブ化しようとしていることを指示する。
以下で説明されるユーザインタフェースの図は、1つ以上の強度閾値(例えば、接触検出強度閾値IT、軽押圧強度閾値IT、深い押圧強度閾値IT、及び/又は1つ以上の他の強度閾値)に対する、タッチ感知面上の接触の現在の強度を示す、様々な強度の図表を含む。この強度図は、典型的には、表示されるユーザインタフェースの一部ではないが、それらの図の解釈に役立てるために提供される。いくつかの実施形態において、軽い押圧強度閾値は、典型的には物理マウスのボタン又はトラックパッドのクリックに関連付けられた動作を、デバイスが実行することになる強度に相当する。いくつかの実施形態において、深い押圧強度閾値は、典型的には物理マウスのボタン又はトラックパッドのクリックに関連付けられた動作とは異なる動作を、デバイスが実行することになる強度に相当する。いくつかの実施形態では、軽い押圧強度閾値を下回る(例えば、かつ、それを下回ると接触がもはや検出されない公称の接触検出強度閾値ITを上回る)強度で接触が検出される場合、デバイスは、軽い押圧強度閾値又は深い押圧強度閾値に関連付けられた動作を実行することなく、タッチ感知面上の接触の移動に従って、フォーカスセレクタを移動させることになる。全般的には、特に明記しない限り、これらの強度閾値は、異なるユーザインタフェースのセット間でも一貫している。
軽い押圧強度閾値ITを下回る強度から、軽押圧強度閾値ITと深い押圧強度閾値ITとの間の強度への、接触の強度の増大は、「軽い押圧」入力と称される場合がある。深い押圧強度閾値ITを下回る強度から、深い押圧強度閾値ITを上回る強度への、接触の強度の増大は、「深い押圧」入力と称される場合がある。接触検出強度閾値ITを下回る強度から、接触検出強度閾値ITと軽い押圧強度閾値ITとの間の強度への、接触の強度の増大は、タッチ面上の接触の検出と称される場合がある。接触検出強度閾値ITを上回る強度から、接触強度閾値ITを下回る強度への、接触の強度の減少は、タッチ面からの接触のリフトオフの検出と称される場合がある。いくつかの実施形態では、ITはゼロである。いくつかの実施形態では、ITはゼロよりも大きい。いくつかの図では、影付きの円又は楕円が、タッチ感知面上の接触の強度を表すために使用される。いくつかの図では、影なしの円又は楕円は、対応の接触の強度を指定することなく、タッチ感知面上の対応の接触を表すために使用される。
本明細書で説明されるいくつかの実施形態において、1つ以上の動作は、対応の押圧入力を含むジェスチャの検出に応答して、又は対応の接触(又は、複数の接触)で実行される対応の押圧入力の検出に応答して実行され、それらの対応の押圧入力は、少なくとも部分的に、押圧入力強度閾値を上回る接触(又は、複数の接触)の強度の増大の検出に基づいて検出される。いくつかの実施形態において、対応の動作は、押圧入力強度閾値を上回る、対応の接触の強度の増大(例えば、対応の押圧入力の「ダウンストローク」)の検出に応答して、実行される。いくつかの実施形態において、押圧入力は、押圧入力強度閾値を上回る、対応の接触の強度の増大、及び後続の押圧入力強度閾値を下回る接触の強度の減少を含み、対応の動作は、その後続の押圧入力閾値を下回る対応の接触の強度の減少(例えば、対応の押圧入力の「アップストローク」)の検出に応答して、実行される。
いくつかの実施形態において、デバイスは、「ジッタ」と呼ばれる場合がある偶発的入力を回避するために、強度ヒステリシスを採用し、デバイスは、押圧入力強度閾値との既定の関連性を有するヒステリシス強度閾値を、定義又は選択する(例えば、ヒステリシス強度閾値は、押圧入力強度閾値よりもX強度単位低いか、又は、ヒステリシス強度閾値は、押圧入力強度閾値の75%、90%、若しくは何らかの妥当な比率である)。それゆえ、いくつかの実施形態において、押圧入力は、押圧入力強度閾値を上回る、対応の接触の強度の増大、及び後続の、押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少を含み、対応の動作は、そのヒステリシス強度閾値を下回る、後続の対応の接触の強度の減少(例えば、対応の押圧入力の「アップストローク」)の検出に応答して、実行される。同様に、いくつかの実施形態において、押圧入力は、デバイスが、ヒステリシス強度閾値以下の強度から、押圧入力強度閾値以上の強度への、接触の強度の増大、及び任意選択的に、ヒステリシス強度以下の強度への、後続の接触の強度の減少を検出する場合にのみ、検出され、対応の動作は、その押圧入力(例えば、状況に応じて、接触の強度の増大、又は接触の強度の減少)の検出に応答して、実行される。
説明を容易にするために、押圧入力強度閾値に関連付けられた押圧入力に応答して、又はその押圧入力を含むジェスチャに応答して実行される動作の説明は、押圧入力強度閾値を上回る接触の強度の増大、ヒステリシス強度閾値を下回る強度から押圧入力強度閾値を上回る強度への接触の強度の増大、押圧入力強度閾値を下回る接触の強度の減少、及び/又は押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少のいずれかの検出に応答して、任意選択的にトリガされる。更には、押圧入力強度閾値を下回る、接触の強度の減少の検出に応答して、動作が実行されるとして説明される実施例では、その動作は、押圧入力強度閾値に対応し、かつ押圧入力強度閾値よりも低い、ヒステリシス強度閾値を下回る、接触の強度の減少の検出に応答して、任意選択的に実行される。
ユーザインタフェース及び関連するプロセス。
ユーザインタフェースオブジェクトの小部分に対応する触知フィードバックの条件的提供。
多くの電子デバイスは、複数のユーザインタフェースオブジェクトを同時に表示するグラフィカルユーザインタフェースを有する。例えば、グラフィカルユーザインタフェースは、状況次第で、テキストの複数のブロック、ウェブブラウザ、メニュ、アプリケーションウィンドウ、ツールバー、ステータスバー及び同様のものの任意の組み合わせを並行して表示することになり、ユーザに多数の潜在的入力及び機能性を提供する。更に、これらのユーザインタフェースオブジェクトの多くは、その内部に表示される多数の選択可能又はアクティブ化可能なユーザインタフェースオブジェクト、例えば、より大きなユーザインタフェースオブジェクトの小部分、を有することになる。内部に表示される多数の機能性小部分を有する複数のユーザインタフェースオブジェクトを表示することから生じるユーザインタフェース環境の複雑さを考慮すると、ユーザがユーザインタフェース環境内をより効率的に使い勝手良くナビゲートすることを可能にするフィードバックを提供する必要がある。
下記に説明する実施形態は、複雑なユーザインタフェースをナビゲートするユーザに対するフィードバックを生成するための改良された方法及びユーザインタフェースを提供する。より具体的には、これらの方法及びユーザインタフェースは、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際に、触知フィードバックをユーザに提供する。触知フィードバックは、可聴及び/又は視覚フィードバックの代わりに、又はそれに加えて、ユーザがユーザインタフェースオブジェクトの小部分をより効率的に識別することを可能にする。例えば、テキストのより大きなブロック内のテキストのサブセットを選択するための既存の方法は、ユーザに、フォーカスセレクタをテキスト上でドラッグすることを要求し、選択された個々の単語、文字及び/又はスペースの視覚的外観の変更を生じさせる。これらのアプローチは、更なる操作(例えば、コピー、編集、削除、貼り付け又は書式付け)の前にテキストの所望のサブセットが選択されたことの視覚的な確認を提供するのみである。都合の良いことに、以下において説明される方法及びユーザインタフェースは、ユーザが、より大きなユーザインタフェースオブジェクト(例えば、テキストのブロック)の特定の小部分(例えば、個々の単語、文字又はスペース)上にスクロールしたか又はそれを選択したことを指示する触知フィードバックを提供することによって、この視覚フィードバックを改善する。
更に、以下において説明される方法及びユーザインタフェースは、触知フィードバックが、ユーザによって実行される特定のアクションを条件とすることを可能にする。すなわち、触知出力は、任意追加的に、所望に応じて、選択的に静められる。例えば、テキストの大きなサブセット上にスクロールするか又はそれを選択する時に、触知出力は、任意選択的に、ユーザがユーザインタフェースから高レベルのフィードバックを必要としない時に、フォーカスセレクタがテキスト上を速く移動されると、条件に応じて抑制され、その後、フォーカスセレクタがよりゆっくりと移動されると、再び生成される。このように、ユーザは、所望のテキストの正確な終点を判定しようと試みる時に、追加のフィードバックを提供され、向上した生産性及び全体的により効率的なユーザエクスペリエンスが提供される。テキストのサブセットの選択によって例示されているが、以下において説明される方法及びユーザインタフェースは、任意の数のユーザインタフェースオブジェクト及びそれらの小部分を伴って作業する際のユーザの効率を改善するために有用である。例えば、複数のハイパーリンクを表示するウェブブラウザ、複数のフォルダ、アプリケーションアイコン及び/若しくはアプリケーションアイコンを表示するディレクトリメニュ、並びに複数の個々のセルを包含するスプレッドシートである。
図5A〜図5Lは、いくつかの実施形態に係る、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供するための例示的なユーザインタフェースを示す。これらの図のユーザインタフェースを使って、図6A〜図6Cの処理を含む、以下で説明される処理を例示する。
図5E〜図5Iは、第1の強度閾値(例えば、軽い押圧強度閾値「IT」)及び第2の閾値(例えば、深い押圧強度閾値「IT」)を含む複数の強度閾値に対するタッチ感知面上の接触の現在の強度を示す強度図を含む。図5C、図5D、及び図5Kは、第1の速度閾値(例えば、速い速度閾値「VT」)及び第2の閾値(例えば、遅い速度閾値VT」)に対するタッチ感知面上の接触の現在の速度を示す速度図を含む。いくつかの実施形態では、第2の速度閾値は第1の速度閾値よりも高い。これらの速度図は、通常は、表示されるユーザインタフェースの一部ではないが、図の理解を助けるために提供されている。
図5Aは、いくつかの実施形態に係る複数のユーザインタフェースオブジェクト(例えば、段落)を含むテキストを表示する例示的なユーザインタフェース8708を示す。図5Aでは、ユーザインタフェース8708は、タッチ感知面451、及びタッチ感知面451との接触の強度を検出するための1つ以上のセンサも含む電子デバイスのディスプレイ450上に表示されている。いくつかの実施形態において、タッチ感知面451は、必要に応じてディスプレイ450又は別個のディスプレイであるタッチスクリーンディスプレイである。ユーザインタフェース8708は、第1のユーザインタフェースオブジェクト8702及び第2のユーザインタフェースオブジェクト8704を含む、複数のユーザインタフェースオブジェクトを表示しており、ここで、第1のユーザインタフェースオブジェクト8702及び第2のユーザインタフェースオブジェクト8704は複数の小部分を含む。例えば、ディスプレイ450上に表示される第1のユーザインタフェースオブジェクト8702、例えば、第1の段落は、第1のユーザインタフェースオブジェクト小部分8702−1(すなわち、単語「Four」)及び第2のユーザインタフェースオブジェクト小部分8702−2(すなわち、単語「score」)を含む、複数の小部分(例えば、個々の単語)を含む。図5Aにおいて、ユーザインタフェース8708はまた、タッチ感知面451上の接触を介してユーザによって制御可能なカーソル8706をも表示している。例えば、タッチ感知面451上の接触の移動の検出は、ユーザインタフェース8708上へのカーソル8706の移動に対応する。以上では、段落8702及び8704が、小部分を有するユーザインタフェースオブジェクトとして説明されているが、いくつかの実施形態においては、これらの段落の単語(又は文)が、小部分を有するユーザインタフェースオブジェクトであると見なされる(例えば、文が、単語を小部分として有するユーザインタフェースオブジェクトであるか、又は単語が、文字を小部分として有するユーザインタフェースオブジェクトである)。
いくつかの実施形態において、デバイスは、別個のディスプレイ(例えば、ディスプレイ450)及び別個のタッチ感知面(例えば、タッチ感知面451)を備える電子デバイスである。いくつかの実施形態において、デバイスは、ポータブル多機能デバイス100であり、ディスプレイは、タッチ感知ディスプレイシステム112であり、タッチ感知面は、ディスプレイ上に触知出力発生器167を含む(図1A)。説明の便宜上、図5A〜図5M及び図6A〜図6Cを参照して説明する実施形態については、ディスプレイ450及び別個のタッチ感知面451を参照して説明するが、必要に応じて、図5A〜図5Mに示すユーザインタフェースをタッチ感知式ディスプレイシステム112上に表示している間に、タッチ感知式ディスプレイシステム112上で図5A〜図5Mで説明する接触の移動の検出に応答してタッチ感知式ディスプレイシステム112を備えたデバイス上で類似の動作が実行される。このような実施形態では、フォーカスセレクタは、必要に応じて、カーソル8706の代わりに、対応する接触、接触に対応する代表的な点(例えば、対応する接触の図心若しくは対応する接触に関連付けられる点)、又はタッチ感知式ディスプレイシステム112上で検出される2つ以上の接触の図心である。
図5A〜図5Kは、タッチ感知面451上において接触8710及びジェスチャ8712が検出されることを示す(例えば、図5Aにおけるロケーション8710−aから図5Bにおけるロケーション8710−bへの接触8710の移動8712−a、図5Bにおけるロケーション8710−bから図5Cにおけるロケーション8710−cへの接触8710の移動8712−b、図5Bにおけるロケーション8710−bから図5Dにおけるロケーション8710−cへの接触8710の移動8712−b、図5Bにおけるロケーション8710−bから図5Eにおけるロケーション8710−cへの接触8710の移動8712−b、図5Bにおけるロケーション8710−bから図5Fにおけるロケーション8710−cへの接触8710の移動8712−b、図5Bにおけるロケーション8710−bから図5Gにおけるロケーション8710−cへの接触8710の移動8712−b、及び/又は図5Bにおけるロケーション8710−bから図5Hにおけるロケーション8710−cへの接触8710の移動8712−b。接触8710は、第1のユーザインタフェースオブジェクト8702によって占められるディスプレイ450上のエリアに対応するタッチ感知面451上の位置において生じる(例えば、接触8710は、ユーザインタフェースオブジェクト8702のロケーション又はその付近にあるカーソル8706などの、ディスプレイ上のフォーカスセレクタに対応する)。ジェスチャ8712は、(例えば、図5A〜図5Fに示されるとおりの)ディスプレイ450上へのフォーカスセレクタ(例えば、カーソル8706)の移動に対応するタッチ感知面451上の接触8710の移動を含む。
図5Bは、ジェスチャ8712の続きは、ディスプレイ450上に表示されたユーザインタフェースオブジェクト8702上へのカーソル8706の移動(例えば、テキストの第1の段落によって占められているディスプレイの対応するエリア内へのカーソル8706の移動)に対応するタッチ感知面451上の接触8710の移動を含むことを示す。ユーザインタフェースオブジェクト8702上へのカーソル8706の移動に対応するタッチ感知面451上の接触8710の移動を検出したことに応答して、触知出力生成器167は、ユーザインタフェースオブジェクト8702の境界8703(例えば、段落8702の始まり)に対応する触知出力8714を生成する。
図5B〜図5Cは、出力基準が満たされたとの判定に従い、触知出力生成器167が、図5Bにあるとおりの、ユーザインタフェースオブジェクト8702の境界8703、及び、図5Cにあるとおりの、ユーザインタフェースオブジェクト8702の小部分8702−2(すなわち、単語「score)に対応する触知出力8714を生成する一例を示す。図5B及び図5Dは、出力基準は満たされなかったとの判定に従い、触知出力生成器167が、図5Dにあるとおりの、ユーザインタフェースオブジェクト8702の小部分8702−2に対応する触知出力を生成することなく、図5Bにあるとおりの、ユーザインタフェースオブジェクト8702の境界8703に対応する触知出力8714を生成する一例を示す。
いくつかの実施形態では、図5C〜図5Dに示されるように、出力基準は、フォーカスセレクタが対応するユーザインタフェースオブジェクト上に移動する際に、フォーカスセレクタは、対応する速度閾値(例えば、「VT」)を下回る速度を有するという基準を含む。例えば、図5Cに示されるように、ユーザインタフェースオブジェクト8702上へのカーソル8706の移動を検出したことに応答して、(例えば、図5Cにおいて、カーソル8706、又は代替的に接触8710は、VTを下回る速度を有するため、)(例えば、カーソル8706、又は代替的に接触8710が、対応する速度閾値VTを下回る速度を有するという)出力基準が満たされたとの判定に従い、触知出力生成器167は、ユーザインタフェースオブジェクト8702の(例えば、図5Bに示されるとおりの)境界8703及び(例えば、図5Cに示されるとおりの)小部分8702−2に対応する触知出力8714を生成する。対照的に、図5Dに示されるように、ユーザインタフェースオブジェクト8702上へのカーソル8706の移動を検出したことに応答して、(例えば、図5Dにおいて、カーソル8706、又は代替的に接触8710は、VTを下回る速度を有するため、)(例えば、カーソル8706、又は代替的に接触8710は、対応する速度閾値VTを下回る速度を有するという)出力基準は満たされなかったとの判定に従い、触知出力生成器167は、(例えば、図5Dに示されるとおりの)小部分8702−2に対応する触知出力を生成することなく、ユーザインタフェースオブジェクトの(例えば、図5Bに示されるとおりの)境界8703に対応する触知出力8714を生成する。
いくつかの実施形態では、図5E〜図5Fに示されるように、出力基準は、フォーカスセレクタが対応するユーザインタフェースオブジェクト上に移動する際に、接触は、対応する強度閾値(例えば、「IT」)を上回る強度を有するという基準を含む。例えば、図5Eに示されるように、ユーザインタフェースオブジェクト8702上へのカーソル8706の移動を検出したことに応答して、(例えば、図5Eにおいて、接触8710は、ITを下回る強度を有するため、)(例えば、接触8710は、対応する強度閾値「IT」を上回る強度を有するという)出力基準は満たされなかったとの判定に従い、触知出力生成器167は、小部分8702−2に対応する触知出力を生成することなく、(例えば、図5Bに示されるとおりの)ユーザインタフェースオブジェクトの境界8703に対応する触知出力8714を生成する。対照的に、図5Fに示されるように、ユーザインタフェースオブジェクト8702上へのカーソル8706の移動を検出したことに応答して、(例えば、図5Fにおいて、接触8710は、ITを上回る強度を有するため、)(例えば、接触8710は、対応する強度閾値「IT」を上回る強度を有するという)出力基準が満たされたとの判定に従い、触知出力生成器167は、(例えば、図5Bに示されるとおりの)ユーザインタフェースオブジェクト8702の境界8703、及び(例えば、図5Fに示されるとおりの)小部分8702−2に対応する触知出力8714を生成する。
いくつかの実施形態では、図5G〜図5Hに示されるように、出力基準は、フォーカスセレクタが対応するユーザインタフェースオブジェクト上に移動する際に、接触は、対応する強度閾値(例えば、「IT」)を下回る強度を有するという基準を含む。例えば、図5Gに示されるように、ユーザインタフェースオブジェクト8702上へのカーソル8706の移動を検出したことに応答して、(例えば、図5Gにおいて、接触8710は、ITを下回る強度を有するため、)(例えば、接触8710は、対応する強度閾値ITを下回る強度を有するという)出力基準が満たされたとの判定に従い、触知出力生成器167は、ユーザインタフェースオブジェクト8702の(例えば、図5Bに示されるとおりの)境界8703、及び(例えば、図5Gに示されるとおりの)小部分8702−2に対応する触知出力8714を生成する対照的に、図5Hに示されるように、ユーザインタフェースオブジェクト8702上へのカーソル8706の移動を検出したことに応答して、(例えば、図5Hにおいて、接触8710は、ITを上回る強度を有するため、)(例えば、接触8710は、対応する強度閾値ITを下回る強度を有するという)出力基準は満たされなかったとの判定に従い、触知出力生成器167は、(例えば、図5Hに示されるとおりの)小部分8702−2に対応する触知出力を生成することなく、ユーザインタフェースオブジェクトの(例えば、図5Bに示されるとおりの)境界8703に対応する触知出力8714を生成する。
図5I〜図5Kは、第1のユーザインタフェースオブジェクト8702及び第2のユーザインタフェースオブジェクト8704が、小部分の第1のクラスに対応するレベル及び小部分の第2のクラスに対応するレベルを含む、小部分の階層を含む一例を示す。例えば、ディスプレイ450上に表示される第1のユーザインタフェースオブジェクト8702、例えば、第1の段落は、第1のユーザインタフェースオブジェクト小部分8702−1(すなわち、単語「Four」)及び第2のユーザインタフェースオブジェクト小部分8702−2(すなわち、単語「score」)を含む、小部分の第1のクラス(例えば、個々の単語)、並びに第1のユーザインタフェース超小部分8702−1a(すなわち、文字「F」)及び第2のユーザインタフェース超小部分8702−1b(すなわち、文字「o」)を含む、小部分の第2のクラス(例えば、個々の文字)を含む。
図5I〜図5Kは、ジェスチャ8712の続きを検出したことに応答して生成される触知出力が、ディスプレイ450上に表示された第1のユーザインタフェースオブジェクト8702及び第2のユーザインタフェースオブジェクト8704上へのカーソル8706の移動(例えば、テキストの第1の段落によって占められているディスプレイの対応するエリア内へのカーソルの移動、及びそれに続く、テキストの第2の段落によって占められているディスプレイの対応するエリア内への移動)に対応するタッチ感知面451上の接触8710の移動を含むことを示す。ユーザインタフェースオブジェクト8702上へのカーソル8706の移動に対応するタッチ感知面451上の接触8710の移動を検出したことに応答して、触知出力生成器167は、図5Bに示されるように、ユーザインタフェースオブジェクト8702の境界8703に対応する触知出力8714を生成する。
図5I〜図5Kに示されているいくつかの実施形態では、第1の出力基準が満たされたとの判定に従い、触知出力生成器167は、小部分の第2のクラス内の小部分(例えば、個々の文字)に対応する触知出力を生成することなく、第1のユーザインタフェースオブジェクト8702及び第2のユーザインタフェースオブジェクト8704の対応する境界に対応する触知出力8722−1a及び8724−1a、並びに第1のクラスの小部分(例えば、個々の単語)8702−2〜8702−30及び8704−2〜8704−73の対応する境界に対応する触知出力(例えば、触知出力8722−2a及び8724−2a)を生成し、(任意選択的に、第1の出力基準が満たされたとの判定に加えて)第2の出力基準が満たされたとの判定に従い、触知出力生成器167は、第1のユーザインタフェースオブジェクト8702及び第2のユーザインタフェースオブジェクト8704の対応する境界に対応する触知出力8722−1a及び8724−1a、第1のクラスの小部分(例えば、個々の単語)8702−2〜8702−30及び8704−2〜8704−73の対応する境界に対応する触知出力8722−2a及び8724−2a、並びに小部分8702−1b〜8702−2d及び8704−1b〜8704−1cを含む第2のクラスの小部分(例えば、個々の文字)の対応する境界に対応する触知出力(例えば、触知出力8722−1b及び8724−1b)を生成する。いくつかの実施形態では、テキストのブロックを有するアプリケーションウィンドウであるユーザインタフェースオブジェクトの場合には、第1及び第2の小部分レベルは、段落、文、単語、及び文字のうちの2つ以上を含む。
異なる種類の境界(例えば、ユーザインタフェースオブジェクトの境界、第1のクラスの小部分の境界及び第2のクラスの小部分の境界)のために触知出力が生成されるいくつかの実施形態では、第1の種類の境界のために生成される触知出力は、第2の種類の境界のために生成される触知出力と異なる。例えば、図5I〜図5Kにおいて、第1のユーザインタフェースオブジェクト8702及び第2のユーザインタフェースオブジェクト8704の対応する境界に対応する触知出力8722−1a及び8724−1aは第1の大きさ及び/又は運動プロファイルを有し、第1のクラスの小部分(例えば、個々の単語)8702−2及び8704−2の対応する境界に対応する触知出力8722−2a及び8724−2aは、第1の大きさ/運動プロファイルと異なる第2の大きさ及び/又は運動プロファイルを有する。同様に、第2のクラスの小部分(例えば、個々の文字)8702−1b及び8704−1bの対応する境界に対応する触知出力8722−1b及び8724−1bは、第1の大きさ/運動プロファイル及び第2の大きさ/運動プロファイルと異なる第3の大きさ及び/又は運動プロファイルを有する。図5I〜図5Kでは、異なる種類の境界は、異なる大きさ及び/又は運動プロファイルを有する触知出力に関連付けられるように示されているが、いくつかの実施形態では、異なる種類の境界の一部又は全ては、同じか又は実質的に同様の大きさ及び/又は運動プロファイルを有する触知出力に関連付けられる。
図5Iは、出力基準が、接触強度に基づく基準を含む一例を示す。これらの実施形態のうちのいくつかにおいては、ユーザが接触により非常に強く(例えば、第2の強度閾値「IT」を上回る強度で)押下している間にフォーカスセレクタがテキストの行の上に移動する場合には、デバイスは、段落若しくは文、個々の単語、並びに個々の文字の始まり又は終わりに対応する触知出力を生成する。対照的に、ユーザが接触により若干より低い強さで(例えば、第2の強度閾値「IT」を下回るが第1の強度閾値「IT」を上回る強度で)押下している間にフォーカスセレクタがテキストの行の上に移動すると、デバイスは、段落若しくは文並びに個々の単語の始まり又は終わりに対応する触知出力を生成するが、個々の文字については生成しない。対照的に、ユーザが接触により軽く(例えば、第1の強度閾値「IT」を下回る強度で)押下している間にフォーカスセレクタがテキストの行の上に移動すると、デバイスは、段落又は文の始まり又は終わりに対応する触知出力を生成するのみである。
図5Jは、出力基準が、接触強度に基づく基準を含む一例を示す。これらの実施形態のうちのいくつかにおいては、ユーザが接触により非常に強く(例えば第2の強度閾値「IT」を上回る強度で)押下している間にフォーカスセレクタがテキストの行の上に移動する場合には、デバイスは、段落又は文の始まり又は終わりに対応する触知出力を生成するのみである。対照的に、ユーザが接触により若干より低い強さで(例えば、第2の強度閾値「IT」を下回るが第1の強度閾値「IT」を上回る強度で)押下している間にフォーカスセレクタがテキストの行の上に移動すると、デバイスは、段落若しくは文並びに個々の単語の始まり又は終わりに対応する触知出力を生成するが、個々の文字については生成しない。対照的に、ユーザが接触により軽く(例えば、第1の強度閾値「IT」を下回る強度で)押下している間にフォーカスセレクタがテキストの行の上に移動すると、デバイスは、段落若しくは文、個々の単語、並びに個々の文字の始まり又は終わりに対応する触知出力を生成する。
図5Kは、出力基準が、接触速度、又は任意選択的にフォーカスセレクタ速度に基づく基準を含む一例を示す。これらの実施形態のうちのいくつかにおいては、接触、又は任意選択的にフォーカスセレクタが非常に速く(例えば、速い速度閾値「VT」を上回る速度で)動いていると、デバイスは、段落又は文の始まり又は終わりに対応する触知出力を生成するのみである。対照的に、接触、又は任意選択的にフォーカスセレクタが若干よりゆっくりと(例えば、速い速度閾値「VT」を下回るが遅い速度閾値「VT」を上回る速度で)動いていると、デバイスは、段落若しくは文並びに個々の単語の始まり又は終わりに対応する触知出力を生成する。対照的に、接触、又は任意選択的にフォーカスセレクタが非常にゆっくりと(例えば、遅い速度閾値「VT」を下回る速度で)動いていると、デバイスは、段落若しくは文、個々の単語、並びに個々の文字の始まり又は終わりに対応する触知出力を生成する。
図5Lは、タッチ感知面451上の接触8726の移動8728が、ユーザインタフェースオブジェクト8716(例えば、アクティブなウェブブラウザウィンドウ)の小部分8716−2(例えば、ハイパーリンク)上へのカーソル8720の移動に対応し、アクティブなユーザインタフェースオブジェクト8716内に表示されたユーザインタフェースオブジェクト小部分8716−2上へのカーソル8720の移動を検出したことに応答して、(例えば、ユーザインタフェースオブジェクト8716はアクティブであるため、)対応するユーザインタフェースオブジェクトはユーザインタフェース内のアクティブなウィンドウ内に表示されていることを含む出力基準が満たされたとの判定、触知出力生成器167は、ユーザインタフェースオブジェクト小部分8716−2に対応する触知出力8714を生成する一例を示す。対照的に、図5Mに示されるように、タッチ感知面451上のジェスチャ8728の続きはユーザインタフェースオブジェクト8718(例えば、非アクティブなウェブブラウザウィンドウ)の小部分8718−2(例えば、ハイパーリンク)上へのカーソル8720の移動に対応し、非アクティブなユーザインタフェースオブジェクト8718内に表示されたユーザインタフェースオブジェクト小部分8718−2上へのカーソル8720の移動を検出したことに応答して、(例えば、ユーザインタフェースオブジェクト8718は非アクティブであるため、)対応するユーザインタフェースオブジェクトはユーザインタフェース内のアクティブなウィンドウ内に表示されていることを含む出力基準は満たされなかったとの判定、ユーザインタフェースオブジェクト小部分8718−2に対応する触知出力は生成されない。
いくつかの実施形態では、図5L〜図5Mに示されるように、複数のユーザインタフェースオブジェクトはアプリケーションウィンドウ(例えば、ウェブブラウザ、文書ウィンドウ、ファイルメニュ、及びその他のアプリケーションウィンドウ)を含み、対応するユーザインタフェースオブジェクトの小部分はアプリケーションウィンドウ内の選択可能なアフォーダンスを含む。(例えば、ハイパーリンク、フォルダ、コントロール、及び文書アイコン)。
いくつかの実施形態では、図5A〜図5Kに示されるように、複数のユーザインタフェースオブジェクトはテキストのブロック(例えば、段落、文、又は単語)を含み、対応するユーザインタフェースオブジェクトの小部分はテキストのより小さな部分(例えば、文、単語、又は文字)を含む。いくつかの実施形態では、複数のユーザインタフェースオブジェクトは段落を含み、対応するユーザインタフェースオブジェクトの小部分は個々の文を含む。いくつかの実施形態では、複数のユーザインタフェースオブジェクトは段落を含み、対応するユーザインタフェースオブジェクトの小部分は個々の単語を含む。いくつかの実施形態では、複数のユーザインタフェースオブジェクトは段落を含み、対応するユーザインタフェースオブジェクトの小部分は個々の文字を含む。いくつかの実施形態では、複数のユーザインタフェースオブジェクトは文を含み、対応するユーザインタフェースオブジェクトの小部分は個々の単語を含む。いくつかの実施形態では、複数のユーザインタフェースオブジェクトは文を含み、対応するユーザインタフェースオブジェクトの小部分は個々の文字を含む。いくつかの実施形態では、複数のユーザインタフェースオブジェクトは単語を含み、対応するユーザインタフェースオブジェクトの小部分は個々の文字を含む。
いくつかの実施形態では、図5I〜図5Kに示されるように、複数のユーザインタフェースオブジェクトのうちの対応するユーザインタフェースオブジェクトは、小部分の第1のクラスに対応するレベル及び小部分の第2のクラスに対応するレベルを含む、小部分の階層を含む(例えば、テキストのブロックを有するアプリケーションウィンドウであるユーザインタフェースオブジェクトの場合には、第1及び第2の小部分レベルは、段落、文、単語、及び文字のうちの2つ以上を含む)。いくつかの実施形態では、複数のユーザインタフェースオブジェクトは段落を含み、小部分の第1のクラスは個々の文を含み、小部分の第2のクラスは個々の単語を含み、小部分の第3のクラスは個々の文字を含む。いくつかの実施形態では、複数のユーザインタフェースオブジェクトは段落を含み、小部分の第1のクラスは個々の文を含み、小部分の第2のクラスは個々の単語を含む。いくつかの実施形態では、複数のユーザインタフェースオブジェクトは段落を含み、小部分の第1のクラスは個々の文を含み、小部分の第2のクラスは個々の文字を含む。いくつかの実施形態では、複数のユーザインタフェースオブジェクトは段落を含み、小部分の第1のクラスは個々の単語を含み、小部分の第2のクラスは個々の文字を含む。いくつかの実施形態では、複数のユーザインタフェースオブジェクトは文を含み、小部分の第1のクラスは個々の単語を含み、小部分の第2のクラスは個々の文字を含む。
図6A〜図6Cは、いくつかの実施形態に係る、フォーカスセレクタがユーザインタフェースオブジェクトの小部分上に移動する際のフィードバックを提供する方法8800を示すフロー図である。方法8800は、ディスプレイ及びタッチ感知面を備える電子デバイス(例えば、デバイス300、図3、又はポータブル多機能デバイス100、図1A)において実行される。いくつかの実施形態において、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面がディスプレイ上にある。いくつかの実施形態において、ディスプレイはタッチ感知面とは別個である。方法8800でのいくつかの動作は、任意選択的に組み合わされ、かつ/又は、いくつかの動作の順序は、任意選択的に変更される。
以下において説明するように、方法8800は、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供する直感的な仕方を提供する。本方法は、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを検出する際のユーザの認知負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。電池駆動式電子デバイスの場合、ユーザが、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックをより速くかつより効率的に検出することを可能とすることにより、電力が節約され、電池充電の時間間隔が延びる。
いくつかの実施形態では、デバイスはディスプレイ(例えば、図5A〜図5Kにおけるディスプレイ450)上に複数のユーザインタフェースオブジェクト(例えば、図5A〜図5Kにおける第1のユーザインタフェースオブジェクト8702及び第2のユーザインタフェースオブジェクト8704、又は図5L〜図5Mにおける第1のユーザインタフェースオブジェクト8716及び第2のユーザインタフェースオブジェクト87!6)を表示する。ここで、複数のユーザインタフェースオブジェクトの各々は、複数の小部分(例えば、図5A〜図5Kにおける、第1のユーザインタフェースオブジェクト小部分8702−1及び8702−2、並びに第2のユーザインタフェースオブジェクト小部分8704−1並びに8704−2、あるいは図5L〜図5Mにおける、第1のユーザインタフェースオブジェクト小部分8716−1及び8716−2、並びに第2のユーザインタフェースオブジェクト小部分8718−1及び8718−2)を含む(8802)。
いくつかの実施形態では、図5L〜図5Mに示されるように、複数のユーザインタフェースオブジェクトはアプリケーションウィンドウを含み、対応するユーザインタフェースオブジェクトの小部分はアプリケーションウィンドウ内の選択可能なアフォーダンス(例えば、ハイパーリンク、フォルダ、コントロール、文書アイコン)を含む(8804)。他の実施形態では、複数のユーザインタフェースオブジェクトは段落であり、小部分は単語である(8806)。他の実施形態では、複数のユーザインタフェースオブジェクトは文であり、小部分は単語である(8808)。更に他の実施形態では、複数のユーザインタフェースオブジェクトは単語であり、小部分は文字である(8810)(例えば、デバイスは、フォーカスセレクタが文の上をゆっくりと動いている場合には、文字ごとに触知出力を生成するが、フォーカスセレクタが速く動いている場合には、各単語の始まりにおいてのみ触知出力を生成する)。
いくつかの実施形態では、デバイスがユーザインタフェースオブジェクトを表示している間に、デバイスは、複数のユーザインタフェースオブジェクト内の対応するユーザインタフェースオブジェクト(例えば、図5A〜図5Kにおける第1のユーザインタフェースオブジェクト8702又は図5L〜図5Mにおける第1のユーザインタフェースオブジェクト8716)上へのフォーカスセレクタ(例えば、図5A〜図5Kにおけるカーソル8706又は図5L〜図5Mにおけるカーソル8720)の移動に対応するタッチ感知面(例えば、タッチ感知面451)上の接触(例えば、図5A〜図5Hにおける接触8710又は図5L〜図5Mにおける接触8726)の移動を検出する(8812)。
いくつかの実施形態では、接触の移動を検出したことに応答して(8814)、出力基準が満たされたとの判定に従い、デバイスは、対応するユーザインタフェースオブジェクトの対応する境界に対応する触知出力(例えば、図5B〜図5Cにおける触知出力8714)(例えば、図5Bにおける境界8703に対応する触知出力)、並びに対応するユーザインタフェースオブジェクト(例えば、図5B〜図5Cにおけるユーザインタフェースオブジェクト8702)の小部分に対応する触知出力(例えば、図5Cにおける小部分8702−1及び8702−2に対応する触知出力)を生成する(8816)。いくつかの実施形態では、出力基準は、小部分触知出力基準(例えば、対応するユーザインタフェースオブジェクト内の小部分に対応する触知出力を提供するべきか否かを決定するために用いられる基準)である。
いくつかの実施形態では、出力基準は、フォーカスセレクタが対応するユーザインタフェースオブジェクト上に移動する際に、フォーカスセレクタは、対応する速度閾値を下回る速度を有するという基準を含む(8818)。いくつかの実施形態では、フォーカスセレクタがテキストの行の上を速く移動する場合には、段落の始まりにおいて触知出力が生成されるが、個々の文、単語、及び/又は文字のためには生成されない。それに対して、フォーカスセレクタがテキストの行の上をゆっくりと移動する場合には、段落の始まりのため、並びに個々の文、単語及び/又は個々の文字のためにも触知出力が生成される。いくつかの実施形態では、フォーカスセレクタがテキストの行の上を速く移動する場合には、文の始まりにおいて触知出力が生成されるが、個々の単語及び/又は文字のためには生成されない。それに対して、フォーカスセレクタがテキストの行の上をゆっくりと移動する場合には、文の始まりのため、並びに個々の単語及び/又は文字のためにも触知出力が生成される。いくつかの実施形態では、フォーカスセレクタがテキストの行の上を速く移動する場合には、単語の始まりにおいて触知出力が生成されるが、個々の文字のためには生成されない。それに対して、フォーカスセレクタがテキストの行の上をゆっくりと移動する場合には、単語の始まりのため及び同様に個々の文字のために触知出力が生成される。
いくつかの実施形態では、出力基準は、フォーカスセレクタが対応するユーザインタフェースオブジェクト上に移動する際に、接触は、対応する強度閾値を上回る強度を有するという基準を含む(8820)。いくつかの実施形態では、ユーザが接触により軽く押下している間にフォーカスセレクタがテキストの行の上に移動する場合には、段落の始まりにおいて触知出力が生成されるが、個々の文、単語、及び/又は文字のためには生成されない。それに対して、ユーザが接触により強く押下している間にフォーカスセレクタがテキストの行の上に移動する場合には、段落の始まりのため、並びに個々の文、単語及び/又は個々の文字のためにも触知出力が生成される。いくつかの実施形態では、ユーザが接触により軽く押下している間にフォーカスセレクタがテキストの行の上に移動する場合には、文の始まりにおいて触知出力が生成されるが、個々の単語及び/又は文字のためには生成されない。それに対して、ユーザが接触により強く押下している間にフォーカスセレクタがテキストの行の上に移動する場合には、文の始まりのため、並びに個々の単語及び/又は文字のためにも触知出力が生成される。いくつかの実施形態では、ユーザが接触により軽く押下している間にフォーカスセレクタがテキストの行の上に移動する場合には、単語の始まりにおいて触知出力が生成されるが、個々の文字のためには生成されない。それに対して、ユーザが接触により強く押下している間にフォーカスセレクタがテキストの行の上に移動する場合には、単語の始まりのため及び同様に個々文字のために触知出力が生成される。
いくつかの実施形態では、出力基準は、フォーカスセレクタが対応するユーザインタフェースオブジェクト上に移動する際に、接触は、対応する強度閾値を下回る強度を有するという基準を含む(8822)。いくつかの実施形態では、ユーザが接触により強く押下している間にフォーカスセレクタがテキストの行の上に移動する場合には、段落の始まりにおいて触知出力が生成されるが、個々の文、単語、及び/又は文字のためには生成されない。それに対して、ユーザが接触により軽く押下している間にフォーカスセレクタがテキストの行の上に移動する場合には、段落の始まりのため、並びに個々の文、単語及び/又は個々の文字のためにも触知出力が生成される。いくつかの実施形態では、ユーザが接触により強く押下している間にフォーカスセレクタがテキストの行の上に移動する場合には、文の始まりにおいて触知出力が生成されるが、個々の単語及び/又は文字のためには生成されない。それに対して、ユーザが接触により軽く押下している間にフォーカスセレクタがテキストの行の上に移動する場合には、文の始まりのため、並びに個々の単語及び/又は文字のためにも触知出力が生成される。いくつかの実施形態では、ユーザが接触により強く押下している間にフォーカスセレクタがテキストの行の上に移動する場合には、単語の始まりにおいて触知出力が生成されるが、個々の文字のためには生成されない。それに対して、ユーザが接触により軽く押下している間にフォーカスセレクタがテキストの行の上に移動する場合には、文の始まりのため及び同様に個々の文字のために触知出力が生成される。
いくつかの実施形態では、出力基準は、対応するユーザインタフェースオブジェクトはユーザインタフェース内のアクティブなウィンドウ内に表示されているという基準を含む(8824)。いくつかの実施形態では、出力基準は、対応するユーザインタフェースオブジェクトはユーザインタフェース内のアクティブなウィンドウ内に表示されているという基準を含む。例えば、フォーカスセレクタが背景のウィンドウのテキストの行の上に移動する場合には、単語の始まりにおいて触知出力が生成されるが、個々の文字のためには生成されないか、又は触知出力は生成されない。それに対して、フォーカスセレクタがアクティブなウィンドウのテキストの行の上に移動する場合には、単語の始まりのため、及び、いくつかの実施形態では、同様に個々の文字のために、触知出力が生成される。いくつかの実施形態では、図5L〜図5Mに示されるように、フォーカスセレクタがアクティブなウィンドウ内の要素の上に移動する際には、フォーカスセレクタの移動を検出したことに応答して触知出力が生成されるが、フォーカスセレクタが非アクティブなウィンドウ内の要素の上に移動する際には、生成されない。例えば、ハイパーリンクを有するウェブブラウザページが複数開いており、フォーカスセレクタが複数のハイパーリンクの上に移動する場合には、アクティブなブラウザウィンドウ内のハイパーリンクのためには触知出力が生成されるが、背景のブラウザウィンドウ(1つ又は複数)内のハイパーリンクのためには触知出力は生成されない。
接触の移動を検出したことに応答して(8814)、出力基準は満たされなかったとの判定に従い、デバイスは、対応するユーザインタフェースオブジェクト(例えば、図5B及び5Dにおけるユーザインタフェースオブジェクト8702)の小部分(例えば、図5Dにおける小部分8702−1及び8702−2)に対応する触知出力を生成することなく、対応するユーザインタフェースオブジェクトの対応する境界(例えば、図5Bにおける境界8703)に対応する触知出力(例えば、図5Bにおける触知出力8714)を生成する(8826)。例えば、図5B及び図5Dでは、接触が、VTを上回る速度を有すると、デバイスは、カーソル8706が段落8702の境界上に移動する際に触知出力を生成するが、カーソル8706が単語8702−2の境界上に移動する際には触知出力を生成しない。同様に、図5B及び図5Eでは、接触が、ITを下回る強度を有すると、デバイスは、カーソル8706が段落8702の境界上に移動する際に触知出力を生成するが、カーソル8706が単語8702−2の境界上に移動する際には触知出力を生成しない。
いくつかの実施形態では、複数のユーザインタフェースオブジェクトの対応するユーザインタフェースオブジェクトは、小部分の第1のクラス(例えば、図5I〜図5Kにおける、段落8702内の単語に対応する第1のユーザインタフェースオブジェクトの第1のクラスの小部分8702−1及び8702−2、並びに段落8704内の単語に対応する第2のユーザインタフェースオブジェクトの第1のクラスの小部分8704−1及び8704−2)に対応するレベル、並びに小部分の第2のクラス(例えば、段落8702内の単語内の文字に対応する、第1のユーザインタフェースオブジェクトの第2のクラスの小部分8702−1a、8702−1b、8702−1c及び8702−1d、並びに図5I〜図5Kにおける段落8704内の単語内の文字に対応する第2のユーザインタフェースオブジェクトの第2のクラスの小部分8704−1a、8704−1b及び8704−1c)に対応するレベルを含む、小部分の階層を含む(8836)。例えば、テキストのブロックを有するアプリケーションウィンドウであるユーザインタフェースオブジェクトの場合には、第1及び第2の小部分レベルは、段落、文、単語、及び文字のうちの2つ以上を含む。
いくつかの実施形態では、接触の移動を検出したことに応答して(8814)、第1の出力基準が満たされたとの判定に従い、デバイスは、小部分の第2のクラス内の小部分(例えば、図5I〜図5Kにおける単語内の文字に対応する第2のクラスのユーザインタフェースオブジェクト小部分8702−1b、8702−2b、及び8704−1b)に対応する触知出力を生成することなく、小部分の第1のクラス内の小部分(例えば、図5I〜図5Kにおける段落内の単語に対応する第1のクラスのユーザインタフェースオブジェクト小部分8702−1、8702−2、8704−1及び8704−2)に対応する触知出力(例えば、図5Kにおける触知出力8722−1a、8722−2a、8724−1a及び8724−2a)を生成する(8838)。
いくつかの実施形態では、接触の移動を検出したことに応答して(8814)、(任意選択的に、第1の出力基準が満たされたとの判定に加えて、)第2の出力基準が満たされたとの判定に従い、デバイスは、小部分の第1のクラス内の小部分(例えば、図5I〜図5Kにおける段落内の単語に対応する第1のクラスのユーザインタフェースオブジェクト小部分8702−1、8702−2、8704−1及び8704−2)に対応する触知出力(例えば、図5I〜図5Kにおける触知出力8722−1a、8722−2a、8724−1a及び8724−2a)を生成し、デバイスは、小部分の第2のクラス内の小部分(例えば、図5I〜図5Kにおける単語内の文字に対応する第2のクラスのユーザインタフェースオブジェクト小部分8702−1b、8702−2b、及び8704−1b)に対応する触知出力(例えば、図5I〜図5Kにおける触知出力8722−1b、8722−2b、8724−1b及び8724−2b)を生成する(8840)。例えば、接触が非常に速く動いている時には、デバイスは、文の終わりに対応する触知出力を生成するのみであり、接触が若干よりゆっくりと動いている時には、デバイスは、単語及び文の終わりに対応する触知出力を生成し、接触が非常にゆっくりと動いている時には、デバイスは、単語、文、及び個々の文字の終わりに対応する触知出力を生成する。
図6A〜図6Cにおいて記載された動作の順序は、単なる例示であり、その記載された順序は、動作を実行することができる唯一の順序であることを示す意図ではないことを理解されたい。当業者は、本願に記載されている動作の順番を変更する様々な方法を認識されるであろう。加えて、本明細書で説明される他の方法(例えば、パラグラフ[0059]で列挙されるもの)に関連して本明細書で説明される、他のプロセスの詳細もまた、図6A〜図6Cに関連して上述された方法8800と類似の方式で適用可能であることに留意されたい。例えば、方法8800を参照して上述した接触、ジェスチャ、ユーザインタフェースオブジェクト、触知出力、強度閾値、速度閾値、及びフォーカスセレクタは任意選択的に、本明細書に説明されている他の方法を参照して本明細書に説明されている接触、ジェスチャ、ユーザインタフェースオブジェクト、触知出力、強度閾値、速度閾値、及びフォーカスセレクタの特徴(例えば、段落[0059]に列挙されているもの)のうちの1つ以上を有する。簡略化するため、これらの詳細の説明はここでは反復しない。
いくつかの実施形態によれば、図7は、説明される様々な実施形態の理念に従って構成された電子デバイス8900の機能ブロック図を示す。このデバイスの機能ブロックは、説明される様々な実施形態の原理を実現するために、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアとの組み合わせによって、任意選択的に実装される。図7で説明されている機能ブロックが、様々な説明されている実施形態の原理を実装するように組み合わされ、又はサブブロックに分離され得ることが当業者には理解されよう。それゆえ、本明細書での説明は、本明細書で説明される機能ブロックの、あらゆる可能な組み合わせ若しくは分離、又は更なる定義を、任意選択的にサポートする。
図7に示されるように、電子デバイス8900は、1つ以上のユーザインタフェースオブジェクトを表示するように構成される表示ユニット8902と、ユーザ接触を受けるように構成されるタッチ感知面ユニット8904と、任意選択的に、タッチ感知面ユニット8904との接触の強度を検出するように構成される1つ以上のセンサユニット8906と、表示ユニット8902、タッチ感知面ユニット8904及び1つ以上のセンサユニット8906に結合される処理ユニット8908と、を含む。いくつかの実施形態では、処理ユニット8908は、表示可能化ユニット8909、検出ユニット8910、及び生成ユニット8912を含む。
いくつかの実施形態では、処理ユニット8908は、表示ユニット8902上における複数のユーザインタフェースオブジェクトの(例えば、表示可能化ユニット8909を用いた)表示を可能にするように構成される。ここで、複数のユーザインタフェースオブジェクトの各々は複数の小部分を含む。いくつかの実施形態では、処理ユニット8908は、複数のユーザインタフェースオブジェクト内の対応するユーザインタフェースオブジェクト上へのフォーカスセレクタの移動に対応するタッチ感知面上の接触の移動を(例えば、検出ユニット8910を用いて)検出するように更に構成され、接触の移動を検出したことに応答して、出力基準が満たされたとの判定に従い、処理ユニット8908は、対応するユーザインタフェースオブジェクトの対応する境界及び対応するユーザインタフェースオブジェクトの小部分に対応する触知出力を(例えば、生成ユニット8912を用いて)生成するように構成され、出力基準は満たされなかったとの判定に従い、処理ユニット8908は、対応するユーザインタフェースオブジェクトの小部分に対応する触知出力を生成することなく、対応するユーザインタフェースオブジェクトの対応する境界に対応する触知出力を(例えば、生成ユニット8912を用いて)生成するように構成される。
いくつかの実施形態では、出力基準は、フォーカスセレクタが対応するユーザインタフェースオブジェクト上に移動する際に、フォーカスセレクタは、対応する速度閾値を下回る速度を有するという基準を含む。
いくつかの実施形態では、出力基準は、フォーカスセレクタが対応するユーザインタフェースオブジェクト上に移動する際に、接触は、対応する強度閾値を上回る強度を有するという基準を含む。
いくつかの実施形態では、出力基準は、フォーカスセレクタが対応するユーザインタフェースオブジェクト上に移動する際に、接触は、対応する強度閾値を下回る強度を有するという基準を含む。
いくつかの実施形態では、出力基準は、対応するユーザインタフェースオブジェクトはユーザインタフェース内のアクティブなウィンドウ内に表示されているという基準を含む。
いくつかの実施形態では、複数のユーザインタフェースオブジェクトはアプリケーションウィンドウを含み、対応するユーザインタフェースオブジェクトの小部分はアプリケーションウィンドウ内の選択可能なアフォーダンスを含む。
いくつかの実施形態では、複数のユーザインタフェースオブジェクトは段落であり、小部分は単語である。
いくつかの実施形態では、複数のユーザインタフェースオブジェクトは文であり、小部分は単語である。
いくつかの実施形態では、複数のユーザインタフェースオブジェクトは単語であり、小部分は文字である。
いくつかの実施形態では、複数のユーザインタフェースオブジェクトの対応するユーザインタフェースオブジェクトは、小部分の第1のクラスに対応するレベル及び小部分の第2のクラスに対応するレベルを含む、小部分の階層を含む。これらの実施形態のうちのいくつかにおいては、接触の移動を検出したことに応答して、第1の出力基準が満たされたとの判定に従い、処理ユニット8908は、小部分の第2のクラス内の小部分に対応する触知出力を生成することなく、小部分の第1のクラス内の小部分に対応する触知出力を(例えば、生成ユニット8912を用いて)生成するように構成され、第2の出力基準が満たされたとの判定に従い、処理ユニット8908は、小部分の第1のクラス内の小部分に対応する触知出力を(例えば、生成ユニット8912を用いて)生成し、小部分の第2のクラス内の小部分に対応する触知出力を(例えば、生成ユニット8912を用いて)生成するように構成される。
上述の情報処理方法は、汎用プロセッサ(例えば、図1A及び図3に関連して上述されたようなもの)又は特定用途向けチップなどの、情報処理装置内の1つ以上の機能モジュールを稼働することによって、任意選択的に実施される。
図6A〜図6Cを参照して上述された動作は、図1A〜図1B、又は図7に示される構成要素によって、任意選択的に実施される。例えば、検出動作8812並びに判定動作8816、8826、8838及び8840は、任意選択的に、イベントソータ170、イベント認識部180、及びイベントハンドラ190によって実施される。イベントソータ170のイベントモニタ171は、タッチ感知ディスプレイ112上の接触を検出し、イベントディスパッチャモジュール174は、イベント情報をアプリケーション136−1に渡す。アプリケーション136−1の対応するイベント認識部180はイベント情報を対応するイベント定義186と比較し、タッチ感知面上の第1のロケーションにおける第1の接触は、ユーザインタフェース上のオブジェクトの選択又は(例えば、ユーザインタフェースオブジェクトの境界又はその小部分に対応する)触知出力の生成などの、既定のイベント又はサブイベントに対応するかどうかを判定する。対応する既定のイベント又はサブイベントが検出されると、イベント認識部180は、イベント又はサブイベントの検出に関連するイベントハンドラ190をアクティブ化させる。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデータ176若しくはオブジェクトアップデータ177を任意選択的に利用するか又は呼び出す。いくつかの実施形態において、イベントハンドラ190は、アプリケーションにより表示されるものを更新するための対応するGUIアップデータ178にアクセスする。同様に、当業者には、図1A〜図1Bに示すコンポーネントに基づいて他のプロセスをどのように実装し得るか明らかであろう。
ユーザインタフェースオブジェクトと対話する際の触知フィードバックの提供
多くの電子デバイスは、(例えば、オブジェクトをクリックするか又はその上にスクロールすることによる)ユーザ入力に応答してアクティブ化することができるユーザインタフェースオブジェクトを表示するグラフィカルユーザインタフェースを有する。例えば、グラフィカルユーザインタフェースは任意選択的に、特定のアクション(例えば、アプリケーションの起動、ハイパーリンクに関連付けられたコンテンツのロード、又はアプリケーション内のオブジェクトの操作)に関連付けられたボタン、ハイパーリンク、文書起動アイコン、アプリケーション起動アイコン、メニュ又はその他の選択可能なアフォーダンスを包含するアプリケーションウィンドウを表示する。典型的には、ユーザは、まず、しかるべきユーザインタフェースオブジェクトを(例えば、フォーカスセレクタをオブジェクト上に移動させることによって)選択し、次に、ユーザインタフェースオブジェクトを(例えば、オブジェクトを「クリックすること」によって)アクティブ化することによって、アクティブ化可能なコンテンツにアクセスする。アクティブ化可能なコンテンツに関連付けられた複数のユーザインタフェースオブジェクトを包含するユーザインタフェース環境の複雑さを考慮すると、ユーザがユーザインタフェース環境内をより効率的に使い勝手良くナビゲートすることを可能にするフィードバックを提供する必要がある。
下記に説明する実施形態は、複雑なユーザインタフェース環境をナビゲートするユーザに対するフィードバックを提供するための改良された方法及びユーザインタフェースを提供する。より具体的には、これらの方法及びユーザインタフェースは、フォーカスセレクタが対応するユーザインタフェースオブジェクト上に移動する際には、ユーザがその後、対応するユーザインタフェースオブジェクトをアクティブ化する際とは異なる触知フィードバックをユーザに提供する。触知フィードバックは、ユーザに異なって感じられる物理的合図を提供することによって、これらの2つのアクションを区別する。このようにして、以下において提供される方法及びユーザインタフェースは、可聴及び/若しくは視覚フィードバックの代わりに、又はそれに加えて、触知フィードバックを提供することによって、ユーザがこれらの2つのアクションをより効率的に使い勝手良く識別することを可能にする。ユーザインタフェースオブジェクトの選択とアクティブ化とを区別するためのいくつかの方法は可聴合図又は視覚的合図を頼りにする。しかし、電子デバイスの音量が下げられ又はミュートされ、可聴合図が効果的ではなくなる多くの状況が(例えば、職場で、劇場で、及び様々な社交的な状況で)存在する。都合のよいことに、下記に説明する方法及びユーザインタフェースは、ユーザインタフェースオブジェクトが選択され、及び/又はアクティブ化されたことを指示する触知フィードバックを提供することにより、可聴フィードバックを補足するか、又はこれに取って代わる。
図8A〜図8Eは、いくつかの実施形態に係る、ユーザインタフェースオブジェクトと対話する際のフィードバックを提供するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図9におけるプロセスを含む、以下で説明されるプロセスを例示するために用いられる。図8A〜図8Dは、アクティブ化強度閾値(例えば、軽い押圧強度閾値「IT」)を含む複数の強度閾値に対するタッチ感知面上の接触の現在の強度を示す強度図を含む。いくつかの実施形態では、ITを参照して以下に説明されるものと同様の動作は、異なる強度閾値(例えば、「IT」)を参照して実行される。これらの強度図は、通常は、表示されるユーザインタフェースの一部ではないが、図の理解を助けるために提供されている。図8B〜図8Dは、触知出力トリガイベント(例えば、ユーザインタフェースオブジェクトの選択又はアクティブ化)に応答してタッチ感知面上に生成される触知出力に対応する波形の振幅(例えば、高振幅「AH」若しくは低振幅「AL」)並びに形状(例えば、矩形若しくは鋸歯状)を示す波形図を含む。これらの波形図は、通常は、表示されるユーザインタフェースの一部ではないが、図の理解を助けるために提供されている。
図8Aは、1つ以上のユーザインタフェースオブジェクト9004を表示する例示的なユーザインタフェース9008を示す。例えば、ユーザインタフェース9008は、ナビゲーションボタン9004−1(例えば、アクティブ化可能なハイパーリンクを有するユーザインタフェースオブジェクト)及びカーソル9006(例えば、フォーカスセレクタ)を含むウェブブラウザ9002(例えば、ユーザインタフェースアプリケーションウィンドウ)を表示する。図8Aでは、ユーザインタフェース9008は、タッチ感知面451及びタッチ感知面との接触の強度を検出する1つ以上のセンサをも併せて含む電子デバイスのディスプレイ450上に表示されている。いくつかの実施形態において、タッチ感知面451は、必要に応じてディスプレイ450又は別個のディスプレイであるタッチスクリーンディスプレイである。
いくつかの実施形態において、デバイスは、別個のディスプレイ(例えば、ディスプレイ450)及び別個のタッチ感知面(例えば、タッチ感知面451)を備える電子デバイスである。いくつかの実施形態において、デバイスは、ポータブル多機能デバイス100であり、ディスプレイは、タッチ感知ディスプレイシステム112であり、タッチ感知面は、ディスプレイ上に触知出力発生器167を含む(図1A)。説明の便宜上、図8A〜図8H及び図9を参照して説明される実施形態は、ディスプレイ450及び別個のタッチ感知面451を参照して説明される。しかし、任意選択的に、タッチ感知式ディスプレイシステム112を備えたデバイス上で、図8A〜図8Hに示されるユーザインタフェースをタッチ感知式ディスプレイシステム112上に表示している間に、図8A〜図8Hで説明されるタッチ感知式ディスプレイシステム112上での接触の移動の検出に応答して類似の動作が実行される。このような実施形態では、フォーカスセレクタは、任意選択的に、カーソル9006の代わりに、対応する接触、接触に対応する代表点(例えば、対応する接触の図心若しくは対応する接触に関連付けられる点)、又はタッチ感知式ディスプレイシステム112上で検出される2つ以上の接触の図心である。
図8A〜図8Eは、タッチ感知面451上の接触9010及びその移動9012によって制御されるカーソル9006がユーザナビゲーションボタン9006の上に移動し(例えば、それを選択し)、次に、それをクリックする(例えば、アクティブ化する)、種々の実施形態を示す。それに応答して、触知出力生成器167は、異なるフィードバック(例えば、触知出力9014、9018及び9022)をユーザに提供し、アクションを選択又はアクティブ化イベントのどちらかとして識別する。例えば、アクションの種類(例えば、選択又はアクティブ化)に依存して、触知出力は、どのアクションが実行されたのかをユーザに彼らの触覚を通じて指示する特有の波形(例えば、矩形波形9016及び9024又は鋸歯状波形9020)あるいは振幅(例えば、高振幅「AH」又は低振幅「AL」)を有する。
図8A〜図8Eは、ディスプレイ450上に表示されるカーソル9002に対応する接触9010、並びに接触9010の移動9012(例えば、図8Aにおけるロケーション9010−aから図8Bにおけるロケーション9010−bへの接触9010の移動9012−a)、又は接触9010の強度の変化(例えば、図8A〜図8BにおけるITを下回る強度から図8C〜図8DにおけるITを上回る強度への接触9010の強度の変化、並びに/又は図8Eに示されるとおりの、図8C若しくは図8Dにおける接触9010のリフトオフ)を含むジェスチャがタッチ感知面451上で検出される様子を示す。フォーカスセレクタ9006が占めるディスプレイ450上のエリアに対応するタッチ感知面451上の位置で接触9010が検出されている(例えば、接触9010は、ユーザインタフェースオブジェクト9002の位置又はその付近にあるカーソル9006のようなディスプレイ上のフォーカスセレクタに対応する)。いくつかの実施形態において、タッチ感知面451上の接触9010の移動は、(例えば、図8A〜図8Bに図示したような)ディスプレイ450上へのフォーカスセレクタ(例えば、カーソル9006)の移動に対応する。
図8A〜図8Bは、ディスプレイ450上へのカーソル9006に対応する、タッチ感知面451上の接触9010の移動9012に従って、カーソル9006がナビゲーションボタン9004−1上を、ナビゲーションボタン9004−1をアクティブ化することなく移動するジェスチャの開始の一例を示す。図8Bでは、フォーカスセレクタが、ユーザインタフェースオブジェクトをアクティブ化することなくユーザインタフェースオブジェクト上にスクロールしたため、デバイスはスクロールオーバーイベントに対応する識別特性(例えば、波形9016及び/又は高振幅「AH」)を有する第1の触知出力9014を(例えば、触知出力生成器167を介して)生成する。
図8B〜図8Dは、デバイスが、アクティブ化強度閾値(例えば、軽い押圧強度閾値「IT」)を上回る接触9010の強度の増大を含む、接触9010の移動9012を含むジェスチャの続き、又は移動9012の完了後に開始される第2のジェスチャを検出する種々の例を示す。図8C〜図8Dでは、デバイスは、アクティブ化イベントに対応する識別特性(例えば、波形9020及び/又は低振幅「AL」)を有する第2の触知出力9018又は9022を(例えば、触知出力生成器167を介して)生成する。例えば、カーソルをアクティブ化可能なユーザインタフェースオブジェクト(例えば、ハイパーリンク又はそれに関連付けられたナビゲーションボタン)上に移動させ、デバイスに第1の触知フィードバック(例えば、図8Bに示されるとおりの、触知出力9014)を生成させた後に、ユーザは、ユーザインタフェースオブジェクトをアクティブ化するために、より大きな力でタッチ感知面を押し下げ、それに応答して、デバイスは、第1の触知フィードバック(例えば、図8Bにおける触知出力9014)と異なって感じられる第2の触知フィードバック(例えば、図8Cにおける触知出力9018又は図8Dにおける触知出力9022)を生成する。
図8B及び図8Cは、第2の触知出力(例えば、触知出力9018)が、第1の触知出力(例えば、触知出力9014)と異なる運動プロファイル(例えば、波形9020)を有するが、実質的に同じ最大振幅(例えば、「AH」)を有する一例を示す。例えば、ユーザインタフェースオブジェクトのアクティブ化に対応する触知フィードバックは、ユーザインタフェースオブジェクトの選択に対応する触知フィードバックと異なって感じられるが、それと等しい(又はだいたい同じ)強さである。対照的に、図8B及び図8Dは、第2の触知出力(例えば、触知出力9022)が、第1の触知出力(例えば、触知出力9014)と実質的に同じ運動プロファイル(例えば、波形9024)を有するが、異なる最大振幅(例えば、「AL」)を有する一例を示す。例えば、ユーザインタフェースオブジェクトのアクティブ化に対応する触知フィードバックは、ユーザインタフェースオブジェクトの選択に対応する触知フィードバックと同様に感じられるが、それよりも顕著に強いか又は弱い。
図8C〜図8Eは、接触9010は、ユーザインタフェースオブジェクト9004−1上に位置するフォーカスセレクタ9006によって占められるディスプレイ450上のエリアに対応する場合に、アクティブ化強度閾値(例えば、軽い押圧強度閾値「IT」)を上回る接触9010の強度の増大に応答して、ユーザインタフェースオブジェクトがアクティブ化される種々の例を示す。例えば、図8Eに示されるように、ユーザが、カーソル9006をナビゲーションボタン9004−1上に位置付けた状態で、タッチ感知面451を(例えば、接触9010を介して)より強く押し下げ、接触をタッチ感知面からリフトオフした後に(又は、代替的に、接触9010をタッチ感知面451からリフトオフすることなく、接触9010の強度をITとITとの間の強度へ低下させた後に)、ナビゲーションボタン内に埋め込まれたハイパーリンクに関連付けられたコンテンツがウェブブラウザ9004−1上にロードされる(例えば、新しいウェブページがウェブブラウザ9002上にロードされる)。
上述したように、ユーザインタフェースオブジェクトの選択及びユーザインタフェースオブジェクトのアクティブ化のための触知出力が任意選択的に生成される。図8F〜図8Hは、これらの触知出力を生成するための運動プロファイルの波形の例を図示している。図8Fは鋸歯状波形を示す。図8Gは矩形波形を示し、図8Hは、図8Gの矩形波形よりも低い振幅を有する矩形波形を示す。図8Gにおける高振幅の矩形運動プロファイルは、任意選択的に、ユーザインタフェースオブジェクト上に移動すること(例えば、その上にスクロールすること)に関連付けられ、ユーザインタフェースオブジェクト上に移動すること(例えば、その上にスクロールすること)のために生成される触知出力は、任意選択的に、高振幅の矩形運動プロファイルに従って生成される。図8Hにおける低振幅の矩形運動プロファイルは、任意選択的に、ユーザインタフェースオブジェクトのアクティブ化に関連付けられ、ユーザインタフェースオブジェクトのアクティブ化のために生成される触知出力は、任意選択的に、低振幅の矩形運動プロファイルに従って生成される。図8Fにおける鋸歯状運動プロファイルは、任意選択的に、ユーザインタフェースオブジェクトのアクティブ化に関連付けられ、ユーザインタフェースオブジェクトのアクティブ化のために生成される触知出力は、任意選択的に、鋸歯状運動プロファイルに従って生成される。
図9は、いくつかの実施形態に係る、ユーザインタフェースオブジェクトと対話する際のフィードバックを提供する方法9100を示すフロー図である。方法9100は、ディスプレイ及びタッチ感知面を備える電子デバイス(例えば、デバイス300、図3、又はポータブル多機能デバイス100、図1A)において実行される。いくつかの実施形態において、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面がディスプレイ上にある。いくつかの実施形態において、ディスプレイはタッチ感知面から分離している。方法9100でのいくつかの動作は、任意選択的に組み合わされ、かつ/又は、いくつかの動作の順序は、任意選択的に変更される。
以下において説明するように、方法9100は、ユーザインタフェースオブジェクトと対話する際のフィードバックを提供する直感的な仕方を提供する。本方法は、ユーザインタフェースオブジェクトと対話する際のフィードバックを検出する際のユーザの認知負担を軽減し、それによって、より効率的なヒューマン−マシンインタフェースを作り出す。電池駆動式電子デバイスの場合、ユーザが、ユーザインタフェースオブジェクトと対話する際のフィードバックをより速くかつより効率的に検出することを可能とすることにより、電力が節約され電池の充電の時間間隔が延びる。
いくつかの実施形態では、デバイスは、ディスプレイ(例えば、図8A〜図8Eにおけるディスプレイ450上に、1つ以上のインタフェースオブジェクト(例えば、アプリケーションウィンドウ9002内に表示されるアフォーダンス、コントロール、ボタン又はハイパーリンクのうちの1つ以上を含むユーザインタフェースオブジェクト9004)を表示する(9102)。
いくつかの実施形態では、デバイスがユーザインタフェースオブジェクトを表示している間に、デバイスはタッチ感知面(例えば、タッチ感知面451)上の接触(例えば、接触9010)を検出する(9104)。ここで、接触はディスプレイ(例えば、ディスプレイ450)上へのフォーカスセレクタ(例えば、カーソル9006)に対応する。いくつかの実施形態において、この接触は指接触である。いくつかの実施形態において、接触は、フォーカスセレクタである(例えば、デバイスがタッチスクリーンを有する場合、フォーカスセレクタは、必要に応じて、接触9010である)。いくつかの実施形態において、接触は、ディスプレイ上に表示されているカーソル又は選択ボックスに対応する。
いくつかの実施形態では、デバイスがユーザインタフェースオブジェクトを表示している間に、デバイスは、接触からの入力に基づくジェスチャ(例えば、図8A〜図8Bにおける接触9010の移動9012、図8B〜図8Dにおける接触9010の強度の増大、及び/又は図8C〜図8Eにおける接触9010のリフトオフ)を検出する(9106)。いくつかの実施形態では、ジェスチャは接触の強度の変化を含む。いくつかの実施形態では、ジェスチャは接触の移動を含む。いくつかの実施形態では、ジェスチャは接触の移動及び接触の強度の変化の両方を含む。
いくつかの実施形態では、ジェスチャを検出したことに応答して(9108)、ジェスチャは、対応するユーザインタフェースオブジェクト(例えば、ナビゲーションボタン9004−1)上の、対応するユーザインタフェースオブジェクトをアクティブ化することのないフォーカスセレクタの移動(例えば、マウスカーソルをボタン上に、ボタンをアクティブ化することなく移動させること)に対応するとの判定に従い、デバイスは、タッチ感知面上に、対応するユーザインタフェースオブジェクト(例えば、ナビゲーションボタン9004−1)上へのフォーカスセレクタの移動に対応する第1の触知出力(例えば、図8Bにおける触知出力9014)を生成する(9110)。いくつかの実施形態では、対応するユーザインタフェースオブジェクトは、ボタン、ハイパーリンク、文書アイコン、アプリケーション起動アイコン又は別の選択可能なアフォーダンスである。
ジェスチャを検出したことに応答して(9108)、ジェスチャは、フォーカスセレクタが対応するユーザインタフェースオブジェクト上にある間におけるアクティブ化強度閾値(例えば、軽い押圧強度閾値「IT」)を上回る接触の強度の増大に対応するとの判定に従い、デバイスは、タッチ感知面上に、対応するユーザインタフェースオブジェクトのアクティブ化に対応する、第1の触知出力と異なる第2の触知出力(例えば、図8Cにおける触知出力9018又は図8Dにおける触知出力9022)を生成する(9112)。例えば、ユーザがカーソル/接触をユーザインタフェースオブジェクト上に移動させる際にタッチ感知面上に生成される「デテント」(例えば、図8Bにおける触知出力9014)は、ユーザがユーザインタフェースオブジェクトをアクティブ化する際にタッチ感知面上に生成される「クリック」(例えば、図8Cにおける触知出力9018又は図8Dにおける触知出力9022)と異なって感じられる。いくつかの実施形態において、第1の触知出力は、第2の触知出力よりも顕著である(例えば、より大きな振幅を有する)。いくつかの実施形態において、第2の触知出力は、第1の触知出力よりも顕著である(例えば、より大きな振幅を有する)。
いくつかの実施形態では、ジェスチャを検出したことに応答して(9108)、ジェスチャは、フォーカスセレクタが対応するユーザインタフェースオブジェクト上にある間におけるアクティブ化強度閾値(例えば、軽い押圧強度閾値「IT」)を上回る接触の強度の増大に対応するとの判定に従い、デバイスは対応するユーザインタフェースオブジェクトをアクティブ化する(9114)(例えば、図8Eに示されるように、ナビゲーションボタン9004−1に埋め込まれたハイパーリンクに関連付けられたコンテンツをロードする)。いくつかの実施形態では、ユーザインタフェースオブジェクトをアクティブ化することは、アプリケーションアイコンに対応するアプリケーションを起動すること、又はハイパーリンクに関連付けられたコンテンツをロードすることを含む。いくつかの実施形態では、対応するユーザインタフェースオブジェクトは、アクティブ化強度閾値を上回る接触の強度の増大(例えば、押圧入力の下降行程)を検出したことに応答してアクティブ化される。いくつかの実施形態では、対応するユーザインタフェースオブジェクトは、アクティブ化強度閾値(例えば、「IT」)を上回る接触の強度の増大、並びにそれに続き、アクティブ化強度閾値(例えば、「IT」)若しくは若干より低いヒステリシス強度閾値を下回る接触の強度のその後の減少(例えば、押圧入力の上昇行程)を検出したことに応答してアクティブ化される。いくつかの実施形態では、対応するユーザインタフェースオブジェクトは、アクティブ化強度閾値(例えば、「IT」)を上回る接触の強度の増大、及びそれに続き、タッチ感知面からの接触のリフトオフを検出したことに応答してアクティブ化される。
いくつかの実施形態では、第1の触知出力は、第1の支配的運動成分を含むタッチ感知面の運動によって生成され、第2の触知出力は、第2の支配的運動成分を含むタッチ感知面の運動によって生成され、第1の支配的運動成分及び第2の支配的運動成分は、実質的に同じ振幅(例えば、図8B〜図8Cにおける高振幅「AH」)及び実質的に異なる運動プロファイル(例えば、図8B及び図8Gにおける矩形波形9016並びに図8C及び図8Fにおける鋸歯状波形9020)を有する(9116)。いくつかの実施形態において、タッチ感知面の運動は、一切の意図されない共振を無視した初期衝撃に対応する。いくつかの実施形態において、運動プロファイルは、それらの波形形状(例えば矩形波、正弦波、スクイン波(squine)、三角波、若しくは鋸歯の形状)、波形のパルス幅、及び/又は波形のパルス周期(例えば、周波数)において異なる。例えば、図8B〜図8Cに示されるように、ユーザがカーソル/接触をユーザインタフェースオブジェクト上に移動させる際にタッチ感知面上に生成される「デテント」は、矩形波形運動プロファイル(例えば、図8B及び図8Gにおける波形9016)を有し、それに対して、ユーザがユーザインタフェースオブジェクトをアクティブ化する際にタッチ感知面上に生成される「クリック」は鋸歯状波形運動プロファイル(例えば、図8C及び図8Fにおける波形9020)を有するか、又はその逆である。
いくつかの実施形態では、第1の触知出力は、第1の支配的運動成分を含むタッチ感知面の運動によって生成され、第2の触知出力は、第2の支配的運動成分を含むタッチ感知面の運動によって生成され、第1の支配的運動成分及び第2の支配的運動成分は、実質的に同じ運動プロファイル(例えば、図8B及び図8Gにおける矩形波形9016並びに図8D及び図8Hにおける矩形波形及び9024)並びに実質的に異なる振幅(例えば、図8Bにおける高振幅「AH」及び図8Dにおける低振幅「AL」)を有する(9118)。いくつかの実施形態において、タッチ感知面の運動は、一切の意図されない共振を無視した初期衝撃に対応する。例えば、図8B及び図8Dに示されるように、ユーザがカーソル/接触をユーザインタフェースオブジェクト上に移動させる際にタッチ感知面上に生成される「デテント」は、ユーザがユーザインタフェースオブジェクトをアクティブ化する際にタッチ感知面上に生成される「クリック」よりも大きい振幅を有するか(例えば、図8Bにおける触知出力9014の高振幅「AH」は図8Dにおける触知出力9022の低振幅「AL」よりも大きい)、又はその逆である。
図9の動作が説明されている特定の順序は単に例示的なものであって、説明されている順序が動作を実行し得る唯一の順番であることを示そうとしていないことが理解されよう。当業者は、本願に記載されている動作の順番を変更する様々な方法を認識されるであろう。加えて、本記載の方法に関して本明細書に記載の他の処理の詳細(例えば、パラグラフ[0059]に記載のものはまた、図9に関連して上述した方法9100と類似の様式で適用可能であることに留意されたい。例えば、方法9100を参照して上述した接触、ジェスチャ、ユーザインタフェースオブジェクト、触感、強度閾値、及びフォーカスセレクタは任意選択的に、本明細書に説明されている他の方法を参照して本明細書に説明されている接触、ジェスチャ、ユーザインタフェースオブジェクト、触感、強度閾値、及びフォーカスセレクタの特徴(例えば、段落[0059]に列挙されているもの)のうちの1つ以上を有する。簡略化するため、これらの詳細の説明はここでは反復しない。
いくつかの実施形態によれば、図10は、説明される様々な実施形態の理念に従って構成された電子デバイス9200の機能ブロック図を示す。このデバイスの機能ブロックは、説明される様々な実施形態の原理を実現するために、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアとの組み合わせによって、任意選択的に実装される。図10で説明されている機能ブロックが、様々な説明されている実施形態の原理を実装するように組み合わされ、又はサブブロックに分離され得ることが当業者には理解されよう。それゆえ、本明細書での説明は、本明細書で説明される機能ブロックの、あらゆる可能な組み合わせ若しくは分離、又は更なる定義を、任意選択的にサポートする。
図10に示されるように、電子デバイス9200は、1つ以上のユーザインタフェースオブジェクトを表示するように構成される表示ユニット9202と、ユーザ接触を受けるように構成されるタッチ感知面ユニット9204と、タッチ感知面ユニット9204との接触の強度を検出するように構成される1つ以上のセンサユニット9206と、表示ユニット9202、タッチ感知面ユニット9204及び1つ以上のセンサユニット9206に結合される処理ユニット9208と、を含む。いくつかの実施形態では、処理ユニット9208は、表示可能化ユニット9210、検出ユニット9212、生成ユニット9214及びアクティブ化ユニット9216を含む。
いくつかの実施形態では、処理ユニット9208は、表示ユニット9202上における1つ以上のユーザインタフェースオブジェクトの表示を(例えば、表示可能化ユニット9210を用いて)可能にするように構成される。いくつかの実施形態では、処理ユニット9208は、タッチ感知面ユニット9204上の接触を(例えば、検出ユニット9212を用いて)検出するように構成される。ここで、接触は表示ユニット9202上へのフォーカスセレクタに対応する。いくつかの実施形態では、処理ユニット9208は、接触からの入力に基づくジェスチャを(例えば、検出ユニット9212を用いて)検出するように更に構成され、ジェスチャを検出したことに応答して、ジェスチャは、1つ以上のユーザインタフェースオブジェクトの対応するユーザインタフェースオブジェクト上への、対応するユーザインタフェースオブジェクトをアクティブ化することのないフォーカスセレクタの移動に対応するとの判定に従い、処理ユニット9208は、タッチ感知面ユニット9204上に、対応するユーザインタフェースオブジェクト上へのフォーカスセレクタの移動に対応する第1の触知出力を(例えば、生成ユニット9214を用いて)生成するように構成され、ジェスチャは、フォーカスセレクタが対応するユーザインタフェースオブジェクト上にある間におけるアクティブ化強度閾値を上回る接触の強度の増大に対応するとの判定に従い、処理ユニット9208は、タッチ感知面ユニット9204上に、対応するユーザインタフェースオブジェクトのアクティブ化に対応する、第1の触知出力と異なる第2の触知出力を(例えば、生成ユニット9214を用いて)生成するように構成される。
いくつかの実施形態では、処理ユニット9208は、ジェスチャは、フォーカスセレクタが対応するユーザインタフェースオブジェクト上にある間におけるアクティブ化強度閾値(例えば、IT)を上回る接触の強度の増大に対応するとの判定に従い、対応するユーザインタフェースオブジェクトを(例えば、アクティブ化ユニット9216を用いて)アクティブ化するように更に構成される。
いくつかの実施形態において、第1の触知出力は第1の支配的運動成分を含むタッチ感知面ユニット9204の運動によって生成され、第2の触知出力は第2の支配的運動成分を含むタッチ感知面ユニット9204の運動によって生成され、第1の支配的運動成分及び第2の支配的運動成分は同じ振幅及び異なる運動プロファイルを有する。
いくつかの実施形態において、第1の触知出力は、第1の支配的運動成分を含むタッチ感知面ユニット9204の運動によって生成され、第2の触知出力は、第2の支配的運動成分を含むタッチ感知面ユニット9204の運動によって生成され、第1の支配的運動成分及び第2の支配的運動成分は、同じ運動プロファイル及び異なる振幅を有する。
上述の情報処理方法は、汎用プロセッサ(例えば、図1A及び図3に関連して上述されたようなもの)又は特定用途向けチップなどの、情報処理装置内の1つ以上の機能モジュールを稼働することによって、任意選択的に実施される。
図9を参照して上述された動作は任意選択的に、図1A〜図1B又は図10に示される構成要素によって実施される。例えば、検出動作9104及び9106、判定動作9110、9112及び9114並びに生成動作9110及び9112は、任意選択的に、イベントソータ170、イベント認識部180、及びイベントハンドラ190によってそれぞれ実施される。イベントソータ170のイベントモニタ171は、タッチ感知ディスプレイ112上の接触を検出し、イベントディスパッチャモジュール174は、イベント情報をアプリケーション136−1に渡す。アプリケーション136−1の対応するイベント認識部180は、イベント情報を対応するイベント定義186と比較し、タッチ感知面上の第1のロケーションにおける第1の接触は、ユーザインタフェース上のオブジェクトの選択又はアクティブ化などの、既定のイベント又はサブイベントに対応するかどうかを判定する。対応する既定のイベント又はサブイベントが検出されると、イベント認識部180は、イベント又はサブイベントの検出に関連するイベントハンドラ190をアクティブ化させる。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデータ176若しくはオブジェクトアップデータ177を任意選択的に利用するか又は呼び出す。いくつかの実施形態において、イベントハンドラ190は、アプリケーションにより表示されるものを更新するための対応するGUIアップデータ178にアクセスする。いくつかの実施形態において、イベントハンドラ190は、対応する触知出力発生器167をアクセスして触知出力を生成する。同様に、当業者には、図1A〜図1Bに示すコンポーネントに基づいて他のプロセスをどのように実装し得るか明らかであろう。
ユーザインタフェースオブジェクトを区別する触知フィードバックの提供
多くの電子デバイスは、分離した領域であって、コンテンツ非依存アフォーダンス(例えば、表示されるコンテンツにかかわりなくアプリケーションウィンドウ内に常に表示されるアフォーダンス)を表示するための領域、例えば、「コントロール領域」、及びコンテンツ依存アフォーダンス(例えば、特定のコンテンツが表示される時だけアプリケーションウィンドウ内に表示されるアフォーダンス)を表示するための領域、例えば、「コンテンツ領域」、を有するアプリケーションウィンドウを表示するグラフィカルユーザインタフェースを有する。例えば、ウェブブラウザウィンドウは任意選択的に、コンテンツ領域内に表示されたコンテンツに対して、コンテンツ自体に依存することなく、動作(例えば、ブラウザ履歴内を前方及び後方に移動すること、URLアドレスを入力すること、又はウェブページをブックマークすること)を実行するアフォーダンスを表示するコントロール領域を含む。同様に、ウェブブラウザウィンドウは任意選択的に、表示されている特定のコンテンツ(例えば、ウェブページ)に関連付けられた、表示されたコンテンツ内に組み込まれたアフォーダンス(例えば、ハイパーリンク、テキストボックス又はドロップダウンメニュ)を表示するコンテンツ領域を含む。アプリケーションウィンドウ内に表示されるいくつかのアフォーダンスはコンテンツに依存せず、他のアフォーダンスはコンテンツに依存するユーザインタフェース環境の複雑さを考慮すると、ユーザがユーザインタフェース環境内をより効率的に使い勝手良くナビゲートすることを可能にするフィードバックを提供する必要がある。
下記に説明する実施形態は、複雑なユーザインタフェース環境をナビゲートするユーザに対するフィードバックを生成するための改良された方法及びユーザインタフェースを提供する。より具体的には、これらの方法及びユーザインタフェースは、フォーカスセレクタが、アプリケーションウィンドウのコントロール領域内に表示されたアフォーダンス及びコンテンツ領域内に表示されたアフォーダンス上に移動する際に、異なる触知フィードバックをユーザに提供する。触知フィードバックは、ユーザに異なって感じられる物理的合図を提供することによって、これらの2つのアクションを区別する。このようにして、以下において提供される方法及びユーザインタフェースは、可聴及び/若しくは視覚フィードバックの代わりに、又はそれに加えて、触知フィードバックを提供することによって、ユーザが、選択されたアフォーダンスの種類をより効率的に使い勝手良く識別することを可能にする。ユーザインタフェースオブジェクトの選択とアクティブ化とを区別するためのいくつかの方法は可聴合図又は視覚的合図を頼りにする。しかし、電子デバイスの音量が下げられ又はミュートされ、可聴合図が効果的ではなくなる多くの状況が(例えば、職場で、劇場で、及び様々な社交的な状況で)存在する。都合の良いことに、以下において説明される方法及びユーザインタフェースは、アプリケーションウィンドウ内に表示されたアフォーダンスの種類又はロケーションを指示する触知フィードバックを提供することによって、可聴フィードバックを補足するか、又はこれに取って代わる。
図11A〜図11Dは、いくつかの実施形態に係る、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供するための例示的なユーザインタフェースを示す。これらの図のユーザインタフェースは、図12A、12Bのプロセスを含めた、以下で説明されるプロセスを例示するために使用される。図11A〜図11Dは、接触検出強度閾値(例えば、「IT」)及び軽い押圧強度閾値(例えば、「IT」)を含む複数の強度閾値に対するタッチ感知面上の接触の現在の強度を示す強度図を含む。いくつかの実施形態では、ITを参照して以下に説明されるものと同様の動作は、異なる強度閾値(例えば、「IT」)を参照して実行される。いくつかの実施形態において、下記に説明する動作は、接触の強度に左右されない。図11B〜図11Dは、認定イベント(例えば、ユーザインタフェースオブジェクトの選択又はアクティブ化)に応答してタッチ感知面上に生成される触知出力に対応する波形の振幅(例えば、高振幅「AH」若しくは低振幅「AL」)並びに形状(例えば、矩形若しくは三角形)を示す波形図を含む。これらの波形図は、通常は、表示されるユーザインタフェースの一部ではないが、図の理解を助けるために提供されている。
図11Aは、(例えば、バー9308の上方に位置する)コントロール領域9304、及びコントロール領域と別個の(例えば、バー9308の下方に位置する)コンテンツ領域9306を含むアプリケーションウィンドウ9302を表示する例示的なユーザインタフェース9316を示す。図11Aでは、ユーザインタフェース9316は、タッチ感知面451及びタッチ感知面との接触の強度を検出する1つ以上のセンサをも併せて含む電子デバイスのディスプレイ450上に表示されている。いくつかの実施形態において、タッチ感知面451は、必要に応じてディスプレイ450又は別個のディスプレイであるタッチスクリーンディスプレイである。ユーザインタフェース9316は、コンテンツ領域内のコンテンツに対して動作を実行するための複数のアフォーダンス9312(例えば、ブラウザベースのコンテンツを保存するためのアイコン9312−a、ブラウザの履歴内を後方にナビゲートするためのアイコン9312−b、及びウェブアドレスを入力するためのナビゲーションバー9312−c)を含むコントロール領域9304を表示する。いくつかの実施形態では、コントロール領域9304は1つ以上のコンテンツ依存アフォーダンスを含む。ユーザインタフェース9316は、コンテンツ内に組み込まれた1つ以上のコンテンツ依存アフォーダンス9314(例えば、ハイパーリンクに関連付けられたナビゲーションボタン9314−1)を含むコンテンツを表示するコンテンツ領域9306を表示する。ユーザインタフェース9316はまた、ユーザによってタッチ感知面451上の接触を介して制御可能なカーソル9310を表示する。例えば、タッチ感知面451上での接触の移動(例えば、ジェスチャ)の検出は、ユーザインタフェース9316上へのカーソル9310の移動に対応する。
いくつかの実施形態では、コントロール領域9304内の複数のアフォーダンス(例えば、図11A〜図11Dにおけるアフォーダンス9312)は、コンテンツ領域9306内に表示されるコンテンツに関係なくアプリケーションのコントロール領域内に表示される複数のコンテンツ非依存コントロールを含む。
いくつかの実施形態において、デバイスは、別個のディスプレイ(例えば、ディスプレイ450)及び別個のタッチ感知面(例えば、タッチ感知面451)を備える電子デバイスである。いくつかの実施形態において、デバイスは、ポータブル多機能デバイス100であり、ディスプレイは、タッチ感知ディスプレイシステム112であり、タッチ感知面は、ディスプレイ上に触知出力発生器167を含む(図1A)。説明の便宜上、図11A〜図11G及び図12A〜図12Bを参照して説明する実施形態については、ディスプレイ450及び別個のタッチ感知面451を参照して説明するが、必要に応じて、図11A〜図11Gに示すユーザインタフェースをタッチ感知式ディスプレイシステム112上に表示している間にタッチ感知式ディスプレイシステム112上で図11A〜図11Gで説明する接触の移動の検出に応答してタッチ感知式ディスプレイシステム112を備えたデバイス上で類似の動作が実行される。このような実施形態において、フォーカスセレクタは、必要に応じて、カーソル9310の代わりに、対応する接触、接触に対応する代表的な点(例えば、対応する接触の図心若しくは対応する接触に関連付けられる点)、又はタッチ感知式ディスプレイシステム112上で検出される2つ以上の接触の図心である。
図11A〜図11Dは、タッチ感知面451上の接触9318及びその移動9320によって制御されるカーソル9310が、コントロール領域9304(例えば、アフォーダンス9312)又はコンテンツ領域9306(例えば、ナビゲーションボタン9314−1)のどちらかの内のアフォーダンスの上に移動する種々の実施形態を示す。それに応答して、触知出力生成器167は異なるフィードバック(例えば、触知出力9322、9326及び9330)をユーザに提供し、アフォーダンスを、コントロール領域又はコンテンツ領域のどちらかの内に位置すると識別する。例えば、アフォーダンスのロケーション(例えば、コントロール領域9304又はコンテンツ領域9306内)に依存して、触知出力は、アフォーダンスはどこに位置するのかをユーザに指示する異なる波形(例えば、矩形波形9324及び9332又は鋸歯状波形9328)並びに/あるいは振幅(例えば、高振幅「AH」又は低振幅「AL」)を有し、それにより、ユーザは、触知出力に基づき、フォーカスセレクタの下又はその付近のアフォーダンスはコントロールアフォーダンスであるのか、それともコンテンツアフォーダンスであるのかを知ることができる。
図11A〜図11Dは、ディスプレイ450上に表示されたカーソル9310に対応する接触9318、及び接触9318の移動9320(例えば、図11Aにおける位置9318−aから図11Bにおける位置9318−bへの接触9318の移動9320−a、並びに/又は図11Bにおける位置9318−bから図11C若しくは図11Dにおける位置9318−cへの接触9318の移動9320−b)を含むジェスチャがタッチ感知面451上で検出されることを示す。接触9318は、フォーカスセレクタ9310が占めるディスプレイ450上のエリアに対応するタッチ感知面451上の位置において検出される(例えば、接触9318は、ウェブブラウザウィンドウ9302のロケーション又はその付近にあるカーソル9310などの、ディスプレイ上のフォーカスセレクタに対応する)。いくつかの実施形態において、タッチ感知面451上の接触9318の移動は、(例えば、図11A〜図11Dに図示したような)ディスプレイ450上へのフォーカスセレクタ(例えば、カーソル9310)の移動に対応する。
図11A〜図11Bは、カーソル9310が、タッチ感知面451上の接触9318の移動9320−aに従って、ウェブブラウザウィンドウ9302のコントロール領域9304内に位置するアフォーダンス9312−a上に移動するジェスチャの開始の一例を示す。図11Bでは、デバイスは、コントロール領域9304内に位置するアフォーダンス(例えば、アイコン9312−a)に対応する識別特性(例えば、波形9324及び/又は高振幅「AH」)を有する第1の触知出力9322を(例えば、触知出力生成器167を介して)生成する。図11Bは、フォーカスセレクタ(例えば、カーソル9310)は、アプリケーションウィンドウのコントロール領域内に表示されたアフォーダンス(例えば、ウェブブラウザ9302のコントロール領域9304内のアイコン9312−a)上に移動するとの判定に従い、電子デバイスは、コントロール領域内に位置するアフォーダンスに対応する(例えば、アプリケーションウィンドウのコンテンツ領域内のアフォーダンス上へのカーソルの移動に応答して生成される触知出力と異なって感じられる)触知出力(例えば、触知出力9322)を生成する一例を示す。
図11C〜図11Dは、コントロール領域9306の境界を(例えば、線9308の下方へ)通過し、ウェブブラウザウィンドウ9302のコンテンツ領域9306内に位置するナビゲーションボタン9314−1上に至るカーソル9310の移動に対応するタッチ感知面451上の接触9318の移動9320−bをデバイスが検出する種々の例を示す。図11C〜図11Dでは、デバイスは(例えば、触知出力生成器167を介して、)コンテンツ領域9306内に位置するアフォーダンス(例えば、ナビゲーションボタン9314−1)に対応する識別特性(例えば、低振幅「AL」を有する鋸歯状波形9328及び/又は矩形波形9332)を有する第2の触知出力9326又は9330を生成する。図11C〜図11Dは、フォーカスセレクタ(例えば、カーソル9310)は、アプリケーションウィンドウのコントロール領域内に表示されたアフォーダンス(例えば、ウェブブラウザウィンドウ9302のコントロール領域9304内のナビゲーションボタン9314−1)上に移動するとの判定に従い、電子デバイスは、コントロール領域内に位置するアフォーダンスに対応する(例えば、アプリケーションウィンドウのコントロール領域内に位置するアフォーダンス上へのカーソルの移動に応答して生成される触知出力と異なって感じられる)触知出力(例えば、触知出力9326又は9330)を生成する例を示す。
図11B及び図11Cは、第2の触知出力(例えば、図11Cにおける触知出力9326)は、第1の触知出力(例えば、矩形波形9324を有する図11Bにおける触知出力9322)と実質的に同じ最大振幅(例えば、高振幅「AH」)を有するが、実質的に異なる運動プロファイル(例えば、鋸歯状波形9328)を有する一例を示す。例えば、コンテンツ領域9306内に位置するナビゲーションボタン9314−1上へのカーソル9310の移動に対応する触知フィードバックは、コントロール領域9304内に位置するアイコン9312−a上へのカーソル9310の移動に対応する触知フィードバックと等しい(又はだいたい同じ)強さであるが、それと異なって感じられる。対照的に、図11B及び図11Dは、第2の触知出力(例えば、図11Dにおける触知出力9330)は、第1の触知出力(例えば、高振幅「AH」を有する図11Bにおける触知出力9322)と実質的に同じ運動プロファイル(例えば、矩形波形9324)を有するが、それと異なる最大振幅(例えば低振幅「AL」)を有する一例を示す。例えば、コンテンツ領域9306内に位置するナビゲーションボタン9314−1上へのカーソル9310の移動に対応する触知フィードバックは、コントロール領域9306内に位置するアイコン9312−a上へのカーソル9310の移動に対応する触知フィードバックと同様に感じられるが、それよりも顕著に強いか又は弱い。
上述したように、対応するアプリケーションウィンドウ(例えば、ウェブブラウザウィンドウ9302)のコントロール領域及びコンテンツ領域内に位置するアフォーダンスのための触知出力が任意選択的に生成される。図11E〜図11Gは、これらの触知出力を生成するための運動プロファイルの波形の例を図示している。図11Eは鋸歯状波形を示す。図11Fは矩形波形を示し、図11Gは、図11Fの矩形波形よりも低い振幅を有する矩形波形を示す。図11Fにおける高振幅の矩形運動プロファイルは、任意選択的に、アプリケーションウィンドウのコントロール領域内に位置するアフォーダンス上へのフォーカスセレクタの移動に関連付けられ、アプリケーションウィンドウのコントロール領域内のアフォーダンス上に移動すること(例えば、その上にスクロールすること)のために生成される触知出力は、任意選択的に、高振幅の矩形運動プロファイルに従って生成される。図11Gにおける低振幅の矩形運動プロファイルは、任意選択的に、アプリケーションウィンドウのコンテンツ領域内に位置するアフォーダンス上へのフォーカスセレクタの移動に関連付けられ、アプリケーションウィンドウのコンテンツ領域内のアフォーダンス上に移動すること(例えば、その上にスクロールすること)のために生成される触知出力は、任意選択的に、低振幅の矩形運動プロファイルに従って生成される。図11Eにおける鋸歯状運動プロファイルは、任意選択的に、アプリケーションウィンドウのコンテンツ領域内に位置するアフォーダンス上へのフォーカスセレクタの移動に関連付けられ、アプリケーションウィンドウのコンテンツ領域内のアフォーダンスの選択のために生成される触知出力は、任意選択的に、鋸歯状運動プロファイルに従って生成される。
図12A〜図12Bは、いくつかの実施形態に係る、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供する方法9400を示すフロー図である。方法9400は、ディスプレイ及びタッチ感知面を備える電子デバイス(例えば、デバイス300、図3、又はポータブル多機能デバイス100、図1A)において実行される。いくつかの実施形態において、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面がディスプレイ上にある。いくつかの実施形態において、ディスプレイはタッチ感知面から分離している。方法9400でのいくつかの動作は、任意選択的に組み合わされ、かつ/又は、いくつかの動作の順序は、任意選択的に変更される。
以下において説明するように、方法9400は、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを提供する直感的な仕方を提供する。本方法は、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックを検出する際のユーザの認知負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。電池駆動式電子デバイスの場合、ユーザが、フォーカスセレクタがユーザインタフェースオブジェクト上に移動する際のフィードバックをより速くかつより効率的に検出することを可能とすることにより、電力が節約され、電池充電の時間間隔が延びる。
いくつかの実施形態では、デバイスは、ディスプレイ(例えば、図11A〜図11Dにおけるディスプレイ450)上に、コントロール領域(例えば、図11A〜図11Dにおけるコントロール領域9304)、及びコントロール領域と別個のコンテンツ領域(例えば、図11A〜図11Dにおけるコンテンツ領域9306)を含むアプリケーションウィンドウ(例えば、図11A〜図11Dにおけるウェブブラウザウィンドウ9302)を表示する(9402)。いくつかの実施形態では、コントロール領域は、コンテンツ領域内のコンテンツに対して動作を実行するための複数のアフォーダンス(例えば、ブラウザベースのコンテンツを保存するためのアイコン9312−a、ブラウザの履歴内を後方にナビゲートするためのアイコン9312−b、及びウェブアドレスを入力するためのナビゲーションバー9312−c)を含む(9404)。いくつかの実施形態では、複数のアフォーダンスは、コンテンツに依存しないボタン及びドロップダウンメニュを有するウェブブラウザのツールバーを含む。いくつかの実施形態では、コントロール領域内の複数のアフォーダンスは、コンテンツ領域内に表示されるコンテンツに関係なくアプリケーションのコントロール領域内に表示される複数のコンテンツ非依存コントロールを含む(9406)。例えば、ウェブブラウザ内の戻る/進む/リロード/ホームボタン、及びワードプロセッシングアプリケーション内の太字/イタリック体/下線ボタンなどの、コンテンツに依存しないアプリケーション固有コントロールである。
いくつかの実施形態では、コンテンツ領域は、コンテンツ内に組み込まれた1つ以上のアフォーダンス(例えば、図11A〜図11Dにおけるナビゲーションボタン9314−1を含むコンテンツ領域9306内のウェブページ内に示されるハイパーリンク)を含むコンテンツを表示する(9408)。例えば、いくつかの実施形態では、コンテンツは、コンテンツに依存する複数のハイパーリンク、テキストボックス、ドロップダウンメニュ及び/又はその他の選択可能なアフォーダンスを有するウェブページである。
いくつかの実施形態では、デバイスが、コントロール領域、及びコントロール領域と別個のコンテンツ領域を含むアプリケーションウィンドウを表示している間に、デバイスは、タッチ感知面(例えば、図11A〜図11Dにおけるタッチ感知面451)上の接触(例えば、図11A〜図11Dにおける接触9318)を検出する(9410)。いくつかの実施形態において、この接触は指接触である。
いくつかの実施形態では、デバイスが、コントロール領域、及びコントロール領域と別個のコンテンツ領域を含むアプリケーションウィンドウを表示している間に、デバイスは、アプリケーションウィンドウを横切るディスプレイ上のフォーカスセレクタ(例えば、図11A〜図11Dにおけるカーソル9310)の移動に対応するタッチ感知面を横切る接触の移動(例えば、図11A〜図11Dにおける接触9318の移動9320)を含むジェスチャを検出する(9412)。いくつかの実施形態において、接触は、フォーカスセレクタである(例えば、デバイスがタッチスクリーンを有する場合、フォーカスセレクタは、必要に応じて、接触9318である)。いくつかの実施形態において、接触は、ディスプレイ上に表示されているカーソル又は選択ボックスに対応する。
いくつかの実施形態では、ジェスチャを検出したことに応答して(9414)、ジェスチャは、コントロール領域内の第1のアフォーダンス(例えば、図11Bにおけるコントロール領域9304内のアイコン9312−a)上へのフォーカスセレクタの移動に対応するとの判定に従い、デバイスは、タッチ感知面(例えば、タッチ感知面451)上に、コントロール領域内のアフォーダンス上へのフォーカスセレクタの移動に対応する第1の触知出力(例えば、図11Bにおける触知出力9322)を生成する(9416)。
ジェスチャを検出したことに応答して(9414)、ジェスチャは、コンテンツ領域内の第2のアフォーダンス(例えば、図11C〜図11Dにおけるコンテンツ領域9306内のナビゲーションボタン9314−1)上へのフォーカスセレクタの移動に対応するとの判定に従い、デバイスは、タッチ感知面(例えば、タッチ感知面451)上に、コンテンツ領域内のアフォーダンス上へのフォーカスセレクタの移動に対応する、第1の触知出力と異なる第2の触知出力(例えば、図11Cにおける触知出力9326又は図11Dにおける触知出力9330)を生成する(9418)。例えば、いくつかの実施形態では、ユーザがカーソル/接触をアプリケーションのツールバー内のボタン上に移動させる際にタッチ感知面上に生成される「デテント」は、ユーザが、カーソル/接触を、アプリケーション内に表示されたコンテンツ内のハイパーリンク上に移動させる際にタッチ感知面上に生成される「デテント」と異なって感じられる。いくつかの実施形態において、第1の触知出力は、第2の触知出力よりも顕著である(例えば、より大きな振幅を有する)。いくつかの実施形態において、第2の触知出力は、第1の触知出力よりも顕著である(例えば、より大きな振幅を有する)。
いくつかの実施形態では、第1の触知出力は、第1の支配的運動成分を含むタッチ感知面の運動によって生成され、第2の触知出力は、第2の支配的運動成分を含むタッチ感知面の運動によって生成され、第1の支配的運動成分及び第2の支配的運動成分は、実質的に同じ振幅(例えば、図11B〜図11Cにおける高振幅「AH」)及び実質的に異なる運動プロファイル(例えば、図11B及び図11Fにおける矩形波形9324並びに図11C及び図11Eにおける鋸歯状波形9328)を有する(9420)。いくつかの実施形態において、タッチ感知面の運動は、一切の意図されない共振を無視した初期衝撃に対応する。いくつかの実施形態において、運動プロファイルは、それらの波形形状(例えば矩形波、正弦波、スクイン波(squine)、三角波、若しくは鋸歯の形状)、波形のパルス幅、及び/又は波形のパルス周期(例えば、周波数)において異なる。例えば、図11B〜図11Cに示されるように、ユーザがカーソル/接触をアプリケーションのツールバー内のボタン上に移動させる際にタッチ感知面で生成される「デテント」は、矩形波形運動プロファイル(例えば、図11B及び図11Fにおける波形9324)を有し、それに対して、ユーザが、カーソル/接触を、アプリケーション内に表示されたコンテンツ内のハイパーリンク上に移動させる際にタッチ感知面で生成される「デテント」は、鋸歯状波形運動プロファイル(例えば、図11C及び図11Eにおける波形9328)を有するか、又はその逆である。
いくつかの実施形態では、第1の触知出力は、第1の支配的運動成分を含むタッチ感知面の運動によって生成され、第2の触知出力は、第2の支配的運動成分を含むタッチ感知面の運動によって生成され、第1の支配的運動成分及び第2の支配的運動成分は、実質的に同じ運動プロファイル(例えば、図11B及び図11Fにおける矩形波形9324並びに図11D及び図11Gにおける矩形波形)並びに実質的に異なる振幅(例えば、図11Bにおける高振幅「AH」及び図11Dにおける低振幅「AL」)を有する(9422)。いくつかの実施形態において、タッチ感知面の運動は、一切の意図されない共振を無視した初期衝撃に対応する。例えば、図11B及び図11Dに示されるように、ユーザがカーソル/接触をアプリケーションのツールバー内のボタン上に移動させる際にタッチ感知面で生成される「デテント」は、ユーザが、カーソル/接触を、アプリケーション内に表示されたコンテンツ内のハイパーリンク上に移動させる際にタッチ感知面で生成される「デテント」よりも小さい振幅を有するか(例えば、図11Bにおける触知出力9322の高振幅「AH」は図11Dにおける触知出力9330の低振幅「AL」よりも大きい)、又はその逆である。
図12A〜図12Bにおける動作について記載された特定の順序は単なる例示であり、記載された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者は、本願に記載されている動作の順番を変更する様々な方法を認識されるであろう。さらに加えて、本明細書で説明される他の方法(例えば、パラグラフ[0059]で列挙されるもの)に関連して本明細書で説明される、他のプロセスの詳細もまた、図12A〜図12Bに関連して上述された方法9400と類似の方式で適用可能であることに留意されたい。例えば、方法9400を参照して上記に説明した接触、ジェスチャ、ユーザインタフェースオブジェクト、触感覚、及びフォーカスセレクタは、必要に応じて、本明細書内で説明する他の方法を参照して本明細書内で説明する接触、ジェスチャ、ユーザインタフェースオブジェクト、触感覚、及びフォーカスセレクタの特徴(例えば、段落[0059]で列挙したもの)のうちの1つ以上を有する。簡略化するため、これらの詳細の説明はここでは反復しない。
いくつかの実施形態によれば、図13は、説明される様々な実施形態の理念に従って構成された電子デバイス9500の機能ブロック図を示す。このデバイスの機能ブロックは、説明される様々な実施形態の原理を実現するために、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアとの組み合わせによって、任意選択的に実装される。図13で説明されている機能ブロックが、様々な説明されている実施形態の原理を実装するように組み合わされ、又はサブブロックに分離され得ることが当業者には理解されよう。それゆえ、本明細書での説明は、本明細書で説明される機能ブロックの、あらゆる可能な組み合わせ若しくは分離、又は更なる定義を、任意選択的にサポートする。
図13に示されるように、電子デバイス9500は、コントロール領域、及びコントロール領域と別個のコンテンツ領域を含むアプリケーションウィンドウを表示するように構成される表示ユニット9502と、ユーザ接触を受けるように構成されるタッチ感知面ユニット9504と、任意選択的に、タッチ感知面ユニット9504との接触の強度を検出するように構成される1つ以上のセンサユニット9506と、表示ユニット9502、タッチ感知面ユニット9504及び任意選択的に1つ以上のセンサユニット9506に結合される処理ユニット9508と、を含む。いくつかの実施形態では、処理ユニット9508は、表示可能化ユニット9510、検出ユニット9512及び生成ユニット9514を含む。
いくつかの実施形態では、処理ユニット9508は、ディスプレイ上における、コントロール領域、及びコントロール領域と別個のコンテンツ領域を含むアプリケーションウィンドウの表示を(例えば、表示可能化ユニット9510を用いて)可能にすることであって、コントロール領域は、コンテンツ領域内のコンテンツに対して動作を実行するための複数のアフォーダンスを含み、コンテンツ領域は、コンテンツ内に組み込まれた1つ以上のアフォーダンスを含むコンテンツを表示する、可能にすることをするように構成される。いくつかの実施形態では、処理ユニット9508は、タッチ感知面ユニット9504上の接触を(例えば、検出ユニット9512を用いて)検出するように更に構成される。いくつかの実施形態では、処理ユニット9508は、アプリケーションウィンドウを横切る表示ユニット9502上へのフォーカスセレクタの移動に対応するタッチ感知面ユニット9504を横切る接触の移動を含むジェスチャを(例えば、検出ユニット9512を用いて)検出するように更に構成され、ジェスチャを検出したことに応答して、ジェスチャはコントロール領域内の第1のアフォーダンス上へのフォーカスセレクタの移動に対応するとの判定に従い、処理ユニット9508は、タッチ感知面ユニット9504上に、コントロール領域内のアフォーダンス上へのフォーカスセレクタの移動に対応する第1の触知出力を(例えば、生成ユニット9514を用いて)生成するように構成され、ジェスチャはコンテンツ領域内の第2のアフォーダンス上へのフォーカスセレクタの移動に対応するとの判定に従い、処理ユニット9508は、タッチ感知面ユニット9504上に、コンテンツ領域内のアフォーダンス上へのフォーカスセレクタの移動に対応する、第1の触知出力と異なる第2の触知出力を(例えば、生成ユニット9514を用いて)生成するように構成される。
いくつかの実施形態では、コントロール領域内の複数のアフォーダンスは、コンテンツ領域内に表示されるコンテンツに関係なくアプリケーションのコントロール領域内に表示される複数のコンテンツ非依存コントロールを含む。
いくつかの実施形態では、第1の触知出力は、第1の支配的運動成分を含むタッチ感知面ユニット9504の運動によって生成され、第2の触知出力は、第2の支配的運動成分を含むタッチ感知面ユニット9504の運動によって生成され、第1の支配的運動成分及び第2の支配的運動成分は同じ振幅及び異なる運動プロファイルを有する。
いくつかの実施形態では、第1の触知出力は、第1の支配的運動成分を含むタッチ感知面ユニット9504の運動によって生成され、第2の触知出力は、第2の支配的運動成分を含むタッチ感知面ユニット9504の運動によって生成され、第1の支配的運動成分及び第2の支配的運動成分は、同じ運動プロファイル及び異なる振幅を有する。
上述の情報処理方法は、汎用プロセッサ(例えば、図1A及び図3に関連して上述されたようなもの)又は特定用途向けチップなどの、情報処理装置内の1つ以上の機能モジュールを稼働することによって、任意選択的に実施される。
図12A〜図12Bを参照して上述された動作は、図1A〜図1B、又は図13に示される構成要素によって、任意選択的に実施される。例えば、検出動作9410及び9412、判定動作9416及び9418は、任意選択的に、イベントソータ170、イベント認識部180、及びイベントハンドラ190によってそれぞれ実施される。イベントソータ170のイベントモニタ171は、タッチ感知ディスプレイ112上の接触を検出し、イベントディスパッチャモジュール174は、イベント情報をアプリケーション136−1に渡す。アプリケーション136−1の対応するイベント認識部180は、イベント情報を対応するイベント定義186と比較し、タッチ感知式表面上の第一の位置における第1のコンタクトが、ユーザインタフェース上でのオブジェクトの選択などの所定のイベント又はサブイベントに対応するかどうかを判定する。対応する既定のイベント又はサブイベントが検出されると、イベント認識部180は、イベント又はサブイベントの検出に関連するイベントハンドラ190をアクティブ化させる。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデータ176若しくはオブジェクトアップデータ177を任意選択的に利用するか又は呼び出す。いくつかの実施形態において、イベントハンドラ190は、アプリケーションにより表示されるものを更新するための対応するGUIアップデータ178にアクセスする。いくつかの実施形態では、イベントハンドラ190は、タッチ感知面451上に触知出力を生成するための対応する触知出力生成器167にアクセスする。同様に、当業者には、図1A〜図1Bに示すコンポーネントに基づいて他のプロセスをどのように実装し得るか明らかであろう。
音量レベルの調整に従う触知出力レベルの調整
多くの電子デバイスはまた、デバイスの設定又はモードの有効化に応答してデバイスの知覚特性の出力レベルを変更する。しかし、時には、調整するべき知覚特性が多数存在することがあり、これらの知覚特性の出力レベルを別個に調整することはユーザにとって分かりにくく、難しくなり得る。以下の実施形態は、デバイスの音量レベルの調整に連動してデバイスの触知出力レベルを調整することによって、より使い勝手が良く、直感的なユーザインタフェースを提供する。その後、デバイスは、タッチ感知面上の複数の入力の検出に応答して、調整された触知出力レベルを提供する。いくつかの実施形態では、触知出力レベルは音量レベルと並行に変化する。いくつかの実施形態では、触知出力レベルは音量レベルと逆に変化する。
図14A〜図14Iは、いくつかの実施形態に係る、音量レベルの調整に従って触知出力レベルを調整するための例示的なユーザインタフェースを示す。これらの図のユーザインタフェースは、図15A〜図15Cのプロセスを含めた、以下で説明されるプロセスを例示するために使用される。
いくつかの実施形態において、デバイスは、別個のディスプレイ(例えば、ディスプレイ450)及び別個のタッチ感知面(例えば、タッチ感知面451)を備える電子デバイスである。いくつかの実施形態において、デバイスは、ポータブル多機能デバイス100であり、ディスプレイは、タッチ感知ディスプレイシステム112であり、タッチ感知面は、ディスプレイ上に触知出力発生器167を含む(図1A)。説明の便宜上、図14A〜図14I及び図15A〜図15Cを参照して説明されている実施形態は、ディスプレイ450及び別個のタッチ感知面451を参照して議論されることになる。しかし、タッチ感知ディスプレイシステム112を有するデバイス上で類似の動作が任意選択的に実行される。
図14Aは、接触9602及び9604を含む、タッチ感知面451上の第1の複数の入力を検出するデバイスを示す。図14Aは、第1のレベル(例えば、L1)にある音量レベル9606を更に示す。
図14Bは、デバイスが、第1の複数の入力(例えば、接触9602及び9604)を検出したことに応答して触知出力レベル9608に従って触知フィードバック9607を提供する様子を示す。図14Bは、第1のレベル(例えば、L1)にある音量レベル9606を更に示す。
図14Cは、デバイスの音量を対応する量だけ(例えば、この例ではどちらも非0の音量レベルである、L1から、L1を上回るレベルまで)調整せよとの要求に応答して、音量レベルが対応する量(例えば、音量レベル9606と音量レベル9610との差)だけ第1の非0の音量レベルから第2の非0の音量レベルまで増大する様子を示す。図14Cは、音量レベル9606を調整せよとの要求に応答してタッチ感知面451上の対応する入力に対応した対応する触知出力の振幅を調整することによって、デバイスの触知出力レベル(例えば、図14Bにおける触知出力レベル9608)を調整することを更に示す。図14Cは、例えば、A1にある図14Bにおける触知出力レベル9608の振幅と対照的にA1を上回る振幅を有する調整された触知出力レベル9612を示す。これらはこの例ではどちらも非0の触知出力レベルである。
いくつかの実施形態では、デバイスの音量を調整せよとの要求は、ユーザが物理的ボタン(例えば、音量を増大若しくは減少させるためのボタン、又は押す方向に依存して音量上方若しくは下方に調整するためのロッカスイッチ)を押すと、受信される。いくつかの実施形態では、デバイスの音量を調整せよとの要求は、ユーザがタッチ感知面451上で、対応するジェスチャを行うと、例えば、ユーザが、(ディスプレイ450上に表示された)表示された音量指示器を、音量の増大又は減少に対応する方向にスライドさせると、受信される。いくつかの実施形態では、ユーザには両方の音量調整方式が利用可能である。
図14Cは、音量レベル9606を調整せよとの要求に応答してタッチ感知面451上の対応する入力に対応した対応する触知出力の運動プロファイルを調整することによって、デバイスの触知出力レベル(例えば、図14Bにおける触知出力レベル9608)を調整することを更に示す。図14Cは、例えば、図14Bにおける触知出力レベル9608の波形形状(例えば、矩形形状)と対照的に、異なる波形形状(例えば、三角形状)を有する調整された触知出力レベル9614を示す。
図14Cは、音量レベル9606を調整せよとの要求に応答してタッチ感知面451上の対応する入力に対応した対応する触知出力の振幅及び運動プロファイルを調整することによって、デバイスの触知出力レベル(例えば、図14Bにおける触知出力レベル9608)を調整することを更に示す。図14Cは、例えば、(例えば、A1にある振幅及び矩形形状を有する)図14Bにおける触知出力レベル9608よりも大きな(例えば、A1を上回る)振幅及びそれと異なる波形形状(例えば、三角形状)の両方を有する、調整された触知出力レベル9616を示す。
図14Dは、音量レベルを対応する量だけ調整することは音量レベルを増大させることを含むとの判定に従い触知出力レベルを増大させることによって、デバイスの触知出力レベルを調整することを示す。この例では、音量レベル(例えば、図14Bにおける音量レベル9606)は、L1を上回るレベル(例えば、音量レベル9618)へ増大する。図14Dは、音量レベル9618に連動して、触知出力レベル9608を、調整された触知出力レベル9620へ増大させることを更に示す。
図14Eは、音量レベルを対応する量だけ調整することは音量レベルを減少させることを含むとの判定に従い触知出力レベルを減少させることによって、デバイスの触知出力レベルを調整することを示す。この例では、音量レベル(例えば、図14Bにおける音量レベル9606)は、L1レベルを下回るレベル(例えば、音量レベル9622)へ減少する。図14Eは、音量レベル9622に連動して、触知出力レベル9608を、調整された触知出力レベル9624(例えば、A1を下回る非0のレベル)へ減少させることを更に示す。
図14Fは、対応する量による音量レベルの増大に従って触知出力レベルを減少させることによって、デバイスの触知出力レベルを調整することを示す。この例では、音量レベル(例えば、図14Bにおける音量レベル9606)は、L1を上回るレベル(例えば、音量レベル9626)へ増大する。図14Fは、触知出力レベル9608を、調整された触知出力レベル9628へ減少させること−音量レベル9626への音量レベルの変化の逆−を更に示す。
図14Gは、対応する量だけの音量レベルの減少に従って触知出力レベルを増大させることによって、デバイスの触知出力レベルを調整することを示す。この例では、音量レベル(例えば、図14Bにおける音量レベル9606)は、L1を下回るレベル(例えば、音量レベル9630)へ減少する。図14Gは、触知出力レベル9608を、A1を上回る調整された触知出力レベル9632へ増大させること−音量レベル9630への音量レベルの変化の逆−を更に示す。
図14Hは、デバイスがタッチ感知面451上の第2の複数の入力(例えば、接触9634及び9636)を検出する様子を示す。デバイスは、例えば、デバイスの触知出力レベルを(例えば、図14Bにおける触知出力レベル9608から図14Cにおける触知出力レベル9612へ)調整した後に、接触9634及び9636を検出する。
図14Iは、デバイスが、調整された触知出力レベル9612に従い、タッチ感知面451上の第2の複数の入力(例えば、接触9634及び9636)を検出したことに応答して、触知フィードバック9638を提供する様子を示す。
図15A〜図15Cは、いくつかの実施形態に係る、音量レベルの調整に従って触知出力レベルを調整する方法9700を示すフロー図である。方法9700は、ディスプレイ及びタッチ感知面を備える電子デバイス(例えば、デバイス300、図3、又はポータブル多機能デバイス100、図1A)において実行される。いくつかの実施形態において、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面がディスプレイ上にある。いくつかの実施形態において、ディスプレイはタッチ感知面から分離している。方法9700でのいくつかの動作は、任意選択的に組み合わされ、かつ/又は、いくつかの動作の順序は、任意選択的に変更される。
以下において説明されるように、方法9700は、音量レベルの調整に従って触知出力レベルを調整する直感的な仕方を提供する。本方法は、音量レベルの調整に従って触知出力レベルを調整する際のユーザの認知負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。電池駆動式電子デバイスの場合、ユーザが音量レベルの調整に従って触知出力レベルをより速くかつより効率的に調整することを可能とすることにより、電力が節約され、電池充電の時間間隔が延びる。
デバイスはタッチ感知面上の第1の複数の入力を検出する(9702)。図14Aは、例えば、タッチ感知面451上の第1の複数の入力(例えば、接触9602及び9604)を示す。
第1の複数の入力を検出したことに応答して、デバイスは、デバイスの触知出力レベルに従って触知フィードバックを提供する(9704)(例えば、触知出力レベルは、触知出力の平均の大きさ、デバイスによって生成される基準触知出力の大きさ、又はデバイスによって生成される最大触知出力の大きさに対応する)。図14Bは、例えば、デバイスが、触知出力レベル9608に従って、第1の複数の入力(例えば、接触9602及び9604)を検出したことに応答して、触知フィードバック9607を提供する様子を示す。
デバイスは、デバイスの音量レベル(例えば、オーディオ出力レベル)を対応する量だけ調整せよとの要求を受信する(9706)。図14Cは、例えば、デバイスの音量レベルを対応する量(例えば、この例ではどちらも非0の音量レベルである、音量レベル9606と音量レベル9610との差)だけ調整せよとの要求を示す。
音量レベルを調整せよとの要求に応答して(9708)、デバイスは音量レベルを対応する量だけ第1の非0の音量レベルから第2の非0の音量レベルへ調整する(9710)。図14Cは、例えば、デバイスの音量レベルを調整せよとの要求に応答して(例えば、レベルL1、非0の音量レベル、にある)音量レベル9606を(例えば、L1を上回るレベル、非0の音量レベル、にある)音量レベル9610へ増大させることを示す。
音量レベルを調整せよとの要求に応答して(9708)、デバイスはまたデバイスの触知出力レベルを対応する量に従って調整する(9712)。図14Cは、例えば、デバイスの音量レベルを(例えば、音量レベル9605から音量レベル9608へ)調整せよとの要求に応答して、触知出力レベル9608を、調整された触知出力レベル9612へ調整すること示す。
いくつかの実施形態では、デバイスの触知出力レベルを調整することは、デバイスの触知出力レベルを、対応する量に従って、第1の非0の触知出力レベルから第2の非0の触知出力レベルへ調整すること(9713)を含む。図14Cは、例えば、A1にある図14Bにおける触知出力レベル9608の振幅と対照的にA1を上回る振幅を有する調整された触知出力レベル9612を示す。これらはこの例ではどちらも非0の触知出力レベルである。
いくつかの実施形態では、運動プロファイル(例えば、矩形、正弦、スクイン、鋸歯若しくは三角形などの波形形状、並びに/又は幅/周期)並びに振幅(例えば、一切の意図されない共振を無視した初期衝撃に対応する運動)を有する支配的運動成分を含むタッチ感知面の運動によって、タッチ感知面上の対応する入力に対応した対応する触知出力が生成される(9714)。いくつかの実施形態では、音量レベルを調整せよとの要求に応答して(9708)、デバイスの触知出力レベルを調整することは、タッチ感知面上の対応する入力に対応した対応する触知出力の振幅を調整すること(例えば、対応する触知出力の初期衝撃の振幅を増大又は減少させること)を含む(9716)。図14Cは、例えば、(例えば、A1にある振幅を有する)図14Bにおける触知出力レベル9608の振幅を調整し、(例えば、A1を上回る振幅を有する)調整された出力レベル9612を生成することを示す。これらはこの例ではどちらも非0の触知出力レベルである。
いくつかの実施形態では、運動プロファイル(例えば、矩形、正弦、スクイン、鋸歯若しくは三角形などの波形形状、並びに/又は幅/周期)並びに振幅(例えば、一切の意図されない共振を無視した初期衝撃に対応する運動)を有する支配的運動成分を含むタッチ感知面の運動によって、タッチ感知面上の対応する入力に対応した対応する触知出力が生成される(9714)。いくつかの実施形態では、音量レベルを調整せよとの要求に応答して(9708)、デバイスの触知出力レベルを調整することは、タッチ感知面上の対応する入力に対応した対応する触知出力の運動プロファイルを調整すること(例えば、対応する触知出力の初期衝撃の幅又は形状を増大又は減少させること)を含む(9718)。図14Cは、例えば、(例えば、矩形波形形状を有する)図14Bにおける触知出力レベル9608の運動プロファイルを調整し、(例えば、三角形波形形状を有する)調整された出力レベル9614を生成することを示す。
いくつかの実施形態では、音量レベルを調整せよとの要求に応答して(9708)、デバイスの触知出力レベルを調整することは、タッチ感知面上の対応する入力に対応した対応する触知出力の運動プロファイルを調整することを含み(9718)、タッチ感知面上の対応する入力に対応した対応する触知出力の振幅を調整することを更に含む(9720)。図14Cは、例えば、(例えば、矩形波形形状及びA1にある振幅を有する)図14Bにおける触知出力レベル9608の運動プロファイル及び振幅の両方を調整し、(例えば、三角形波形形状及びA1を上回る振幅を有する)調整された出力レベル9616を生成することを示す。
いくつかの実施形態では、音量レベルを調整せよとの要求に応答して(9708)、音量レベルを対応する量だけ調整することは、音量レベルを増大させることを含むとの判定に従い、デバイスの触知出力レベルを調整することは、触知出力レベルを増大させることを含む(例えば、触知出力はオーディオ出力に連動して変化する)(9722)。例えば、オーディオ出力レベルが50%だけ増大されると、触知出力レベルは50%だけ増大される。図14Dは、例えば、音量レベル9618(例えば、図14Bにおける音量レベル9606から50%の増大)及び調整された触知出力レベル9620(例えば、図14Bにおける触知出力レベル9608から50%の増大)を示す。
いくつかの実施形態では、音量レベルを調整せよとの要求に応答して(9708)、音量レベルを対応する量だけ調整することは、音量レベルを減少させることを含むとの判定に従い、デバイスの触知出力レベルを調整することは、触知出力レベルを減少させることを含む(例えば、触知出力はオーディオ出力に連動して変化する)(9724)。例えば、オーディオ出力レベルが50%だけ減少されると、触知出力レベルは50%だけ減少される。図14Eは、例えば、音量レベル9622(例えば、図14Bにおける音量レベル9606から50%の減少)及び調整された触知出力レベル9624(例えば、図14Bにおける触知出力レベル9608から50%の減少)を示す。
いくつかの実施形態では、音量レベルを調整せよとの要求に応答して(9708)、音量レベルを対応する量だけ調整することは、音量レベルを増大させることを含むとの判定に従い、デバイスの触知出力レベルを調整することは、触知出力レベルを減少させることを含む(例えば、増大されたオーディオ出力は、減少された触知出力の交換である)(9726)。例えば、オーディオ出力レベルが50%だけ増大されると、触知出力レベルは50%だけ減少される。図14Fは、例えば、音量レベル9626(例えば、図14Bにおける音量レベル9606から50%の増大)及び調整された触知出力レベル9628(例えば、図14Bにおける触知出力レベル9608から50%の減少)を示す。
いくつかの実施形態では、音量レベルを調整せよとの要求に応答して(9708)、音量レベルを対応する量だけ調整することは、音量レベルを減少させることを含むとの判定に従い、デバイスの触知出力レベルを調整することは、触知出力レベルを増大させることを含む(例えば、増大された触知出力は、減少されたオーディオ出力の交換である)(9728)。例えば、オーディオ出力レベルが50%だけ減少されると、触知出力レベルは50%だけ増大される。図14Gは、例えば、音量レベル9630(例えば、図14Bにおける音量レベル9606から50%の減少)及び調整された触知出力レベル9632(例えば、図14Bにおける触知出力レベル9608から50%の増大)を示す。
いくつかの実施形態では、デバイスの触知出力レベルを調整した後に、デバイスはタッチ感知面上の第2の複数の入力を検出する(9730)。図14Hは、例えば、デバイスがタッチ感知面451上の第2の複数の入力(例えば、接触9634及び9636)を検出する様子を示す。デバイスは、例えば、デバイスの触知出力レベルを(例えば、図14Bにおける触知出力レベル9608から図14Cにおける調整された触知出力レベル9612へ)調整した後に、タッチ感知面451上の接触9634及び9636を検出する。
いくつかの実施形態では、タッチ感知面上の第2の複数の入力を検出したことに応答して、デバイスは、調整された触知出力レベルに従って触知フィードバックを提供する(9732)。図14Iは、例えば、デバイスが、調整された触知出力レベル9612に従って触知フィードバック9638を提供する様子を示す。デバイスは、例えば、タッチ感知面451上の第2の複数の入力(例えば、接触9634及び9636)を検出した後に、触知フィードバック9638を提供する。
図15A〜図15Cにおける動作について記載された特定の順序は単なる例示であり、記載された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者は、本願に記載されている動作の順番を変更する様々な方法を認識されるであろう。加えて、本明細書で説明される他の方法(例えば、パラグラフ[0059]で列挙されるもの)に関連して本明細書で説明される、他のプロセスの詳細もまた、図15A〜図15Cに関連して上述された方法9700と類似の方式で適用可能であることに留意されたい。例えば、方法9700を参照して上述された接触(入力)、ジェスチャ及び触感は任意選択的に、本明細書に説明されている他の方法を参照して本明細書に説明されている接触(入力)、ジェスチャ、及び触感の特徴(例えば、段落[0059]に列挙されているもの)のうちの1つ以上を有する。簡略化するため、これらの詳細の説明はここでは反復しない。
いくつかの実施形態によれば、図16は、説明される様々な実施形態の理念に従って構成された電子デバイス9800の機能ブロック図を示す。このデバイスの機能ブロックは、説明される様々な実施形態の原理を実現するために、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアとの組み合わせによって、任意選択的に実装される。図16で説明されている機能ブロックが、様々な説明されている実施形態の原理を実装するように、任意選択的に、組み合わされ、又はサブブロックに分離されることが当業者には理解されよう。したがって、本明細書における説明は、本明細書989898で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義に任意選択的に対応する。
図16に示されるように、電子デバイス9800は、情報を表示するように構成される表示ユニット9802と、入力(例えば、接触)を受けるように構成されるタッチ感知面ユニット9804と、(例えば、タッチ感知面ユニット9804の運動によって生成される)触知フィードバックを提供するように構成される触知フィードバックユニット9806と、少なくとも音量レベルに従ってオーディオ信号及びオーディオ制御信号を生成するように構成されるオーディオユニット9808(任意選択的にオーディオスピーカを含む)と、表示ユニット9802、タッチ感知面ユニット9804、触知フィードバックユニット9806、及びオーディオユニット9808に結合される処理ユニット9810と、を含む。いくつかの実施形態では、処理ユニット9810は、検出ユニット9812、提供ユニット9814、受信ユニット9816、調整ユニット9818、及び判定ユニット9820を含む。任意選択的に、電子デバイス9800は、タッチ感知面ユニット9804との接触の強度を検出するように構成される1つ以上のセンサユニット9824を更に含む。
処理ユニット9810は、タッチ感知面ユニット9804上の第1の複数の入力を(例えば、検出ユニット9812を用いて)検出することと、第1の複数の入力を検出したことに応答して、触知フィードバックユニット9806を介してデバイスの触知出力レベルに従って触知フィードバックを(例えば、提供ユニット9814を用いて)提供することと、デバイスの音量レベルを対応する量だけ調整せよとの要求を(例えば、受信ユニット9816を用いて)受信することと、をするように構成される。処理ユニット9810は、音量レベルを調整せよとの要求に応答して、音量レベルを対応する量だけ(例えば、ユニット9818を調整することを用いて)調整することと、デバイスの触知出力レベルを対応する量に従って(例えば、調整ユニット9818を用いて)調整することと、をするように更に構成される。
いくつかの実施形態では、タッチ感知面ユニット9804上の対応する入力に対応した対応する触知出力は、運動プロファイル及び振幅を有する支配的運動成分を含むタッチ感知面ユニット9804の運動によって生成され、デバイスの触知出力レベルを調整することは、タッチ感知面ユニット9804上の対応する入力に対応した対応する触知出力の振幅を(例えば、調整ユニット9818を用いて)調整することを含む。
いくつかの実施形態では、タッチ感知面ユニット9804上の対応する入力に対応した対応する触知出力は、運動プロファイル及び振幅を有する支配的運動成分を含むタッチ感知面ユニット9804の運動によって生成され、デバイスの触知出力レベルを調整することは、タッチ感知面ユニット9804上の対応する入力に対応した対応する触知出力の運動プロファイルを(例えば、調整ユニット9818を用いて)調整することを含む。
いくつかの実施形態では、処理ユニット9810は、タッチ感知面ユニット9804上の対応する入力に対応した対応する触知出力の運動プロファイル及び振幅を(例えば、調整ユニット9818を用いて)調整することによって、デバイスの触知出力レベルを調整するように構成される。
いくつかの実施形態では、デバイスの触知出力レベルを(例えば、調整ユニット9818を用いて)調整した後に、処理ユニット9810は、タッチ感知面ユニット9804上の第2の複数の入力を(例えば、検出ユニット9812を用いて)検出することと、タッチ感知面ユニット9804上の第2の複数の入力を検出したことに応答して、触知フィードバックユニット9806を介して、調整された触知出力レベルに従って触知フィードバックを(例えば、提供ユニット9814を用いて)提供することと、をするように構成される。
いくつかの実施形態では、処理ユニット9810は、音量レベルを対応する量だけ調整することは、音量レベルを増大させることを含むとの(例えば、判定ユニット9820を用いた)判定に従い、デバイスの触知出力レベルを(例えば、調整ユニット9818を用いて)調整することは、触知出力レベルを増大させることを含むことと、音量レベルを対応する量だけ調整することは、音量レベルを減少させることを含むとの(例えば、判定ユニット9820を用いた)判定に従い、デバイスの触知出力レベルを(例えば、調整ユニット9818を用いて)調整することは、触知出力レベルを減少させることを含むことと、によって、デバイスの出力レベルを(例えば、調整ユニット9818を用いて)調整するように構成される。
いくつかの実施形態では、処理ユニット9810は、音量レベルを対応する量だけ調整することは、音量レベルを増大させることを含むとの(例えば、判定ユニット9820を用いた)判定に従い、デバイスの触知出力レベルを(例えば、調整ユニット9818を用いて)調整することは、触知出力レベルを減少させることを含むことと、音量レベルを対応する量だけ調整することは、音量レベルを減少させることを含むとの(例えば、判定ユニット9820を用いた)判定に従い、デバイスの触知出力レベルを(例えば、調整ユニット9818を用いて)調整することは、触知出力レベルを増大させることを含むことと、によって、デバイスの出力レベルを(例えば、調整ユニット9818を用いて)調整するように構成される。
上述の情報処理方法は、汎用プロセッサ(例えば、図1A及び図3に関連して上述されたようなもの)又は特定用途向けチップなどの、情報処理装置内の1つ以上の機能モジュールを稼働することによって、任意選択的に実施される。
図15A〜図15Cを参照して上述された動作は、図1A、1B、又は図16に示される構成要素によって、任意選択的に実施される。例えば、検出動作9702及び9728、提供動作9704及び9730、受信動作9706、調整動作9710〜9712、並びに判定動作9720〜9726は、任意選択的に、イベントソータ170、イベント認識部180、及びイベントハンドラ190によって実施される。イベントソータ170のイベントモニタ171は、タッチ感知ディスプレイ112上の接触を検出し、イベントディスパッチャモジュール174は、イベント情報をアプリケーション136−1に渡す。アプリケーション136−1の対応するイベント認識部180は、イベント情報を対応するイベント定義186と比較し、タッチ感知式表面上の第一の位置における第1のコンタクトが、ユーザインタフェース上でのオブジェクトの選択などの所定のイベント又はサブイベントに対応するかどうかを判定する。対応する既定のイベント又はサブイベントが検出されると、イベント認識部180は、イベント又はサブイベントの検出に関連するイベントハンドラ190をアクティブ化させる。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデータ176若しくはオブジェクトアップデータ177を任意選択的に利用するか又は呼び出す。いくつかの実施形態において、イベントハンドラ190は、アプリケーションにより表示されるものを更新するための対応するGUIアップデータ178にアクセスする。同様に、当業者には、図1A〜図1Bに示すコンポーネントに基づいて他のプロセスをどのように実装し得るか明らかであろう。
複数接触ジェスチャのための触知出力の生成の見合わせ
多くの電子デバイスは、ユーザアクションによってイベントがトリガされることに応答して確認のフォームをユーザに提供する。例えば、ユーザが、対応するコンテンツ(例えば、電子文書、画像、又はビデオ)に対応するアフォーダンス(例えば、アイコンボタン)をクリックすると、ユーザがアフォーダンスをクリックしていることを確認するためにオーディオ出力がスピーカを介してユーザに提供される。同様に、例えば、ユーザが、ウェブページに対応するハイパーリンクをクリックした後に、ウェブブラウザは、ハイパーリンクに関連付けられたウェブページがロードされていることを指示する何らかの形の視覚的な確認(例えば、時計回りに回転する半円形の矢印、又は回転する地球)を表示する。しかし、この確認又はフィードバックは、それが、フィードバックに対応しない入力に応答して生じる場合には、ユーザにとって気を散らすか又は混乱させるものになり得る。以下において説明される実施形態は、第1の数の接触(例えば、1つの接触)を含むジェスチャを検出したことに応答して触知出力を生成し、ジェスチャが第2の数の接触(例えば、2つ以上の接触)を含む場合には、触知出力を生成することをフォージすることによって、より使い勝手が良く、直感的なインタフェースを提供する。更に、いくつかの実施形態では、デバイスは、複数の接触のうちの全てよりも少ないものをジェスチャに対応付け、それにより、複数の接触のうちの1つ以上を既定のジェスチャ基準(例えば、形状、表面積、強度、又は時系列順序)に従ってジェスチャから除外する。
図17A〜図17Fは、いくつかの実施形態に係る、第1の数の接触を有するジェスチャ(例えば、単一接触ジェスチャ)のためには触知出力を生成し、第2の数の接触を有するジェスチャ(例えば、複数接触ジェスチャ)のためには触知出力の生成を見合わせるための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図18におけるプロセスを含む、以下に説明するプロセスを例示するために用いられる。図17A〜図17Fは、対応の閾値(例えば、「IT」)を含む複数の強度閾値に対する、タッチ感知面上の接触の現在の強度を示す、強度図を含む。いくつかの実施形態では、「IT」を参照して以下で説明されるものと同様の動作は、異なる強度閾値(例えば、「IT」)を参照して実行される。
いくつかの実施形態において、デバイスは、別個のディスプレイ(例えば、ディスプレイ450)及び別個のタッチ感知面(例えば、タッチ感知面451)を備える電子デバイスである。いくつかの実施形態において、デバイスは、ポータブル多機能デバイス100であり、ディスプレイは、タッチ感知ディスプレイシステム112であり、タッチ感知面は、ディスプレイ上に触知出力発生器167を含む(図1A)。説明の便宜上、図17A〜図17F及び図18を参照して説明される実施形態は、ディスプレイ450及び別個のタッチ感知面451を参照して論じられる。しかし、類似の動作は、任意選択的に、タッチ感知ディスプレイシステム112を備えるデバイス上で、図17A〜図17Fに示されるユーザインタフェースをタッチ感知ディスプレイシステム112上に表示している間に、図17A〜図17Fで説明される接触をタッチ感知ディスプレイシステム112上で検出したことに応答して、実行される。そのような実施形態では、フォーカスセレクタは、カーソル9904の代わりに、任意選択的に、タッチ感知ディスプレイシステム112上で検出される、対応する接触、接触に対応する代表点(例えば、対応する接触の図心、又は対応する接触に関連付けられる点)、又は2つ以上の接触の図心である。
図17Aは、電子デバイスのディスプレイ450上に表示されたユーザインタフェース9900を示す。この例では、ユーザインタフェース9900はアプリケーション(例えば、ウェブブラウザ)に関連付けられ、ユーザインタフェース9900は画像9902並びに制御アイコン9903(例えば、週の一連の画像に関連付けられた、次の画像ボタン9903−1及び前の画像ボタン9903−2)を含む。図17Aは、タッチ感知面451上で検出された接触9906、及び接触9906に対応するフォーカスセレクタの表示された表現(例えば、カーソル9904)を更に示す。この例では、カーソル9904は次の画像ボタン9903−1の上に位置する。図17Aは、ITとITとの間の接触9906の強度を示す。
図17A〜図17Bは、タッチ感知面451上において、対応する強度閾値(例えば、「IT」)を上回る接触9906の強度の増大を含むジェスチャを検出する一例を示す。この例では、接触9906の強度は(例えば、図17AにおけるIT未満から図17BにおけるIT超へ)増大し、対応する強度閾値(例えば、「IT」)を上回る。
図17Bは、タッチ感知451上に触知出力(例えば、触知出力9910)を生成する一例を示す。この例では、デバイスは、ジェスチャ(例えば、ITを上回る接触9906の強度の増大)を検出したことに応答して、ジェスチャは第1の数の接触を含むとの判定に従って、タッチ感知451上に触知出力9910を生成する。いくつかの実施形態では、第1の数の接触は1つの接触である。図17A〜図17Bは、1つの接触(例えば、接触9906)を含むジェスチャを検出することを示す。図17Bは、カーソル9904が、週の一連の画像内の次の画像に関連する次の画像ボタン9903−1上にある間における押圧入力(例えば、ITを上回る接触9906の強度の増大)に応答して、ディスプレイ450上に画像9908を表示することを更に示す。
図17Cは、タッチ感知面451上において2つの接触(例えば、接触9912及び9914)を検出することを示す。この例では、接触9912がカーソル9904に対応する(例えば、接触9912が接触9914より先に検出された)。図17Cは、ITとITとの間の接触9912及び9914の強度を更に示す。
図17C〜図17Dは、タッチ感知面451上において、対応する強度閾値(例えば、「IT」)を上回る接触9912の強度の増大を含むジェスチャを検出する一例を示す。この例では、接触9912の強度は(例えば、図17CにおけるIT未満から図17DにおけるIT超へ)増大し、対応する強度閾値(例えば、「IT」)を上回る。
図17C〜図17Dはマルチタッチピンチ(ズームアウト)ジェスチャを更に示す。この例では、マルチタッチピンチジェスチャは、接触9912が図17Cにおけるロケーション9912−aから図17Dにおけるロケーション9912−bへ移動すること、及び接触9914が図17Cにおけるロケーション9914−aから図17Dにおけるロケーション9914−bへ移動することを含む(例えば、接触9912及び9914は、タッチ感知面451と接触したままで、互いに近づいていく)。図17C〜図17Dは、マルチタッチピンチジェスチャに応答して、画像9902及び制御アイコン9903からズームアウトすること、又はそれらのサイズを縮小することを示す(例えば、画像9902及び制御アイコン9903は、図17Dでは、図17Cと対照的に、より小さいサイズで表示される)。
図17Dは、タッチ感知451上に触知出力を生成することを見合わせる一例を示す。この例では、デバイスは、ジェスチャ(例えば、ITを上回る接触9912の強度の増大を含む互いに近づく接触9912及び9914の移動)を検出したことに応答して、ジェスチャは第2の数の接触(例えば、接触9912及び9914)を含むとの判定に従い、タッチ感知451上に触知出力を生成することを見合わせる(例えば、図17Bにおける触知出力9910は生成されない)。いくつかの実施形態では、第2の数の接触は2つ以上の接触である。図17C〜図17Dは、2つの接触(例えば、接触9912及び9914)を含むジェスチャを検出することを示す。
図17Eは、タッチ感知面451上の複数の接触(例えば、接触9918及び9920)を検出することを示す。この例では、接触9918がカーソル9904に対応し(例えば、接触9918が接触9920より先に検出された)、接触9918及び9920の強度はITとITとの間にある。
図17Eは、複数の接触のうちの全てよりも少ないものを含む、複数の接触のうちの1つ以上を既定のジェスチャ基準に従ってジェスチャに対応付けることを更に示す。この例では、接触9918は既定のジェスチャ基準に従ってジェスチャに対応付けられるが、(例えば、タッチ感知面451上のユーザの手のひらの一部分を表す)接触9920はジェスチャに対応付けられない(例えば、接触9920は、形状及び表面積を含む既定のジェスチャ基準に合致しない。これらの既定のジェスチャ基準は時により、デバイスが、ユーザの手の手のひらによって形成される接触などのタッチ感知面上の偶発的接触を無視することを可能にする手のひら拒絶基準などの偶発的入力拒絶基準を含む)。
図17E〜図17Fは、タッチ感知面451上において、対応する強度閾値(例えば、「IT」)を上回る接触(例えば、接触9918)の強度の増大を含むジェスチャを検出する一例を示す。この例では、接触9918の強度は(例えば、図17EにおけるITを下回るレベルから図17FにおけるITを上回るレベルへ)増大し、対応する強度閾値(例えば、「IT」)を上回る。
図17Fは、タッチ感知451上に触知出力(例えば、触知出力9910)を生成する一例を示す。この例では、デバイスは、ジェスチャ(例えば、ITを上回る接触9918の強度の増大)を検出したことに応答して、ジェスチャは第1の数の接触(例えば、1つの接触、この例では、接触9920を除外した、接触9918)を含むとの判定に従って、タッチ感知451上に触知出力9910を生成する。図17Fは、カーソル9904が、週の一連の画像内の次の画像に関連する次の画像ボタン9903−1上にある間における押圧入力(例えば、ITを上回る接触9918の強度の増大)に応答して、ディスプレイ450上に画像9908を表示することを更に示す)。いくつかの実施形態では、次の画像ボタン9903−1は、ITを上回る接触9918の強度の増大(例えば、押圧入力の下降工程)に応答してアクティブ化される。いくつかの実施形態では、次の画像ボタン9903−1は、ITを下回る接触9918の強度のその後の減少(例えば、押圧入力の上昇工程)に応答してアクティブ化される。
図18は、いくつかの実施形態に係る、第1の数の接触を有するジェスチャ(例えば、単一接触ジェスチャ)のためには触知出力を生成し、第2の数の接触を有するジェスチャ(例えば、複数接触ジェスチャ)のためには触知出力の生成を見合わせる方法10000を示すフロー図である。方法10000は、ディスプレイ及びタッチ感知面を備える電子デバイス(例えば、デバイス300、図3、又はポータブル多機能デバイス100、図1A)において実行される。いくつかの実施形態において、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面がディスプレイ上にある。いくつかの実施形態において、ディスプレイはタッチ感知面から分離している。方法10000でのいくつかの動作は、任意選択的に組み合わされ、かつ/又は、いくつかの動作の順序は、任意選択的に変更される。
以下において説明されるように、方法10000は、第1の数の接触を有するジェスチャのためには触知出力を生成し、第2の数の接触を有するジェスチャのためには触知出力の生成を見合わせる直感的な仕方を提供する。本方法は、第1の数の接触を有するジェスチャのためには触知出力を生成し、第2の数の接触を有するジェスチャのためには触知出力の生成を見合わせる際のユーザの認知負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。電池駆動式電子デバイスの場合、ユーザが、第1の数の接触を有するジェスチャのためには触知出力を生成し、第2の数の接触を有するジェスチャのためには触知出力の生成を見合わせることを可能とすることにより、電力が節約され、電池充電の時間間隔が延びる。
デバイスは、タッチ感知面上において、対応する強度閾値を上回る接触の強度の増大を含むジェスチャを検出する(10002)。図17A〜図17Bは、例えば、タッチ感知面451上の対応する強度閾値(例えば、「IT」)を上回る(例えば、図17AにおけるIT未満から図17BにおけるIT超への)接触9906の強度の増大を含むジェスチャを示す。
いくつかの実施形態では、ジェスチャは、フォーカスセレクタが、ディスプレイ上に表示された制御アイコンン(例えば、ボタン)上にある間にタッチ感知面上で検出される押圧入力を含む(10004)。図17A〜図17Bは、例えば、フォーカスセレクタ(例えば、カーソル9904)が、ディスプレイ450上に表示された制御アイコン(例えば、次の画像ボタン9903−1)上にある間に、タッチ感知面451上において検出される押圧押圧入力(例えば、図17AにおけるIT未満から図17BにおけるIT超への接触9906の強度の増大)を示す。
いくつかの実施形態では、対応する強度閾値はアクティブ化閾値であり、触知出力は、アクティブ化閾値が満たされたことの確認をユーザに提供する(10006)。例えば、動作が実行されたことをユーザに確認させる触知出力、又は接触のリフトオフなどの、ジェスチャの終了を検出すると同時に動作が実行されることになることをユーザに確認させる触知出力である。図17Bは、例えば、アクティブ化閾値(例えば、対応する強度閾値−IT)が満たされたことの確認をユーザに提供するタッチ感知面451上の触知出力9910を示す。
ジェスチャを検出したことに応答して(10008)、ジェスチャは第1の数の接触を含むとの判定に従い、デバイスはタッチ感知面上に触知出力を生成する(10010)。図17Bは、例えば、ジェスチャ(例えば、ITを上回る接触9906の強度の増大)を検出したことに応答して、ジェスチャは第1の数の接触(例えば、接触9906)を含むとの判定に従い、タッチ感知面451上に生成される触知出力9910を示す。
いくつかの実施形態では、第1の数の接触は1つの接触である(10012)(例えば、触知出力は、ジェスチャが単一接触押圧入力である時に生成される)。図17A〜図17Bは、例えば、1つの接触(例えば、接触9906)を含むジェスチャを示す。
いくつかの実施形態では、触知出力は、対応する強度閾値を上回る接触の強度の増大に対応する触知出力である(10014)。例えば、ジェスチャが第1の数の接触を含む時に生成される(及びジェスチャが第2の数の接触を含む時には生成されない)触知出力は、対応する閾値(例えば、「IT」)を上回る接触の強度の増大に対応する触知出力である。いくつかの実施形態では、接触が「ダウンクリック」強度閾値(例えば、「IT」)を超え、かつジェスチャが単一接触を用いて実行されると(例えば、ユーザが単一接触を用いて押圧入力を実行すると)、触知出力は、デバイスによって生成される「マウスクリック」触知出力の模擬になる。図17Bは、例えば、対応する強度閾値(例えば、「IT」)を上回る接触9906の強度の増大に対応する触知出力9910を示す。
いくつかの実施形態では、触知出力は、ユーザがユーザインタフェース内の既定の単一接触ユーザインタフェースオブジェクト対話操作のセットのうちの1つを実行すると生成される(例えば、マウス又はトラックパッド上の物理的アクチュエータを押すことに対応する「マウスクリック」感覚を模擬する)既定の触知出力である(10016)。例えば、触知出力は、「マウスクリック」感覚に対応する。ここで、「マウスクリック」感覚は、ユーザがタッチ感知面を(例えば、複数接触ジェスチャ入力エリアではなく)単一接触トラックパッドとして使用している時に、ユーザインタフェースオブジェクトの選択に応答して提供される。
ジェスチャを検出したことに応答して、ジェスチャは第2の数の接触を含むとの判定に従い、デバイスはタッチ感知面上に触知出力を生成することを見合わせる(10018)。図17Dは、例えば、ジェスチャ(例えば、図17CにおけるIT未満から図17DにおけるIT超への接触9912の強度の増大)を検出したことに応答して、ジェスチャは第2の数の接触(例えば、接触9912及び9914)を含むとの判定に従い、デバイスがタッチ感知面451上における触知出力の生成を見合わせる様子(例えば、図17Bにおける触知出力9910は生成されない)を示す。いくつかの実施形態では、複数の接触を用いてジェスチャが実行されると(例えば、ユーザが、ピンチ又はデピンチ(depinch)ジェスチャなどの複数接触ジェスチャを実行すると)、触知出力は生成されない。図17C〜図17Dは、例えば、タッチ感知面451上のマルチタッチピンチジェスチャを示す。
いくつかの実施形態では、第2の数の接触は2つ以上の接触である(10020)(例えば、ジェスチャが複数接触ピンチ/デピンチジェスチャである時には、触知出力は生成されない)。図17C〜図17Dは、例えば、2つ以上の接触(例えば、接触9912及び9914)を含むピンチジェスチャを示す。
いくつかの実施形態では、デバイスはタッチ感知面上の複数の接触を検出し、複数の接触のうちの全てよりも少ないものを含む、複数の接触のうちの1つ以上を既定のジェスチャ基準に従って第1のジェスチャに対応付ける(10022)。いくつかの実施形態では、1つ以上の並行して検出される接触はジェスチャから除外される(例えば、デバイスはタッチ感知面上の手のひらの接触又は偶発的接触を無視する)。いくつかの実施形態では、既定のジェスチャ基準は、複数の接触のうちの1つ以上の形状、複数の接触のうちの1つ以上の表面積、複数の接触のうちの1つ以上の強度、複数の接触の既定の順序若しくは時系列順序、又はそれらの任意の組み合わせを含む。
図17E〜図17Fは、例えば、タッチ感知面451上の複数の接触(例えば、接触9918及び9920)の検出を示す。図17E〜図17Fはまた、例えば、複数の接触のうちの全てよりも少ないものを含む、複数の接触のうちの1つ(例えば、接触9918)の、既定のジェスチャ基準に従ったジェスチャへの対応付けを示す。例えば、接触9918の形状及び表面積(例えば、円形、及びほぼユーザの指先の表面積)は既定のジェスチャ基準に合致するが、接触9920の形状及び表面積(例えば、長円形、及びタッチ接触のための既定の最大表面積よりも大きい表面積を有する)は既定のジェスチャ基準に合致しない。
図18の動作が説明されている特定の順序は単に例示的なものであって、説明されている順序が動作を実行し得る唯一の順番であることを示そうとしていないことが理解されよう。当業者は、本願に記載されている動作の順番を変更する様々な方法を認識されるであろう。加えて、本記載の方法に関して本明細書に記載の他の処理の詳細(例えば、パラグラフ[0059]に記載のものはまた、図18に関連して上述した方法10000と類似の様式で適用可能であることに留意されたい。例えば、方法10000を参照して上述された、接触、ジェスチャ、ユーザインタフェースオブジェクト、強度閾値、及びフォーカスセレクタは任意選択的に、本明細書で説明される他の方法(例えば、段落[0059]で列挙されているもの)を参照して本明細書で説明される、接触、ジェスチャ、ユーザインタフェースオブジェクト、強度閾値、及びフォーカスセレクタの特徴のうちの1つ以上を有する。簡略化するため、これらの詳細の説明はここでは反復しない。
いくつかの実施形態によれば、図19は、説明される様々な実施形態の理念に従って構成された電子デバイス10100の機能ブロック図を示す。このデバイスの機能ブロックは、説明される様々な実施形態の原理を実現するために、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアとの組み合わせによって、任意選択的に実装される。図19で説明されている機能ブロックが、様々な説明されている実施形態の原理を実施するように、任意選択的に、組み合わされ、又はサブブロックに分離されることが当業者には理解されよう。それゆえ、本明細書での説明は、本明細書で説明される機能ブロックの、あらゆる可能な組み合わせ若しくは分離、又は更なる定義を、任意選択的にサポートする。
図19に示されるように、電子デバイス10100は、グラフィカルユーザインタフェースを表示するように構成される表示ユニット10102と、接触を受けるように構成されるタッチ感知面ユニット10104と、タッチ感知面ユニット10104との接触の強度を検出するように構成される1つ以上のセンサユニット10106と、(例えば、タッチ感知面ユニット10104の運動によって生成される)触知出力を生成するように構成される触知出力ユニット10108と,表示ユニット10102、タッチ感知面ユニット10104、1つ以上のセンサユニット10106、及び触知出力ユニット10108に結合される処理ユニット10110と、を含む。いくつかの実施形態では、処理ユニット10110は、検出ユニット10112、判定ユニット10114、生成ユニット10116、及び対応付けユニット10118を含む。
処理ユニット10110は、タッチ感知面ユニット10104上において、対応する強度閾値を上回る接触の強度の増大を含むジェスチャを(例えば、検出ユニット10112を用いて)検出するように構成される。処理ユニット10110は、ジェスチャを検出したことに応答して、ジェスチャは第1の数の接触を含むとの(例えば、判定ユニット10114を用いた)判定に従い、触知出力ユニット10108を介してタッチ感知面ユニット10104上に触知出力を(例えば、生成ユニット10116を用いて)生成することと、ジェスチャは、第1の数と異なる第2の数の接触を含むとの(例えば、判定ユニット10114を用いた)判定に従い、タッチ感知面ユニット10104上に触知出力を生成することを見合わせることと、をするように更に構成される。
いくつかの実施形態では、触知出力は、対応する強度閾値を上回る接触の強度の増大に対応する触知出力である。
いくつかの実施形態では、触知出力は、ユーザがユーザインタフェース内の既定の単一接触ユーザインタフェースオブジェクト対話操作のセットのうちの1つを実行すると触知出力ユニット10108を介して生成される既定の触知出力である。
いくつかの実施形態では、第1の数の接触は1つの接触であり、第2の数の接触は2つ以上の接触である。
いくつかの実施形態では、対応する強度閾値はアクティブ化閾値であり、触知出力は、アクティブ化閾値が満たされたことの確認をユーザに提供する。
いくつかの実施形態では、ジェスチャは、フォーカスセレクタが、表示ユニット10102上に表示された制御アイコンの上にある間にタッチ感知面ユニット10104上において(例えば、検出ユニット10112を用いて)検出される押圧入力を含む。
いくつかの実施形態では、処理ユニット10110は、タッチ感知面ユニット10104上の複数の接触を(例えば、検出ユニット10112を用いて)検出することと、複数の接触のうちの全てよりも少ないものを含む、複数の接触のうちの1つ以上を既定のジェスチャ基準に従ってジェスチャに(例えば、対応付けユニット10118を用いて)対応付けることと、をするように更に構成される。
上述の情報処理方法は、汎用プロセッサ(例えば、図1A及び図3に関連して上述されたようなもの)又は特定用途向けチップなどの、情報処理装置内の1つ以上の機能モジュールを稼働することによって、任意選択的に実施される。
図18を参照して上述された動作は任意選択的に、図1A〜図1B又は図19に示される構成要素によって実施される。例えば、検出動作10002及び10022、判定動作10010及び10018、並びに生成動作10010は、任意選択的に、イベントソータ170、イベント認識部180、及びイベントハンドラ190によって実施される。イベントソータ170のイベントモニタ171は、タッチ感知ディスプレイ112上の接触を検出し、イベントディスパッチャモジュール174は、イベント情報をアプリケーション136−1に渡す。アプリケーション136−1の対応するイベント認識部180は、イベント情報を対応するイベント定義186と比較し、タッチ感知式表面上の第一の位置における第1のコンタクトが、ユーザインタフェース上でのオブジェクトの選択などの所定のイベント又はサブイベントに対応するかどうかを判定する。対応する既定のイベント又はサブイベントが検出されると、イベント認識部180は、イベント又はサブイベントの検出に関連するイベントハンドラ190をアクティブ化させる。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデータ176若しくはオブジェクトアップデータ177を任意選択的に利用するか又は呼び出す。いくつかの実施形態において、イベントハンドラ190は、アプリケーションにより表示されるものを更新するための対応するGUIアップデータ178にアクセスする。同様に、当業者には、図1A〜図1Bに示すコンポーネントに基づいて他のプロセスをどのように実装し得るか明らかであろう。
これらの動作が上述されている特定の順序は、単なる例示であり、説明される順序が、それらの動作を実行することが可能な唯一の順序であることを示すことを、意図するものではない点を理解されたい。当業者は、本願に記載されている動作の順番を変更する様々な方法を認識されるであろう。加えて、本明細書に別々に記載されている種々のプロセス(例えば、段落[0059]に列挙されているもの)は、異なる構成で互いに組み合わせることができることに留意されたい。例えば、本明細書で別個に説明される様々なプロセス(例えば、パラグラフ[0059]で列挙されるもの)のうちのいずれか1つを参照して上述された、接触、ユーザインタフェースオブジェクト、触感覚、強度閾値、及び/又はフォーカスセレクタは、本明細書で説明される他の方法(例えば、パラグラフ[0059]で列挙されるもの)のうちの1つ以上を参照して本明細書で説明された、接触、ジェスチャ、ユーザインタフェースオブジェクト、触感覚、強度閾値、及びフォーカスセレクタの特性のうちの1つ以上を、任意選択的に有する。簡潔性のために、本明細書では、種々の可能な組み合わせの全てを具体的に列挙することはないが、上述の特許請求の範囲は、相互排他的な特許請求の範囲の特長によって排除されない任意の方式で組み合わせることができる点を理解されたい。
上述の記載は、説明の目的のために、特定の実施形態を参照して記載されている。しかしながら、上記の例示的な論考は、網羅的であること、又は、説明される種々の実施形態を、開示される厳密な形態に限定することを意図するものではない。多くの変更及び変形が上述の教示に鑑みて可能である。これらの実施形態は、説明される種々の実施形態の原理、及びそれらの実際の適用を最も良好に説明するために、選択及び説明されたものであって、それにより、他の当業者が、想到される具体的な用途に適するような種々の修正を使用して、その説明される種々の実施形態を最も良好に利用することが可能となる。

Claims (114)

  1. ディスプレイ及びタッチ感知面を備え、前記タッチ感知面との接触の強度を検出するための1つ以上のセンサを含む、電子デバイスにおいて、
    前記タッチ感知面上において、対応する強度閾値を上回る接触の強度の増大を含むジェスチャを検出することと、
    前記ジェスチャの検出に応答して、
    前記ジェスチャは第1の数の接触を含むとの判定に従い、前記タッチ感知面上に触知出力を生成することと、
    前記ジェスチャは、前記第1の数と異なる第2の数の接触を含むとの判定に従い、前記タッチ感知面上に前記触知出力を生成することを見合わせることと、
    を含む方法。
  2. 前記触知出力が、前記対応する強度閾値を上回る前記接触の強度の前記増大に対応する触知出力である、請求項1に記載の方法。
  3. 前記触知出力が、ユーザがユーザインタフェース内の既定の単一接触ユーザインタフェースオブジェクト対話操作のセットのうちの1つを実行すると生成される既定の触知出力である、請求項1に記載の方法。
  4. 前記第1の数の接触が1つの接触であり、
    前記第2の数の接触が2つ以上の接触である、
    請求項1〜3のいずれか一項に記載の方法。
  5. 前記対応する強度閾値がアクティブ化閾値であり、前記触知出力が、前記アクティブ化閾値が満たされたことの確認をユーザに提供する、請求項1〜4のいずれか一項に記載の方法。
  6. 前記ジェスチャが、フォーカスセレクタが、前記ディスプレイ上に表示された制御アイコン上にある間に前記タッチ感知面上で検出される押圧入力を含む、請求項1〜5のいずれか一項に記載の方法。
  7. 前記タッチ感知面上の複数の接触を検出することと、
    前記複数の接触のうちの全てよりも少ないものを含む、前記複数の接触のうちの1つ以上を既定のジェスチャ基準に従って前記ジェスチャに対応付けることと、
    を含む、請求項1〜6のいずれか一項に記載の方法。
  8. 電子デバイスであって、
    ディスプレイと、
    タッチ感知面と、
    前記タッチ感知面との接触の強度を検出するための1つ以上のセンサと、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、
    を備え、前記1つ以上のプログラムは、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成され、前記1つ以上のプログラムは、
    前記タッチ感知面上において、対応する強度閾値を上回る接触の強度の増大を含むジェスチャを検出することと、
    前記ジェスチャの検出に応答して、
    前記ジェスチャは第1の数の接触を含むとの判定に従い、前記タッチ感知面上に触知出力を生成することと、
    前記ジェスチャは、前記第1の数と異なる第2の数の接触を含むとの判定に従い、前記タッチ感知面上に前記触知出力を生成することを見合わせることと、
    のための命令を含む、電子デバイス。
  9. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、ディスプレイ、タッチ感知面、及び前記タッチ感知面との接触の強度を検出するための1つ以上のセンサを備える電子デバイスによって実行されると、前記デバイスに、
    前記タッチ感知面上において、対応する強度閾値を上回る接触の強度の増大を含むジェスチャを検出することと、
    前記ジェスチャの検出に応答して、
    前記ジェスチャは第1の数の接触を含むとの判定に従い、前記タッチ感知面上に触知出力を生成することと、
    前記ジェスチャは、前記第1の数と異なる第2の数の接触を含むとの判定に従い、前記タッチ感知面上に前記触知出力を生成することを見合わせることと、
    をさせる、コンピュータ可読記憶媒体。
  10. ディスプレイ、タッチ感知面、並びに前記タッチ感知面との接触の強度を検出するための1つ以上のセンサ、メモリ、及び前記メモリ内に記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサを備える電子デバイス上のグラフィカルユーザインタフェースであって、
    ユーザインタフェースオブジェクトを表示すること、
    を備え、
    フォーカスセレクタが前記ユーザインタフェースオブジェクト上にある間に、対応する強度閾値を上回る接触の強度の増大を含むジェスチャが検出され、
    前記ジェスチャを検出したことに応答して、前記ジェスチャは第1の数の接触を含むとの判定に従い、前記タッチ感知面上に、前記ユーザインタフェースオブジェクトとの対話に対応する触知出力が生成され、
    前記ジェスチャを検出したことに応答して、前記ジェスチャは、前記第1の数と異なる第2の数の接触を含むとの判定に従い、前記タッチ感知面上に前記触知出力が生成されない、
    グラフィカルユーザインタフェース。
  11. 電子デバイスであって、
    ディスプレイと、
    タッチ感知面と、
    前記タッチ感知面との接触の強度を検出するための1つ以上のセンサと、
    前記タッチ感知面上において、対応する強度閾値を上回る接触の強度の増大を含むジェスチャを検出するための手段と、
    前記ジェスチャの検出に応答する手段であって、
    前記ジェスチャは第1の数の接触を含むとの判定に従い、前記タッチ感知面上に触知出力を生成するための手段と、
    前記ジェスチャは、前記第1の数と異なる第2の数の接触を含むとの判定に従い、前記タッチ感知面上に前記触知出力を生成することを見合わせるための手段と、
    を含む、手段と、
    を備える、電子デバイス。
  12. ディスプレイ、タッチ感知面、及び前記タッチ感知面との接触の強度を検出するための1つ以上のセンサを備える電子デバイス内で使用するための、情報処理装置であって、
    前記タッチ感知面上において、対応する強度閾値を上回る接触の強度の増大を含むジェスチャを検出するための手段と、
    前記ジェスチャの検出に応答する手段であって、
    前記ジェスチャは第1の数の接触を含むとの判定に従い、前記タッチ感知面上に触知出力を生成するための手段と、
    前記ジェスチャは、前記第1の数と異なる第2の数の接触を含むとの判定に従い、前記タッチ感知面上に前記触知出力を生成することを見合わせるための手段と、
    を含む、手段と、
    を備える、情報処理装置。
  13. 電子デバイスであって、
    ディスプレイと、
    タッチ感知面と、
    前記タッチ感知面との接触の強度を検出するための1つ以上のセンサと、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、
    を備え、前記1つ以上のプログラムは、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成され、前記1つ以上のプログラムは、請求項1〜7に記載の前記方法のいずれか1つを実行するための命令を含む、電子デバイス。
  14. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、ディスプレイ、タッチ感知面、及び前記タッチ感知面との接触の強度を検出するための1つ以上のセンサを備える電子デバイスによって実行されると、前記デバイスに、請求項1〜7に記載の前記方法のいずれか1つを実行させる、命令を含む、コンピュータ可読記憶媒体。
  15. ディスプレイ、タッチ感知面、前記タッチ感知面との接触の強度を検出するための1つ以上のセンサ、メモリ、及び前記メモリ内に記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサを備える電子デバイス上の、グラフィカルユーザインタフェースであって、請求項1〜7に記載の前記方法のいずれか1つに従って表示されるユーザインタフェースを備える、グラフィカルユーザインタフェース。
  16. 電子デバイスであって、
    ディスプレイと、
    タッチ感知面と、
    前記タッチ感知面との接触の強度を検出するための1つ以上のセンサと、
    請求項1〜7に記載の前記方法のいずれか1つを実行する手段と、
    を備える、情報処理装置。
  17. ディスプレイ、タッチ感知面、及び前記タッチ感知面との接触の強度を検出するための1つ以上のセンサを備える電子デバイス内で使用するための、情報処理装置であって、
    請求項1〜7に記載の前記方法のいずれか1つを実行する手段を備える、情報処理装置。
  18. 電子デバイスであって、
    グラフィカルユーザインタフェースを表示するように構成される表示ユニットと、
    接触を受けるように構成された、タッチ感知面ユニットと、
    前記タッチ感知面ユニットとの接触の強度を検出するように構成される1つ以上のセンサユニットと、
    触知出力を生成するように構成される触知出力ユニットと、
    前記表示ユニット、前記タッチ感知面ユニット、前記1つ以上のセンサユニット、及び前記触知出力ユニットに結合される処理ユニットと、
    を備え、前記処理ユニットは、
    タッチ感知面ユニット上において、対応する強度閾値を上回る接触の強度の増大を含むジェスチャを検出することと、
    前記ジェスチャの検出に応答して、
    前記ジェスチャは第1の数の接触を含むとの判定に従い、前記触知出力ユニットを介して前記タッチ感知面ユニット上に触知出力を生成することと、
    前記ジェスチャは、前記第1の数と異なる第2の数の接触を含むとの判定に従い、前記タッチ感知面ユニット上に前記触知出力を生成することを見合わせることと、
    をするように構成される、電子デバイス。
  19. 前記触知出力が、前記対応する強度閾値を上回る前記接触の強度の前記増大に対応する触知出力である、請求項18に記載の電子デバイス。
  20. 前記触知出力が、ユーザがユーザインタフェース内の既定の単一接触ユーザインタフェースオブジェクト対話操作のセットのうちの1つを実行すると前記触知出力ユニットを介して生成される既定の触知出力である、請求項18に記載の電子デバイス。
  21. 前記第1の数の接触が1つの接触であり、
    前記第2の数の接触が2つ以上の接触である、
    請求項18〜20のいずれか一項に記載の電子デバイス。
  22. 前記対応する強度閾値がアクティブ化閾値であり、前記触知出力が、前記アクティブ化閾値が満たされたことの確認をユーザに提供する、請求項18〜21のいずれか一項に記載の電子デバイス。
  23. 前記ジェスチャが、フォーカスセレクタが、前記表示ユニット上に表示された制御アイコン上にある間に前記タッチ感知面ユニット上で検出される押圧入力を含む、請求項18〜22のいずれか一項に記載の電子デバイス。
  24. 前記処理ユニットが、
    前記タッチ感知面ユニット上の複数の接触を検出することと、
    前記複数の接触のうちの全てよりも少ないものを含む、前記複数の接触のうちの1つ以上を既定のジェスチャ基準に従って前記ジェスチャに対応付けることと、
    をするように更に構成される、請求項18〜23のいずれか一項に記載の電子デバイス。
  25. タッチ感知面及びディスプレイを備えた電子デバイスにおいて、
    前記ディスプレイ上に複数のユーザインタフェースオブジェクトを表示することであって、前記複数のユーザインタフェースオブジェクトの各々は複数の小部分を含む、表示することと、
    前記複数のユーザインタフェースオブジェクト内の対応するユーザインタフェースオブジェクト上へのフォーカスセレクタの移動に対応する前記タッチ感知面上の接触の移動を検出することと、
    前記接触の前記移動を検出したことに応答して、
    出力基準が満たされたとの判定に従い、前記対応するユーザインタフェースオブジェクトの対応する境界及び前記対応するユーザインタフェースオブジェクトの小部分に対応する触知出力を生成することと、
    前記出力基準は満たされなかったとの判定に従い、前記対応するユーザインタフェースオブジェクトの前記小部分に対応する触知出力を生成することなく、前記対応するユーザインタフェースオブジェクトの前記対応する境界に対応する触知出力を生成することと、
    を含む方法。
  26. 前記出力基準が、前記フォーカスセレクタが前記対応するユーザインタフェースオブジェクト上に移動する際に、前記フォーカスセレクタは、対応する速度閾値を下回る速度を有するという基準を含む、請求項25に記載の方法。
  27. 前記出力基準が、前記フォーカスセレクタが前記対応するユーザインタフェースオブジェクト上に移動する際に、前記接触は、対応する強度閾値を上回る強度を有するという基準を含む、請求項25〜26のいずれか一項に記載の方法。
  28. 前記出力基準が、前記フォーカスセレクタが前記対応するユーザインタフェースオブジェクト上に移動する際に、前記接触は、対応する強度閾値を下回る強度を有するという基準を含む、請求項25〜27のいずれか一項に記載の方法。
  29. 前記出力基準が、前記対応するユーザインタフェースオブジェクトは前記ユーザインタフェース内のアクティブなウィンドウ内に表示されているという基準を含む、請求項25〜28のいずれか一項に記載の方法。
  30. 前記複数のユーザインタフェースオブジェクトがアプリケーションウィンドウを含み、
    前記対応するユーザインタフェースオブジェクトの前記小部分が前記アプリケーションウィンドウ内の選択可能なアフォーダンスを含む、
    請求項25〜29のいずれか一項に記載の方法。
  31. 前記複数のユーザインタフェースオブジェクトが段落であり、
    前記小部分が単語である、
    請求項25〜29のいずれか一項に記載の方法。
  32. 前記複数のユーザインタフェースオブジェクトが文であり、
    前記小部分が単語である、
    請求項25〜29のいずれか一項に記載の方法。
  33. 前記複数のユーザインタフェースオブジェクトが単語であり、
    前記小部分が文字である、
    請求項25〜29のいずれか一項に記載の方法。
  34. 前記複数のユーザインタフェースオブジェクトの対応するユーザインタフェースオブジェクトが、小部分の第1のクラスに対応するレベル及び小部分の第2のクラスに対応するレベルを含む、小部分の階層を含み、
    前記方法が、前記接触の前記移動を検出したことに応答して、
    第1の出力基準が満たされたとの判定に従い、小部分の前記第2のクラス内の小部分に対応する触知出力を生成することなく、小部分の前記第1のクラス内の小部分に対応する触知出力を生成することと、
    第2の出力基準が満たされたとの判定に従い、小部分の前記第1のクラス内の小部分に対応する触知出力を生成し、小部分の前記第2のクラス内の小部分に対応する触知出力を生成することと、
    を含む、請求項25〜33のいずれか一項に記載の方法。
  35. 電子デバイスであって、
    ディスプレイと、
    タッチ感知面と、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、
    を備え、前記1つ以上のプログラムは、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成され、前記1つ以上のプログラムは、
    前記ディスプレイ上に複数のユーザインタフェースオブジェクトを表示することであって、前記複数のユーザインタフェースオブジェクトの各々は複数の小部分を含む、表示することと、
    前記複数のユーザインタフェースオブジェクト内の対応するユーザインタフェースオブジェクト上へのフォーカスセレクタの移動に対応する前記タッチ感知面上の接触の移動を検出することと、
    前記接触の前記移動を検出したことに応答して、
    出力基準が満たされたとの判定に従い、前記対応するユーザインタフェースオブジェクトの対応する境界及び前記対応するユーザインタフェースオブジェクトの小部分に対応する触知出力を生成することと、
    前記出力基準は満たされなかったとの判定に従い、前記対応するユーザインタフェースオブジェクトの前記小部分に対応する触知出力を生成することなく、前記対応するユーザインタフェースオブジェクトの前記対応する境界に対応する触知出力を生成することと、
    のための命令を含む、電子デバイス。
  36. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムは命令を含み、前記命令は、ディスプレイ及びタッチ感知面を備えた電子デバイスによって実行されると、前記デバイスに、
    前記ディスプレイ上に複数のユーザインタフェースオブジェクトを表示することであって、前記複数のユーザインタフェースオブジェクトの各々は複数の小部分を含む、表示することと、
    前記複数のユーザインタフェースオブジェクト内の対応するユーザインタフェースオブジェクト上へのフォーカスセレクタの移動に対応する前記タッチ感知面上の接触の移動を検出することと、
    前記接触の前記移動を検出したことに応答して、
    出力基準が満たされたとの判定に従い、前記対応するユーザインタフェースオブジェクトの対応する境界及び前記対応するユーザインタフェースオブジェクトの小部分に対応する触知出力を生成することと、
    前記出力基準は満たされなかったとの判定に従い、前記対応するユーザインタフェースオブジェクトの前記小部分に対応する触知出力を生成することなく、前記対応するユーザインタフェースオブジェクトの前記対応する境界に対応する触知出力を生成することと、
    をさせる、コンピュータ可読記憶媒体。
  37. ディスプレイ、タッチ感知面、メモリ、及び前記メモリに記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサを備えた電子デバイス上のグラフィカルユーザインタフェースであって、
    複数のユーザインタフェースオブジェクトであって、前記複数のユーザインタフェースオブジェクトの各々は複数の小部分を含む、複数のユーザインタフェースオブジェクトを備え、
    前記複数のユーザインタフェースオブジェクト内の対応するユーザインタフェースオブジェクト上へのフォーカスセレクタの移動に対応する前記タッチ感知面上の接触の移動が検出され、
    前記接触の前記移動を検出したことに応答して、
    前記出力基準が満たされたとの判定に従い、前記対応するユーザインタフェースオブジェクトの対応する境界及び前記対応するユーザインタフェースオブジェクトの小部分に対応する触知出力が生成され、
    出力基準は満たされなかったとの判定に従い、前記対応するユーザインタフェースオブジェクトの対応する境界に対応する触知出力が生成され、前記対応するユーザインタフェースオブジェクトの小部分に対応する触知出力が生成されない、
    グラフィカルユーザインタフェース。
  38. 電子デバイスであって、
    ディスプレイと、
    タッチ感知面と、
    前記ディスプレイ上に複数のユーザインタフェースオブジェクトを表示するための手段であって、前記複数のユーザインタフェースオブジェクトの各々は複数の小部分を含む、手段と、
    前記複数のユーザインタフェースオブジェクト内の対応するユーザインタフェースオブジェクト上へのフォーカスセレクタの移動に対応する前記タッチ感知面上の接触の移動を検出するための手段と、
    前記接触の前記移動を検出したことに応答して、
    出力基準が満たされたとの判定に従い、前記対応するユーザインタフェースオブジェクトの対応する境界及び前記対応するユーザインタフェースオブジェクトの小部分に対応する触知出力を生成することと、
    前記出力基準は満たされなかったとの判定に従い、前記対応するユーザインタフェースオブジェクトの前記小部分に対応する触知出力を生成することなく、前記対応するユーザインタフェースオブジェクトの前記対応する境界に対応する触知出力を生成することと、
    のための手段と、
    を備える、電子デバイス。
  39. ディスプレイ及びタッチ感知面を備えた電子デバイス内で使用される情報処理装置であって、
    前記ディスプレイ上に複数のユーザインタフェースオブジェクトを表示するための手段であって、前記複数のユーザインタフェースオブジェクトの各々は複数の小部分を含む、手段と、
    前記複数のユーザインタフェースオブジェクト内の対応するユーザインタフェースオブジェクト上へのフォーカスセレクタの移動に対応する前記タッチ感知面上の接触の移動を検出するための手段と、
    前記接触の前記移動を検出したことに応答して、
    出力基準が満たされたとの判定に従い、前記対応するユーザインタフェースオブジェクトの対応する境界及び前記対応するユーザインタフェースオブジェクトの小部分に対応する触知出力を生成することと、
    前記出力基準は満たされなかったとの判定に従い、前記対応するユーザインタフェースオブジェクトの前記小部分に対応する触知出力を生成することなく、前記対応するユーザインタフェースオブジェクトの前記対応する境界に対応する触知出力を生成することと、
    のための手段と、
    を備える、情報処理装置。
  40. 電子デバイスであって、
    ディスプレイと、
    タッチ感知面と、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、
    を備え、前記1つ以上のプログラムは前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成され、前記1つ以上のプログラムは、請求項25〜34に記載の前記方法のいずれか1つを実行するための命令を含む、電子デバイス。
  41. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムは命令を含み、前記命令はディスプレイ及びタッチ感知面を備えた電子デバイスによって実行されると、請求項25〜34に記載の前記方法のいずれか1つを前記デバイスに実行させる、コンピュータ可読記憶媒体。
  42. ディスプレイ、タッチ感知面、メモリ、及び前記メモリに記憶されている1つ以上のプログラムを実行するための1つ以上のプロセッサを備えた電子デバイス上のグラフィカルユーザインタフェースであって、請求項25〜34に記載の前記方法のいずれか1つに従って表示されるユーザインタフェースを備える、グラフィカルユーザインタフェース。
  43. 電子デバイスであって、
    ディスプレイと、
    タッチ感知面と
    請求項25〜34に記載の前記方法のいずれか1つを実行するための手段を備える、電子デバイス。
  44. ディスプレイ及びタッチ感知面を備えた電子デバイス内で使用される情報処理装置であって、
    請求項25〜34に記載の前記方法のいずれか1つを実行するための手段を備える、電子デバイス。
  45. 電子デバイスであって、
    1つ以上のユーザインタフェースオブジェクトを表示するように構成された表示ユニットと、
    ユーザによる接触を受けるように構成されたタッチ感知面ユニットと、
    前記表示ユニット及び前記タッチ感知面ユニットに結合された処理ユニットと、
    を備え、前記処理ユニットが、
    前記表示ユニット上の複数のユーザインタフェースオブジェクトの表示を可能にすることであって、前記複数のユーザインタフェースオブジェクトの各々は複数の小部分を含む、可能にすることと、
    前記複数のユーザインタフェースオブジェクト内の対応するユーザインタフェースオブジェクト上へのフォーカスセレクタの移動に対応する前記タッチ感知面上の接触の移動を検出することと、
    前記接触の前記移動を検出したことに応答して、
    出力基準が満たされたとの判定に従い、前記対応するユーザインタフェースオブジェクトの対応する境界及び前記対応するユーザインタフェースオブジェクトの小部分に対応する触知出力を生成することと、
    前記出力基準は満たされなかったとの判定に従い、前記対応するユーザインタフェースオブジェクトの前記小部分に対応する触知出力を生成することなく、前記対応するユーザインタフェースオブジェクトの前記対応する境界に対応する触知出力を生成することと、
    をするように構成される、電子デバイス。
  46. 前記出力基準が、前記フォーカスセレクタが前記対応するユーザインタフェースオブジェクト上に移動する際に、前記フォーカスセレクタは、対応する速度閾値を下回る速度を有するという基準を含む、請求項45に記載の電子デバイス。
  47. 前記出力基準が、前記フォーカスセレクタが前記対応するユーザインタフェースオブジェクト上に移動する際に、前記接触は、対応する強度閾値を上回る強度を有するという基準を含む、請求項45〜46のいずれか一項に記載の電子デバイス。
  48. 前記出力基準が、前記フォーカスセレクタが前記対応するユーザインタフェースオブジェクト上に移動する際に、前記接触は、対応する強度閾値を下回る強度を有するという基準を含む、請求項45〜47のいずれか一項に記載の電子デバイス。
  49. 前記出力基準が、前記対応するユーザインタフェースオブジェクトは前記ユーザインタフェース内のアクティブなウィンドウ内に表示されているという基準を含む、請求項45〜48のいずれか一項に記載の電子デバイス。
  50. 前記複数のユーザインタフェースオブジェクトがアプリケーションウィンドウを含み、
    前記対応するユーザインタフェースオブジェクトの前記小部分が前記アプリケーションウィンドウ内の選択可能なアフォーダンスを含む、
    請求項45〜49のいずれか一項に記載の電子デバイス。
  51. 前記複数のユーザインタフェースオブジェクトが段落であり、
    前記小部分が単語である、
    請求項45〜49のいずれか一項に記載の電子デバイス。
  52. 前記複数のユーザインタフェースオブジェクトが文であり、
    前記小部分が単語である、
    請求項45〜49のいずれか一項に記載の電子デバイス。
  53. 前記複数のユーザインタフェースオブジェクトが単語であり、
    前記小部分が文字である、
    請求項45〜49のいずれか一項に記載の電子デバイス。
  54. 前記複数のユーザインタフェースオブジェクトの対応するユーザインタフェースオブジェクトが、小部分の第1のクラスに対応するレベル及び小部分の第2のクラスに対応するレベルを含む、小部分の階層を含み、
    前記処理ユニットが、
    前記接触の前記移動を検出したことに応答して、
    第1の出力基準が満たされたとの判定に従い、小部分の前記第2のクラス内の小部分に対応する触知出力を生成することなく、小部分の前記第1のクラス内の小部分に対応する触知出力を生成することと、
    第2の出力基準が満たされたとの判定に従い、小部分の前記第1のクラス内の小部分に対応する触知出力を生成し、小部分の前記第2のクラス内の小部分に対応する触知出力を生成することと、
    をするように構成される、請求項45〜53のいずれか一項に記載の電子デバイス。
  55. タッチ感知面及びディスプレイを備え、前記タッチ感知面との接触の強度を検出するための1つ以上のセンサを含む、電子デバイスにおいて、
    前記タッチ感知面上での接触を検出することであって、前記接触が、前記ディスプレイ上のフォーカスセレクタに対応する、接触を検出することと、
    前記接触からの入力に基づくジェスチャを検出することと、
    前記ジェスチャの検出に応答して、
    前記ジェスチャは、対応するユーザインタフェースオブジェクト上への、前記対応するユーザインタフェースオブジェクトをアクティブ化することのない前記フォーカスセレクタの移動に対応するとの判定に従い、前記タッチ感知面上に、前記対応するユーザインタフェースオブジェクト上への前記フォーカスセレクタの移動に対応する第1の触知出力を生成することと、
    前記ジェスチャは、前記フォーカスセレクタが前記対応するユーザインタフェースオブジェクト上にある間におけるアクティブ化強度閾値を上回る前記接触の強度の増大に対応するとの判定に従い、前記タッチ感知面上に、前記対応するユーザインタフェースオブジェクトのアクティブ化に対応する、前記第1の触知出力と異なる第2の触知出力を生成することと、
    を含む方法。
  56. 前記ジェスチャは、前記フォーカスセレクタが前記対応するユーザインタフェースオブジェクト上にある間におけるアクティブ化強度閾値を上回る前記接触の強度の増大に対応するとの判定に従い、前記対応するユーザインタフェースオブジェクトをアクティブ化することを含む、請求項55に記載の方法。
  57. 前記第1の触知出力が第1の支配的運動成分を含む前記タッチ感知面の運動によって生成され、
    前記第2の触知出力が第2の支配的運動成分を含む前記タッチ感知面の運動によって生成され、
    前記第1の支配的運動成分及び前記第2の支配的運動成分が、同じ振幅及び異なる運動プロファイルを有する、請求項55〜56のいずれか一項に記載の方法。
  58. 前記第1の触知出力が第1の支配的運動成分を含む前記タッチ感知面の運動によって生成され、
    前記第2の触知出力が第2の支配的運動成分を含む前記タッチ感知面の運動によって生成され、
    前記第1の支配的運動成分及び前記第2の支配的運動成分が同じ運動プロファイル及び異なる振幅を有する、請求項55〜56のいずれか一項に記載の方法。
  59. 電子デバイスであって、
    ディスプレイと、
    タッチ感知面と、
    前記タッチ感知面との接触の強度を検出するための1つ以上のセンサと、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、
    を備え、前記1つ以上のプログラムは、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成され、前記1つ以上のプログラムは、
    前記タッチ感知面上での接触を検出することであって、前記接触が、前記ディスプレイ上のフォーカスセレクタに対応する、接触を検出することと、
    前記接触からの入力に基づくジェスチャを検出することと、
    前記ジェスチャの検出に応答して、
    前記ジェスチャは、対応するユーザインタフェースオブジェクト上への、前記対応するユーザインタフェースオブジェクトをアクティブ化することのない前記フォーカスセレクタの移動に対応するとの判定に従い、前記タッチ感知面上に、前記対応するユーザインタフェースオブジェクト上への前記フォーカスセレクタの移動に対応する第1の触知出力を生成することと、
    前記ジェスチャは、前記フォーカスセレクタが前記対応するユーザインタフェースオブジェクト上にある間におけるアクティブ化強度閾値を上回る前記接触の強度の増大に対応するとの判定に従い、前記タッチ感知面上に、前記対応するユーザインタフェースオブジェクトのアクティブ化に対応する、前記第1の触知出力と異なる第2の触知出力を生成することと、
    のための命令を含む、電子デバイス。
  60. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、ディスプレイ、タッチ感知面、及び前記タッチ感知面との接触の強度を検出するための1つ以上のセンサを備える電子デバイスによって実行されると、前記デバイスに、
    前記タッチ感知面上での接触を検出することであって、前記接触が、前記ディスプレイ上のフォーカスセレクタに対応する、接触を検出することと、
    前記接触からの入力に基づくジェスチャを検出することと、
    前記ジェスチャの検出に応答して、
    前記ジェスチャは、対応するユーザインタフェースオブジェクト上への、前記対応するユーザインタフェースオブジェクトをアクティブ化することのない前記フォーカスセレクタの移動に対応するとの判定に従い、前記タッチ感知面上に、前記対応するユーザインタフェースオブジェクト上への前記フォーカスセレクタの移動に対応する第1の触知出力を生成することと、
    前記ジェスチャは、前記フォーカスセレクタが前記対応するユーザインタフェースオブジェクト上にある間におけるアクティブ化強度閾値を上回る前記接触の強度の増大に対応するとの判定に従い、前記タッチ感知面上に、前記対応するユーザインタフェースオブジェクトのアクティブ化に対応する、前記第1の触知出力と異なる第2の触知出力を生成することと、
    をさせる、コンピュータ可読記憶媒体。
  61. ディスプレイ、タッチ感知面、並びに前記タッチ感知面との接触の強度を検出するための1つ以上のセンサ、メモリ、及び前記メモリ内に記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサを備える電子デバイス上のグラフィカルユーザインタフェースであって、
    1つ以上のユーザインタフェースオブジェクトを備え、
    前記タッチ感知面上において、フォーカスセレクタに対応する接触が検出され、
    前記接触からの入力に基づくジェスチャが検出され、
    前記ジェスチャの検出に応答して、
    前記ジェスチャは、前記1つ以上のユーザインタフェースオブジェクトの対応するユーザインタフェースオブジェクト上への、前記対応するユーザインタフェースオブジェクトをアクティブ化することのない前記フォーカスセレクタの移動に対応するとの判定に従い、前記タッチ感知面上に、前記対応するユーザインタフェースオブジェクト上への前記フォーカスセレクタの移動に対応する第1の触知出力が生成され、
    前記ジェスチャは、前記フォーカスセレクタが前記対応するユーザインタフェースオブジェクト上にある間におけるアクティブ化強度閾値を上回る前記接触の強度の増大に対応するとの判定に従い、前記タッチ感知面上に、前記対応するユーザインタフェースオブジェクトのアクティブ化に対応する、前記第1の触知出力と異なる第2の触知出力が生成される、
    グラフィカルユーザインタフェース。
  62. 電子デバイスであって、
    ディスプレイと、
    タッチ感知面と、
    前記タッチ感知面との接触の強度を検出するための1つ以上のセンサと、
    前記タッチ感知面上での接触を検出するための手段であって、前記接触が、前記ディスプレイ上のフォーカスセレクタに対応する、手段と、
    前記接触からの入力に基づくジェスチャを検出するための手段と、
    前記ジェスチャの検出に応答して、
    前記ジェスチャは、対応するユーザインタフェースオブジェクト上への、前記対応するユーザインタフェースオブジェクトをアクティブ化することのない前記フォーカスセレクタの移動に対応するとの判定に従い、前記タッチ感知面上に、前記対応するユーザインタフェースオブジェクト上への前記フォーカスセレクタの移動に対応する第1の触知出力を生成することと、
    前記ジェスチャは、前記フォーカスセレクタが前記対応するユーザインタフェースオブジェクト上にある間におけるアクティブ化強度閾値を上回る前記接触の強度の増大に対応するとの判定に従い、前記タッチ感知面上に、前記対応するユーザインタフェースオブジェクトのアクティブ化に対応する、前記第1の触知出力と異なる第2の触知出力を生成することと、
    のための手段と、
    を備える、電子デバイス。
  63. ディスプレイ、タッチ感知面、及び前記タッチ感知面との接触の強度を検出するための1つ以上のセンサを備える電子デバイス内で使用するための、情報処理装置であって、
    前記タッチ感知面上での接触を検出するための手段であって、前記接触が、前記ディスプレイ上のフォーカスセレクタに対応する、手段と、
    前記接触からの入力に基づくジェスチャを検出するための手段と、
    前記ジェスチャの検出に応答して、
    前記ジェスチャは、対応するユーザインタフェースオブジェクト上への、前記対応するユーザインタフェースオブジェクトをアクティブ化することのない前記フォーカスセレクタの移動に対応するとの判定に従い、前記タッチ感知面上に、前記対応するユーザインタフェースオブジェクト上への前記フォーカスセレクタの移動に対応する第1の触知出力を生成することと、
    前記ジェスチャは、前記フォーカスセレクタが前記対応するユーザインタフェースオブジェクト上にある間におけるアクティブ化強度閾値を上回る前記接触の強度の増大に対応するとの判定に従い、前記タッチ感知面上に、前記対応するユーザインタフェースオブジェクトのアクティブ化に対応する、前記第1の触知出力と異なる第2の触知出力を生成するためのことと、
    のための手段と、
    を備える、情報処理装置。
  64. 電子デバイスであって、
    ディスプレイと、
    タッチ感知面と、
    前記タッチ感知面との接触の強度を検出するための1つ以上のセンサと、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、
    を備え、前記1つ以上のプログラムは前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成され、前記1つ以上のプログラムは、請求項55〜58に記載の前記方法のいずれか1つを実行するための命令を含む、電子デバイス。
  65. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、ディスプレイ、タッチ感知面、及び前記タッチ感知面との接触の強度を検出するための1つ以上のセンサを備える電子デバイスによって実行されると、前記デバイスに、請求項55〜58に記載の前記方法のいずれか1つを実行させる、命令を含む、コンピュータ可読記憶媒体。
  66. ディスプレイ、タッチ感知面、前記タッチ感知面との接触の強度を検出するための1つ以上のセンサ、メモリ、及び前記メモリ内に記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサを備える電子デバイス上の、グラフィカルユーザインタフェースであって、請求項55〜58に記載の前記方法のいずれか1つに従って表示されるユーザインタフェースを備え、グラフィカルユーザインタフェース。
  67. 電子デバイスであって、
    ディスプレイと、
    タッチ感知面と、
    前記タッチ感知面との接触の強度を検出するための1つ以上のセンサと、
    請求項55〜58に記載の前記方法のいずれか1つを実行するための手段を備える、電子デバイス。
  68. ディスプレイ、タッチ感知面、及び前記タッチ感知面との接触の強度を検出するための1つ以上のセンサを備える電子デバイス内で使用するための、情報処理装置であって、
    請求項55〜58に記載の前記方法のいずれか1つを実行するための手段を備える、電子デバイス。
  69. 電子デバイスであって、
    1つ以上のユーザインタフェースオブジェクトを表示するように構成された表示ユニットと、
    ユーザによる接触を受けるように構成されたタッチ感知面ユニットと、
    前記表示ユニット及び前記タッチ感知面ユニットに結合された処理ユニットと、
    を備え、前記処理ユニットが、
    前記タッチ感知面上での接触を検出することであって、前記接触が、前記ディスプレイ上のフォーカスセレクタに対応する、接触を検出することと、
    前記接触からの入力に基づくジェスチャを検出することと、
    前記ジェスチャの検出に応答して、
    前記ジェスチャは、前記1つ以上のユーザインタフェースオブジェクトの対応するユーザインタフェースオブジェクト上への、前記対応するユーザインタフェースオブジェクトをアクティブ化することのない前記フォーカスセレクタの移動に対応するとの判定に従い、前記タッチ感知面上に、前記対応するユーザインタフェースオブジェクト上への前記フォーカスセレクタの移動に対応する第1の触知出力を生成することと、
    前記ジェスチャは、前記フォーカスセレクタが前記対応するユーザインタフェースオブジェクト上にある間におけるアクティブ化強度閾値を上回る前記接触の強度の増大に対応するとの判定に従い、前記タッチ感知面上に、前記対応するユーザインタフェースオブジェクトのアクティブ化に対応する、前記第1の触知出力と異なる第2の触知出力を生成することと、
    をするように構成される、電子デバイス。
  70. 前記処理ユニットが、前記ジェスチャは、前記フォーカスセレクタが前記対応するユーザインタフェースオブジェクト上にある間におけるアクティブ化強度閾値を上回る前記接触の強度の増大に対応するとの判定に従い、前記対応するユーザインタフェースオブジェクトをアクティブ化するように構成される、請求項69に記載の電子デバイス。
  71. 前記第1の触知出力が第1の支配的運動成分を含む前記タッチ感知面の運動によって生成され、
    前記第2の触知出力が第2の支配的運動成分を含む前記タッチ感知面の運動によって生成され、
    前記第1の支配的運動成分及び前記第2の支配的運動成分が、同じ振幅及び異なる運動プロファイルを有する、請求項69〜70のいずれか一項に記載の電子デバイス。
  72. 前記第1の触知出力が第1の支配的運動成分を含む前記タッチ感知面の運動によって生成され、
    前記第2の触知出力が第2の支配的運動成分を含む前記タッチ感知面の運動によって生成され、
    前記第1の支配的運動成分及び前記第2の支配的運動成分が同じ運動プロファイル及び異なる振幅を有する、請求項69〜70のいずれか一項に記載の電子デバイス。
  73. タッチ感知面及びディスプレイを備えた電子デバイスにおいて、
    前記ディスプレイ上に、コントロール領域、及び前記コントロール領域と別個のコンテンツ領域を含むアプリケーションウィンドウを表示することであって、
    前記コントロール領域は、前記コンテンツ領域内のコンテンツに対して動作を実行するための複数のアフォーダンスを含み、
    前記コンテンツ領域は、前記コンテンツ内に組み込まれた1つ以上のアフォーダンスを含むコンテンツを表示する、
    表示することと、
    前記タッチ感知面上の接触を検出することと、
    前記アプリケーションウィンドウを横切る前記ディスプレイ上のフォーカスセレクタの移動に対応する前記タッチ感知面を横切る前記接触の移動を含むジェスチャを検出することと、
    前記ジェスチャの検出に応答して、
    前記ジェスチャは前記コントロール領域内の第1のアフォーダンス上への前記フォーカスセレクタの移動に対応するとの判定に従い、前記タッチ感知面上に、前記コントロール領域内のアフォーダンス上への前記フォーカスセレクタの移動に対応する第1の触知出力を生成することと、
    前記ジェスチャは前記コンテンツ領域内の第2のアフォーダンス上への前記フォーカスセレクタの移動に対応するとの判定に従い、前記タッチ感知面上に、前記コンテンツ領域内のアフォーダンス上への前記フォーカスセレクタの移動に対応する、前記第1の触知出力と異なる第2の触知出力を生成することと、
    を含む方法。
  74. 前記コントロール領域内の前記複数のアフォーダンスが、前記コンテンツ領域内に表示される前記コンテンツに関係なく前記アプリケーションの前記コントロール領域内に表示される複数のコンテンツ非依存コントロールを含む、請求項73に記載の方法。
  75. 前記第1の触知出力が第1の支配的運動成分を含む前記タッチ感知面の運動によって生成され、
    前記第2の触知出力が第2の支配的運動成分を含む前記タッチ感知面の運動によって生成され、
    前記第1の支配的運動成分及び前記第2の支配的運動成分が、同じ振幅及び異なる運動プロファイルを有する、
    請求項73〜74のいずれか一項に記載の方法。
  76. 前記第1の触知出力が第1の支配的運動成分を含む前記タッチ感知面の運動によって生成され、
    前記第2の触知出力が第2の支配的運動成分を含む前記タッチ感知面の運動によって生成され、
    前記第1の支配的運動成分及び前記第2の支配的運動成分が同じ運動プロファイル及び異なる振幅を有する、
    請求項73〜74のいずれか一項に記載の方法。
  77. 電子デバイスであって、
    ディスプレイと、
    タッチ感知面と、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、
    を備え、前記1つ以上のプログラムは、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成され、前記1つ以上のプログラムは、
    前記ディスプレイ上に、コントロール領域、及び前記コントロール領域と別個のコンテンツ領域を含むアプリケーションウィンドウを表示することであって、
    前記コントロール領域は、前記コンテンツ領域内のコンテンツに対して動作を実行するための複数のアフォーダンスを含み、
    前記コンテンツ領域は、前記コンテンツ内に組み込まれた1つ以上のアフォーダンスを含むコンテンツを表示する、
    表示することと、
    前記タッチ感知面上の接触を検出することと、
    前記アプリケーションウィンドウを横切る前記ディスプレイ上のフォーカスセレクタの移動に対応する前記タッチ感知面を横切る前記接触の移動を含むジェスチャを検出することと、
    前記ジェスチャの検出に応答して、
    前記ジェスチャは前記コントロール領域内の第1のアフォーダンス上への前記フォーカスセレクタの移動に対応するとの判定に従い、前記タッチ感知面上に、前記コントロール領域内のアフォーダンス上への前記フォーカスセレクタの移動に対応する第1の触知出力を生成することと、
    前記ジェスチャは前記コンテンツ領域内の第2のアフォーダンス上への前記フォーカスセレクタの移動に対応するとの判定に従い、前記タッチ感知面上に、前記コンテンツ領域内のアフォーダンス上への前記フォーカスセレクタの移動に対応する、前記第1の触知出力と異なる第2の触知出力を生成することと、
    のための命令を含む、電子デバイス。
  78. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムは命令を含み、前記命令は、ディスプレイ及びタッチ感知面を備えた電子デバイスによって実行されると、前記デバイスに、
    前記ディスプレイ上に、コントロール領域、及び前記コントロール領域と別個のコンテンツ領域を含むアプリケーションウィンドウを表示することであって、
    前記コントロール領域は、前記コンテンツ領域内のコンテンツに対して動作を実行するための複数のアフォーダンスを含み、
    前記コンテンツ領域は、前記コンテンツ内に組み込まれた1つ以上のアフォーダンスを含むコンテンツを表示する、
    表示することと、
    前記タッチ感知面上の接触を検出することと、
    前記アプリケーションウィンドウを横切る前記ディスプレイ上のフォーカスセレクタの移動に対応する前記タッチ感知面を横切る前記接触の移動を含むジェスチャを検出することと、
    前記ジェスチャの検出に応答して、
    前記ジェスチャは前記コントロール領域内の第1のアフォーダンス上への前記フォーカスセレクタの移動に対応するとの判定に従い、前記タッチ感知面上に、前記コントロール領域内のアフォーダンス上への前記フォーカスセレクタの移動に対応する第1の触知出力を生成することと、
    前記ジェスチャは前記コンテンツ領域内の第2のアフォーダンス上への前記フォーカスセレクタの移動に対応するとの判定に従い、前記タッチ感知面上に、前記コンテンツ領域内のアフォーダンス上への前記フォーカスセレクタの移動に対応する、前記第1の触知出力と異なる第2の触知出力を生成することと、
    をさせる、コンピュータ可読記憶媒体。
  79. ディスプレイ、タッチ感知面、メモリ、及び前記メモリに記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサを備えた電子デバイス上のグラフィカルユーザインタフェースであって、
    コントロール領域、及び前記コントロール領域と別個のコンテンツ領域を含むアプリケーションウィンドウであって、
    前記コントロール領域は、前記コンテンツ領域内のコンテンツに対して動作を実行するための複数のアフォーダンスを含み、
    前記コンテンツ領域は、前記コンテンツ内に組み込まれた1つ以上のアフォーダンスを含むコンテンツを表示する、
    アプリケーションウィンドウ、を備え、
    前記タッチ感知面上の接触が検出され、
    前記アプリケーションウィンドウを横切る前記ディスプレイ上のフォーカスセレクタの移動に対応する前記タッチ感知面を横切る前記接触の移動を含むジェスチャが検出され、
    前記ジェスチャの検出に応答して、
    前記ジェスチャは前記コントロール領域内の第1のアフォーダンス上への前記フォーカスセレクタの移動に対応するとの判定に従い、前記コントロール領域内のアフォーダンス上への前記フォーカスセレクタの移動に対応する前記タッチ感知面上の第1の触知出力が生成され、
    前記ジェスチャは前記コンテンツ領域内の第2のアフォーダンス上への前記フォーカスセレクタの移動に対応するとの判定に従い、前記コンテンツ領域内のアフォーダンス上への前記フォーカスセレクタの移動に対応する、前記第1の触知出力と異なる前記タッチ感知面上の第2の触知出力が生成される、
    グラフィカルユーザインタフェース。
  80. 電子デバイスであって、
    ディスプレイと、
    タッチ感知面と、
    前記ディスプレイ上に、コントロール領域、及び前記コントロール領域と別個のコンテンツ領域を含むアプリケーションウィンドウを表示するための手段であって、
    前記コントロール領域は、前記コンテンツ領域内のコンテンツに対して動作を実行するための複数のアフォーダンスを含み、
    前記コンテンツ領域は、前記コンテンツ内に組み込まれた1つ以上のアフォーダンスを含むコンテンツを表示する、
    手段と、
    前記タッチ感知面上の接触を検出する手段と、
    前記アプリケーションウィンドウを横切る前記ディスプレイ上のフォーカスセレクタの移動に対応する前記タッチ感知面を横切る前記接触の移動を含むジェスチャを検出するための手段と、
    前記ジェスチャの検出に応答して、
    前記ジェスチャは前記コントロール領域内の第1のアフォーダンス上への前記フォーカスセレクタの移動に対応するとの判定に従い、前記タッチ感知面上に、前記コントロール領域内のアフォーダンス上への前記フォーカスセレクタの移動に対応する第1の触知出力を生成することと、
    前記ジェスチャは前記コンテンツ領域内の第2のアフォーダンス上への前記フォーカスセレクタの移動に対応するとの判定に従い、前記タッチ感知面上に、前記コンテンツ領域内のアフォーダンス上への前記フォーカスセレクタの移動に対応する、前記第1の触知出力と異なる第2の触知出力を生成することと、
    ための手段と、
    を備える、電子デバイス。
  81. ディスプレイ及びタッチ感知面を備えた電子デバイス内で使用される情報処理装置であって、
    前記ディスプレイ上に、コントロール領域、及び前記コントロール領域と別個のコンテンツ領域を含むアプリケーションウィンドウを表示するための手段であって、
    前記コントロール領域は、前記コンテンツ領域内のコンテンツに対して動作を実行するための複数のアフォーダンスを含み、
    前記コンテンツ領域は、前記コンテンツ内に組み込まれた1つ以上のアフォーダンスを含むコンテンツを表示する、
    手段と、
    前記タッチ感知面上の接触を検出する手段と、
    前記アプリケーションウィンドウを横切る前記ディスプレイ上のフォーカスセレクタの移動に対応する前記タッチ感知面を横切る前記接触の移動を含むジェスチャを検出するための手段と、
    前記ジェスチャの検出に応答して、
    前記ジェスチャは前記コントロール領域内の第1のアフォーダンス上への前記フォーカスセレクタの移動に対応するとの判定に従い、前記タッチ感知面上に、前記コントロール領域内のアフォーダンス上への前記フォーカスセレクタの移動に対応する第1の触知出力を生成することと、
    前記ジェスチャは前記コンテンツ領域内の第2のアフォーダンス上への前記フォーカスセレクタの移動に対応するとの判定に従い、前記タッチ感知面上に、前記コンテンツ領域内のアフォーダンス上への前記フォーカスセレクタの移動に対応する、前記第1の触知出力と異なる第2の触知出力を生成することと、
    のための手段と、
    を備える、情報処理装置。
  82. 電子デバイスであって、
    ディスプレイと、
    タッチ感知面と、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、
    を備え、前記1つ以上のプログラムは前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成され、前記1つ以上のプログラムは、請求項73〜76に記載の前記方法のいずれか1つを実行するための命令を含む、電子デバイス。
  83. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムは命令を含み、前記命令はディスプレイ及びタッチ感知面を備えた電子デバイスによって実行されると、請求項73〜76に記載の方法のいずれかを前記デバイスに実行させる、コンピュータ可読記憶媒体。
  84. ディスプレイ、タッチ感知面、メモリ、及び前記メモリに記憶されている1つ以上のプログラムを実行するための1つ以上のプロセッサを備えた電子デバイス上のグラフィカルユーザインタフェースであって、請求項73〜76に記載の前記方法のいずれか1つに従って表示されるユーザインタフェースを備える、グラフィカルユーザインタフェース。
  85. 電子デバイスであって、
    ディスプレイと、
    タッチ感知面と
    請求項73〜76に記載の前記方法のいずれか1つを実行するための手段を備える、電子デバイス。
  86. ディスプレイ及びタッチ感知面を備えた電子デバイス内で使用される情報処理装置であって、
    請求項73〜76に記載の前記方法のいずれか1つを実行するための手段を備える、情報処理装置。
  87. 電子デバイスであって、
    アプリケーションウィンドウを表示するように構成される表示ユニットと、
    ユーザによる接触及びジェスチャを受けるように構成されるタッチ感知面ユニットと、
    前記表示ユニット及び前記タッチ感知面ユニットに結合された処理ユニットと、
    を備え、前記処理ユニットが、
    前記ディスプレイ上に、コントロール領域、及び前記コントロール領域と別個のコンテンツ領域を含むアプリケーションウィンドウの表示を可能にすることであって、
    前記コントロール領域は、前記コンテンツ領域内のコンテンツに対して動作を実行するための複数のアフォーダンスを含み、
    前記コンテンツ領域は、前記コンテンツ内に組み込まれた1つ以上のアフォーダンスを含むコンテンツを表示する、
    可能にすることと、
    前記タッチ感知面ユニット上の接触を検出することと、
    前記アプリケーションウィンドウを横切る前記ディスプレイ上のフォーカスセレクタの移動に対応する前記タッチ感知面ユニットを横切る前記接触の移動を含むジェスチャを検出することと、
    前記ジェスチャの検出に応答して、
    前記ジェスチャは前記コントロール領域内の第1のアフォーダンス上への前記フォーカスセレクタの移動に対応するとの判定に従い、前記タッチ感知面ユニット上に、前記コントロール領域内のアフォーダンス上への前記フォーカスセレクタの移動に対応する第1の触知出力を生成することと、
    前記ジェスチャは前記コンテンツ領域内の第2のアフォーダンス上への前記フォーカスセレクタの移動に対応するとの判定に従い、前記タッチ感知面ユニット上に、前記コンテンツ領域内のアフォーダンス上への前記フォーカスセレクタの移動に対応する、前記第1の触知出力と異なる第2の触知出力を生成することと、
    をするように構成される、電子デバイス。
  88. 前記コントロール領域内の前記複数のアフォーダンスが、前記コンテンツ領域内に表示される前記コンテンツに関係なく前記アプリケーションの前記コントロール領域内に表示される複数のコンテンツ非依存コントロールを含む、請求項87に記載の電子デバイス。
  89. 前記第1の触知出力が第1の支配的運動成分を含む前記タッチ感知面ユニットの運動によって生成され、
    前記第2の触知出力が第2の支配的運動成分を含む前記タッチ感知面ユニットの運動によって生成され、
    前記第1の支配的運動成分及び前記第2の支配的運動成分が、同じ振幅及び異なる運動プロファイルを有する、請求項87〜88のいずれか一項に記載の電子デバイス。
  90. 前記第1の触知出力が第1の支配的運動成分を含む前記タッチ感知面ユニットの運動によって生成され、
    前記第2の触知出力が第2の支配的運動成分を含む前記タッチ感知面ユニットの運動によって生成され、
    前記第1の支配的運動成分及び前記第2の支配的運動成分が同じ運動プロファイル及び異なる振幅を有する、請求項87〜88のいずれか一項に記載の電子デバイス。
  91. ディスプレイ及びタッチ感知面を備えた電子デバイスにおいて、
    前記タッチ感知面上の第1の複数の入力を検出することと、
    前記第1の複数の入力を検出したことに応答して、前記デバイスの触知出力レベルに従って触知フィードバックを提供することと、
    前記デバイスの音量レベルを対応する量だけ調整せよとの要求を受信することと、
    前記音量レベルを調整せよとの前記要求に応答して、
    前記音量レベルを前記対応する量だけ第1の非0の音量レベルから第2の非0の音量レベルへ調整することと、
    前記デバイスの前記触知出力レベルを前記対応する量に従って調整することと、
    を含む方法。
  92. 前記タッチ感知面上の対応する入力に対応した対応する触知出力が、運動プロファイル及び振幅を有する支配的運動成分を含む前記タッチ感知面の運動によって生成され、
    前記デバイスの前記触知出力レベルを調整することが、前記タッチ感知面上の前記対応する入力に対応する前記対応する触知出力の前記振幅を調整することを含む、
    請求項91に記載の方法。
  93. 前記タッチ感知面上の対応する入力に対応した対応する触知出力が、運動プロファイル及び振幅を有する支配的運動成分を含む前記タッチ感知面の運動によって生成され、
    前記デバイスの前記触知出力レベルを調整することが、前記タッチ感知面上の前記対応する入力に対応する前記対応する触知出力の前記運動プロファイルを調整することを含む、
    請求項91に記載の方法。
  94. 前記デバイスの前記触知出力レベルを調整することが、前記タッチ感知面上の前記対応する入力に対応する前記対応する触知出力の前記振幅を調整することを更に含む、
    請求項93に記載の方法。
  95. 前記デバイスの前記触知出力レベルを調整した後に、前記タッチ感知面上の第2の複数の入力を検出することと、
    前記タッチ感知面上の前記第2の複数の入力を検出したことに応答して、前記調整された触知出力レベルに従って触知フィードバックを提供することと、
    を含む、請求項91〜94のいずれか一項に記載の方法。
  96. 前記音量レベルを前記対応する量だけ調整することは、前記音量レベルを増大させることを含むとの判定に従い、前記デバイスの前記触知出力レベルを調整することが、前記触知出力レベルを増大させることを含み、
    前記音量レベルを前記対応する量だけ調整することは、前記音量レベルを減少させることを含むとの判定に従い、前記デバイスの前記触知出力レベルを調整することが、前記触知出力レベルを減少させることを含む、
    請求項91〜95のいずれか一項に記載の方法。
  97. 前記音量レベルを前記対応する量だけ調整することは、前記音量レベルを増大させることを含むとの判定に従い、前記デバイスの前記触知出力レベルを調整することが、前記触知出力レベルを減少させることを含み、
    前記音量レベルを前記対応する量だけ調整することは、前記音量レベルを減少させることを含むとの判定に従い、前記デバイスの前記触知出力レベルを調整することが、前記触知出力レベルを増大させることを含む、
    請求項91〜95のいずれか一項に記載の方法。
  98. 前記デバイスの前記触知出力レベルを調整することが、前記デバイスの前記触知出力レベルを、前記対応する量に従って、第1の非0の触知出力レベルから第2の非0の触知出力レベルへ調整することを含む、請求項91〜97のいずれか一項に記載の方法。
  99. 電子デバイスであって、
    ディスプレイと、
    タッチ感知面と、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、
    を備え、前記1つ以上のプログラムは、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成され、前記1つ以上のプログラムは、
    前記タッチ感知面上の第1の複数の入力を検出することと、
    前記第1の複数の入力を検出したことに応答して、前記デバイスの触知出力レベルに従って触知フィードバックを提供することと、
    前記デバイスの音量レベルを対応する量だけ調整せよとの要求を受信するためのことと、
    前記音量レベルを調整せよとの前記要求に応答して、
    前記音量レベルを前記対応する量だけ第1の非0の音量レベルから第2の非0の音量レベルへ調整することと、
    前記デバイスの前記触知出力レベルを前記対応する量に従って調整することと、
    のための命令を含む、電子デバイス。
  100. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムは命令を含み、前記命令は、ディスプレイ及びタッチ感知面を備えた電子デバイスによって実行されると、前記デバイスに、
    前記タッチ感知面上の第1の複数の入力を検出することと、
    前記第1の複数の入力を検出したことに応答して、前記デバイスの触知出力レベルに従って触知フィードバックを提供することと、
    前記デバイスの音量レベルを対応する量だけ調整せよとの要求を受信することと、
    前記音量レベルを調整せよとの前記要求に応答して、
    前記音量レベルを前記対応する量だけ第1の非0の音量レベルから第2の非0の音量レベルへ調整することと、
    前記デバイスの前記触知出力レベルを前記対応する量に従って調整することと、
    をさせる、コンピュータ可読記憶媒体。
  101. 電子デバイスであって、
    ディスプレイと、
    タッチ感知面と
    前記タッチ感知面上の第1の複数の入力を検出するための手段と、
    前記第1の複数の入力を検出したことに応答して、前記デバイスの触知出力レベルに従って触知フィードバックを提供するための手段と、
    前記デバイスの音量レベルを対応する量だけ調整せよとの要求を受信するための手段と、
    前記音量レベルを調整せよとの前記要求に応答する手段であって、
    前記音量レベルを前記対応する量だけ第1の非0の音量レベルから第2の非0の音量レベルへ調整するための手段と、
    前記デバイスの前記触知出力レベルを前記対応する量に従って調整するための手段と、
    を含む、手段と、
    を備える、電子デバイス。
  102. ディスプレイ及びタッチ感知面を備えた電子デバイス内で使用される情報処理装置であって、
    前記タッチ感知面上の第1の複数の入力を検出するための手段と、
    前記第1の複数の入力を検出したことに応答して、前記デバイスの触知出力レベルに従って触知フィードバックを提供するための手段と、
    前記デバイスの音量レベルを対応する量だけ調整せよとの要求を受信するための手段と、
    前記音量レベルを調整せよとの前記要求に応答する手段であって、
    前記音量レベルを前記対応する量だけ第1の非0の音量レベルから第2の非0の音量レベルへ調整するための手段と、
    前記デバイスの前記触知出力レベルを前記対応する量に従って調整するための手段と、
    を含む、手段と、
    を備える、情報処理装置。
  103. 電子デバイスであって、
    ディスプレイと、
    タッチ感知面と、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、
    を備え、前記1つ以上のプログラムは前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成され、前記1つ以上のプログラムは、請求項91〜98に記載の前記方法のいずれか1つを実行するための命令を含む、電子デバイス。
  104. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムは命令を含み、前記命令は、ディスプレイ及びタッチ感知面を備えた電子デバイスによって実行されると、前記デバイスに請求項91〜98に記載の前記方法のいずれか1つを実行させる、コンピュータ可読記憶媒体。
  105. 電子デバイスであって、
    ディスプレイと、
    タッチ感知面と、
    請求項91〜98に記載の前記方法のいずれか1つを実行するための手段を備える、電子デバイス。
  106. ディスプレイ及びタッチ感知面を備えた電子デバイス内で使用される情報処理装置であって、
    請求項91〜98に記載の前記方法のいずれか1つを実行するための手段を備える、電子デバイス。
  107. 電子デバイスであって、
    情報を表示するように構成された表示ユニットと、
    前記タッチ感知面ユニット上の第1の複数の入力を検出するように構成されるタッチ感知面ユニットと、
    触知フィードバックを提供するように構成される触知フィードバックユニットと、
    前記少なくとも音量レベルに従ってオーディオ信号及びオーディオ制御信号を生成するように構成されるオーディオユニットと、
    前記表示ユニット、前記タッチ感知面ユニット、前記触知フィードバックユニット、及び前記オーディオユニットに結合される処理ユニットと、
    を備え、前記処理ユニットは、
    前記第1の複数の入力を検出したことに応答して、前記触知フィードバックユニットを介して前記デバイスの触知出力レベルに従って触知フィードバックを提供することと、
    前記デバイスの音量レベルを対応する量だけ調整せよとの要求を受信することと、
    前記音量レベルを調整せよとの前記要求に応答して、
    前記音量レベルを前記対応する量だけ第1の非0の音量レベルから第2の非0の音量レベルへ調整することと、
    前記デバイスの前記触知出力レベルを前記対応する量に従って調整することと、
    をするように構成される、電子デバイス。
  108. 前記タッチ感知面ユニット上の対応する入力に対応した対応する触知出力が、運動プロファイル及び振幅を有する支配的運動成分を含む前記タッチ感知面ユニットの運動によって生成され、
    前記デバイスの前記触知出力レベルを調整することが、前記タッチ感知面ユニット上の前記対応する入力に対応する前記対応する触知出力の前記振幅を調整することを更に含む、
    請求項107に記載の電子デバイス。
  109. 前記タッチ感知面ユニット上の対応する入力に対応した対応する触知出力が、運動プロファイル及び振幅を有する支配的運動成分を含む前記タッチ感知面ユニットの運動によって生成され、
    前記デバイスの前記触知出力レベルを調整することが、前記タッチ感知面ユニット上の前記対応する入力に対応する前記対応する触知出力の前記運動プロファイルを調整することを含む、
    請求項107に記載の電子デバイス。
  110. 前記デバイスの前記触知出力レベルを調整することが、前記タッチ感知面ユニット上の前記対応する入力に対応する前記対応する触知出力の前記振幅を調整することを更に含む、請求項107及び109のいずれか一項に記載の電子デバイス。
  111. 前記処理ユニットが、
    前記デバイスの前記触知出力レベルを調整した後に、前記タッチ感知面ユニット上の第2の複数の入力を検出することと、
    前記タッチ感知面ユニット上の前記第2の複数の入力を検出したことに応答して、前記触知フィードバックユニットを介して、前記調整された触知出力レベルに従って触知フィードバックを提供することと、
    をするように更に構成される、請求項107〜110のいずれか一項に記載の電子デバイス。
  112. 前記処理ユニットが、
    前記音量レベルを前記対応する量だけ調整することは、前記音量レベルを増大させることを含むとの判定に従い、前記触知出力レベルを増大させることによって前記デバイスの前記触知出力レベルを調整することと、
    前記音量レベルを前記対応する量だけ調整することは、前記音量レベルを減少させることを含むとの判定に従い、前記触知出力レベルを減少させることによって前記デバイスの前記触知出力レベルを調整することと、
    をするように更に構成される、請求項107〜111のいずれか一項に記載の電子デバイス。
  113. 前記処理ユニットが、
    前記音量レベルを前記対応する量だけ調整することは、前記音量レベルを増大させることを含むとの判定に従い、前記触知出力レベルを減少させることによって前記デバイスの前記触知出力レベルを調整することと、
    前記音量レベルを前記対応する量だけ調整することは、前記音量レベルを減少させることを含むとの判定に従い、前記触知出力レベルを増大させることによって前記デバイスの前記触知出力レベルを調整することと、
    をするように更に構成される、請求項107〜111のいずれか一項に記載の電子デバイス。
  114. 前記デバイスの前記触知出力レベルを調整することが、前記デバイスの前記触知出力レベルを、前記対応する量に従って、第1の非0の触知出力レベルから第2の非0の触知出力レベルへ調整することを含む、請求項107〜113のいずれか一項に記載の電子デバイス。
JP2017024234A 2012-12-29 2017-02-13 複数接触ジェスチャのために触知出力の生成を見合わせるためのデバイス、方法、及びグラフィカルユーザインタフェース Active JP6328281B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201261747278P 2012-12-29 2012-12-29
US61/747,278 2012-12-29
US201361778239P 2013-03-12 2013-03-12
US61/778,239 2013-03-12

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015549392A Division JP6093877B2 (ja) 2012-12-29 2013-11-11 複数接触ジェスチャのために触知出力の生成を見合わせるためのデバイス、方法、及びグラフィカルユーザインタフェース

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018079290A Division JP6691572B2 (ja) 2012-12-29 2018-04-17 複数接触ジェスチャのために触知出力の生成を見合わせるためのデバイス、方法、及びグラフィカルユーザインタフェース

Publications (3)

Publication Number Publication Date
JP2017123179A true JP2017123179A (ja) 2017-07-13
JP2017123179A5 JP2017123179A5 (ja) 2018-03-15
JP6328281B2 JP6328281B2 (ja) 2018-05-23

Family

ID=49640213

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2015549392A Active JP6093877B2 (ja) 2012-12-29 2013-11-11 複数接触ジェスチャのために触知出力の生成を見合わせるためのデバイス、方法、及びグラフィカルユーザインタフェース
JP2017024234A Active JP6328281B2 (ja) 2012-12-29 2017-02-13 複数接触ジェスチャのために触知出力の生成を見合わせるためのデバイス、方法、及びグラフィカルユーザインタフェース
JP2018079290A Active JP6691572B2 (ja) 2012-12-29 2018-04-17 複数接触ジェスチャのために触知出力の生成を見合わせるためのデバイス、方法、及びグラフィカルユーザインタフェース

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2015549392A Active JP6093877B2 (ja) 2012-12-29 2013-11-11 複数接触ジェスチャのために触知出力の生成を見合わせるためのデバイス、方法、及びグラフィカルユーザインタフェース

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018079290A Active JP6691572B2 (ja) 2012-12-29 2018-04-17 複数接触ジェスチャのために触知出力の生成を見合わせるためのデバイス、方法、及びグラフィカルユーザインタフェース

Country Status (8)

Country Link
US (2) US10437333B2 (ja)
EP (1) EP2912542B1 (ja)
JP (3) JP6093877B2 (ja)
KR (2) KR20170081744A (ja)
CN (2) CN104903835B (ja)
AU (2) AU2013368441B2 (ja)
HK (1) HK1212063A1 (ja)
WO (1) WO2014105275A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019044400A1 (ja) * 2017-08-28 2019-03-07 株式会社日立産機システム モータドライブシステム

Families Citing this family (180)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7469381B2 (en) 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10255566B2 (en) 2011-06-03 2019-04-09 Apple Inc. Generating and processing task items that represent tasks to perform
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
TWI439960B (zh) 2010-04-07 2014-06-01 Apple Inc 虛擬使用者編輯環境
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US9002322B2 (en) 2011-09-29 2015-04-07 Apple Inc. Authentication with secondary approver
US20140040070A1 (en) * 2012-02-23 2014-02-06 Arsen Pereymer Publishing on mobile devices with app building
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
CN105260049B (zh) 2012-05-09 2018-10-23 苹果公司 用于响应于用户接触来显示附加信息的设备、方法和图形用户界面
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
WO2013169854A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
KR101683868B1 (ko) 2012-05-09 2016-12-07 애플 인크. 제스처에 응답하여 디스플레이 상태들 사이를 전이하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
JP6082458B2 (ja) 2012-05-09 2017-02-15 アップル インコーポレイテッド ユーザインタフェース内で実行される動作の触知フィードバックを提供するデバイス、方法、及びグラフィカルユーザインタフェース
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
EP2847661A2 (en) 2012-05-09 2015-03-18 Apple Inc. Device, method, and graphical user interface for moving and dropping a user interface object
EP3410287B1 (en) 2012-05-09 2022-08-17 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
JP6097843B2 (ja) 2012-12-29 2017-03-15 アップル インコーポレイテッド コンテンツをスクロールするか選択するかを判定するためのデバイス、方法、及びグラフィカルユーザインタフェース
EP2939098B1 (en) 2012-12-29 2018-10-10 Apple Inc. Device, method, and graphical user interface for transitioning between touch input to display output relationships
JP6093877B2 (ja) 2012-12-29 2017-03-08 アップル インコーポレイテッド 複数接触ジェスチャのために触知出力の生成を見合わせるためのデバイス、方法、及びグラフィカルユーザインタフェース
KR101905174B1 (ko) 2012-12-29 2018-10-08 애플 인크. 사용자 인터페이스 계층을 내비게이션하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
CN105144057B (zh) 2012-12-29 2019-05-17 苹果公司 用于根据具有模拟三维特征的控制图标的外观变化来移动光标的设备、方法和图形用户界面
DE112014000709B4 (de) 2013-02-07 2021-12-30 Apple Inc. Verfahren und vorrichtung zum betrieb eines sprachtriggers für einen digitalen assistenten
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
EP3937002A1 (en) 2013-06-09 2022-01-12 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
DE112014003653B4 (de) 2013-08-06 2024-04-18 Apple Inc. Automatisch aktivierende intelligente Antworten auf der Grundlage von Aktivitäten von entfernt angeordneten Vorrichtungen
US10503388B2 (en) 2013-09-03 2019-12-10 Apple Inc. Crown input for a wearable electronic device
US10545657B2 (en) 2013-09-03 2020-01-28 Apple Inc. User interface for manipulating user interface objects
EP3340025B1 (en) 2013-09-03 2019-06-12 Apple Inc. User interface for manipulating user interface objects with magnetic properties
US11068128B2 (en) 2013-09-03 2021-07-20 Apple Inc. User interface object manipulations in a user interface
US9665206B1 (en) 2013-09-18 2017-05-30 Apple Inc. Dynamic user interface adaptable to multiple input tools
US9652148B2 (en) * 2014-01-06 2017-05-16 Sap Se Soft keyboard with keypress markers
US10887479B2 (en) * 2014-04-28 2021-01-05 Hewlett-Packard Development Company, L.P. Multifunctional peripheral device detecting and displaying signature lines within an electronic document
US10043185B2 (en) 2014-05-29 2018-08-07 Apple Inc. User interface for payments
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
TWI566107B (zh) 2014-05-30 2017-01-11 蘋果公司 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
AU2015100490C4 (en) 2014-05-30 2017-04-13 Apple Inc. Continuity
CN118192869A (zh) 2014-06-27 2024-06-14 苹果公司 尺寸减小的用户界面
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10073590B2 (en) 2014-09-02 2018-09-11 Apple Inc. Reduced size user interface
WO2016036416A1 (en) 2014-09-02 2016-03-10 Apple Inc. Button functionality
TWI676127B (zh) 2014-09-02 2019-11-01 美商蘋果公司 關於電子郵件使用者介面之方法、系統、電子器件及電腦可讀儲存媒體
WO2016036510A1 (en) 2014-09-02 2016-03-10 Apple Inc. Music user interface
KR102373337B1 (ko) 2014-09-02 2022-03-11 애플 인크. 가변 햅틱 출력을 위한 시맨틱 프레임워크
DE102014019040B4 (de) * 2014-12-18 2021-01-14 Audi Ag Verfahren zum Betreiben einer Bedienvorrichtung eines Kraftfahrzeugs bei einer Mehrfingerbedienung
US10365807B2 (en) 2015-03-02 2019-07-30 Apple Inc. Control of system zoom magnification using a rotatable input mechanism
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US10152208B2 (en) 2015-04-01 2018-12-11 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
DK179116B1 (en) * 2015-06-07 2017-11-06 Apple Inc Devices and Methods for Navigating Between User Interfaces
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
AU2016231472B1 (en) * 2015-06-07 2016-11-10 Apple Inc. Devices and methods for navigating between user interfaces
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
WO2016199309A1 (ja) * 2015-06-12 2016-12-15 パイオニア株式会社 電子機器
US10754494B2 (en) * 2015-06-23 2020-08-25 Dell Products, L.P. Method and control system providing one-click commissioning and push updates to distributed, large-scale information handling system (LIHS)
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US9965445B2 (en) * 2015-08-06 2018-05-08 FiftyThree, Inc. Systems and methods for gesture-based formatting
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
CN106648399B (zh) * 2015-11-02 2020-10-16 阿里巴巴(中国)有限公司 一种界面显示处理方法、装置及设备
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
DE102016004630A1 (de) * 2016-04-16 2017-10-19 J.G. WEISSER SöHNE GMBH & CO. KG Werkzeugmaschine sowie Verwendung eines berührempfindlichen Displays zur Ansteuerung eines Maschinenteils einer Werkzeugmaschine
DK179186B1 (en) 2016-05-19 2018-01-15 Apple Inc REMOTE AUTHORIZATION TO CONTINUE WITH AN ACTION
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10621581B2 (en) 2016-06-11 2020-04-14 Apple Inc. User interface for transactions
CN114693289A (zh) 2016-06-11 2022-07-01 苹果公司 用于交易的用户界面
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670622A1 (en) 2016-06-12 2018-02-12 Apple Inc User interfaces for transactions
DK201670737A1 (en) 2016-06-12 2018-01-22 Apple Inc Devices, Methods, and Graphical User Interfaces for Providing Haptic Feedback
DK179823B1 (en) 2016-06-12 2019-07-12 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR PROVIDING HAPTIC FEEDBACK
KR20190008949A (ko) 2016-06-30 2019-01-25 후아웨이 테크놀러지 컴퍼니 리미티드 터치 패널에서 사용하기 위한 터치 응답 방법 및 장치 및 그 단말
DK179278B1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, methods and graphical user interfaces for haptic mixing
DK201670728A1 (en) * 2016-09-06 2018-03-19 Apple Inc Devices, Methods, and Graphical User Interfaces for Providing Feedback During Interaction with an Intensity-Sensitive Button
US20180068313A1 (en) 2016-09-06 2018-03-08 Apple Inc. User interfaces for stored-value accounts
EP3674871A1 (en) * 2016-09-06 2020-07-01 Apple Inc. Devices, methods, and graphical user interfaces for providing haptic feedback
DK201670720A1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs
US9817511B1 (en) * 2016-09-16 2017-11-14 International Business Machines Corporation Reaching any touch screen portion with one hand
KR102673702B1 (ko) 2016-10-20 2024-06-12 삼성전자주식회사 피드백 제공 방법 및 이를 지원하는 전자 장치
US10496808B2 (en) 2016-10-25 2019-12-03 Apple Inc. User interface for managing access to credentials for use in an operation
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
CN107025019B (zh) * 2017-01-12 2020-06-16 瑞声科技(新加坡)有限公司 虚拟按键的交互方法及终端设备
US11176234B2 (en) * 2017-04-24 2021-11-16 Fingerprint Cards Ab Method for transitioning a device controller of an electronic device
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770428A1 (en) 2017-05-12 2019-02-18 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK201770411A1 (en) 2017-05-15 2018-12-20 Apple Inc. MULTI-MODAL INTERFACES
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US11036387B2 (en) 2017-05-16 2021-06-15 Apple Inc. Devices, methods, and graphical user interfaces for navigating between user interfaces and interacting with control objects
DK201770372A1 (en) 2017-05-16 2019-01-08 Apple Inc. TACTILE FEEDBACK FOR LOCKED DEVICE USER INTERFACES
KR102404636B1 (ko) * 2017-05-16 2022-06-02 애플 인크. 사용자 인터페이스들을 위한 촉각 피드백
US10203866B2 (en) 2017-05-16 2019-02-12 Apple Inc. Devices, methods, and graphical user interfaces for navigating between user interfaces and interacting with control objects
CN111694486B (zh) * 2017-05-16 2023-08-22 苹果公司 用于在用户界面之间导航的设备、方法和图形用户界面
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
EP4156129A1 (en) 2017-09-09 2023-03-29 Apple Inc. Implementation of biometric enrollment
KR102185854B1 (ko) 2017-09-09 2020-12-02 애플 인크. 생체측정 인증의 구현
US11449925B2 (en) * 2018-01-22 2022-09-20 Taco Bell Corp. Systems and methods for ordering graphical user interface
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10955956B2 (en) * 2018-05-07 2021-03-23 Apple Inc. Devices, methods, and graphical user interfaces for interaction with an intensity-sensitive input region
US12033296B2 (en) 2018-05-07 2024-07-09 Apple Inc. Avatar creation user interface
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
DK180078B1 (en) 2018-05-07 2020-03-31 Apple Inc. USER INTERFACE FOR AVATAR CREATION
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US11170085B2 (en) 2018-06-03 2021-11-09 Apple Inc. Implementation of biometric authentication
US11435830B2 (en) 2018-09-11 2022-09-06 Apple Inc. Content-based tactile outputs
US10712824B2 (en) * 2018-09-11 2020-07-14 Apple Inc. Content-based tactile outputs
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US11221674B2 (en) * 2019-01-07 2022-01-11 Google Llc Haptic output for trackpad controlled using force signal and sense signal
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
DK201970510A1 (en) 2019-05-31 2021-02-11 Apple Inc Voice identification in digital assistant systems
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11797113B2 (en) 2019-06-01 2023-10-24 Apple Inc. Devices, methods, and graphical user interfaces for interaction with a control
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US10996761B2 (en) 2019-06-01 2021-05-04 Apple Inc. User interfaces for non-visual output of time
US10698701B1 (en) 2019-06-01 2020-06-30 Apple Inc. User interface for accessing an account
TWI709891B (zh) * 2019-09-19 2020-11-11 義隆電子股份有限公司 觸控裝置及其操作方法
US11488406B2 (en) 2019-09-25 2022-11-01 Apple Inc. Text detection using global geometry estimators
DE102019135032A1 (de) * 2019-12-18 2021-06-24 Inventus Engineering Gmbh Verfahren zum Betreiben eines Eingabegeräts für eine Rechnereinrichtung und Eingabegerät
US11921998B2 (en) * 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
US11038934B1 (en) 2020-05-11 2021-06-15 Apple Inc. Digital assistant hardware abstraction
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
DK181103B1 (en) 2020-05-11 2022-12-15 Apple Inc User interfaces related to time
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
US11601419B2 (en) 2020-06-21 2023-03-07 Apple Inc. User interfaces for accessing an account
US11816194B2 (en) 2020-06-21 2023-11-14 Apple Inc. User interfaces for managing secure operations
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
US12111962B2 (en) 2021-02-19 2024-10-08 Apple Inc. User interfaces and device settings based on user identification
US11714536B2 (en) 2021-05-21 2023-08-01 Apple Inc. Avatar sticker editor user interfaces
US11776190B2 (en) 2021-06-04 2023-10-03 Apple Inc. Techniques for managing an avatar on a lock screen
US11567575B2 (en) 2021-06-14 2023-01-31 Microsoft Technology Licensing, Llc Haptic response control

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006185443A (ja) * 2004-12-21 2006-07-13 Microsoft Corp 圧力応動コントロール
JP2011048606A (ja) * 2009-08-27 2011-03-10 Kyocera Corp 入力装置
JP2011248689A (ja) * 2010-05-27 2011-12-08 Kyocera Corp 触感呈示装置
JP2012216144A (ja) * 2011-04-01 2012-11-08 Kyocera Corp 電子機器
JP2012216156A (ja) * 2011-04-01 2012-11-08 Kyocera Corp 電子機器

Family Cites Families (1211)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58182746A (ja) 1982-04-20 1983-10-25 Fujitsu Ltd タツチ式入力装置
JPS6074003A (ja) 1983-09-30 1985-04-26 Ryozo Setoguchi 形状創成装置
US4903201A (en) 1983-11-03 1990-02-20 World Energy Exchange Corporation Automated futures trading exchange
US5270922A (en) 1984-06-29 1993-12-14 Merrill Lynch & Company, Inc. System for distributing, processing and displaying financial information
US4674044A (en) 1985-01-30 1987-06-16 Merrill Lynch, Pierce, Fenner & Smith, Inc. Automated securities trading system
US4750135A (en) 1986-05-01 1988-06-07 Reuters Limited Method for dynamically creating a receiver definable local trading instrument displayable record from a remotely transmitted trading instrument common data stream
US5038284A (en) 1988-02-17 1991-08-06 Kramer Robert M Method and apparatus relating to conducting trading transactions with portable trading stations
WO1989011694A1 (en) 1988-05-27 1989-11-30 Wang Laboratories, Inc. Document folder icon for display in a data processing system
JPH03505498A (ja) 1989-03-14 1991-11-28 シカゴ ボード オブ トレード 模擬仕切売場取引システム
EP0388162A3 (en) 1989-03-14 1993-03-03 Chicago Board Of Trade Apparatus for market trading
WO1990011571A1 (en) 1989-03-28 1990-10-04 Chicago Board Of Trade Simulated live market trading system
US5077665A (en) 1989-05-25 1991-12-31 Reuters Limited Distributed matching system
US5136501A (en) 1989-05-26 1992-08-04 Reuters Limited Anonymous matching system
US5101353A (en) 1989-05-31 1992-03-31 Lattice Investments, Inc. Automated system for providing liquidity to securities markets
US5297031A (en) 1990-03-06 1994-03-22 Chicago Board Of Trade Method and apparatus for order management by market brokers
GB9027249D0 (en) 1990-12-17 1991-02-06 Reuters Ltd Offer matching system
US5297032A (en) 1991-02-01 1994-03-22 Merrill Lynch, Pierce, Fenner & Smith Incorporated Securities trading workstation
US5184120A (en) 1991-04-04 1993-02-02 Motorola, Inc. Menu selection using adaptive force sensing resistor
US6347997B1 (en) 1997-10-01 2002-02-19 Brad A. Armstrong Analog controls housed with electronic displays
US6208271B1 (en) 1998-09-04 2001-03-27 Brad A. Armstrong Remote controller with analog button(s)
US5717725A (en) 1992-03-12 1998-02-10 Ntp Incorporated System for wireless transmission and receiving of information through a computer bus interface and method of operation
US5544262A (en) 1992-04-07 1996-08-06 Apple Computer, Inc. Method and apparatus for processing graphically input equations
DE69324067T2 (de) 1992-06-08 1999-07-15 Synaptics Inc Objekt-Positionsdetektor
JPH0651738A (ja) 1992-07-27 1994-02-25 Canon Inc コンピュータシステムの情報表示装置
JP2994888B2 (ja) 1992-11-25 1999-12-27 シャープ株式会社 入力処理装置および入力処理方法
US5428730A (en) 1992-12-15 1995-06-27 International Business Machines Corporation Multimedia system having software mechanism providing standardized interfaces and controls for the operation of multimedia devices
US5455965A (en) 1993-02-26 1995-10-03 Motorola, Inc. Method for determining and utilizing simulcast transmit times
US5555354A (en) 1993-03-23 1996-09-10 Silicon Graphics Inc. Method and apparatus for navigation within three-dimensional information landscape
JPH0798769A (ja) 1993-06-18 1995-04-11 Hitachi Ltd 情報処理装置及びその画面編集方法
US5463722A (en) 1993-07-23 1995-10-31 Apple Computer, Inc. Automatic alignment of objects in two-dimensional and three-dimensional display space using an alignment field gradient
BE1007462A3 (nl) 1993-08-26 1995-07-04 Philips Electronics Nv Dataverwerkings inrichting met aanraakscherm en krachtopnemer.
JPH07151512A (ja) 1993-10-05 1995-06-16 Mitsutoyo Corp 三次元測定機の操作装置
JPH07104915A (ja) 1993-10-06 1995-04-21 Toshiba Corp グラフィックユーザインタフェース装置
DE69403664T2 (de) 1993-10-29 1998-01-02 Taligent Inc Graphisches editorfachwerksystem
DE69426919T2 (de) 1993-12-30 2001-06-28 Xerox Corp Gerät und Verfahren zur Ausführung von vielen verkettenden Befehlsgesten in einen System mit Gestenbenutzerschnittstelle
CA2119921C (en) 1994-03-23 2009-09-29 Sydney H. Belzberg Computerized stock exchange trading system
WO1995027945A1 (en) 1994-04-06 1995-10-19 Morgan Stanley Group Inc. Data processing system and method for financial debt instruments
GB9416673D0 (en) 1994-08-17 1994-10-12 Reuters Ltd Data exchange filtering system
US5559301A (en) 1994-09-15 1996-09-24 Korg, Inc. Touchscreen interface having pop-up variable adjustment displays for controllers and audio processing systems
US5797002A (en) 1994-09-20 1998-08-18 Papyrus Technology Corp. Two-way wireless system for financial industry transactions
US5774877A (en) 1994-09-20 1998-06-30 Papyrus Technology Corp. Two-way wireless system for financial industry transactions
WO1996009579A1 (en) 1994-09-22 1996-03-28 Izak Van Cruyningen Popup menus with directional gestures
US5689651A (en) 1994-10-13 1997-11-18 Lozman; Fane System for processing and displaying financial information
WO1996014908A1 (en) 1994-11-14 1996-05-23 Catapult Entertainment, Inc. Method and apparatus for synchronizing the execution of multiple video game systems in a networked environment
JPH08227341A (ja) 1995-02-22 1996-09-03 Mitsubishi Electric Corp ユーザインターフェース
US5657246A (en) 1995-03-07 1997-08-12 Vtel Corporation Method and apparatus for a video conference user interface
US5845266A (en) 1995-12-12 1998-12-01 Optimark Technologies, Inc. Crossing network utilizing satisfaction density profile with price discovery features
IL117424A (en) 1995-04-27 1999-09-22 Optimark Tech Inc Crossing network utilizing satisfaction density profile
US5793360A (en) 1995-05-05 1998-08-11 Wacom Co., Ltd. Digitizer eraser system and method
US6072488A (en) 1995-05-05 2000-06-06 Apple Computer, Inc. Systems and methods for replacing open windows in a graphical user interface
US5717438A (en) 1995-08-25 1998-02-10 International Business Machines Corporation Multimedia document using time box diagrams
US6282521B1 (en) 1995-08-28 2001-08-28 Ebs Dealing Resources, Inc. Anonymous trading system with improved quote input capabilities
US5844560A (en) 1995-09-29 1998-12-01 Intel Corporation Graphical user interface control element
JP3417741B2 (ja) 1995-10-06 2003-06-16 富士通株式会社 取引制御システム
US5910882A (en) 1995-11-14 1999-06-08 Garmin Corporation Portable electronic device for use in combination portable and fixed mount applications
US5793377A (en) 1995-11-22 1998-08-11 Autodesk, Inc. Method and apparatus for polar coordinate snap in a computer implemented drawing tool
US5801692A (en) 1995-11-30 1998-09-01 Microsoft Corporation Audio-visual user interface controls
US5719796A (en) 1995-12-04 1998-02-17 Advanced Micro Devices, Inc. System for monitoring and analyzing manufacturing processes using statistical simulation with single step feedback
US6300936B1 (en) * 1997-11-14 2001-10-09 Immersion Corporation Force feedback system including multi-tasking graphical host environment and interface device
US5825352A (en) 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
US5695400A (en) 1996-01-30 1997-12-09 Boxer Jam Productions Method of managing multi-player game playing over a network
US5946647A (en) 1996-02-01 1999-08-31 Apple Computer, Inc. System and method for performing an action on a structure in computer-generated data
US5820463A (en) 1996-02-06 1998-10-13 Bell Atlantic Network Services, Inc. Method and apparatus for multi-player gaming over a network
JPH09269883A (ja) 1996-03-29 1997-10-14 Seiko Epson Corp 情報処理装置および情報処理方法
US5880733A (en) 1996-04-30 1999-03-09 Microsoft Corporation Display system and method for displaying windows of an operating system to provide a three-dimensional workspace for a computer system
US5924083A (en) 1996-05-29 1999-07-13 Geneva Branch Of Reuters Transaction Services Limited Distributed matching system for displaying a book of credit filtered bids and offers
US5819293A (en) 1996-06-06 1998-10-06 Microsoft Corporation Automatic Spreadsheet forms
JP4484255B2 (ja) 1996-06-11 2010-06-16 株式会社日立製作所 タッチパネルを備えた情報処理装置および情報処理方法
US6014643A (en) 1996-06-28 2000-01-11 Minton; Vernon F. Interactive securities trading system
US8674932B2 (en) 1996-07-05 2014-03-18 Anascape, Ltd. Image controller
US6208329B1 (en) 1996-08-13 2001-03-27 Lsi Logic Corporation Supplemental mouse button emulation system, method and apparatus for a coordinate based data input device
US6247000B1 (en) 1996-08-21 2001-06-12 Crossmar, Inc. Method and system for confirmation and settlement for financial transactions matching
AU727387B2 (en) 1996-08-28 2000-12-14 Via, Inc. Touch screen systems and methods
US6195647B1 (en) 1996-09-26 2001-02-27 The Nasdaq Stock Market, Inc. On-line transaction processing system for security trading
US5963923A (en) 1996-11-12 1999-10-05 Garber; Howard B. System and method for trading having a principal market maker
EP0859307A1 (en) 1997-02-18 1998-08-19 International Business Machines Corporation Control mechanism for graphical user interface
US6031989A (en) 1997-02-27 2000-02-29 Microsoft Corporation Method of formatting and displaying nested documents
US6954899B1 (en) 1997-04-14 2005-10-11 Novint Technologies, Inc. Human-computer interface including haptically controlled interactions
US6073036A (en) 1997-04-28 2000-06-06 Nokia Mobile Phones Limited Mobile station with touch input having automatic symbol magnification function
JP2001524236A (ja) 1997-04-30 2001-11-27 トラストマーク インターナショナル リミテッド ネットワークコンピュータ取引システム
US6266684B1 (en) 1997-08-06 2001-07-24 Adobe Systems Incorporated Creating and saving multi-frame web pages
US6411998B1 (en) 1997-09-08 2002-06-25 International Business Machines Corporation World wide web internet delay monitor
US6002397A (en) 1997-09-30 1999-12-14 International Business Machines Corporation Window hatches in graphical user interface
US6456778B2 (en) 1997-10-01 2002-09-24 Brad A. Armstrong Analog controls housed with electronic displays for video recorders and cameras
US6532000B2 (en) 1997-10-01 2003-03-11 Brad A. Armstrong Analog controls housed with electronic displays for global positioning systems
US6421653B1 (en) 1997-10-14 2002-07-16 Blackbird Holdings, Inc. Systems, methods and computer program products for electronic trading of financial instruments
US6131087A (en) 1997-11-05 2000-10-10 The Planning Solutions Group, Inc. Method for automatically identifying, matching, and near-matching buyers and sellers in electronic market transactions
US6448977B1 (en) 1997-11-14 2002-09-10 Immersion Corporation Textures and other spatial sensations for a relative haptic interface device
US6088019A (en) 1998-06-23 2000-07-11 Immersion Corporation Low cost force feedback device with actuator for non-primary axis
CN1619561A (zh) 1997-12-08 2005-05-25 新日铁系统集成株式会社 商品交易装置
US6035287A (en) 1997-12-17 2000-03-07 Omega Consulting, Inc. Method and apparatus for bundled asset trading
US6088027A (en) 1998-01-08 2000-07-11 Macromedia, Inc. Method and apparatus for screen object manipulation
JPH11203044A (ja) 1998-01-16 1999-07-30 Sony Corp 情報処理システム
US7844914B2 (en) 2004-07-30 2010-11-30 Apple Inc. Activating virtual keys of a touch-screen virtual keyboard
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US20060033724A1 (en) 2004-07-30 2006-02-16 Apple Computer, Inc. Virtual input device placement on a touch screen user interface
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
EP1717679B1 (en) 1998-01-26 2016-09-21 Apple Inc. Method for integrating manual input
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US7760187B2 (en) 2004-07-30 2010-07-20 Apple Inc. Visual expander
US6219034B1 (en) * 1998-02-23 2001-04-17 Kristofer E. Elbing Tactile computer interface
FI107859B (fi) 1998-03-23 2001-10-15 Nokia Networks Oy Tilauspalvelut matkaviestinjärjestelmässä
US6211880B1 (en) 1998-04-13 2001-04-03 Albert Joseph Impink, Jr. Display apparatus
US6180894B1 (en) 1998-05-07 2001-01-30 Aiptek International Inc. Dual mode digitizer tablet system
US6208340B1 (en) 1998-05-26 2001-03-27 International Business Machines Corporation Graphical user interface including a drop-down widget that permits a plurality of choices to be selected in response to a single selection of the drop-down widget
JPH11355617A (ja) 1998-06-05 1999-12-24 Fuji Photo Film Co Ltd 画像表示器付きカメラ
US6707443B2 (en) * 1998-06-23 2004-03-16 Immersion Corporation Haptic trackball device
US6563487B2 (en) 1998-06-23 2003-05-13 Immersion Corporation Haptic feedback for directional control pads
US6429846B2 (en) 1998-06-23 2002-08-06 Immersion Corporation Haptic feedback for touchpads and other touch controls
US6229542B1 (en) 1998-07-10 2001-05-08 Intel Corporation Method and apparatus for managing windows in three dimensions in a two dimensional windowing system
US6243080B1 (en) 1998-07-14 2001-06-05 Ericsson Inc. Touch-sensitive panel with selector
AU5777699A (en) 1998-08-21 2000-03-14 Marketxt, Inc. Volume limitation method and system for a real-time computerized stock trading system
US6326956B1 (en) 1998-08-24 2001-12-04 Intertactile Technologies Corporation Circuit control devices utilizing electronic display screen light
US6111575A (en) 1998-09-24 2000-08-29 International Business Machines Corporation Graphical undo/redo manager and method
DE19849460B4 (de) 1998-10-28 2009-11-05 Völckers, Oliver Numerische digitale Telefontastatur für ein Telefongerät mit einem Display und Verfahren zur schnellen Textauswahl aus einer Liste mittels der numerischen Telefontastatur
US6377940B2 (en) 1998-11-05 2002-04-23 International Securities Exchange, Llc Method and apparatus for setting a price for a security on an automated exchange based on a comparison of prices on other exchanges
US6405180B2 (en) 1998-11-05 2002-06-11 International Securities Exchange, Llc Automated exchange for matching bids between a party and a counterparty based on a relationship between the counterparty and the exchange
JP2000148348A (ja) 1998-11-13 2000-05-26 Internatl Business Mach Corp <Ibm> 起動中のアプリケーション・プログラムを容易に識別し、かつ終了させることができる方法およびシステム
JP2002531014A (ja) 1998-11-24 2002-09-17 ニクスン インコーポレイテツド 通信データを収集して分析する装置および方法
US6252594B1 (en) 1998-12-11 2001-06-26 International Business Machines Corporation Method and system for aiding a user in scrolling through a document using animation, voice cues and a dockable scroll bar
US6489975B1 (en) 1998-12-14 2002-12-03 International Business Machines Corporation System and method for improved navigation between open windows in an application program using window tabs
US7469381B2 (en) 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
US6396962B1 (en) 1999-01-29 2002-05-28 Sony Corporation System and method for providing zooming video
US6512761B1 (en) 1999-02-02 2003-01-28 3Com Corporation System for adjusting billing for real-time media transmissions based on delay
US6272474B1 (en) 1999-02-08 2001-08-07 Crisostomo B. Garcia Method for monitoring and trading stocks via the internet displaying bid/ask trade bars
EP1028583A1 (en) 1999-02-12 2000-08-16 Hewlett-Packard Company Digital camera with sound recording
US6551357B1 (en) 1999-02-12 2003-04-22 International Business Machines Corporation Method, system, and program for storing and retrieving markings for display to an electronic media file
US20020026321A1 (en) 1999-02-26 2002-02-28 Sadeg M. Faris Internet-based system and method for fairly and securely enabling timed-constrained competition using globally time-sychronized client subsystems and information servers having microsecond client-event resolution
EP1208412A2 (en) 1999-02-26 2002-05-29 Reveo, Inc. Globally time-synchronized systems, devices and methods
WO2000052619A1 (en) 1999-03-01 2000-09-08 Wit Capital Corporation A system and method for conducting securities transactions over a computer network
US6408282B1 (en) 1999-03-01 2002-06-18 Wit Capital Corp. System and method for conducting securities transactions over a computer network
US7212999B2 (en) 1999-04-09 2007-05-01 Trading Technologies International, Inc. User interface for an electronic trading system
US6278982B1 (en) 1999-04-21 2001-08-21 Lava Trading Inc. Securities trading system for consolidation of trading on multiple ECNS and electronic exchanges
WO2000065510A1 (en) 1999-04-22 2000-11-02 Trading Technologies, Inc. Electronic securities trading system
JP2001034775A (ja) 1999-05-17 2001-02-09 Fuji Photo Film Co Ltd 履歴画像表示方法
US6227743B1 (en) 1999-07-01 2001-05-08 Karl A. Robb Pen cap stylus for use with touch screens
US6904405B2 (en) 1999-07-17 2005-06-07 Edwin A. Suominen Message recognition using shared language model
US6396523B1 (en) 1999-07-29 2002-05-28 Interlink Electronics, Inc. Home entertainment device remote control
US6489978B1 (en) 1999-08-06 2002-12-03 International Business Machines Corporation Extending the opening time of state menu items for conformations of multiple changes
US6459424B1 (en) 1999-08-10 2002-10-01 Hewlett-Packard Company Touch-sensitive input screen having regional sensitivity and resolution properties
WO2001016852A2 (en) 1999-08-30 2001-03-08 Epit, Inc. User interface for semi-fungible trading
US7685048B1 (en) 1999-09-01 2010-03-23 Bloomberg L.P. Electronic trading system for forwards spread trades
US6459442B1 (en) 1999-09-10 2002-10-01 Xerox Corporation System for applying application behaviors to freeform data
US8311926B1 (en) 1999-09-23 2012-11-13 The Nasdaq Omx Group, Inc. Montage for automated market system
US8239303B2 (en) 1999-09-23 2012-08-07 The Nasdaq Omx Group, Inc. Match-off of order flow in electronic market system
US7181424B1 (en) 1999-09-23 2007-02-20 The Nasdaq Stock Market, Inc. Montage for automated market system
US6377636B1 (en) 1999-11-02 2002-04-23 Iospan Wirless, Inc. Method and wireless communications system using coordinated transmission and training for interference mitigation
US8482535B2 (en) 1999-11-08 2013-07-09 Apple Inc. Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
US20020023038A1 (en) 1999-12-03 2002-02-21 Fritsch Daniel Scott Computerized system and method for conducting an online virtual auction
US20020055899A1 (en) 1999-12-06 2002-05-09 Williams Joseph C. Display system and method for displaying and organizing financial information
US6664991B1 (en) 2000-01-06 2003-12-16 Microsoft Corporation Method and apparatus for providing context menus on a pen-based device
US6661438B1 (en) 2000-01-18 2003-12-09 Seiko Epson Corporation Display apparatus and portable information processing apparatus
JP2001202192A (ja) * 2000-01-18 2001-07-27 Sony Corp 情報処理装置及びその方法並びにプログラム格納媒体
US6512530B1 (en) 2000-01-19 2003-01-28 Xerox Corporation Systems and methods for mimicking an image forming or capture device control panel control element
US6822635B2 (en) 2000-01-19 2004-11-23 Immersion Corporation Haptic interface for laptop computers and other portable devices
US7138983B2 (en) 2000-01-31 2006-11-21 Canon Kabushiki Kaisha Method and apparatus for detecting and interpreting path of designated position
JP3845738B2 (ja) 2000-02-09 2006-11-15 カシオ計算機株式会社 オブジェクト移動装置及び記録媒体
CA2400330A1 (en) 2000-02-14 2001-08-23 Julian Orbanes Methods and apparatus for viewing information in virtual space
GB2366630A (en) 2000-02-17 2002-03-13 Gold On Line Trading Ltd Internet Trading System
US6772132B1 (en) 2000-03-02 2004-08-03 Trading Technologies International, Inc. Click based trading with intuitive grid display of market depth
JP2001265481A (ja) 2000-03-21 2001-09-28 Nec Corp ページ情報表示方法及び装置並びにページ情報表示用プログラムを記憶した記憶媒体
JP2001306207A (ja) 2000-04-27 2001-11-02 Just Syst Corp ドラッグアンドドロップ処理を支援するプログラムを記録した記録媒体
US20020035534A1 (en) 2000-05-04 2002-03-21 Buist Walter D. Method and apparatus for auctioning securities
US7246092B1 (en) 2000-05-12 2007-07-17 The Nasdaq Stock Market, Inc. Montage for an electronic market
US6831666B1 (en) 2000-06-14 2004-12-14 Canon Kabushiki Kaisha Application selection window in a windows operation system
JP2002041023A (ja) 2000-07-06 2002-02-08 Internatl Business Mach Corp <Ibm> コンピュータシステム、表示制御装置、ディスプレイ装置、表示制御方法、記憶媒体及びプログラム伝送装置
KR20020007860A (ko) 2000-07-19 2002-01-29 백승헌 인터넷상의 시간보정 방법 및 이를 이용한 상거래시점관리 방법
US6583798B1 (en) 2000-07-21 2003-06-24 Microsoft Corporation On-object user interface
JP4501243B2 (ja) 2000-07-24 2010-07-14 ソニー株式会社 テレビジョン受像機およびプログラム実行方法
US20020015064A1 (en) 2000-08-07 2002-02-07 Robotham John S. Gesture-based user interface to multi-level and multi-modal sets of bit-maps
JP3949912B2 (ja) 2000-08-08 2007-07-25 株式会社エヌ・ティ・ティ・ドコモ 携帯型電子機器、電子機器、振動発生器、振動による報知方法および報知制御方法
US6906697B2 (en) 2000-08-11 2005-06-14 Immersion Corporation Haptic sensations for tactile feedback interface devices
US8924277B2 (en) 2000-08-17 2014-12-30 Nyse Group, Inc. Method and system for automatic execution of a securities transaction
US7688306B2 (en) 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US7218226B2 (en) 2004-03-01 2007-05-15 Apple Inc. Acceleration-based theft detection system for portable electronic devices
US6891551B2 (en) 2000-11-10 2005-05-10 Microsoft Corporation Selection handles in editing electronic documents
US6943778B1 (en) 2000-11-20 2005-09-13 Nokia Corporation Touch screen input technique
US6590568B1 (en) 2000-11-20 2003-07-08 Nokia Corporation Touch screen drag and drop input technique
DE10059906A1 (de) 2000-12-01 2002-06-06 Bs Biometric Systems Gmbh Druckempfindliche Fläche eines Bildschirms oder Displays
US20020077117A1 (en) 2000-12-15 2002-06-20 Jocelyn Cloutier Synchronous transmission of data with network remote control
GB2370739A (en) 2000-12-27 2002-07-03 Nokia Corp Flashlight cursor for set-top boxes
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US20050183017A1 (en) 2001-01-31 2005-08-18 Microsoft Corporation Seekbar in taskbar player visualization mode
US20020107748A1 (en) 2001-02-05 2002-08-08 International Business Machines Corporation Method and system for decentralized order matching among individual marketplaces
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US20020120837A1 (en) 2001-02-28 2002-08-29 Maxemchuk Nicholas Frank Distributed internet multicast system for the stock market
JP2002268867A (ja) 2001-03-13 2002-09-20 Sony Corp 表示装置及び表示方法、プログラム記録媒体並びにプログラム
US20020178102A1 (en) 2001-03-15 2002-11-28 Larry Scheinberg Margin release system for an electronic-based market
JP2002286489A (ja) 2001-03-28 2002-10-03 Clarion Co Ltd カーナビゲーション装置及び方法並びにカーナビゲーション用ソフトウェア
TW502180B (en) 2001-03-30 2002-09-11 Ulead Systems Inc Previewing method of editing multimedia effect
US7012595B2 (en) 2001-03-30 2006-03-14 Koninklijke Philips Electronics N.V. Handheld electronic device with touch pad
US20020149630A1 (en) 2001-04-16 2002-10-17 Parascript Llc Providing hand-written and hand-drawn electronic mail service
US7134093B2 (en) 2001-04-18 2006-11-07 International Business Machines Corporation Graphical user interface for direct control of display of data
US20020161693A1 (en) 2001-04-30 2002-10-31 Greenwald Jamie A. Automated over-the-counter derivatives trading system
US8125492B1 (en) 2001-05-18 2012-02-28 Autodesk, Inc. Parameter wiring
TW521205B (en) 2001-06-05 2003-02-21 Compal Electronics Inc Touch screen capable of controlling amplification with pressure
US20020186257A1 (en) 2001-06-08 2002-12-12 Cadiz Jonathan J. System and process for providing dynamic communication access and information awareness in an interactive peripheral display
US7190379B2 (en) 2001-06-29 2007-03-13 Contex A/S Method for resizing and moving an object on a computer screen
US20050134578A1 (en) 2001-07-13 2005-06-23 Universal Electronics Inc. System and methods for interacting with a control environment
JP2003084744A (ja) 2001-09-10 2003-03-19 Sharp Corp エミュレーション装置、エミュレーション方法及びその方法を実行するプログラム並びにそのプログラムを記録した記録媒体
US7103848B2 (en) 2001-09-13 2006-09-05 International Business Machines Corporation Handheld electronic book reader with annotation and usage tracking capabilities
US6965645B2 (en) 2001-09-25 2005-11-15 Microsoft Corporation Content-based characterization of video frame sequences
US20030206169A1 (en) 2001-09-26 2003-11-06 Michael Springer System, method and computer program product for automatically snapping lines to drawing elements
US8001189B2 (en) 2001-10-16 2011-08-16 Microsoft Corporation Routing of network messages
JP4149926B2 (ja) 2001-11-01 2008-09-17 イマージョン コーポレーション 触知感覚を与える方法及び装置
JP2003157131A (ja) 2001-11-22 2003-05-30 Nippon Telegr & Teleph Corp <Ntt> 入力方法、表示方法、メディア情報合成表示方法、入力装置、メディア情報合成表示装置、入力プログラム、メディア情報合成表示プログラム、これらのプログラムを記録した記録媒体
JP2003162355A (ja) 2001-11-26 2003-06-06 Sony Corp タスクの表示切り替え方法及び携帯機器及び携帯通信機器
JP2003186597A (ja) 2001-12-13 2003-07-04 Samsung Yokohama Research Institute Co Ltd 携帯端末装置
US20030112269A1 (en) 2001-12-17 2003-06-19 International Business Machines Corporation Configurable graphical element for monitoring dynamic properties of a resource coupled to a computing environment
US7346855B2 (en) 2001-12-21 2008-03-18 Microsoft Corporation Method and system for switching between multiple computer applications
US7043701B2 (en) 2002-01-07 2006-05-09 Xerox Corporation Opacity desktop with depth perception
US20030184574A1 (en) 2002-02-12 2003-10-02 Phillips James V. Touch screen interface with haptic feedback device
US6888537B2 (en) 2002-02-13 2005-05-03 Siemens Technology-To-Business Center, Llc Configurable industrial input devices that use electrically conductive elastomer
DE60305662T2 (de) 2002-03-08 2007-04-05 Revelations in Design, LP, Austin Steuerkonsole für elektrische geräte
US7114091B2 (en) 2002-03-18 2006-09-26 National Instruments Corporation Synchronization of distributed systems
TWI234115B (en) 2002-04-03 2005-06-11 Htc Corp Method and device of setting threshold pressure for touch panel
US20030189647A1 (en) 2002-04-05 2003-10-09 Kang Beng Hong Alex Method of taking pictures
US7178049B2 (en) 2002-04-24 2007-02-13 Medius, Inc. Method for multi-tasking multiple Java virtual machines in a secure environment
JP2004062648A (ja) 2002-07-30 2004-02-26 Kyocera Corp 表示制御装置及びこれに用いられる表示制御プログラム
US20030222915A1 (en) 2002-05-30 2003-12-04 International Business Machines Corporation Data processor controlled display system with drag and drop movement of displayed items from source to destination screen positions and interactive modification of dragged items during the movement
US7801796B2 (en) 2002-06-05 2010-09-21 The Nasdaq Omx Group, Inc. Message prioritization process and method
US7259752B1 (en) 2002-06-28 2007-08-21 Microsoft Corporation Method and system for editing electronic ink
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
JP2004054861A (ja) 2002-07-16 2004-02-19 Sanee Denki Kk タッチ式マウス
US20040015662A1 (en) 2002-07-22 2004-01-22 Aron Cummings Memory card, memory card controller, and software therefor
US20040056849A1 (en) 2002-07-25 2004-03-25 Andrew Lohbihler Method and apparatus for powering, detecting and locating multiple touch input devices on a touch screen
US7549127B2 (en) 2002-08-01 2009-06-16 Realnetworks, Inc. Method and apparatus for resizing video content displayed within a graphical user interface
JP4115198B2 (ja) 2002-08-02 2008-07-09 株式会社日立製作所 タッチパネルを備えた表示装置
JP4500485B2 (ja) 2002-08-28 2010-07-14 株式会社日立製作所 タッチパネルを備えた表示装置
US7739604B1 (en) 2002-09-25 2010-06-15 Apple Inc. Method and apparatus for managing windows
US20040138849A1 (en) 2002-09-30 2004-07-15 Albrecht Schmidt Load sensing surface as pointing device
EP1406150A1 (en) 2002-10-01 2004-04-07 Sony Ericsson Mobile Communications AB Tactile feedback method and device and portable device incorporating same
US7752115B2 (en) 2002-10-02 2010-07-06 Trading Technologies International, Inc. Method and apparatus for a fair exchange
JP4173718B2 (ja) 2002-10-31 2008-10-29 富士通株式会社 ウィンドウ切替装置及びウィンドウ切替プログラム
US20050114785A1 (en) 2003-01-07 2005-05-26 Microsoft Corporation Active content wizard execution with improved conspicuity
US20070128899A1 (en) 2003-01-12 2007-06-07 Yaron Mayer System and method for improving the efficiency, comfort, and/or reliability in Operating Systems, such as for example Windows
US7224362B2 (en) 2003-01-30 2007-05-29 Agilent Technologies, Inc. Systems and methods for providing visualization and network diagrams
US7685538B2 (en) 2003-01-31 2010-03-23 Wacom Co., Ltd. Method of triggering functions in a computer application using a digitizer having a stylus and a digitizer system
US20040155909A1 (en) 2003-02-07 2004-08-12 Sun Microsystems, Inc. Scroll tray mechanism for cellular telephone
US7185291B2 (en) 2003-03-04 2007-02-27 Institute For Information Industry Computer with a touch screen
US7369102B2 (en) 2003-03-04 2008-05-06 Microsoft Corporation System and method for navigating a graphical user interface on a smaller display
US7532206B2 (en) 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
US7380218B2 (en) 2003-03-27 2008-05-27 International Business Machines Corporation Method and apparatus for managing windows
US20040219968A1 (en) 2003-05-01 2004-11-04 Fiden Daniel P. Gaming machine with interactive pop-up windows
GB0312465D0 (en) 2003-05-30 2003-07-09 Therefore Ltd A data input method for a computing device
US7159189B2 (en) 2003-06-13 2007-01-02 Alphabase Systems, Inc. Method and system for controlling cascaded windows on a GUI desktop on a computer
US7051282B2 (en) 2003-06-13 2006-05-23 Microsoft Corporation Multi-layer graphical user interface
EP1491990B1 (en) 2003-06-20 2010-02-17 Apple Inc. Graphical user interface system and method of displaying objects in a graphical user interface
US20040267823A1 (en) 2003-06-24 2004-12-30 Microsoft Corporation Reconcilable and undoable file system
US8682097B2 (en) 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
JP2005031786A (ja) 2003-07-08 2005-02-03 Fujitsu Ten Ltd 文字入力装置
WO2005008444A2 (en) 2003-07-14 2005-01-27 Matt Pallakoff System and method for a portbale multimedia client
US7036088B2 (en) 2003-07-24 2006-04-25 Sap Ag Multi-modal method for application swapping
US7721228B2 (en) 2003-08-05 2010-05-18 Yahoo! Inc. Method and system of controlling a context menu
KR100580174B1 (ko) 2003-08-21 2006-05-16 삼성전자주식회사 회전 가능한 디스플레이 장치 및 화면 조정 방법
US9024884B2 (en) 2003-09-02 2015-05-05 Apple Inc. Touch-sensitive electronic apparatus for media applications, and methods therefor
US7411575B2 (en) 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
JP2005092386A (ja) 2003-09-16 2005-04-07 Sony Corp 画像選択装置および画像選択方法
KR100597588B1 (ko) 2003-10-02 2006-07-06 한국전자통신연구원 우선순위기반 능동 시험패킷을 이용한 노드간 경로특성측정방법
US7554689B2 (en) 2003-10-15 2009-06-30 Canon Kabushiki Kaisha Document layout method
US20050091604A1 (en) 2003-10-22 2005-04-28 Scott Davis Systems and methods that track a user-identified point of focus
JP2005135106A (ja) 2003-10-29 2005-05-26 Sony Corp 表示画像制御装置及び方法
US20050183035A1 (en) 2003-11-20 2005-08-18 Ringel Meredith J. Conflict resolution for graphic multi-user interface
US20050110777A1 (en) 2003-11-25 2005-05-26 Geaghan Bernard O. Light-emitting stylus and user input device using same
US8164573B2 (en) 2003-11-26 2012-04-24 Immersion Corporation Systems and methods for adaptive interpretation of input from a touch-sensitive input device
JP2005157842A (ja) 2003-11-27 2005-06-16 Fujitsu Ltd ブラウザプログラム、ブラウジング方法、及びブラウジング装置
WO2005055034A1 (en) 2003-12-01 2005-06-16 Research In Motion Limited Previewing a new event on a small screen device
US7454713B2 (en) 2003-12-01 2008-11-18 Sony Ericsson Mobile Communications Ab Apparatus, methods and computer program products providing menu expansion and organization functions
US20050125742A1 (en) 2003-12-09 2005-06-09 International Business Machines Corporation Non-overlapping graphical user interface workspace
US7085590B2 (en) 2003-12-31 2006-08-01 Sony Ericsson Mobile Communications Ab Mobile terminal with ergonomic imaging functions
EP1557744B1 (en) 2004-01-20 2008-04-16 Sony Deutschland GmbH Haptic key controlled data input
US7966352B2 (en) 2004-01-26 2011-06-21 Microsoft Corporation Context harvesting from selected content
JP4790990B2 (ja) 2004-01-27 2011-10-12 京セラ株式会社 携帯端末
US7441204B2 (en) 2004-02-06 2008-10-21 Microsoft Corporation Method and system for automatically displaying content of a window on a display that has changed orientation
EP1723632A4 (en) 2004-02-25 2007-07-25 Xplore Technologies Corp DEVICE FOR PROVIDING DIGITAL INPUTS WITH SEVERAL OPERATING TYPES
US7180531B2 (en) 2004-02-27 2007-02-20 Microsoft Corporation Method and apparatus for enabling application program compatibility with display devices having improved pixel density
US20050190280A1 (en) 2004-02-27 2005-09-01 Haas William R. Method and apparatus for a digital camera scrolling slideshow
KR100611182B1 (ko) 2004-02-27 2006-08-10 삼성전자주식회사 회전상태에 따라 메뉴표시상태를 변경하는 휴대형전자기기 및 그 방법
US7788595B2 (en) 2004-03-08 2010-08-31 Sap Ag Method and system for switching among management system applications
US20050204295A1 (en) 2004-03-09 2005-09-15 Freedom Scientific, Inc. Low Vision Enhancement for Graphic User Interface
GB2412831A (en) 2004-03-30 2005-10-05 Univ Newcastle Highlighting important information by blurring less important information
CN100437464C (zh) 2004-04-05 2008-11-26 松下电器产业株式会社 显示屏管理单元
US20050223338A1 (en) 2004-04-05 2005-10-06 Nokia Corporation Animated user-interface in electronic devices
US20050229112A1 (en) 2004-04-13 2005-10-13 Clay Timothy M Method and system for conveying an image position
JP2005309933A (ja) 2004-04-23 2005-11-04 Canon Inc 拡張制御装置および画像処理システムおよびアプリケーションアイコン表示方法およびプログラムおよび記憶媒体
US7694236B2 (en) 2004-04-23 2010-04-06 Microsoft Corporation Stack icons representing multiple objects
US7787026B1 (en) 2004-04-28 2010-08-31 Media Tek Singapore Pte Ltd. Continuous burst mode digital camera
EP1745355A2 (en) 2004-05-05 2007-01-24 Koninklijke Philips Electronics N.V. Browsing media items
JP4063246B2 (ja) 2004-05-11 2008-03-19 日本電気株式会社 ページ情報表示装置
CA2567280A1 (en) 2004-05-21 2005-12-01 Pressco Technology Inc. Graphical re-inspection user setup interface
JP4869568B2 (ja) 2004-06-14 2012-02-08 ソニー株式会社 入力装置および電子機器
US8453065B2 (en) 2004-06-25 2013-05-28 Apple Inc. Preview and installation of user interface elements in a display environment
US8281241B2 (en) 2004-06-28 2012-10-02 Nokia Corporation Electronic device and method for providing extended user interface
US8046712B2 (en) 2004-06-29 2011-10-25 Acd Systems International Inc. Management of multiple window panels with a graphical user interface
US7743348B2 (en) 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
US20060001657A1 (en) 2004-07-02 2006-01-05 Logitech Europe S.A. Scrolling device
US20060020904A1 (en) 2004-07-09 2006-01-26 Antti Aaltonen Stripe user interface
US7653883B2 (en) 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
JP2008508628A (ja) 2004-08-02 2008-03-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ タッチスクリーンにおける圧力制御ナビゲーション
WO2006013518A2 (en) 2004-08-02 2006-02-09 Koninklijke Philips Electronics N.V. Touch screen with pressure-dependent visual feedback
US7178111B2 (en) 2004-08-03 2007-02-13 Microsoft Corporation Multi-planar three-dimensional user interface
US7728821B2 (en) 2004-08-06 2010-06-01 Touchtable, Inc. Touch detecting interactive display
US7724242B2 (en) 2004-08-06 2010-05-25 Touchtable, Inc. Touch driven method and apparatus to integrate and display multiple image layers forming alternate depictions of same subject matter
GB2417176A (en) 2004-08-12 2006-02-15 Ibm Mouse cursor display
US20060041846A1 (en) 2004-08-19 2006-02-23 International Business Machines Corporation Method of window management for a windowing system
FR2874432A1 (fr) 2004-08-20 2006-02-24 Gervais Danone Sa Procede d'analyse de produits industriels alimentaires, cosmetiques et/ou d'hygiene, interface de mesure pour la mise en oeuvre du procede et systeme electronique de mise en oeuvre de l'interface
US7761814B2 (en) 2004-09-13 2010-07-20 Microsoft Corporation Flick gesture
EP1805578A1 (en) 2004-09-15 2007-07-11 Nokia Corporation Handling and scrolling of content on screen
JP2006091446A (ja) 2004-09-24 2006-04-06 Fuji Photo Film Co Ltd カメラ
US20060067654A1 (en) 2004-09-24 2006-03-30 Magix Ag Graphical user interface adaptable to multiple display devices
JP4860625B2 (ja) 2004-10-08 2012-01-25 イマージョン コーポレーション タッチ式入力装置におけるボタンおよびスクロール動作シミュレーション用の触覚フィードバック
CN101308442B (zh) 2004-10-12 2012-04-04 日本电信电话株式会社 三维指示方法和三维指示装置
CA2584091A1 (en) 2004-10-19 2006-04-27 Koninklijke Philips Electronics N.V. Master substrate and method of manufacturing a high-density relief structure
US8677274B2 (en) 2004-11-10 2014-03-18 Apple Inc. Highlighting items for search results
EP1815424B1 (en) 2004-11-16 2019-01-09 Koninklijke Philips N.V. Touchless manipulation of images for regional enhancement
US20060107226A1 (en) 2004-11-16 2006-05-18 Microsoft Corporation Sidebar autohide to desktop
FR2878344B1 (fr) 2004-11-22 2012-12-21 Sionnest Laurent Guyot Dispositif de commandes et d'entree de donnees
US7847789B2 (en) 2004-11-23 2010-12-07 Microsoft Corporation Reducing accidental touch-sensitive device activation
US20060136834A1 (en) 2004-12-15 2006-06-22 Jiangen Cao Scrollable toolbar with tool tip on small screens
US7458038B2 (en) 2004-12-20 2008-11-25 Microsoft Corporation Selection indication fields
US7683889B2 (en) 2004-12-21 2010-03-23 Microsoft Corporation Pressure based selection
US7629966B2 (en) 2004-12-21 2009-12-08 Microsoft Corporation Hard tap
JP4949857B2 (ja) 2005-01-05 2012-06-13 パナソニック株式会社 スクリーン表示装置
US7552397B2 (en) 2005-01-18 2009-06-23 Microsoft Corporation Multiple window behavior system
US8341541B2 (en) 2005-01-18 2012-12-25 Microsoft Corporation System and method for visually browsing of open windows
US8464176B2 (en) 2005-01-19 2013-06-11 Microsoft Corporation Dynamic stacking and expansion of visual items
US7574434B2 (en) 2005-02-25 2009-08-11 Sony Corporation Method and system for navigating and selecting media from large data sets
KR101354316B1 (ko) 2005-03-04 2014-01-22 애플 인크. 다기능 휴대용 장치
JP4166229B2 (ja) 2005-03-14 2008-10-15 株式会社日立製作所 タッチパネルを備えた表示装置
US20060213754A1 (en) 2005-03-17 2006-09-28 Microsoft Corporation Method and system for computer application program task switching via a single hardware button
US7454702B2 (en) 2005-03-21 2008-11-18 Microsoft Corporation Tool for selecting ink and other objects in an electronic document
US7661069B2 (en) 2005-03-31 2010-02-09 Microsoft Corporation System and method for visually expressing user interface elements
US7478339B2 (en) 2005-04-01 2009-01-13 Microsoft Corporation Method and apparatus for application window grouping and management
US8023568B2 (en) 2005-04-15 2011-09-20 Avid Technology, Inc. Capture, editing and encoding of motion pictures encoded with repeating fields or frames
US7471284B2 (en) 2005-04-15 2008-12-30 Microsoft Corporation Tactile scroll bar with illuminated document position indicator
US7673255B2 (en) 2005-04-22 2010-03-02 Microsoft Corporation Interface and system for manipulating thumbnails of live windows in a window manager
US7609178B2 (en) 2006-04-20 2009-10-27 Pressure Profile Systems, Inc. Reconfigurable tactile sensor input device
US9569093B2 (en) 2005-05-18 2017-02-14 Power2B, Inc. Displays and information input devices
US9785329B2 (en) 2005-05-23 2017-10-10 Nokia Technologies Oy Pocket computer and associated methods
US20070024646A1 (en) 2005-05-23 2007-02-01 Kalle Saarinen Portable electronic apparatus and associated method
US7797641B2 (en) 2005-05-27 2010-09-14 Nokia Corporation Mobile communications terminal and method therefore
US7710397B2 (en) 2005-06-03 2010-05-04 Apple Inc. Mouse with improved input mechanisms using touch sensors
US9141718B2 (en) 2005-06-03 2015-09-22 Apple Inc. Clipview applications
JP2006345209A (ja) 2005-06-08 2006-12-21 Sony Corp 入力装置、情報処理装置、情報処理方法、及びプログラム
US7903090B2 (en) 2005-06-10 2011-03-08 Qsi Corporation Force-based input device
TWI296395B (en) 2005-06-24 2008-05-01 Benq Corp Method for zooming image on touch screen
US20070004461A1 (en) 2005-06-30 2007-01-04 Bathina Sridhar N Terminal with messaging application
US20070004451A1 (en) 2005-06-30 2007-01-04 C Anderson Eric Controlling functions of a handheld multifunction device
EP1908051A4 (en) 2005-07-22 2012-01-25 Matthew G Pallakoff SYSTEM AND METHOD FOR A THUMB-OPTIMIZED USER INTERFACE OF A TOUCH SCREEN
US8049731B2 (en) 2005-07-29 2011-11-01 Interlink Electronics, Inc. System and method for implementing a control function via a sensor having a touch sensitive control input surface
JP4622727B2 (ja) 2005-07-29 2011-02-02 日本電気株式会社 適応送信タイミング制御方法、無線通信システムおよび無線通信装置
WO2007016704A2 (en) 2005-08-02 2007-02-08 Ipifini, Inc. Input device having multifunctional keys
US7680513B2 (en) 2005-08-08 2010-03-16 Palm, Inc. Contact-centric user-interface features for computing devices
EP1920539A1 (en) 2005-08-26 2008-05-14 KTF Technologies, Inc. User terminal for performing a plurality of applications simultaneously
CA2621488A1 (en) 2005-09-13 2007-03-22 Spacetime3D, Inc. System and method for providing three-dimensional graphical user interface
US7694231B2 (en) 2006-01-05 2010-04-06 Apple Inc. Keyboards for portable electronic devices
US20070152980A1 (en) 2006-01-05 2007-07-05 Kenneth Kocienda Touch Screen Keyboards for Portable Electronic Devices
US7633076B2 (en) 2005-09-30 2009-12-15 Apple Inc. Automated response to and sensing of user activity in portable devices
TW200715192A (en) 2005-10-07 2007-04-16 Elan Microelectronics Corp Method for a window to generate different moving speed
JP2007116384A (ja) 2005-10-20 2007-05-10 Funai Electric Co Ltd 電子番組情報表示装置
CN1955906A (zh) 2005-10-28 2007-05-02 华硕电脑股份有限公司 单键多程式的执行方法
US7725839B2 (en) 2005-11-15 2010-05-25 Microsoft Corporation Three-dimensional active file explorer
US8643605B2 (en) 2005-11-21 2014-02-04 Core Wireless Licensing S.A.R.L Gesture based document editor
US7331245B2 (en) 2005-11-22 2008-02-19 Avago Technologies Ecbu Ip Pte Ltd Pressure distribution sensor and sensing method
JP2007148927A (ja) 2005-11-29 2007-06-14 Alps Electric Co Ltd 入力装置及びこれを用いたスクロール制御方法
WO2007068091A1 (en) 2005-12-12 2007-06-21 Audiokinetic Inc. Method and system for multi-version digital authoring
US8325398B2 (en) 2005-12-22 2012-12-04 Canon Kabushiki Kaisha Image editing system, image management apparatus, and image editing program
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
US20070152959A1 (en) 2005-12-29 2007-07-05 Sap Ag Pressure-sensitive button
US7797642B1 (en) 2005-12-30 2010-09-14 Google Inc. Method, system, and graphical user interface for meeting-spot-related contact lists
WO2007079425A2 (en) 2005-12-30 2007-07-12 Apple Inc. Portable electronic device with multi-touch input
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
US20070168369A1 (en) 2006-01-04 2007-07-19 Companionlink Software, Inc. User interface for a portable electronic device
US7757185B2 (en) 2006-01-06 2010-07-13 Apple Inc. Enabling and disabling hotkeys
US7603633B2 (en) 2006-01-13 2009-10-13 Microsoft Corporation Position-based multi-stroke marking menus
US7486282B2 (en) 2006-01-27 2009-02-03 Microsoft Corporation Size variant pressure eraser
US8510669B2 (en) 2006-02-06 2013-08-13 Yahoo! Inc. Method and system for presenting photos on a website
US7536654B2 (en) 2006-02-06 2009-05-19 Microsoft Corporation Photo browse and zoom
US20110096174A1 (en) 2006-02-28 2011-04-28 King Martin T Accessing resources based on capturing information from a rendered document
US7532837B2 (en) 2006-03-09 2009-05-12 Kabushiki Kaisha Toshiba Multifunction peripheral with template registration and template registration method
US8745526B2 (en) 2006-03-14 2014-06-03 Blackberry Limited Screen display in application switching
KR100746874B1 (ko) 2006-03-16 2007-08-07 삼성전자주식회사 이동 단말기에서 터치패드를 이용한 서비스 제공 장치 및방법
GB0605587D0 (en) 2006-03-20 2006-04-26 British Broadcasting Corp Graphical user interface methods and systems
US8405618B2 (en) * 2006-03-24 2013-03-26 Northwestern University Haptic device with indirect haptic feedback
JP2007264808A (ja) 2006-03-27 2007-10-11 Nikon Corp 表示入力装置及び撮像装置
US8780139B2 (en) 2006-03-27 2014-07-15 Adobe Systems Incorporated Resolution monitoring when using visual manipulation tools
US7925250B2 (en) 2006-03-27 2011-04-12 International Business Machines Corporation Reuse of a mobile device application in a desktop environment
US7656413B2 (en) 2006-03-29 2010-02-02 Autodesk, Inc. Large display attention focus system
US7538760B2 (en) 2006-03-30 2009-05-26 Apple Inc. Force imaging input device and system
US8040142B1 (en) 2006-03-31 2011-10-18 Cypress Semiconductor Corporation Touch detection techniques for capacitive touch sense systems
US7861176B2 (en) 2006-04-13 2010-12-28 Touchcommerce, Inc. Methods and systems for providing online chat
US7607088B2 (en) 2006-04-18 2009-10-20 International Business Machines Corporation Computer program product, apparatus and method for displaying a plurality of entities in a tooltip for a cell of a table
US8296684B2 (en) 2008-05-23 2012-10-23 Hewlett-Packard Development Company, L.P. Navigating among activities in a computing device
US8683362B2 (en) 2008-05-23 2014-03-25 Qualcomm Incorporated Card metaphor for activities in a computing device
EP2010999A4 (en) 2006-04-21 2012-11-21 Google Inc SYSTEM FOR ORGANIZING AND VISUALIZING DISPLAY OBJECTS
KR100771626B1 (ko) 2006-04-25 2007-10-31 엘지전자 주식회사 단말기 및 이를 위한 명령 입력 방법
US8279180B2 (en) 2006-05-02 2012-10-02 Apple Inc. Multipoint touch surface controller
JP4737539B2 (ja) 2006-05-03 2011-08-03 株式会社ソニー・コンピュータエンタテインメント マルチメディア再生装置および背景画像表示方法
US9063647B2 (en) 2006-05-12 2015-06-23 Microsoft Technology Licensing, Llc Multi-touch uses, gestures, and implementation
US20070299923A1 (en) 2006-06-16 2007-12-27 Skelly George J Methods and systems for managing messaging
US7921116B2 (en) 2006-06-16 2011-04-05 Microsoft Corporation Highly meaningful multimedia metadata creation and associations
KR101242030B1 (ko) 2006-06-22 2013-03-11 엘지디스플레이 주식회사 유기전계발광 소자
JP2008009759A (ja) 2006-06-29 2008-01-17 Toyota Motor Corp タッチパネル装置
US7880728B2 (en) 2006-06-29 2011-02-01 Microsoft Corporation Application switching via a touch screen interface
JP4751780B2 (ja) 2006-07-07 2011-08-17 株式会社エヌ・ティ・ティ・ドコモ キー入力装置
JP4583344B2 (ja) 2006-07-10 2010-11-17 シャープ株式会社 携帯電話機
EP1882902A1 (en) 2006-07-27 2008-01-30 Aisin AW Co., Ltd. Navigation apparatus and method for providing guidance to a vehicle user using a touch screen
JP2008033739A (ja) 2006-07-31 2008-02-14 Sony Corp 力覚フィードバックおよび圧力測定に基づくタッチスクリーンインターラクション方法および装置
US20080051989A1 (en) 2006-08-25 2008-02-28 Microsoft Corporation Filtering of data layered on mapping applications
US8106856B2 (en) 2006-09-06 2012-01-31 Apple Inc. Portable electronic device for photo management
US7864163B2 (en) 2006-09-06 2011-01-04 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US8842074B2 (en) 2006-09-06 2014-09-23 Apple Inc. Portable electronic device performing similar operations for different gestures
US7956849B2 (en) 2006-09-06 2011-06-07 Apple Inc. Video manager for portable multifunction device
US7581186B2 (en) 2006-09-11 2009-08-25 Apple Inc. Media manager with integrated browsers
US7743338B2 (en) 2006-09-11 2010-06-22 Apple Inc. Image rendering with image artifact along a multidimensional path
US7930650B2 (en) 2006-09-11 2011-04-19 Apple Inc. User interface with menu abstractions and content abstractions
US8564543B2 (en) 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
US20080094398A1 (en) 2006-09-19 2008-04-24 Bracco Imaging, S.P.A. Methods and systems for interacting with a 3D visualization system using a 2D interface ("DextroLap")
JP2008076818A (ja) 2006-09-22 2008-04-03 Fujitsu Ltd 携帯端末装置
JP5176300B2 (ja) 2006-09-22 2013-04-03 富士通株式会社 電子機器、その制御方法及びその制御プログラム
US20100315345A1 (en) 2006-09-27 2010-12-16 Nokia Corporation Tactile Touch Screen
US8245154B2 (en) 2006-11-03 2012-08-14 International Business Machines Corporation Most-recently-used task switching among parent and child windows
US20080106523A1 (en) 2006-11-07 2008-05-08 Conrad Richard H Ergonomic lift-clicking method and apparatus for actuating home switches on computer input devices
US8138504B2 (en) 2006-11-10 2012-03-20 Sumitomo Electric Industries, Ltd. Silicon carbide semiconductor device and method of manufacturing the same
WO2008064142A2 (en) 2006-11-20 2008-05-29 Pham Don N Interactive sequential key system to input characters on small keypads
US8006002B2 (en) 2006-12-12 2011-08-23 Apple Inc. Methods and systems for automatic configuration of peripherals
JP2008146453A (ja) 2006-12-12 2008-06-26 Sony Corp 映像信号出力装置、操作入力処理方法
KR20080058121A (ko) * 2006-12-21 2008-06-25 삼성전자주식회사 휴대단말기에서의 촉각형 사용자 인터페이스 제공 장치 및방법
US20080163119A1 (en) 2006-12-28 2008-07-03 Samsung Electronics Co., Ltd. Method for providing menu and multimedia device using the same
US8269886B2 (en) 2007-01-05 2012-09-18 Marvell World Trade Ltd. Methods and systems for improving low-resolution video
US7956847B2 (en) 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
US8214768B2 (en) 2007-01-05 2012-07-03 Apple Inc. Method, system, and graphical user interface for viewing multiple application windows
US7877707B2 (en) 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
US7957762B2 (en) 2007-01-07 2011-06-07 Apple Inc. Using ambient light sensor to augment proximity sensor output
US20080222545A1 (en) 2007-01-07 2008-09-11 Lemay Stephen O Portable Electronic Device with a Global Setting User Interface
US9001047B2 (en) 2007-01-07 2015-04-07 Apple Inc. Modal change based on orientation of a portable multifunction device
US20080168395A1 (en) 2007-01-07 2008-07-10 Bas Ording Positioning a Slider Icon on a Portable Multifunction Device
US8082523B2 (en) 2007-01-07 2011-12-20 Apple Inc. Portable electronic device with graphical user interface supporting application switching
US7978176B2 (en) 2007-01-07 2011-07-12 Apple Inc. Portrait-landscape rotation heuristics for a portable multifunction device
CN101578582A (zh) 2007-01-11 2009-11-11 皇家飞利浦电子股份有限公司 用于提供撤消/重做机制的方法和设备
JP2008191086A (ja) 2007-02-07 2008-08-21 Matsushita Electric Ind Co Ltd ナビゲーション装置
CN101241397B (zh) 2007-02-07 2012-03-07 罗伯特·博世有限公司 具有鼠标功能的键盘及其输入方法
GB2446702A (en) 2007-02-13 2008-08-20 Qrg Ltd Touch Control Panel with Pressure Sensor
KR101450584B1 (ko) 2007-02-22 2014-10-14 삼성전자주식회사 단말의 화면 표시 방법
US8650505B2 (en) 2007-02-28 2014-02-11 Rpx Corporation Multi-state unified pie user interface
EP2541902B1 (en) 2007-03-06 2014-06-25 Panasonic Corporation Imaging processing device and image processing method
WO2008109172A1 (en) 2007-03-07 2008-09-12 Wiklof Christopher A Recorder with retrospective capture
US8352881B2 (en) 2007-03-08 2013-01-08 International Business Machines Corporation Method, apparatus and program storage device for providing customizable, immediate and radiating menus for accessing applications and actions
US7895533B2 (en) 2007-03-13 2011-02-22 Apple Inc. Interactive image thumbnails
US20080244448A1 (en) 2007-04-01 2008-10-02 Katharina Goering Generation of menu presentation relative to a given menu orientation
US20080259046A1 (en) 2007-04-05 2008-10-23 Joseph Carsanaro Pressure sensitive touch pad with virtual programmable buttons for launching utility applications
US7973778B2 (en) 2007-04-16 2011-07-05 Microsoft Corporation Visual simulation of touch pressure
US8140996B2 (en) 2007-04-17 2012-03-20 QNX Software Systems Limtied System for endless loop scrolling and display
CN101290553A (zh) 2007-04-17 2008-10-22 索尼(中国)有限公司 具有显示屏的电子设备
US20100127983A1 (en) 2007-04-26 2010-05-27 Pourang Irani Pressure Augmented Mouse
US20080270910A1 (en) 2007-04-30 2008-10-30 Lukasik Derek J User selection of a remote session
JP2008283629A (ja) 2007-05-14 2008-11-20 Sony Corp 撮像装置、撮像信号処理方法、プログラム
CN201107762Y (zh) 2007-05-15 2008-08-27 宏达国际电子股份有限公司 具有可切换使用者界面以及无阻碍触控操作的电子装置
US8621348B2 (en) 2007-05-25 2013-12-31 Immersion Corporation Customizing haptic effects on an end user device
JPWO2008146784A1 (ja) 2007-05-29 2010-08-19 株式会社Access 端末装置、ヒストリ管理方法、およびヒストリ管理の為のコンピュータ使用可能な記憶媒体
US7801950B2 (en) 2007-06-01 2010-09-21 Clustrmaps Ltd. System for analyzing and visualizing access statistics for a web site
JP2008305174A (ja) 2007-06-07 2008-12-18 Sony Corp 情報処理装置、情報処理方法、プログラム
US20080303795A1 (en) 2007-06-08 2008-12-11 Lowles Robert J Haptic display for a handheld electronic device
US8010900B2 (en) 2007-06-08 2011-08-30 Apple Inc. User interface for electronic backup
US20080307359A1 (en) 2007-06-08 2008-12-11 Apple Inc. Grouping Graphical Representations of Objects in a User Interface
US8667418B2 (en) 2007-06-08 2014-03-04 Apple Inc. Object stack
US8381122B2 (en) 2007-06-08 2013-02-19 Apple Inc. Multi-dimensional application environment
US8745535B2 (en) 2007-06-08 2014-06-03 Apple Inc. Multi-dimensional desktop
US9933937B2 (en) 2007-06-20 2018-04-03 Apple Inc. Portable multifunction device, method, and graphical user interface for playing online videos
US8059101B2 (en) 2007-06-22 2011-11-15 Apple Inc. Swipe gestures for touch screen keyboards
US8302033B2 (en) 2007-06-22 2012-10-30 Apple Inc. Touch screen device, method, and graphical user interface for providing maps, directions, and location-based information
US8315482B2 (en) 2007-06-26 2012-11-20 Microsoft Corporation Integrated platform for user input of digital ink
US9772751B2 (en) 2007-06-29 2017-09-26 Apple Inc. Using gestures to slide between user interfaces
US20090046110A1 (en) 2007-08-16 2009-02-19 Motorola, Inc. Method and apparatus for manipulating a displayed image
US20110210931A1 (en) 2007-08-19 2011-09-01 Ringbow Ltd. Finger-worn device and interaction methods and communication methods
KR20090019161A (ko) 2007-08-20 2009-02-25 삼성전자주식회사 전자 장치 및 이를 조작하는 방법
KR101424259B1 (ko) 2007-08-22 2014-07-31 삼성전자주식회사 휴대단말에서 입력 피드백 제공 방법 및 장치
US8826132B2 (en) 2007-09-04 2014-09-02 Apple Inc. Methods and systems for navigating content on a portable device
US9477395B2 (en) 2007-09-04 2016-10-25 Apple Inc. Audio file interface
US20110145068A1 (en) 2007-09-17 2011-06-16 King Martin T Associating rendered advertisements with digital content
US8125458B2 (en) 2007-09-28 2012-02-28 Microsoft Corporation Detecting finger orientation on a touch-sensitive device
US8098235B2 (en) * 2007-09-28 2012-01-17 Immersion Corporation Multi-touch device having dynamic haptic effects
US20090089293A1 (en) 2007-09-28 2009-04-02 Bccg Ventures, Llc Selfish data browsing
TWI417764B (zh) 2007-10-01 2013-12-01 Giga Byte Comm Inc A control method and a device for performing a switching function of a touch screen of a hand-held electronic device
KR101570368B1 (ko) 2008-08-22 2015-11-20 엘지전자 주식회사 이동 단말기 및 그 메뉴 표시 방법
DE202008018283U1 (de) 2007-10-04 2012-07-17 Lg Electronics Inc. Menüanzeige für ein mobiles Kommunikationsendgerät
KR20090036877A (ko) 2007-10-10 2009-04-15 삼성전자주식회사 다중 프로젝션 윈도우 환경에서 기준자 기반으로오브젝트를 관리하는 방법 및 그 시스템
CN101414231B (zh) 2007-10-17 2011-09-21 鸿富锦精密工业(深圳)有限公司 触摸屏装置及其图像显示方法
US20090102805A1 (en) 2007-10-18 2009-04-23 Microsoft Corporation Three-dimensional object simulation using audio, visual, and tactile feedback
DE102007052008A1 (de) * 2007-10-26 2009-04-30 Andreas Steinhauser Single- oder multitouchfähiger Touchscreen oder Touchpad bestehend aus einem Array von Drucksensoren sowie Herstellung solcher Sensoren
US8024670B1 (en) 2007-10-30 2011-09-20 Intuit Inc. Workflow management using live thumbnails
JP4974236B2 (ja) 2007-10-30 2012-07-11 アズビル株式会社 情報連携ウィンドウシステムおよびプログラム
WO2009059062A2 (en) 2007-10-31 2009-05-07 Stratovan Corporation Resolution independent layout
JP2009129171A (ja) 2007-11-22 2009-06-11 Denso It Laboratory Inc 移動体に搭載される情報処理装置
US20090140985A1 (en) 2007-11-30 2009-06-04 Eric Liu Computing device that determines and uses applied pressure from user interaction with an input interface
US20090167507A1 (en) 2007-12-07 2009-07-02 Nokia Corporation User interface
US8140974B2 (en) 2007-12-14 2012-03-20 Microsoft Corporation Presenting secondary media objects to a user
JP4605214B2 (ja) 2007-12-19 2011-01-05 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
TW200930009A (en) 2007-12-21 2009-07-01 Inventec Appliances Corp Procedure of acting personally hot function setting
US8233671B2 (en) 2007-12-27 2012-07-31 Intel-Ge Care Innovations Llc Reading device with hierarchal navigation
US9170649B2 (en) 2007-12-28 2015-10-27 Nokia Technologies Oy Audio and tactile feedback based on visual environment
US8138896B2 (en) 2007-12-31 2012-03-20 Apple Inc. Tactile feedback in an electronic device
US9857872B2 (en) 2007-12-31 2018-01-02 Apple Inc. Multi-touch display screen with localized tactile feedback
US9063627B2 (en) 2008-01-04 2015-06-23 Tactus Technology, Inc. User interface and methods
US20090174679A1 (en) 2008-01-04 2009-07-09 Wayne Carl Westerman Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface
US8327272B2 (en) 2008-01-06 2012-12-04 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
US8196042B2 (en) 2008-01-21 2012-06-05 Microsoft Corporation Self-revelation aids for interfaces
US8423076B2 (en) 2008-02-01 2013-04-16 Lg Electronics Inc. User interface for a mobile device
US8504945B2 (en) 2008-02-01 2013-08-06 Gabriel Jakobson Method and system for associating content with map zoom function
US8314801B2 (en) 2008-02-29 2012-11-20 Microsoft Corporation Visual state manager for control skinning
US20090276730A1 (en) 2008-03-04 2009-11-05 Alexandre Aybes Techniques for navigation of hierarchically-presented data
US8717305B2 (en) 2008-03-04 2014-05-06 Apple Inc. Touch event model for web pages
US8645827B2 (en) * 2008-03-04 2014-02-04 Apple Inc. Touch event model
US8650507B2 (en) 2008-03-04 2014-02-11 Apple Inc. Selecting of text using gestures
KR101012300B1 (ko) 2008-03-07 2011-02-08 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 사용자 인터페이스장치 및 그 방법
JP4670879B2 (ja) * 2008-03-11 2011-04-13 ブラザー工業株式会社 接触入力型の情報処理装置、接触入力型の情報処理方法、及び情報処理プログラム
KR101007045B1 (ko) 2008-03-12 2011-01-12 주식회사 애트랩 접촉센서 장치 및 이 장치의 포인팅 좌표 결정 방법
US20090237374A1 (en) 2008-03-20 2009-09-24 Motorola, Inc. Transparent pressure sensor and method for using
US8640040B2 (en) 2008-03-28 2014-01-28 Sprint Communications Company L.P. Persistent event-management access in a mobile communications device
JP5200641B2 (ja) 2008-04-10 2013-06-05 ソニー株式会社 リスト表示装置及びリスト表示方法
US8745514B1 (en) 2008-04-11 2014-06-03 Perceptive Pixel, Inc. Pressure-sensitive layering of displayed objects
US8259208B2 (en) 2008-04-15 2012-09-04 Sony Corporation Method and apparatus for performing touch-based adjustments within imaging devices
JP5428189B2 (ja) 2008-04-17 2014-02-26 三洋電機株式会社 ナビゲーション装置
US20090267906A1 (en) 2008-04-25 2009-10-29 Nokia Corporation Touch sensitive apparatus
US20090271731A1 (en) 2008-04-27 2009-10-29 Htc Corporation Electronic device and user interface display method thereof
JP4792058B2 (ja) 2008-04-28 2011-10-12 株式会社東芝 情報処理装置、制御方法およびプログラム
US8159469B2 (en) 2008-05-06 2012-04-17 Hewlett-Packard Development Company, L.P. User interface for initiating activities in an electronic device
KR101461954B1 (ko) 2008-05-08 2014-11-14 엘지전자 주식회사 단말기 및 그 제어 방법
US20090280860A1 (en) 2008-05-12 2009-11-12 Sony Ericsson Mobile Communications Ab Mobile phone with directional force feedback and method
CN102027450B (zh) 2008-05-20 2015-05-13 思杰系统有限公司 由移动计算装置使用外部显示装置的方法和系统
US7958447B2 (en) 2008-05-23 2011-06-07 International Business Machines Corporation Method and system for page navigating user interfaces for electronic devices
US20090295739A1 (en) 2008-05-27 2009-12-03 Wes Albert Nagara Haptic tactile precision selection
US20090307633A1 (en) 2008-06-06 2009-12-10 Apple Inc. Acceleration navigation of media device displays
US8099332B2 (en) 2008-06-06 2012-01-17 Apple Inc. User interface for application management for a mobile device
CN101604208A (zh) 2008-06-12 2009-12-16 欧蜀平 一种易于使用的键盘及其软件
KR101498623B1 (ko) 2008-06-25 2015-03-04 엘지전자 주식회사 휴대 단말기 및 그 제어방법
JP4896932B2 (ja) 2008-06-26 2012-03-14 京セラ株式会社 入力装置
WO2009155981A1 (en) 2008-06-26 2009-12-30 Uiq Technology Ab Gesture on touch sensitive arrangement
WO2009158549A2 (en) 2008-06-28 2009-12-30 Apple Inc. Radial menu selection
JP4938733B2 (ja) 2008-06-30 2012-05-23 株式会社ソニー・コンピュータエンタテインメント メニュー画面表示方法およびメニュー画面表示装置
US8477228B2 (en) 2008-06-30 2013-07-02 Verizon Patent And Licensing Inc. Camera data management and user interface apparatuses, systems, and methods
EP2141574B1 (en) 2008-07-01 2017-09-27 LG Electronics Inc. Mobile terminal using proximity sensor and method of controlling the mobile terminal
US20100013613A1 (en) 2008-07-08 2010-01-21 Jonathan Samuel Weston Haptic feedback projection system
US10095375B2 (en) 2008-07-09 2018-10-09 Apple Inc. Adding a contact to a home screen
JP4198190B1 (ja) 2008-07-11 2008-12-17 任天堂株式会社 画像通信システム、画像通信装置、および画像通信プログラム
US10019061B2 (en) 2008-07-15 2018-07-10 Immersion Corporation Systems and methods for haptic message transmission
US8274484B2 (en) 2008-07-18 2012-09-25 Microsoft Corporation Tracking input in a screen-reflective interface environment
KR101495559B1 (ko) 2008-07-21 2015-02-27 삼성전자주식회사 사용자 명령 입력 방법 및 그 장치
US9176620B2 (en) 2008-07-22 2015-11-03 Lg Electronics Inc. Mobile terminal and method for displaying information list thereof
KR20100010302A (ko) 2008-07-22 2010-02-01 엘지전자 주식회사 이동단말기 및 그 메뉴 표시방법
JP5100556B2 (ja) 2008-07-30 2012-12-19 キヤノン株式会社 情報処理方法及び装置
US10983665B2 (en) 2008-08-01 2021-04-20 Samsung Electronics Co., Ltd. Electronic apparatus and method for implementing user interface
CN101650615B (zh) 2008-08-13 2011-01-26 怡利电子工业股份有限公司 按压式触控板的光标控制器与键盘的自动切换方法
US8604364B2 (en) 2008-08-15 2013-12-10 Lester F. Ludwig Sensors, algorithms and applications for a high dimensional touchpad
JP4600548B2 (ja) 2008-08-27 2010-12-15 ソニー株式会社 再生装置、再生方法、およびプログラム
US10375223B2 (en) 2008-08-28 2019-08-06 Qualcomm Incorporated Notifying a user of events in a computing device
US8913176B2 (en) 2008-09-05 2014-12-16 Lg Electronics Inc. Mobile terminal and method of performing multi-focusing and photographing image including plurality of objects using the same
JP4636146B2 (ja) 2008-09-05 2011-02-23 ソニー株式会社 画像処理方法、画像処理装置、プログラム及び画像処理システム
WO2010032402A1 (ja) 2008-09-16 2010-03-25 パナソニック株式会社 データ表示装置、集積回路、データ表示方法、データ表示プログラム及び記録媒体
JP5494485B2 (ja) 2008-09-17 2014-05-14 日本電気株式会社 入力装置及びその制御方法並びに入力装置を備えた電子機器
US20100070908A1 (en) 2008-09-18 2010-03-18 Sun Microsystems, Inc. System and method for accepting or rejecting suggested text corrections
US9041650B2 (en) 2008-09-18 2015-05-26 Apple Inc. Using measurement of lateral force for a tracking input device
US8769427B2 (en) 2008-09-19 2014-07-01 Google Inc. Quick gesture input
KR101451667B1 (ko) 2008-09-24 2014-10-16 엘지전자 주식회사 단말기 및 그 제어 방법
US8359547B2 (en) 2008-10-01 2013-01-22 Nintendo Co., Ltd. Movable user interface indicator of at least one parameter that is adjustable with different operations for increasing and decreasing the parameter and/or methods of providing the same
US8462107B2 (en) 2008-10-03 2013-06-11 International Business Machines Corporation Pointing device and method with error prevention features
EP3654141A1 (en) 2008-10-06 2020-05-20 Samsung Electronics Co., Ltd. Method and apparatus for displaying graphical user interface depending on a user's contact pattern
US20100088628A1 (en) 2008-10-07 2010-04-08 Sony Ericsson Mobile Communications Ab Live preview of open windows
US9442648B2 (en) 2008-10-07 2016-09-13 Blackberry Limited Portable electronic device and method of controlling same
US20100085314A1 (en) 2008-10-08 2010-04-08 Research In Motion Limited Portable electronic device and method of controlling same
US20100088654A1 (en) 2008-10-08 2010-04-08 Research In Motion Limited Electronic device having a state aware touchscreen
EP2175357B1 (en) 2008-10-08 2012-11-21 Research In Motion Limited Portable electronic device and method of controlling same
US8245143B2 (en) 2008-10-08 2012-08-14 Research In Motion Limited Method and handheld electronic device having a graphical user interface which arranges icons dynamically
EP2175349A1 (en) 2008-10-08 2010-04-14 Research in Motion Limited Method and system for displaying an image on a handheld electronic communication device
JP2010097353A (ja) 2008-10-15 2010-04-30 Access Co Ltd 情報端末
KR100961473B1 (ko) 2008-10-15 2010-06-08 주식회사 케이티 무선 인터넷 브라우저의 웹 페이지 내용을 메시징하는 이동단말 및 그 방법
KR100941512B1 (ko) 2008-10-15 2010-02-10 (주)엠쓰리모바일 스타일러스 펜
KR101510738B1 (ko) 2008-10-20 2015-04-10 삼성전자주식회사 휴대단말의 대기화면 구성 방법 및 장치
KR101569176B1 (ko) 2008-10-30 2015-11-20 삼성전자주식회사 오브젝트 실행 방법 및 장치
WO2010051493A2 (en) 2008-10-31 2010-05-06 Nettoons, Inc. Web-based real-time animation visualization, creation, and distribution
CN101727268A (zh) 2008-11-03 2010-06-09 英业达股份有限公司 手持式电子装置与其程序显示切换方法
US8704775B2 (en) 2008-11-11 2014-04-22 Adobe Systems Incorporated Biometric adjustments for touchscreens
EP2863289A1 (en) 2008-11-18 2015-04-22 Studer Professional Audio GmbH Input device and method of detecting a user input with an input device
JP4752900B2 (ja) 2008-11-19 2011-08-17 ソニー株式会社 画像処理装置、画像表示方法および画像表示プログラム
US20100123686A1 (en) 2008-11-19 2010-05-20 Sony Ericsson Mobile Communications Ab Piezoresistive force sensor integrated in a display
US8788977B2 (en) 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
CA2741580C (en) 2008-11-26 2016-10-18 Research In Motion Limited Touch-sensitive display method and apparatus
US20100138776A1 (en) 2008-11-30 2010-06-03 Nokia Corporation Flick-scrolling
DE112009003521T5 (de) 2008-12-04 2013-10-10 Mitsubishi Electric Corp. Anzeigeeingabevorrichtung
US20100146507A1 (en) 2008-12-05 2010-06-10 Kang Dong-Oh System and method of delivery of virtual machine using context information
US8638311B2 (en) 2008-12-08 2014-01-28 Samsung Electronics Co., Ltd. Display device and data displaying method thereof
JP2010165337A (ja) 2008-12-15 2010-07-29 Sony Corp 情報処理装置、情報処理方法およびプログラム
US8707170B2 (en) 2008-12-15 2014-04-22 Hewlett-Packard Development Company, L.P. Gesture based edit mode
US8711011B2 (en) 2008-12-16 2014-04-29 Dell Products, Lp Systems and methods for implementing pressure sensitive keyboards
US9246487B2 (en) 2008-12-16 2016-01-26 Dell Products Lp Keyboard with user configurable granularity scales for pressure sensitive keys
US20100149096A1 (en) 2008-12-17 2010-06-17 Migos Charles J Network management using interaction with display surface
CN105607837A (zh) 2008-12-18 2016-05-25 日本电气株式会社 滑动条显示控制装置以及滑动条显示控制方法
KR101352264B1 (ko) 2008-12-18 2014-01-17 엘지디스플레이 주식회사 멀티 터치 감지방법 및 장치
JP4975722B2 (ja) 2008-12-22 2012-07-11 京セラ株式会社 入力装置および入力装置の制御方法
US8547342B2 (en) 2008-12-22 2013-10-01 Verizon Patent And Licensing Inc. Gesture-based delivery from mobile device
US8453057B2 (en) 2008-12-22 2013-05-28 Verizon Patent And Licensing Inc. Stage interaction for mobile device
US8451236B2 (en) 2008-12-22 2013-05-28 Hewlett-Packard Development Company L.P. Touch-sensitive display screen with absolute and relative input modes
US20100156823A1 (en) 2008-12-23 2010-06-24 Research In Motion Limited Electronic device including touch-sensitive display and method of controlling same to provide tactile feedback
US8686952B2 (en) * 2008-12-23 2014-04-01 Apple Inc. Multi touch with multi haptics
JP4746085B2 (ja) 2008-12-25 2011-08-10 京セラ株式会社 入力装置
JP4885938B2 (ja) 2008-12-25 2012-02-29 京セラ株式会社 入力装置
JP4683126B2 (ja) 2008-12-26 2011-05-11 ブラザー工業株式会社 入力装置
WO2010077063A2 (ko) 2008-12-30 2010-07-08 엘지전자 주식회사 영상표시기기 및 그 제어 방법
US8219927B2 (en) 2009-01-06 2012-07-10 Microsoft Corporation Revealing of truncated content on scrollable grid
US8446376B2 (en) 2009-01-13 2013-05-21 Microsoft Corporation Visual response to touch inputs
JP2010176174A (ja) 2009-01-27 2010-08-12 Fujifilm Corp 電子機器および電子機器の操作入力制御方法、並びに電子機器の操作入力制御プログラム
JP5173870B2 (ja) 2009-01-28 2013-04-03 京セラ株式会社 入力装置
US20100194693A1 (en) 2009-01-30 2010-08-05 Sony Ericsson Mobile Communications Ab Electronic apparatus, method and computer program with adaptable user interface environment
EP2214087B1 (en) 2009-01-30 2015-07-08 BlackBerry Limited A handheld electronic device having a touchscreen and a method of using a touchscreen of a handheld electronic device
JP4723656B2 (ja) 2009-02-03 2011-07-13 京セラ株式会社 入力装置
US9152292B2 (en) 2009-02-05 2015-10-06 Hewlett-Packard Development Company, L.P. Image collage authoring
US9176747B2 (en) 2009-02-17 2015-11-03 Sandisk Il Ltd. User-application interface
EP2399385B1 (en) 2009-02-18 2019-11-06 Google LLC Automatically capturing information, such as capturing information using a document-aware device
US20100214239A1 (en) 2009-02-23 2010-08-26 Compal Electronics, Inc. Method and touch panel for providing tactile feedback
JP5734546B2 (ja) 2009-02-25 2015-06-17 京セラ株式会社 オブジェクト表示装置
CN101498979B (zh) 2009-02-26 2010-12-29 苏州瀚瑞微电子有限公司 利用电容式触摸屏实现虚拟键盘的方法
KR100993064B1 (ko) 2009-03-02 2010-11-08 주식회사 팬택 터치 스크린 적용 음원 재생 장치에서의 음원 선택 재생 방법
JP5267229B2 (ja) 2009-03-09 2013-08-21 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP5157969B2 (ja) 2009-03-09 2013-03-06 ソニー株式会社 情報処理装置、閾値設定方法及びそのプログラム
JP5779508B2 (ja) 2009-03-12 2015-09-16 イマージョン コーポレーションImmersion Corporation テクスチャエンジン用のシステム及び方法
WO2010105246A2 (en) 2009-03-12 2010-09-16 Exbiblio B.V. Accessing resources based on capturing information from a rendered document
US8510665B2 (en) 2009-03-16 2013-08-13 Apple Inc. Methods and graphical user interfaces for editing on a multifunction device with a touch screen display
US9852761B2 (en) 2009-03-16 2017-12-26 Apple Inc. Device, method, and graphical user interface for editing an audio or video attachment in an electronic message
US8572513B2 (en) 2009-03-16 2013-10-29 Apple Inc. Device, method, and graphical user interface for moving a current position in content at a variable scrubbing rate
JP5398728B2 (ja) 2009-03-23 2014-01-29 パナソニック株式会社 情報処理装置、情報処理方法、記録媒体、及び集積回路
JP5252378B2 (ja) 2009-03-26 2013-07-31 ヤマハ株式会社 ミキサ装置のウィンドウ制御方法、ミキサ装置、およびミキサ装置のウィンドウ制御プログラム
US8175653B2 (en) 2009-03-30 2012-05-08 Microsoft Corporation Chromeless user interface
CN102460355B (zh) 2009-04-05 2016-03-16 放射粒子工程有限公司 一体化输入和显示系统及方法
US9189124B2 (en) 2009-04-15 2015-11-17 Wyse Technology L.L.C. Custom pointer features for touch-screen on remote client devices
US20100271312A1 (en) 2009-04-22 2010-10-28 Rachid Alameh Menu Configuration System and Method for Display on an Electronic Device
WO2010122814A1 (ja) 2009-04-24 2010-10-28 京セラ株式会社 入力装置
US8884895B2 (en) 2009-04-24 2014-11-11 Kyocera Corporation Input apparatus
KR20100118458A (ko) 2009-04-28 2010-11-05 엘지전자 주식회사 이미지 처리 방법 및 이를 적용한 카메라가 장착된 이동 통신 단말기
US9354795B2 (en) 2009-04-29 2016-05-31 Lenovo (Singapore) Pte. Ltd Refining manual input interpretation on touch surfaces
US8418082B2 (en) 2009-05-01 2013-04-09 Apple Inc. Cross-track edit indicators and edit selections
US8627207B2 (en) 2009-05-01 2014-01-07 Apple Inc. Presenting an editing tool in a composite display area
US8669945B2 (en) 2009-05-07 2014-03-11 Microsoft Corporation Changing of list views on mobile device
US8427503B2 (en) 2009-05-18 2013-04-23 Nokia Corporation Method, apparatus and computer program product for creating graphical objects with desired physical features for usage in animation
KR101601040B1 (ko) 2009-05-19 2016-03-09 삼성전자주식회사 휴대 단말기의 화면 표시 방법 및 이를 지원하는 휴대 단말기
KR101640463B1 (ko) 2009-05-19 2016-07-18 삼성전자 주식회사 휴대 단말기의 운용 방법 및 이를 지원하는 휴대 단말기
US20140078318A1 (en) 2009-05-22 2014-03-20 Motorola Mobility Llc Electronic Device with Sensing Assembly and Method for Interpreting Consecutive Gestures
KR101560718B1 (ko) 2009-05-29 2015-10-15 엘지전자 주식회사 이동 단말기 및 이동 단말기에서의 정보 표시 방법
US9148618B2 (en) 2009-05-29 2015-09-29 Apple Inc. Systems and methods for previewing newly captured image content and reviewing previously stored image content
US8549432B2 (en) 2009-05-29 2013-10-01 Apple Inc. Radial menus
KR20100129424A (ko) 2009-06-01 2010-12-09 한국표준과학연구원 터치스크린의 접촉위치 및 접촉힘의 세기를 이용한 사용자 인터페이스 제공 방법 및 장치
US9372536B2 (en) 2009-06-05 2016-06-21 Empire Technology Development Llc Touch screen with tactile feedback
US9009612B2 (en) 2009-06-07 2015-04-14 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
US9405456B2 (en) 2009-06-08 2016-08-02 Xerox Corporation Manipulation of displayed objects by virtual magnetism
US20100313158A1 (en) 2009-06-08 2010-12-09 Lg Electronics Inc. Method for editing data in mobile terminal and mobile terminal using the same
US8621387B2 (en) 2009-06-08 2013-12-31 Apple Inc. User interface for multiple display regions
US8823749B2 (en) 2009-06-10 2014-09-02 Qualcomm Incorporated User interface methods providing continuous zoom functionality
KR101598335B1 (ko) 2009-06-11 2016-02-29 엘지전자 주식회사 휴대 단말기 및 그 동작방법
US8593415B2 (en) 2009-06-19 2013-11-26 Lg Electronics Inc. Method for processing touch signal in mobile terminal and mobile terminal using the same
US9330503B2 (en) 2009-06-19 2016-05-03 Microsoft Technology Licensing, Llc Presaging and surfacing interactivity within data visualizations
US9626094B2 (en) 2009-06-26 2017-04-18 Kyocera Corporation Communication device and electronic device
US20100328229A1 (en) * 2009-06-30 2010-12-30 Research In Motion Limited Method and apparatus for providing tactile feedback
EP2449452B1 (en) 2009-07-03 2016-02-10 Tactus Technology User interface enhancement system
US20110010626A1 (en) 2009-07-09 2011-01-13 Jorge Fino Device and Method for Adjusting a Playback Control with a Finger Gesture
KR101608764B1 (ko) 2009-07-14 2016-04-04 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
US8378798B2 (en) 2009-07-24 2013-02-19 Research In Motion Limited Method and apparatus for a touch-sensitive display
JP5197521B2 (ja) 2009-07-29 2013-05-15 京セラ株式会社 入力装置
US9244562B1 (en) 2009-07-31 2016-01-26 Amazon Technologies, Inc. Gestures and touches on force-sensitive input devices
JP5398408B2 (ja) 2009-08-07 2014-01-29 オリンパスイメージング株式会社 カメラ、カメラの制御方法、表示制御装置、および表示制御方法
US20110055135A1 (en) 2009-08-26 2011-03-03 International Business Machines Corporation Deferred Teleportation or Relocation in Virtual Worlds
US20110070342A1 (en) 2009-08-26 2011-03-24 Wilkens Patrick J Method for evaluating and orientating baked product
JP2011048686A (ja) 2009-08-27 2011-03-10 Kyocera Corp 入力装置
US8363020B2 (en) 2009-08-27 2013-01-29 Symbol Technologies, Inc. Methods and apparatus for pressure-based manipulation of content on a touch screen
JP2011048669A (ja) 2009-08-27 2011-03-10 Kyocera Corp 入力装置
JP5310389B2 (ja) 2009-08-27 2013-10-09 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP5304544B2 (ja) 2009-08-28 2013-10-02 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US8390583B2 (en) 2009-08-31 2013-03-05 Qualcomm Incorporated Pressure sensitive user interface for mobile devices
JP5593655B2 (ja) 2009-08-31 2014-09-24 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP5267388B2 (ja) 2009-08-31 2013-08-21 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
KR20110023977A (ko) 2009-09-01 2011-03-09 삼성전자주식회사 휴대단말기의 위젯 관리 방법 및 장치
JP2011053971A (ja) 2009-09-02 2011-03-17 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP5310403B2 (ja) 2009-09-02 2013-10-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2011053974A (ja) 2009-09-02 2011-03-17 Sony Corp 操作制御装置、操作制御方法およびコンピュータプログラム
JP5182260B2 (ja) 2009-09-02 2013-04-17 ソニー株式会社 操作制御装置、操作制御方法およびコンピュータプログラム
US9262063B2 (en) 2009-09-02 2016-02-16 Amazon Technologies, Inc. Touch-screen user interface
US8451238B2 (en) 2009-09-02 2013-05-28 Amazon Technologies, Inc. Touch-screen user interface
TW201109990A (en) 2009-09-04 2011-03-16 Higgstec Inc Touch gesture detecting method of a touch panel
JP5278259B2 (ja) 2009-09-07 2013-09-04 ソニー株式会社 入力装置、入力方法及びプログラム
KR101150545B1 (ko) 2009-09-07 2012-06-11 주식회사 팬택앤큐리텔 이동통신단말기 및 그것의 화면 전환 방법
EP2302496A1 (en) 2009-09-10 2011-03-30 Research In Motion Limited Dynamic sizing of identifier on a touch-sensitive display
US20110057886A1 (en) 2009-09-10 2011-03-10 Oliver Ng Dynamic sizing of identifier on a touch-sensitive display
KR20110028834A (ko) 2009-09-14 2011-03-22 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 터치 압력을 이용한 사용자 인터페이스 제공 방법 및 장치
EP3260969B1 (en) 2009-09-22 2021-03-03 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US8264471B2 (en) 2009-09-22 2012-09-11 Sony Mobile Communications Ab Miniature character input mechanism
US8421762B2 (en) 2009-09-25 2013-04-16 Apple Inc. Device, method, and graphical user interface for manipulation of user interface objects with activation regions
JP5393377B2 (ja) 2009-09-25 2014-01-22 京セラ株式会社 入力装置
US8436806B2 (en) 2009-10-02 2013-05-07 Research In Motion Limited Method of synchronizing data acquisition and a portable electronic device configured to perform the same
US9141260B2 (en) 2009-10-08 2015-09-22 Red Hat, Inc. Workspace management tool
US20110084910A1 (en) 2009-10-13 2011-04-14 Research In Motion Limited Portable electronic device including touch-sensitive display and method of controlling same
KR101092592B1 (ko) 2009-10-14 2011-12-13 주식회사 팬택 이동통신단말기 및 이의 터치 인터페이스 제공 방법
US10068728B2 (en) 2009-10-15 2018-09-04 Synaptics Incorporated Touchpad with capacitive force sensing
CA2680602C (en) 2009-10-19 2011-07-26 Ibm Canada Limited - Ibm Canada Limitee System and method for generating and displaying hybrid context menus
US20110102829A1 (en) 2009-10-30 2011-05-05 Jourdan Arlene T Image size warning
US8677284B2 (en) 2009-11-04 2014-03-18 Alpine Electronics, Inc. Method and apparatus for controlling and displaying contents in a user interface
JP5328611B2 (ja) 2009-11-05 2013-10-30 シャープ株式会社 携帯情報端末
US20110109617A1 (en) 2009-11-12 2011-05-12 Microsoft Corporation Visualizing Depth
JP2011107823A (ja) 2009-11-13 2011-06-02 Canon Inc 表示制御装置及び表示制御方法
KR101725888B1 (ko) 2009-11-13 2017-04-13 삼성전자주식회사 카메라 또는 원격 제어 장치에서의 이미지 제공 방법 및 그 장치
KR101611440B1 (ko) 2009-11-16 2016-04-11 삼성전자주식회사 이미지 처리 방법 및 장치
US8665227B2 (en) 2009-11-19 2014-03-04 Motorola Mobility Llc Method and apparatus for replicating physical key function with soft keys in an electronic device
US8432367B2 (en) 2009-11-19 2013-04-30 Google Inc. Translating user interaction with a touch screen into input commands
KR101620058B1 (ko) 2009-11-23 2016-05-24 삼성전자주식회사 가상 머신 간 화면 전환 장치 및 방법
KR101073309B1 (ko) 2009-11-24 2011-10-12 삼성모바일디스플레이주식회사 터치 스크린 시스템 및 그 구동방법
US8799816B2 (en) 2009-12-07 2014-08-05 Motorola Mobility Llc Display interface and method for displaying multiple items arranged in a sequence
US9557735B2 (en) 2009-12-10 2017-01-31 Fisher-Rosemount Systems, Inc. Methods and apparatus to manage process control status rollups
US8633916B2 (en) 2009-12-10 2014-01-21 Apple, Inc. Touch pad with force sensors and actuator feedback
JP5490508B2 (ja) 2009-12-11 2014-05-14 京セラ株式会社 タッチセンサを有する装置、触感呈示方法及び触感呈示プログラム
US8358281B2 (en) 2009-12-15 2013-01-22 Apple Inc. Device, method, and graphical user interface for management and manipulation of user interface elements
US8381125B2 (en) 2009-12-16 2013-02-19 Apple Inc. Device and method for resizing user interface content while maintaining an aspect ratio via snapping a perimeter to a gridline
US8274592B2 (en) 2009-12-22 2012-09-25 Eastman Kodak Company Variable rate browsing of an image collection
US8862576B2 (en) 2010-01-06 2014-10-14 Apple Inc. Device, method, and graphical user interface for mapping directions between search results
US8793611B2 (en) 2010-01-06 2014-07-29 Apple Inc. Device, method, and graphical user interface for manipulating selectable user interface objects
US20110167339A1 (en) 2010-01-06 2011-07-07 Lemay Stephen O Device, Method, and Graphical User Interface for Attachment Viewing and Editing
US8525839B2 (en) 2010-01-06 2013-09-03 Apple Inc. Device, method, and graphical user interface for providing digital content products
US8510677B2 (en) 2010-01-06 2013-08-13 Apple Inc. Device, method, and graphical user interface for navigating through a range of values
US8698845B2 (en) 2010-01-06 2014-04-15 Apple Inc. Device, method, and graphical user interface with interactive popup views
US8698762B2 (en) 2010-01-06 2014-04-15 Apple Inc. Device, method, and graphical user interface for navigating and displaying content in context
KR101616875B1 (ko) 2010-01-07 2016-05-02 삼성전자주식회사 터치 패널 및 이를 구비한 전자기기
US20110175826A1 (en) 2010-01-15 2011-07-21 Bradford Allen Moore Automatically Displaying and Hiding an On-screen Keyboard
US9715332B1 (en) 2010-08-26 2017-07-25 Cypress Lake Software, Inc. Methods, systems, and computer program products for navigating between visual components
JP5636678B2 (ja) 2010-01-19 2014-12-10 ソニー株式会社 表示制御装置、表示制御方法及び表示制御プログラム
US10007393B2 (en) 2010-01-19 2018-06-26 Apple Inc. 3D view of file structure
US20110179381A1 (en) 2010-01-21 2011-07-21 Research In Motion Limited Portable electronic device and method of controlling same
US8914732B2 (en) 2010-01-22 2014-12-16 Lg Electronics Inc. Displaying home screen profiles on a mobile terminal
KR101319264B1 (ko) 2010-01-22 2013-10-18 전자부품연구원 멀티 터치 압력에 기반한 ui 제공방법 및 이를 적용한 전자기기
US8683363B2 (en) 2010-01-26 2014-03-25 Apple Inc. Device, method, and graphical user interface for managing user interface content and user interface elements
JP2011176794A (ja) 2010-01-26 2011-09-08 Canon Inc 撮像装置及び撮像方法
JP5635274B2 (ja) 2010-01-27 2014-12-03 京セラ株式会社 触感呈示装置および触感呈示方法
US8261213B2 (en) 2010-01-28 2012-09-04 Microsoft Corporation Brush, carbon-copy, and fill gestures
US20110185299A1 (en) 2010-01-28 2011-07-28 Microsoft Corporation Stamp Gestures
US8988367B2 (en) 2010-02-05 2015-03-24 Broadcom Corporation Systems and methods for providing enhanced touch sensing
US20110193881A1 (en) 2010-02-05 2011-08-11 Sony Ericsson Mobile Communications Ab Regulation of navigation speed among displayed items and tilt angle thereof responsive to user applied pressure
US8839150B2 (en) 2010-02-10 2014-09-16 Apple Inc. Graphical objects that respond to touch or motion input
KR101673918B1 (ko) 2010-02-11 2016-11-09 삼성전자주식회사 휴대단말에서 복수의 정보들을 제공하는 방법 및 장치
US8782556B2 (en) 2010-02-12 2014-07-15 Microsoft Corporation User-centric soft keyboard predictive technologies
KR101690786B1 (ko) 2010-02-12 2016-12-28 삼성전자주식회사 멀티태스킹 수행 장치 및 방법
US9417787B2 (en) 2010-02-12 2016-08-16 Microsoft Technology Licensing, Llc Distortion effects to indicate location in a movable data collection
EP2360570A3 (en) 2010-02-15 2012-05-16 Research In Motion Limited Graphical context short menu
US20110202853A1 (en) 2010-02-15 2011-08-18 Research In Motion Limited Contact objects
JP2011170538A (ja) 2010-02-17 2011-09-01 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2011197848A (ja) 2010-03-18 2011-10-06 Rohm Co Ltd タッチパネル入力装置
US9310994B2 (en) 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism
US9965165B2 (en) 2010-02-19 2018-05-08 Microsoft Technology Licensing, Llc Multi-finger gestures
US9274682B2 (en) 2010-02-19 2016-03-01 Microsoft Technology Licensing, Llc Off-screen gestures to create on-screen input
US8799827B2 (en) 2010-02-19 2014-08-05 Microsoft Corporation Page manipulations using on and off-screen gestures
US9367205B2 (en) 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
EP2360507B1 (en) 2010-02-22 2014-11-05 DST Innovations Limited Display elements
EP2541376B1 (en) 2010-02-23 2019-07-31 Kyocera Corporation Electronic apparatus
WO2011104709A2 (en) 2010-02-23 2011-09-01 Rami Parham A system for projecting content to a display surface having user-controlled size, shape and location/direction and apparatus and methods useful in conjunction therewith
US8751970B2 (en) 2010-02-25 2014-06-10 Microsoft Corporation Multi-screen synchronous slide gesture
US9361018B2 (en) * 2010-03-01 2016-06-07 Blackberry Limited Method of providing tactile feedback and apparatus
US8941600B2 (en) 2010-03-05 2015-01-27 Mckesson Financial Holdings Apparatus for providing touch feedback for user input to a touch sensitive surface
JP5413250B2 (ja) 2010-03-05 2014-02-12 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
US20110221684A1 (en) 2010-03-11 2011-09-15 Sony Ericsson Mobile Communications Ab Touch-sensitive input device, mobile device and method for operating a touch-sensitive input device
JP2011192179A (ja) 2010-03-16 2011-09-29 Kyocera Corp 文字入力装置、文字入力方法及び文字入力プログラム
JP2011192215A (ja) 2010-03-16 2011-09-29 Kyocera Corp 文字入力装置、文字入力方法及び文字入力プログラム
CN102812422B (zh) 2010-03-18 2016-01-06 京瓷株式会社 电子设备
US8756522B2 (en) 2010-03-19 2014-06-17 Blackberry Limited Portable electronic device and method of controlling same
US9069416B2 (en) 2010-03-25 2015-06-30 Google Inc. Method and system for selecting content using a touchscreen
US8725706B2 (en) 2010-03-26 2014-05-13 Nokia Corporation Method and apparatus for multi-item searching
EP2553555A1 (en) 2010-03-31 2013-02-06 Nokia Corp. Apparatuses, methods and computer programs for a virtual stylus
US8826184B2 (en) 2010-04-05 2014-09-02 Lg Electronics Inc. Mobile terminal and image display controlling method thereof
JP2011221640A (ja) 2010-04-06 2011-11-04 Sony Corp 情報処理装置、情報処理方法およびプログラム
US9823831B2 (en) 2010-04-07 2017-11-21 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
US10788976B2 (en) 2010-04-07 2020-09-29 Apple Inc. Device, method, and graphical user interface for managing folders with multiple pages
US8458615B2 (en) 2010-04-07 2013-06-04 Apple Inc. Device, method, and graphical user interface for managing folders
US20110252376A1 (en) 2010-04-07 2011-10-13 Imran Chaudhri Device, Method, and Graphical User Interface for Managing Concurrently Open Software Applications
US20110248948A1 (en) 2010-04-08 2011-10-13 Research In Motion Limited Touch-sensitive device and method of control
EP2375309A1 (en) 2010-04-08 2011-10-12 Research in Motion Limited Handheld device with localized delays for triggering tactile feedback
EP2375314A1 (en) * 2010-04-08 2011-10-12 Research in Motion Limited Touch-sensitive device and method of control
US9417695B2 (en) 2010-04-08 2016-08-16 Blackberry Limited Tactile feedback method and apparatus
EP2378406B1 (en) 2010-04-13 2018-08-22 LG Electronics Inc. Mobile terminal and method of controlling operation of the mobile terminal
US9026932B1 (en) 2010-04-16 2015-05-05 Amazon Technologies, Inc. Edge navigation user interface
KR101668240B1 (ko) 2010-04-19 2016-10-21 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US9285988B2 (en) 2010-04-20 2016-03-15 Blackberry Limited Portable electronic device having touch-sensitive display with variable repeat rate
KR101704531B1 (ko) 2010-04-22 2017-02-08 삼성전자주식회사 휴대 단말기의 텍스트 정보 표시 방법 및 장치
JP2011242386A (ja) 2010-04-23 2011-12-01 Immersion Corp 接触センサと触覚アクチュエータとの透明複合圧電材結合体
JP2011232947A (ja) 2010-04-27 2011-11-17 Lenovo Singapore Pte Ltd 情報処理装置、そのウィンドウ表示方法、およびコンピュータが実行可能なプログラム
JP2011238125A (ja) 2010-05-12 2011-11-24 Sony Corp 画像処理装置および方法、並びにプログラム
US8466889B2 (en) 2010-05-14 2013-06-18 Research In Motion Limited Method of providing tactile feedback and electronic device
EP2386935B1 (en) 2010-05-14 2015-02-11 BlackBerry Limited Method of providing tactile feedback and electronic device
US8451255B2 (en) 2010-05-14 2013-05-28 Arnett Ryan Weber Method of providing tactile feedback and electronic device
WO2011146740A2 (en) 2010-05-19 2011-11-24 Google Inc. Sliding motion to change computer keys
US20110296333A1 (en) 2010-05-25 2011-12-01 Bateman Steven S User interaction gestures with virtual keyboard
US8860672B2 (en) 2010-05-26 2014-10-14 T-Mobile Usa, Inc. User interface with z-axis interaction
US20110296351A1 (en) 2010-05-26 2011-12-01 T-Mobile Usa, Inc. User Interface with Z-axis Interaction and Multiple Stacks
US20130120280A1 (en) 2010-05-28 2013-05-16 Tim Kukulski System and Method for Evaluating Interoperability of Gesture Recognizers
KR101626301B1 (ko) 2010-05-28 2016-06-01 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US9530144B2 (en) 2010-05-28 2016-12-27 Rakuten, Inc. Content output device, content output method, content output program, and recording medium having content output program recorded thereon
US8669946B2 (en) 2010-05-28 2014-03-11 Blackberry Limited Electronic device including touch-sensitive display and method of controlling same
EP2390772A1 (en) 2010-05-31 2011-11-30 Sony Ericsson Mobile Communications AB User interface with three dimensional user input
AP2012006600A0 (en) 2010-06-01 2012-12-31 Nokia Corp A method, a device and a system for receiving userinput
US9046999B1 (en) 2010-06-08 2015-06-02 Google Inc. Dynamic input at a touch-based interface based on pressure
JP2011257941A (ja) 2010-06-08 2011-12-22 Panasonic Corp 文字入力装置、文字装飾方法、及び文字装飾プログラム
US20110307778A1 (en) 2010-06-10 2011-12-15 Acer Incorporated Mobile electronic apparatus and method of switching application programs thereof
US20120089951A1 (en) 2010-06-10 2012-04-12 Cricket Communications, Inc. Method and apparatus for navigation within a multi-level application
US20110304577A1 (en) 2010-06-11 2011-12-15 Sp Controls, Inc. Capacitive touch screen stylus
US20110304559A1 (en) 2010-06-11 2011-12-15 Research In Motion Limited Portable electronic device including touch-sensitive display and method of changing tactile feedback
US9106194B2 (en) 2010-06-14 2015-08-11 Sony Corporation Regulation of audio volume and/or rate responsive to user applied pressure and related methods
US8477109B1 (en) 2010-06-24 2013-07-02 Amazon Technologies, Inc. Surfacing reference work entries on touch-sensitive displays
US8542205B1 (en) 2010-06-24 2013-09-24 Amazon Technologies, Inc. Refining search results based on touch gestures
KR20120002727A (ko) 2010-07-01 2012-01-09 주식회사 팬택 3d ui 표시 장치
US8972903B2 (en) 2010-07-08 2015-03-03 Apple Inc. Using gesture to navigate hierarchically ordered user interface screens
JP5589625B2 (ja) 2010-07-08 2014-09-17 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US20120013541A1 (en) 2010-07-14 2012-01-19 Research In Motion Limited Portable electronic device and method of controlling same
US20120013542A1 (en) 2010-07-16 2012-01-19 Research In Motion Limited Portable electronic device and method of determining a location of a touch
US8854316B2 (en) 2010-07-16 2014-10-07 Blackberry Limited Portable electronic device with a touch-sensitive display and navigation device and method
KR20120009564A (ko) 2010-07-19 2012-02-02 삼성전자주식회사 3차원 마우스 포인터 생성방법 및 생성장치
US20120019448A1 (en) 2010-07-22 2012-01-26 Nokia Corporation User Interface with Touch Pressure Level Sensing
JP5529663B2 (ja) 2010-07-28 2014-06-25 京セラ株式会社 入力装置
JP2012027875A (ja) 2010-07-28 2012-02-09 Sony Corp 電子機器、処理方法及びプログラム
US8402533B2 (en) 2010-08-06 2013-03-19 Google Inc. Input to locked computing device
US8593418B2 (en) 2010-08-08 2013-11-26 Qualcomm Incorporated Method and system for adjusting display content
AU2011288893A1 (en) 2010-08-09 2013-02-28 Intelligent Mechatronic Systems Inc. Interface for mobile device and computing device
US8698765B1 (en) 2010-08-17 2014-04-15 Amazon Technologies, Inc. Associating concepts within content items
US8576184B2 (en) 2010-08-19 2013-11-05 Nokia Corporation Method and apparatus for browsing content files
JP5625612B2 (ja) 2010-08-19 2014-11-19 株式会社リコー 操作表示装置および操作表示方法
JP5510185B2 (ja) 2010-08-20 2014-06-04 ソニー株式会社 情報処理装置、プログラム及び表示制御方法
JP5573487B2 (ja) 2010-08-20 2014-08-20 ソニー株式会社 情報処理装置、プログラム及び操作制御方法
JP2011048832A (ja) 2010-08-27 2011-03-10 Kyocera Corp 入力装置
JP5813301B2 (ja) 2010-09-01 2015-11-17 京セラ株式会社 表示装置
JP5732783B2 (ja) 2010-09-02 2015-06-10 ソニー株式会社 情報処理装置、情報処理装置の入力制御方法及びプログラム
KR101739054B1 (ko) 2010-09-08 2017-05-24 삼성전자주식회사 디바이스상의 움직임 제어 방법 및 장치
US10645344B2 (en) 2010-09-10 2020-05-05 Avigilion Analytics Corporation Video system with intelligent visual display
US20120066648A1 (en) 2010-09-14 2012-03-15 Xerox Corporation Move and turn touch screen interface for manipulating objects in a 3d scene
KR101657122B1 (ko) 2010-09-15 2016-09-30 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US9164670B2 (en) 2010-09-15 2015-10-20 Microsoft Technology Licensing, Llc Flexible touch-based scrolling
JP6049990B2 (ja) 2010-09-15 2016-12-21 京セラ株式会社 携帯電子機器、画面制御方法および画面制御プログラム
GB201015720D0 (en) 2010-09-20 2010-10-27 Gammons Richard Findability of data elements
CN103221914B (zh) 2010-09-24 2020-01-31 黑莓有限公司 便携式电子设备及其控制方法
US9030419B1 (en) 2010-09-28 2015-05-12 Amazon Technologies, Inc. Touch and force user interface navigation
JP5725533B2 (ja) 2010-09-29 2015-05-27 Necカシオモバイルコミュニケーションズ株式会社 情報処理装置および入力方法
US8817053B2 (en) 2010-09-30 2014-08-26 Apple Inc. Methods and systems for opening a file
US9323442B2 (en) 2010-09-30 2016-04-26 Apple Inc. Managing items in a user interface
US8713474B2 (en) 2010-10-05 2014-04-29 Citrix Systems, Inc. Providing user interfaces and window previews for hosted applications
EP2447818A1 (en) 2010-10-07 2012-05-02 Research in Motion Limited Method and portable electronic device for presenting text
US20120089942A1 (en) 2010-10-07 2012-04-12 Research In Motion Limited Method and portable electronic device for presenting text
JP5664103B2 (ja) 2010-10-08 2015-02-04 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
KR20130052743A (ko) 2010-10-15 2013-05-23 삼성전자주식회사 항목 선택 방법
JP5751934B2 (ja) 2010-10-15 2015-07-22 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
KR101726607B1 (ko) 2010-10-19 2017-04-13 삼성전자주식회사 휴대 단말기의 화면 제어 방법 및 장치
US20120102437A1 (en) 2010-10-22 2012-04-26 Microsoft Corporation Notification Group Touch Gesture Dismissal Techniques
JP5710934B2 (ja) 2010-10-25 2015-04-30 シャープ株式会社 コンテンツ表示装置、およびコンテンツ表示方法
US8655085B2 (en) 2010-10-28 2014-02-18 Microsoft Corporation Burst mode image compression and decompression
US20120105367A1 (en) 2010-11-01 2012-05-03 Impress Inc. Methods of using tactile force sensing for intuitive user interface
US9262002B2 (en) 2010-11-03 2016-02-16 Qualcomm Incorporated Force sensing touch screen
US9760241B1 (en) 2010-11-05 2017-09-12 Amazon Technologies, Inc. Tactile interaction with content
US8754860B2 (en) 2010-11-05 2014-06-17 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US8587547B2 (en) 2010-11-05 2013-11-19 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
BR112013011300A2 (pt) 2010-11-09 2019-09-24 Koninl Philips Electronics Nv interface de usuário, método de fornecimento de retroalimentação táctil ao usuário que toca uma superfície de interação (s) com um conjunto de acionadores e aparelho que compreende uma interface de usuário
JP5719205B2 (ja) 2010-11-22 2015-05-13 シャープ株式会社 電子機器および表示制御方法
US8560960B2 (en) 2010-11-23 2013-10-15 Apple Inc. Browsing and interacting with open windows
JP2012118825A (ja) 2010-12-01 2012-06-21 Fujitsu Ten Ltd 表示装置
US9069452B2 (en) 2010-12-01 2015-06-30 Apple Inc. Morphing a user-interface control object
US10503255B2 (en) * 2010-12-02 2019-12-10 Immersion Corporation Haptic feedback assisted text manipulation
US9223445B2 (en) 2010-12-02 2015-12-29 Atmel Corporation Position-sensing and force detection panel
JP5700783B2 (ja) 2010-12-07 2015-04-15 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
US9223461B1 (en) 2010-12-08 2015-12-29 Wendell Brown Graphical user interface
US8660978B2 (en) 2010-12-17 2014-02-25 Microsoft Corporation Detecting and responding to unintentional contact with a computing device
US9244606B2 (en) 2010-12-20 2016-01-26 Apple Inc. Device, method, and graphical user interface for navigation of concurrently open software applications
EP3982242B1 (en) 2010-12-20 2024-05-01 Apple Inc. Event recognition
JP5698529B2 (ja) 2010-12-29 2015-04-08 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、および表示制御方法
US9354804B2 (en) 2010-12-29 2016-05-31 Microsoft Technology Licensing, Llc Touch event anticipation in a computing device
US20120179967A1 (en) 2011-01-06 2012-07-12 Tivo Inc. Method and Apparatus for Gesture-Based Controls
US20120180001A1 (en) 2011-01-06 2012-07-12 Research In Motion Limited Electronic device and method of controlling same
US9471145B2 (en) 2011-01-06 2016-10-18 Blackberry Limited Electronic device and method of displaying information in response to a gesture
KR101892630B1 (ko) 2011-01-10 2018-08-28 삼성전자주식회사 터치 디스플레이 장치 및 그 디스플레이 방법
US20120185787A1 (en) 2011-01-13 2012-07-19 Microsoft Corporation User interface interaction behavior based on insertion point
US20120183271A1 (en) 2011-01-17 2012-07-19 Qualcomm Incorporated Pressure-based video recording
US9519418B2 (en) 2011-01-18 2016-12-13 Nokia Technologies Oy Method and apparatus for providing a multi-stage device transition mechanism initiated based on a touch gesture
US20120218203A1 (en) 2011-02-10 2012-08-30 Kanki Noriyoshi Touch drawing display apparatus and operation method thereof, image display apparatus allowing touch-input, and controller for the display apparatus
EP3734407A1 (en) 2011-02-10 2020-11-04 Samsung Electronics Co., Ltd. Portable device comprising a touch-screen display, and method for controlling same
WO2012108213A1 (ja) 2011-02-10 2012-08-16 京セラ株式会社 入力装置
US8780140B2 (en) 2011-02-16 2014-07-15 Sony Corporation Variable display scale control device and variable playing speed control device
US8756503B2 (en) 2011-02-21 2014-06-17 Xerox Corporation Query generation from displayed text documents using virtual magnets
WO2012114760A1 (ja) 2011-02-23 2012-08-30 京セラ株式会社 タッチセンサを備えた電子機器
US8593420B1 (en) 2011-03-04 2013-11-26 Amazon Technologies, Inc. Providing tactile output and interaction
US9195321B2 (en) 2011-03-17 2015-11-24 Intellitact Llc Input device user interface enhancements
US8479110B2 (en) 2011-03-20 2013-07-02 William J. Johnson System and method for summoning user interface objects
US20120249853A1 (en) 2011-03-28 2012-10-04 Marc Krolczyk Digital camera for reviewing related images
US11580155B2 (en) 2011-03-28 2023-02-14 Kodak Alaris Inc. Display device for displaying related digital images
US8872773B2 (en) 2011-04-05 2014-10-28 Blackberry Limited Electronic device and method of controlling same
US20120256846A1 (en) 2011-04-05 2012-10-11 Research In Motion Limited Electronic device and method of controlling same
US20120256829A1 (en) 2011-04-05 2012-10-11 Qnx Software Systems Limited Portable electronic device and method of controlling same
US20120256857A1 (en) 2011-04-05 2012-10-11 Mak Genevieve Elizabeth Electronic device and method of controlling same
US20120260220A1 (en) 2011-04-06 2012-10-11 Research In Motion Limited Portable electronic device having gesture recognition and a method for controlling the same
US8736716B2 (en) 2011-04-06 2014-05-27 Apple Inc. Digital camera having variable duration burst mode
US9733708B2 (en) 2011-04-06 2017-08-15 Kyocera Corporation Electronic device, operation control method, and operation control program
US10222974B2 (en) 2011-05-03 2019-03-05 Nokia Technologies Oy Method and apparatus for providing quick access to device functionality
JP5695740B2 (ja) 2011-05-12 2015-04-08 アルプス電気株式会社 入力装置及び前記入力装置を用いた複数点の荷重検出方法
US9152288B2 (en) 2011-05-19 2015-10-06 Microsoft Technology Licensing, Llc Remote multi-touch
US8952987B2 (en) 2011-05-19 2015-02-10 Qualcomm Incorporated User interface elements augmented with force detection
WO2012162158A1 (en) 2011-05-20 2012-11-29 Citrix Systems, Inc. Shell integration on a mobile device for an application executing remotely on a server
US9104440B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
JP5808404B2 (ja) 2011-05-27 2015-11-10 京セラ株式会社 電子機器
US20120304132A1 (en) 2011-05-27 2012-11-29 Chaitanya Dev Sareen Switching back to a previously-interacted-with application
US9658766B2 (en) 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
KR101802759B1 (ko) 2011-05-30 2017-11-29 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
KR101290145B1 (ko) 2011-05-31 2013-07-26 삼성전자주식회사 터치 스크린 제어 방법 및 장치, 컴퓨터에 의해 독출될 수 있는 기록 매체, 그리고 단말장치
US8677232B2 (en) 2011-05-31 2014-03-18 Apple Inc. Devices, methods, and graphical user interfaces for document manipulation
US8587542B2 (en) 2011-06-01 2013-11-19 Motorola Mobility Llc Using pressure differences with a touch-sensitive display screen
US8508494B2 (en) 2011-06-01 2013-08-13 Motorola Mobility Llc Using pressure differences with a touch-sensitive display screen
US9310958B2 (en) 2011-06-02 2016-04-12 Lenovo (Singapore) Pte. Ltd. Dock for favorite applications
KR101838260B1 (ko) 2011-06-03 2018-03-13 구글 엘엘씨 텍스트를 선택하기 위한 제스처들
US8661337B2 (en) 2011-06-05 2014-02-25 Apple Inc. Techniques for use of snapshots with browsing transitions
US9513799B2 (en) 2011-06-05 2016-12-06 Apple Inc. Devices, methods, and graphical user interfaces for providing control of a touch-based user interface absent physical touch capabilities
WO2012167735A1 (zh) 2011-06-07 2012-12-13 联想(北京)有限公司 电子设备、触摸输入方法和控制方法
KR20120135723A (ko) 2011-06-07 2012-12-17 김연수 터치패널 타입의 신호입력장치
TWI431516B (zh) * 2011-06-21 2014-03-21 Quanta Comp Inc 觸覺回饋方法及其電子裝置
US9304668B2 (en) 2011-06-28 2016-04-05 Nokia Technologies Oy Method and apparatus for customizing a display screen of a user interface
US20130135243A1 (en) 2011-06-29 2013-05-30 Research In Motion Limited Character preview method and apparatus
US20130014057A1 (en) 2011-07-07 2013-01-10 Thermal Matrix USA, Inc. Composite control for a graphical user interface
EP2733591B1 (en) 2011-07-11 2019-05-08 KDDI Corporation User interface device capable of execution of input by finger contact in plurality of modes, input operation assessment method, and program
US9158455B2 (en) 2011-07-12 2015-10-13 Apple Inc. Multifunctional environment for image cropping
US20130016042A1 (en) 2011-07-12 2013-01-17 Ville Makinen Haptic device with touch gesture interface
JP5325943B2 (ja) 2011-07-12 2013-10-23 富士フイルム株式会社 情報処理装置、情報処理方法及びプログラム
US9086794B2 (en) 2011-07-14 2015-07-21 Microsoft Technology Licensing, Llc Determining gestures on context based menus
US20130212515A1 (en) 2012-02-13 2013-08-15 Syntellia, Inc. User interface for text input
US9285976B2 (en) 2011-07-22 2016-03-15 Kddi Corporation User interface device capable of image scrolling not accompanying finger movement, image scrolling method, and program
US8713482B2 (en) 2011-07-28 2014-04-29 National Instruments Corporation Gestures for presentation of different views of a system diagram
JP5295328B2 (ja) 2011-07-29 2013-09-18 Kddi株式会社 スクリーンパッドによる入力が可能なユーザインタフェース装置、入力処理方法及びプログラム
KR101830965B1 (ko) 2011-08-03 2018-02-22 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
WO2013022486A1 (en) 2011-08-05 2013-02-14 Thomson Licensing Video peeking
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US20130044062A1 (en) 2011-08-16 2013-02-21 Nokia Corporation Method and apparatus for translating between force inputs and temporal inputs
US20130047100A1 (en) 2011-08-17 2013-02-21 Google Inc. Link Disambiguation For Touch Screens
US20130050131A1 (en) 2011-08-23 2013-02-28 Garmin Switzerland Gmbh Hover based navigation user interface control
US8806369B2 (en) 2011-08-26 2014-08-12 Apple Inc. Device, method, and graphical user interface for managing and interacting with concurrently open software applications
KR101351162B1 (ko) 2011-08-30 2014-01-14 주식회사 팬택 플리킹을 이용한 리스트 선택 지원 단말 장치 및 방법
WO2013029641A1 (en) 2011-08-31 2013-03-07 Sony Ericsson Mobile Communications Ab Method for operating a touch sensitive user interface
US20130050143A1 (en) 2011-08-31 2013-02-28 Samsung Electronics Co., Ltd. Method of providing of user interface in portable terminal and apparatus thereof
US8743069B2 (en) 2011-09-01 2014-06-03 Google Inc. Receiving input at a computing device
CN102981659B (zh) 2011-09-06 2016-01-27 宸鸿光电科技股份有限公司 触控面板的控制系统与控制方法及其使用的触控笔
TWI475470B (zh) 2011-09-07 2015-03-01 Acer Inc 電子裝置及應用程式操作方法
US20130067411A1 (en) 2011-09-08 2013-03-14 Google Inc. User gestures indicating rates of execution of functions
JP5576841B2 (ja) 2011-09-09 2014-08-20 Kddi株式会社 押圧による画像のズームが可能なユーザインタフェース装置、画像ズーム方法及びプログラム
US9071854B2 (en) 2011-09-12 2015-06-30 Disney Enterprises, Inc. System and method for transmitting a services list to a playback device
US9612670B2 (en) 2011-09-12 2017-04-04 Microsoft Technology Licensing, Llc Explicit touch selection and cursor placement
US9069460B2 (en) 2011-09-12 2015-06-30 Google Technology Holdings LLC Using pressure differences with a touch-sensitive display screen
US8976128B2 (en) 2011-09-12 2015-03-10 Google Technology Holdings LLC Using pressure differences with a touch-sensitive display screen
US9501213B2 (en) 2011-09-16 2016-11-22 Skadool, Inc. Scheduling events on an electronic calendar utilizing fixed-positioned events and a draggable calendar grid
US9519350B2 (en) 2011-09-19 2016-12-13 Samsung Electronics Co., Ltd. Interface controlling apparatus and method using force
US8959430B1 (en) 2011-09-21 2015-02-17 Amazon Technologies, Inc. Facilitating selection of keys related to a selected key
US20130074003A1 (en) 2011-09-21 2013-03-21 Nokia Corporation Method and apparatus for integrating user interfaces
JP2013070303A (ja) 2011-09-26 2013-04-18 Kddi Corp 画面への押圧で撮影が可能な撮影装置、撮影方法及びプログラム
CN103019427B (zh) 2011-09-28 2017-06-27 联想(北京)有限公司 控制方法及电子设备
US20130086056A1 (en) 2011-09-30 2013-04-04 Matthew G. Dyor Gesture based context menus
US20130082824A1 (en) 2011-09-30 2013-04-04 Nokia Corporation Feedback response
JP2012027940A (ja) 2011-10-05 2012-02-09 Toshiba Corp 電子機器
US10394441B2 (en) 2011-10-15 2019-08-27 Apple Inc. Device, method, and graphical user interface for controlling display of application windows
JP5527304B2 (ja) 2011-10-17 2014-06-18 株式会社デンソー 入力装置
US9170607B2 (en) 2011-10-17 2015-10-27 Nokia Technologies Oy Method and apparatus for determining the presence of a device for executing operations
EP2584445A1 (en) 2011-10-18 2013-04-24 Research In Motion Limited Method of animating a rearrangement of ui elements on a display screen of an eletronic device
EP2584464B1 (en) 2011-10-18 2020-02-19 BlackBerry Limited Method of rendering a user interface
US9075631B2 (en) 2011-10-18 2015-07-07 Blackberry Limited Method of rendering a user interface
US9218105B2 (en) 2011-10-18 2015-12-22 Blackberry Limited Method of modifying rendered attributes of list elements in a user interface
CA2792900C (en) 2011-10-18 2017-09-05 Research In Motion Limited Method of rendering a user interface
US8810535B2 (en) 2011-10-18 2014-08-19 Blackberry Limited Electronic device and method of controlling same
US9389707B2 (en) 2011-10-28 2016-07-12 Atmel Corporation Active stylus with configurable touch sensor
DE102012110278A1 (de) 2011-11-02 2013-05-02 Beijing Lenovo Software Ltd. Verfahren und Vorrichtungen zur Fensterdarstellung und Verfahren und Vorrichtungen zur Berührungsbedienung von Anwendungen
US9582178B2 (en) * 2011-11-07 2017-02-28 Immersion Corporation Systems and methods for multi-pressure interaction on touch-sensitive surfaces
WO2013067618A1 (en) 2011-11-09 2013-05-16 Research In Motion Limited Touch-sensitive display method and apparatus
KR101888457B1 (ko) 2011-11-16 2018-08-16 삼성전자주식회사 복수 개의 어플리케이션을 실행하는 터치스크린을 가지는 장치 및 그 제어 방법
JP5520918B2 (ja) 2011-11-16 2014-06-11 富士ソフト株式会社 タッチパネル操作方法及びプログラム
KR101803261B1 (ko) 2011-11-18 2017-11-30 센톤스 아이엔씨. 터치 입력 힘 검출
CN104169847B (zh) * 2011-11-18 2019-03-12 森顿斯公司 局部触觉反馈
KR101796481B1 (ko) 2011-11-28 2017-12-04 삼성전자주식회사 저전력 셔터랙 제거 방법, 카메라 모듈 및 이를 구비하는 모바일 기기
US9372593B2 (en) 2011-11-29 2016-06-21 Apple Inc. Using a three-dimensional model to render a cursor
KR101873744B1 (ko) 2011-11-29 2018-07-03 엘지전자 주식회사 이동단말기 및 그 제어방법
KR101824007B1 (ko) 2011-12-05 2018-01-31 엘지전자 주식회사 이동 단말기 및 그의 멀티 태스킹 방법
US8581870B2 (en) 2011-12-06 2013-11-12 Apple Inc. Touch-sensitive button with two levels
US8633911B2 (en) 2011-12-14 2014-01-21 Synaptics Incorporated Force sensing input device and method for determining force information
US9195362B2 (en) 2011-12-16 2015-11-24 Blackberry Limited Method of rendering a user interface
US20130154959A1 (en) 2011-12-20 2013-06-20 Research In Motion Limited System and method for controlling an electronic device
US20130155018A1 (en) 2011-12-20 2013-06-20 Synaptics Incorporated Device and method for emulating a touch screen using force information
US9671880B2 (en) 2011-12-22 2017-06-06 Sony Corporation Display control device, display control method, and computer program
US9257098B2 (en) 2011-12-23 2016-02-09 Nokia Technologies Oy Apparatus and methods for displaying second content in response to user inputs
CN103186329B (zh) 2011-12-27 2017-08-18 富泰华工业(深圳)有限公司 电子设备及其触摸输入控制方法
KR102006470B1 (ko) 2011-12-28 2019-08-02 삼성전자 주식회사 사용자 디바이스에서 멀티태스킹 운용 방법 및 장치
US9116611B2 (en) 2011-12-29 2015-08-25 Apple Inc. Devices, methods, and graphical user interfaces for providing multitouch inputs and hardware-based features using a single touch input
US10248278B2 (en) 2011-12-30 2019-04-02 Nokia Technologies Oy Method and apparatus for intuitive multitasking
US8756511B2 (en) 2012-01-03 2014-06-17 Lg Electronics Inc. Gesture based unlocking of a mobile terminal
JP2015508357A (ja) 2012-01-09 2015-03-19 エアビクティ インコーポレイテッド 携帯デバイス用ユーザインタフェース
KR101710547B1 (ko) 2012-01-10 2017-02-27 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
US9619038B2 (en) 2012-01-23 2017-04-11 Blackberry Limited Electronic device and method of displaying a cover image and an application image from a low power condition
JP2013153376A (ja) 2012-01-26 2013-08-08 Sony Corp 画像処理装置、画像処理方法および記録媒体
JP5410555B2 (ja) 2012-01-26 2014-02-05 京セラドキュメントソリューションズ株式会社 タッチパネル装置
US20130198690A1 (en) 2012-02-01 2013-08-01 Microsoft Corporation Visual indication of graphical user interface relationship
KR101973631B1 (ko) 2012-02-01 2019-04-29 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
US9164779B2 (en) 2012-02-10 2015-10-20 Nokia Technologies Oy Apparatus and method for providing for remote user interaction
US9146914B1 (en) 2012-02-17 2015-09-29 Google Inc. System and method for providing a context sensitive undo function
US20130227413A1 (en) 2012-02-24 2013-08-29 Simon Martin THORSANDER Method and Apparatus for Providing a Contextual User Interface on a Device
KR101894567B1 (ko) 2012-02-24 2018-09-03 삼성전자 주식회사 락스크린 운용 방법 및 이를 지원하는 단말기
KR101356368B1 (ko) 2012-02-24 2014-01-29 주식회사 팬택 어플리케이션 전환 장치 및 방법
TWI519155B (zh) 2012-02-24 2016-01-21 宏達國際電子股份有限公司 影像連續拍攝方法與相關影像擷取系統
US9898174B2 (en) 2012-02-28 2018-02-20 Google Llc Previewing expandable content items
KR20130099647A (ko) 2012-02-29 2013-09-06 한국과학기술원 사이드 인터페이스를 이용한 사용자 단말 컨텐츠 제어방법 및 제어장치
US9817568B2 (en) 2012-02-29 2017-11-14 Blackberry Limited System and method for controlling an electronic device
US9542013B2 (en) 2012-03-01 2017-01-10 Nokia Technologies Oy Method and apparatus for determining recipients of a sharing operation based on an indication associated with a tangible object
US20130232402A1 (en) 2012-03-01 2013-09-05 Huawei Technologies Co., Ltd. Method for Processing Sensor Data and Computing Node
US9134807B2 (en) 2012-03-02 2015-09-15 Microsoft Technology Licensing, Llc Pressure sensitive key normalization
US9131192B2 (en) 2012-03-06 2015-09-08 Apple Inc. Unified slider control for modifying multiple image properties
US20130234929A1 (en) 2012-03-07 2013-09-12 Evernote Corporation Adapting mobile user interface to unfavorable usage conditions
WO2013135270A1 (en) 2012-03-13 2013-09-19 Telefonaktiebolaget L M Ericsson (Publ) An apparatus and method for navigating on a touch sensitive screen thereof
CN102662573B (zh) 2012-03-24 2016-04-27 上海量明科技发展有限公司 通过触压获得选择项的方法及终端
US10673691B2 (en) 2012-03-24 2020-06-02 Fred Khosropour User interaction platform
US9063644B2 (en) 2012-03-26 2015-06-23 The Boeing Company Adjustment mechanisms for virtual knobs on a touchscreen interface
CN102662571B (zh) 2012-03-26 2016-05-25 华为技术有限公司 解锁屏幕保护的方法及用户设备
US11474645B2 (en) 2012-03-27 2022-10-18 Nokia Technologies Oy Method and apparatus for force sensing
US9116571B2 (en) 2012-03-27 2015-08-25 Adonit Co., Ltd. Method and system of data input for an electronic device equipped with a touch screen
US9146655B2 (en) 2012-04-06 2015-09-29 Samsung Electronics Co., Ltd. Method and device for executing object on display
KR101924095B1 (ko) 2012-04-06 2018-11-30 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
US20130271355A1 (en) 2012-04-13 2013-10-17 Nokia Corporation Multi-segment wearable accessory
WO2013154720A1 (en) 2012-04-13 2013-10-17 Tk Holdings Inc. Pressure sensor including a pressure sensitive material for use with control systems and methods of using the same
TWI459287B (zh) 2012-04-20 2014-11-01 Hon Hai Prec Ind Co Ltd 觸控操作方法及使用其的電子系統
EP2660702B1 (en) 2012-05-02 2020-12-30 Sony Corporation Technique for displaying on the basis of duration of operation of an input device
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
EP2847661A2 (en) 2012-05-09 2015-03-18 Apple Inc. Device, method, and graphical user interface for moving and dropping a user interface object
JP6082458B2 (ja) 2012-05-09 2017-02-15 アップル インコーポレイテッド ユーザインタフェース内で実行される動作の触知フィードバックを提供するデバイス、方法、及びグラフィカルユーザインタフェース
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169854A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
KR101683868B1 (ko) 2012-05-09 2016-12-07 애플 인크. 제스처에 응답하여 디스플레이 상태들 사이를 전이하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US9977499B2 (en) 2012-05-09 2018-05-22 Apple Inc. Thresholds for determining feedback in computing devices
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
EP3410287B1 (en) 2012-05-09 2022-08-17 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
CN105260049B (zh) 2012-05-09 2018-10-23 苹果公司 用于响应于用户接触来显示附加信息的设备、方法和图形用户界面
US9898155B2 (en) 2012-05-11 2018-02-20 Samsung Electronics Co., Ltd. Multiple window providing apparatus and method
US9454303B2 (en) 2012-05-16 2016-09-27 Google Inc. Gesture touch inputs for controlling video on a touchscreen
US20130307790A1 (en) 2012-05-17 2013-11-21 Nokia Corporation Methods And Apparatus For Device Control
BR112014028774B1 (pt) 2012-05-18 2022-05-10 Apple Inc Método, dispositivo eletrônico, meio de armazenamento legível por computador e aparelho de processamento de informações
US9360942B2 (en) 2012-05-21 2016-06-07 Door Number 3 Cursor driven interface for layer control
US8816989B2 (en) 2012-05-22 2014-08-26 Lenovo (Singapore) Pte. Ltd. User interface navigation utilizing pressure-sensitive touch
US9251763B2 (en) 2012-05-25 2016-02-02 Picmonkey, Llc System and method for image collage editing
WO2013180454A1 (en) 2012-05-29 2013-12-05 Samsung Electronics Co., Ltd. Method for displaying item in terminal and terminal using the same
CN102799347B (zh) 2012-06-05 2017-01-04 北京小米科技有限责任公司 应用于触屏设备的用户界面交互方法、装置及触屏设备
US9418672B2 (en) 2012-06-05 2016-08-16 Apple Inc. Navigation application with adaptive instruction text
KR101909030B1 (ko) 2012-06-08 2018-10-17 엘지전자 주식회사 비디오 편집 방법 및 이를 위한 디지털 디바이스
JP2013257657A (ja) 2012-06-11 2013-12-26 Fujitsu Ltd 情報端末装置及び表示制御方法
KR20130142301A (ko) 2012-06-19 2013-12-30 삼성전자주식회사 단말기의 메뉴환경 설정 장치 및 방법
US20140002374A1 (en) 2012-06-29 2014-01-02 Lenovo (Singapore) Pte. Ltd. Text selection utilizing pressure-sensitive touch
US20140013271A1 (en) 2012-07-05 2014-01-09 Research In Motion Limited Prioritization of multitasking applications in a mobile device interface
US20140026098A1 (en) 2012-07-19 2014-01-23 M2J Think Box, Inc. Systems and methods for navigating an interface of an electronic device
US9298295B2 (en) 2012-07-25 2016-03-29 Facebook, Inc. Gestures for auto-correct
KR102014775B1 (ko) 2012-07-30 2019-08-27 엘지전자 주식회사 휴대 단말기 및 그 제어 방법
JP2014032506A (ja) 2012-08-02 2014-02-20 Sharp Corp 情報処理装置、選択操作検出方法およびプログラム
JP6267961B2 (ja) 2012-08-10 2018-01-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 映像提供方法および送信装置
US9280206B2 (en) 2012-08-20 2016-03-08 Samsung Electronics Co., Ltd. System and method for perceiving images with multimodal feedback
KR101946365B1 (ko) 2012-08-20 2019-02-11 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
US9720586B2 (en) 2012-08-21 2017-08-01 Nokia Technologies Oy Apparatus and method for providing for interaction with content within a digital bezel
US9250783B2 (en) 2012-08-21 2016-02-02 Apple Inc. Toggle gesture during drag gesture
TWI484405B (zh) 2012-08-23 2015-05-11 Egalax Empia Technology Inc 圖形使用者界面的顯示方法及使用該方法的電子裝置
KR101946366B1 (ko) 2012-08-23 2019-02-11 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
KR101956170B1 (ko) 2012-08-29 2019-03-08 삼성전자 주식회사 카메라의 이미지 저장 장치 및 방법
KR20140029720A (ko) 2012-08-29 2014-03-11 엘지전자 주식회사 이동단말 제어방법
JP6077794B2 (ja) 2012-08-29 2017-02-08 キヤノン株式会社 情報処理装置及びその制御方法、並びにプログラム
US9696879B2 (en) 2012-09-07 2017-07-04 Google Inc. Tab scrubbing using navigation gestures
US20140078343A1 (en) 2012-09-20 2014-03-20 Htc Corporation Methods for generating video and multiple still images simultaneously and apparatuses using the same
US9063563B1 (en) 2012-09-25 2015-06-23 Amazon Technologies, Inc. Gesture actions for interface elements
US9372538B2 (en) 2012-09-28 2016-06-21 Denso International America, Inc. Multiple-force, dynamically-adjusted, 3-D touch surface with feedback for human machine interface (HMI)
US9671943B2 (en) 2012-09-28 2017-06-06 Dassault Systemes Simulia Corp. Touch-enabled complex data entry
SG10201601697SA (en) 2012-10-05 2016-04-28 Tactual Labs Co Hybrid systems and methods for low-latency user input processing and feedback
US20140109016A1 (en) 2012-10-16 2014-04-17 Yu Ouyang Gesture-based cursor control
KR102032336B1 (ko) 2012-10-19 2019-11-08 한국전자통신연구원 압력 변화를 통한 촉각 피드백을 제공하는 터치 패널 및 그것의 동작 방법
US20140111670A1 (en) 2012-10-23 2014-04-24 Nvidia Corporation System and method for enhanced image capture
US20140118268A1 (en) 2012-11-01 2014-05-01 Google Inc. Touch screen operation using additional inputs
US9448694B2 (en) 2012-11-09 2016-09-20 Intel Corporation Graphical user interface for navigating applications
US10185416B2 (en) 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
JP5786909B2 (ja) 2012-11-30 2015-09-30 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、情報の表示方法、制御方法、及びプログラム
US20140152581A1 (en) 2012-11-30 2014-06-05 Lenovo (Singapore) Pte. Ltd. Force as a device action modifier
KR20140071118A (ko) 2012-12-03 2014-06-11 삼성전자주식회사 가상 버튼을 디스플레이하기 위한 방법 및 그 전자 장치
US10282088B2 (en) 2012-12-06 2019-05-07 Samsung Electronics Co., Ltd. Configuration of application execution spaces and sub-spaces for sharing data on a mobile tough screen device
US9189131B2 (en) 2012-12-11 2015-11-17 Hewlett-Packard Development Company, L.P. Context menus
JP5794399B2 (ja) 2012-12-12 2015-10-14 株式会社村田製作所 タッチ式入力装置
US20140168093A1 (en) * 2012-12-13 2014-06-19 Nvidia Corporation Method and system of emulating pressure sensitivity on a surface
US20140168153A1 (en) 2012-12-17 2014-06-19 Corning Incorporated Touch screen systems and methods based on touch location and touch force
KR20140079110A (ko) 2012-12-18 2014-06-26 엘지전자 주식회사 이동 단말기 및 그 동작 방법
WO2014094283A1 (en) 2012-12-20 2014-06-26 Intel Corporation Touchscreen including force sensors
KR101457632B1 (ko) 2012-12-20 2014-11-10 주식회사 팬택 프로그램 알림 기능을 갖는 휴대용 전자 기기 및 이를 위한 프로그램 알림 방법
US9244576B1 (en) 2012-12-21 2016-01-26 Cypress Semiconductor Corporation User interface with child-lock feature
WO2014100953A1 (en) 2012-12-24 2014-07-03 Nokia Corporation An apparatus and associated methods
KR101905174B1 (ko) 2012-12-29 2018-10-08 애플 인크. 사용자 인터페이스 계층을 내비게이션하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
JP6093877B2 (ja) 2012-12-29 2017-03-08 アップル インコーポレイテッド 複数接触ジェスチャのために触知出力の生成を見合わせるためのデバイス、方法、及びグラフィカルユーザインタフェース
CN105144057B (zh) 2012-12-29 2019-05-17 苹果公司 用于根据具有模拟三维特征的控制图标的外观变化来移动光标的设备、方法和图形用户界面
JP6097843B2 (ja) 2012-12-29 2017-03-15 アップル インコーポレイテッド コンテンツをスクロールするか選択するかを判定するためのデバイス、方法、及びグラフィカルユーザインタフェース
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
EP2939098B1 (en) 2012-12-29 2018-10-10 Apple Inc. Device, method, and graphical user interface for transitioning between touch input to display output relationships
KR102072582B1 (ko) 2012-12-31 2020-02-03 엘지전자 주식회사 듀얼 디스플레이 방법 및 장치
US10082949B2 (en) 2013-01-17 2018-09-25 Samsung Electronics Co., Ltd. Apparatus and method for application peel
JP6075854B2 (ja) 2013-01-21 2017-02-08 キヤノン株式会社 表示制御装置、その制御方法、およびプログラム、並びに撮像装置および記憶媒体
US9141259B2 (en) 2013-01-21 2015-09-22 International Business Machines Corporation Pressure navigation on a touch sensitive user interface
KR20140097902A (ko) 2013-01-30 2014-08-07 삼성전자주식회사 햅틱 패턴을 생성하는 휴대 단말 및 방법
US20140210798A1 (en) 2013-01-31 2014-07-31 Hewlett-Packard Development Company, L.P. Digital Drawing Using A Touch-Sensitive Device To Detect A Position And Force For An Input Event
KR102133410B1 (ko) 2013-01-31 2020-07-14 삼성전자 주식회사 멀티태스킹 운용 방법 및 이를 지원하는 단말기
US9760267B2 (en) 2013-02-05 2017-09-12 Nokia Technologies Oy Method and apparatus for a slider interface element
EP2767896B1 (en) 2013-02-14 2019-01-16 LG Electronics Inc. Mobile terminal and method of controlling the mobile terminal
US20140237408A1 (en) 2013-02-15 2014-08-21 Flatfrog Laboratories Ab Interpretation of pressure based gesture
KR101761190B1 (ko) 2013-02-22 2017-07-25 삼성전자 주식회사 휴대 단말기의 사용자 인터페이스 제공 방법 및 장치
JP2014165663A (ja) 2013-02-25 2014-09-08 Kyocera Corp 携帯端末装置、プログラムおよび携帯端末装置の制御方法
CN103186345B (zh) 2013-02-25 2016-09-14 北京极兴莱博信息科技有限公司 一种文段选择方法及装置
US8769431B1 (en) 2013-02-28 2014-07-01 Roy Varada Prasad Method of single-handed software operation of large form factor mobile electronic devices
US10121065B2 (en) 2013-03-14 2018-11-06 Nike, Inc. Athletic attribute determinations from image data
US10203815B2 (en) 2013-03-14 2019-02-12 Apple Inc. Application-based touch sensitivity
US9690476B2 (en) 2013-03-14 2017-06-27 Blackberry Limited Electronic device and method of displaying information in response to a gesture
DE112014001380T5 (de) 2013-03-15 2015-12-03 Tk Holdings Inc. Adaptive Mensch-Maschine-Schnittstellen für druckempfindliche Steuerung in einer abgelenkten Betriebsumgebung und Verfahren zur Anwendung derselben
US9225677B2 (en) 2013-03-15 2015-12-29 Facebook, Inc. Systems and methods for displaying a digest of messages or notifications without launching applications associated with the messages or notifications
US9305374B2 (en) 2013-03-15 2016-04-05 Apple Inc. Device, method, and graphical user interface for adjusting the appearance of a control
US9451230B1 (en) 2013-03-15 2016-09-20 Google Inc. Playback adjustments for digital media items
CN110837329B (zh) 2013-03-15 2023-10-24 苹果公司 用于管理用户界面的方法和电子设备
US9507495B2 (en) 2013-04-03 2016-11-29 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9389718B1 (en) 2013-04-04 2016-07-12 Amazon Technologies, Inc. Thumb touch interface
KR20140122000A (ko) 2013-04-09 2014-10-17 옥윤선 모바일 메신저 기반의 드래그를 이용한 정보전달 방법, 그리고 모바일 메신저 기반의 드래그를 이용한 정보전달을 위한 모바일단말
KR102091235B1 (ko) 2013-04-10 2020-03-18 삼성전자주식회사 휴대 단말기에서 메시지를 편집하는 장치 및 방법
US20140306897A1 (en) 2013-04-10 2014-10-16 Barnesandnoble.Com Llc Virtual keyboard swipe gestures for cursor movement
US9146672B2 (en) 2013-04-10 2015-09-29 Barnes & Noble College Booksellers, Llc Multidirectional swipe key for virtual keyboard
KR20140132632A (ko) 2013-05-08 2014-11-18 삼성전자주식회사 휴대 장치 및 휴대 장치의 오브젝트 표시 방법
EP2995068A4 (en) 2013-05-08 2016-12-07 Nokia Technologies Oy DEVICE AND CORRESPONDING METHODS
US20140344765A1 (en) 2013-05-17 2014-11-20 Barnesandnoble.Com Llc Touch Sensitive UI Pinch and Flick Techniques for Managing Active Applications
KR20140137509A (ko) 2013-05-22 2014-12-03 삼성전자주식회사 알림 기능 운용 방법 및 이를 지원하는 전자 장치
US9319589B2 (en) 2013-05-31 2016-04-19 Sony Corporation Device and method for capturing images and selecting a desired image by tilting the device
US9307112B2 (en) 2013-05-31 2016-04-05 Apple Inc. Identifying dominant and non-dominant images in a burst mode capture
US10282067B2 (en) 2013-06-04 2019-05-07 Sony Corporation Method and apparatus of controlling an interface based on touch operations
US10481769B2 (en) 2013-06-09 2019-11-19 Apple Inc. Device, method, and graphical user interface for providing navigation and search functionalities
US9477393B2 (en) 2013-06-09 2016-10-25 Apple Inc. Device, method, and graphical user interface for displaying application status information
US9733716B2 (en) 2013-06-09 2017-08-15 Apple Inc. Proxy gesture recognizer
KR102113674B1 (ko) 2013-06-10 2020-05-21 삼성전자주식회사 다중 터치를 이용한 객체 선택 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
US9400601B2 (en) 2013-06-21 2016-07-26 Nook Digital, Llc Techniques for paging through digital content on touch screen devices
CN103309618A (zh) 2013-07-02 2013-09-18 姜洪明 移动操作系统
KR102080746B1 (ko) 2013-07-12 2020-02-24 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US9342228B2 (en) 2013-07-17 2016-05-17 Blackberry Limited Device and method for filtering messages using sliding touch input
KR20150013991A (ko) 2013-07-25 2015-02-06 삼성전자주식회사 휴대단말기의 어플리케이션 실행 방법 및 장치
US9335897B2 (en) 2013-08-08 2016-05-10 Palantir Technologies Inc. Long click display of a context menu
KR20150019165A (ko) 2013-08-12 2015-02-25 엘지전자 주식회사 이동 단말기 및 이의 제어방법
KR102101741B1 (ko) 2013-08-16 2020-05-29 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US9547525B1 (en) 2013-08-21 2017-01-17 Google Inc. Drag toolbar to enter tab switching interface
CN104423740B (zh) 2013-08-30 2018-07-13 唐山东唐电气股份有限公司 基于电容式触控装置的感测方法
KR102332675B1 (ko) 2013-09-02 2021-11-30 삼성전자 주식회사 전자 장치의 컨텐츠 공유 방법 및 장치
KR20150026649A (ko) 2013-09-03 2015-03-11 삼성전자주식회사 전자 장치에서 제스처를 설정하는 장치 및 방법
US20150071547A1 (en) 2013-09-09 2015-03-12 Apple Inc. Automated Selection Of Keeper Images From A Burst Photo Captured Set
JP6138641B2 (ja) 2013-09-13 2017-05-31 株式会社Nttドコモ 地図情報表示装置、地図情報表示方法、及び地図情報表示プログラム
US9407964B2 (en) 2013-10-25 2016-08-02 Verizon Patent And Licensing Inc. Method and system for navigating video to an instant time
KR20150049700A (ko) 2013-10-30 2015-05-08 삼성전자주식회사 전자 장치에서 입력을 제어하는 방법 및 장치
US10067651B2 (en) 2013-11-15 2018-09-04 Thomson Reuters Global Resources Unlimited Company Navigable layering of viewable areas for hierarchical content
CN103677632A (zh) 2013-11-19 2014-03-26 三星电子(中国)研发中心 一种虚拟键盘调整方法和移动终端
JP6177669B2 (ja) 2013-11-20 2017-08-09 株式会社Nttドコモ 画像表示装置およびプログラム
US20150153897A1 (en) 2013-12-03 2015-06-04 Microsoft Corporation User interface adaptation from an input source identifier change
CN104714741A (zh) 2013-12-11 2015-06-17 北京三星通信技术研究有限公司 触控操作的方法及装置
JP2015114836A (ja) 2013-12-11 2015-06-22 キヤノン株式会社 画像処理装置、触感制御方法及びプログラム
US9483118B2 (en) 2013-12-27 2016-11-01 Rovi Guides, Inc. Methods and systems for selecting media guidance functions based on tactile attributes of a user input
CN103793134A (zh) 2013-12-30 2014-05-14 深圳天珑无线科技有限公司 一种触摸屏终端多界面切换的方法及触摸屏终端
KR20150081125A (ko) 2014-01-03 2015-07-13 삼성전자주식회사 전자 장치 스크린에서의 입자 효과 디스플레이
CN103777850A (zh) 2014-01-17 2014-05-07 广州华多网络科技有限公司 菜单显示方法、装置和终端
CN104834456A (zh) 2014-02-12 2015-08-12 深圳富泰宏精密工业有限公司 触控界面多任务切换方法、系统及电子装置
EP3108345B1 (en) 2014-02-18 2019-12-25 Cambridge Touch Technologies Limited Dynamic switching of power modes for touch screens using force touch
CN103838465B (zh) 2014-03-08 2018-03-02 广东欧珀移动通信有限公司 一种生动有趣的桌面图标显示方法及装置
US9436348B2 (en) 2014-03-18 2016-09-06 Blackberry Limited Method and system for controlling movement of cursor in an electronic device
JP6247651B2 (ja) 2014-03-24 2017-12-13 株式会社 ハイディープHiDeep Inc. メニュー操作方法及びこれを行うタッチ入力装置を含むメニュー操作装置
KR102129798B1 (ko) 2014-05-08 2020-07-03 엘지전자 주식회사 비히클 및 그 제어 방법
US9032321B1 (en) 2014-06-16 2015-05-12 Google Inc. Context-based presentation of a user interface
US9477653B2 (en) 2014-06-26 2016-10-25 Blackberry Limited Character entry for an electronic device using a position sensing keyboard
US9294719B2 (en) 2014-06-30 2016-03-22 Salesforce.Com, Inc. Systems, methods, and apparatuses for implementing in-app live support functionality
US20160004393A1 (en) 2014-07-01 2016-01-07 Google Inc. Wearable device user interface control
TW201602893A (zh) 2014-07-07 2016-01-16 欣興電子股份有限公司 附加資訊提供方法及使用其的觸控顯示裝置
US9363644B2 (en) 2014-07-16 2016-06-07 Yahoo! Inc. System and method for detection of indoor tracking units
US20160019718A1 (en) 2014-07-16 2016-01-21 Wipro Limited Method and system for providing visual feedback in a virtual reality environment
US9600114B2 (en) 2014-07-31 2017-03-21 International Business Machines Corporation Variable pressure touch system
KR20160021524A (ko) 2014-08-18 2016-02-26 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US10203858B2 (en) 2014-08-28 2019-02-12 Blackberry Limited Portable electronic device and method of controlling the display of information
KR102373337B1 (ko) 2014-09-02 2022-03-11 애플 인크. 가변 햅틱 출력을 위한 시맨틱 프레임워크
US20160132139A1 (en) 2014-11-11 2016-05-12 Qualcomm Incorporated System and Methods for Controlling a Cursor Based on Finger Pressure and Direction
CN104331239A (zh) 2014-11-26 2015-02-04 上海斐讯数据通信技术有限公司 单手操作手持设备的方法及系统
KR20150021977A (ko) 2015-01-19 2015-03-03 인포뱅크 주식회사 휴대용 단말기에서의 ui 구성 방법
US20160224220A1 (en) 2015-02-04 2016-08-04 Wipro Limited System and method for navigating between user interface screens
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
DK179292B1 (en) 2015-06-07 2018-04-09 Apple Inc Devices, methods and graphical user interfaces for providing and interacting with notifications
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US20170046058A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices, Methods, and Graphical User Interfaces for Adjusting User Interface Objects
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US11182068B2 (en) 2015-10-27 2021-11-23 Verizon Patent And Licensing Inc. Method and system for interacting with a touch screen
US10506165B2 (en) 2015-10-29 2019-12-10 Welch Allyn, Inc. Concussion screening system
KR101749933B1 (ko) 2015-11-12 2017-06-22 엘지전자 주식회사 이동 단말기 및 그 제어방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006185443A (ja) * 2004-12-21 2006-07-13 Microsoft Corp 圧力応動コントロール
JP2011048606A (ja) * 2009-08-27 2011-03-10 Kyocera Corp 入力装置
JP2011248689A (ja) * 2010-05-27 2011-12-08 Kyocera Corp 触感呈示装置
JP2012216144A (ja) * 2011-04-01 2012-11-08 Kyocera Corp 電子機器
JP2012216156A (ja) * 2011-04-01 2012-11-08 Kyocera Corp 電子機器

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019044400A1 (ja) * 2017-08-28 2019-03-07 株式会社日立産機システム モータドライブシステム

Also Published As

Publication number Publication date
AU2013368441A1 (en) 2015-05-07
AU2016201451B2 (en) 2018-01-18
CN104903835B (zh) 2018-05-04
CN104903835A (zh) 2015-09-09
AU2013368441B2 (en) 2016-04-14
EP2912542A1 (en) 2015-09-02
WO2014105275A1 (en) 2014-07-03
JP2016505966A (ja) 2016-02-25
JP2018142345A (ja) 2018-09-13
AU2016201451A1 (en) 2016-03-24
CN108845748A (zh) 2018-11-20
US20150149899A1 (en) 2015-05-28
US10437333B2 (en) 2019-10-08
KR20150093840A (ko) 2015-08-18
JP6691572B2 (ja) 2020-04-28
EP2912542B1 (en) 2022-07-13
KR20170081744A (ko) 2017-07-12
KR101755029B1 (ko) 2017-07-06
HK1212063A1 (en) 2016-06-03
US20190391658A1 (en) 2019-12-26
JP6328281B2 (ja) 2018-05-23
JP6093877B2 (ja) 2017-03-08

Similar Documents

Publication Publication Date Title
JP6328281B2 (ja) 複数接触ジェスチャのために触知出力の生成を見合わせるためのデバイス、方法、及びグラフィカルユーザインタフェース
US10775994B2 (en) Device, method, and graphical user interface for moving and dropping a user interface object
US10884591B2 (en) Device, method, and graphical user interface for selecting object within a group of objects
JP7383059B2 (ja) アプリケーション切り替えユーザインタフェースと対話するためのデバイス及び方法
JP6705842B2 (ja) ナビゲーション及び検索機能を提供するためのデバイス、方法、及びグラフィカルユーザインタフェース
EP3680763B1 (en) Devices, methods, and graphical user interfaces for messaging
JP6097843B2 (ja) コンテンツをスクロールするか選択するかを判定するためのデバイス、方法、及びグラフィカルユーザインタフェース
JP6138274B2 (ja) ユーザインタフェース階層をナビゲートするためのデバイス、方法、及びグラフィカルユーザインタフェース
US9886184B2 (en) Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US10387104B2 (en) Audio control for web browser

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180417

R150 Certificate of patent or registration of utility model

Ref document number: 6328281

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250