JP7049368B2 - ユーザインタフェースのための触知フィードバック - Google Patents

ユーザインタフェースのための触知フィードバック Download PDF

Info

Publication number
JP7049368B2
JP7049368B2 JP2019562305A JP2019562305A JP7049368B2 JP 7049368 B2 JP7049368 B2 JP 7049368B2 JP 2019562305 A JP2019562305 A JP 2019562305A JP 2019562305 A JP2019562305 A JP 2019562305A JP 7049368 B2 JP7049368 B2 JP 7049368B2
Authority
JP
Japan
Prior art keywords
user interface
contact
tactile output
user
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019562305A
Other languages
English (en)
Other versions
JP2020520011A (ja
Inventor
カミーユ ムゼット,
ジャンピエール, エム. モウルスアウクス,
チャナカ, ジー. カルナムリ,
マドレーヌ, エス. コルディア,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Priority claimed from PCT/US2018/032936 external-priority patent/WO2018213423A1/en
Publication of JP2020520011A publication Critical patent/JP2020520011A/ja
Priority to JP2022050345A priority Critical patent/JP2022095736A/ja
Application granted granted Critical
Publication of JP7049368B2 publication Critical patent/JP7049368B2/ja
Priority to JP2024017391A priority patent/JP2024063012A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/133Constructional arrangements; Operation of liquid crystal cells; Circuit arrangements
    • G02F1/1333Constructional arrangements; Manufacturing methods
    • G02F1/13338Input devices, e.g. touch panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/014Force feedback applied to GUI
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Nonlinear Science (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Chemical & Material Sciences (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Description

本出願は、一般に、触覚フィードバックを提供する触知出力を生成するタッチ感知面を有する電子デバイスを含むが、これに限定はされない、タッチ感知面を有する電子デバイスに関する。
コンピュータ及び他の電子コンピューティングデバイス用の入力デバイスとしてのタッチ感知面の使用は、近年では、著しく増大している。例示的なタッチ感知面は、タッチパッド及びタッチスクリーンディスプレイを含む。そのような面は、ディスプレイ上のユーザインタフェース及びその中のオブジェクトを操作するために幅広く使用されている。ユーザインタフェースオブジェクトは、ロックスクリーンユーザインタフェース内に表示されるアイコン及び通知、並びにデバイスがロックモードで動作している間に(例えば、ユーザの認証前、例えば、パスコード若しくは指紋、又は他のユーザ認証情報の入力を通じて)ユーザに利用可能な機能性を有するアプリケーションのロックモード制御、を含むことができる。
ロックスクリーン機能の例には、デバイスのロックモードで利用可能なアプリケーション又はデバイス機能にアクセスするためのアイコンが含まれる。例として、デバイス内の懐中電灯の状態をトグルするための懐中電灯アイコン、カメラアプリケーション、及びデバイスのロックモードでアクセス可能なカメラアプリケーション内の機能が含まれる。ユーザインタフェース機能のユーザ操作は、1つ以上のユーザインタフェースオブジェクトの位置及び/若しくはサイズを調節すること、ボタンをアクティブ化すること、又はユーザインタフェースオブジェクトによって表されるファイル/アプリケーションを開くこと、並びに1つ以上のユーザインタフェースオブジェクトにメタデータを関連付けること、ならびに他の方式でユーザインタフェースを操作することを含む。例示的なユーザインタフェースオブジェクトは、デジタル画像、ビデオ、テキスト、アイコン、並びにボタン及びその他のグラフィックなどの制御要素を含む。ユーザは、一部の状況では、ファイル管理プログラム(例えば、Cupertino、CaliforniaのApple Inc.からのFinder)、画像管理アプリケーション(例えば、Cupertino、CaliforniaのApple Inc.からのAperture、iPhoto、Photos)、デジタルコンテンツ(例えば、ビデオ及びミュージック)管理アプリケーション(例えば、Cupertino、CaliforniaのApple Inc.からのiTunes)、描画アプリケーション、プレゼンテーションアプリケーション(例えば、Cupertino、CaliforniaのApple Inc.からのKeynote)、ワードプロセッシングアプリケーション(例えば、Cupertino、CaliforniaのApple Inc.からのPages)、又はスプレッドシートアプリケーション(例えば、Cupertino、CaliforniaのApple Inc.からのNumbers)において、ユーザインタフェースオブジェクト上でそのような操作を実行する必要がある。
触覚フィードバックは、典型的には、視覚及び/又は音声フィードバックと組み合わせて、電子デバイスの特定の状態を示すためにしばしば使用される。
しかし、これらの操作を実行する方法は煩雑で非効率的である。例えば、一連のマウスに基づく入力を使用して、1つ以上のユーザインタフェースオブジェクトを選択し、選択されたユーザインタフェースオブジェクトに対して1つ以上のアクションを実行することは、間怠っこしく、ユーザの大きな認知負担を生み出す。加えて、それらの方法は必要以上に時間がかかり、それによってエネルギーを浪費する。後者の問題は、バッテリ駆動デバイスにおいては特に重大である。
したがって、ロックモードデバイス機能へのアクセスを提供しながらユーザに触覚フィードバックを提供するが、そのような機能の偶発的なアクティブ化を防止し、かつ、ユーザアクションを確認する触知出力を提供するが、そのような触知出力が特定の動作モードでキャプチャされたメディアの音声部分の品質を妨害又は低減し得る場合に、触知出力の生成を抑制又は低減する改善されたカメラアプリケーションユーザインタフェースを提供するための、より速く、より効率的な方法及びインタフェースを有する電子デバイスが必要とされている。そのような方法及びインタフェースは、任意選択的に、ロックモード機能へのアクセスを提供し、かつ、カメラアプリケーションを用いてメディアをキャプチャするための従来の方法を補完するか又は置き換える。そのような方法及びインタフェースは、ユーザからの入力の数、範囲、及び/又は種類を削減し、より効率的なヒューマンマシンインタフェースを生成する。バッテリ駆動デバイスでは、そのような方法及びインタフェースは、電力を節約し、バッテリ充電間の時間を延ばす。
タッチ感知面を有する電子デバイスのためのユーザインタフェースと関連付けられた上記の欠陥及び他の問題は、本開示のデバイスによって削減又は除去される。いくつかの実施形態では、デバイスは、デスクトップコンピュータである。いくつかの実施形態では、デバイスは、ポータブル(例えば、ノートブックコンピュータ、タブレットコンピュータ、又はハンドヘルドデバイス)である。いくつかの実施形態では、デバイスは、パーソナル電子デバイス(例えば、時計などのウェアラブル電子デバイス)である。いくつかの実施形態では、デバイスは、タッチパッドを有する。いくつかの実施形態では、デバイスは、タッチ感知ディスプレイ(「タッチスクリーン」又は「タッチスクリーンディスプレイ」としても知られる)を有する。いくつかの実施形態では、デバイスは、グラフィカルユーザインタフェース(GUI)、1つ以上のプロセッサ、メモリ、及び複数の機能を実行するためのメモリに記憶された1つ以上のモジュール、プログラム、又は命令セットを有する。いくつかの実施形態では、ユーザは主にタッチ感知面上のスタイラス並びに/又は指の接触及びジェスチャを通じてGUIと対話する。いくつかの実施形態では、機能は任意選択で、画像編集、描画、プレゼンティング、ワードプロセッシング、スプレッドシートの作成、ゲームプレイ、電話をかけること、ビデオ会議、電子メール送信、インスタントメッセージング、トレーニングサポート、デジタル写真撮影、デジタルビデオ撮影、ウェブブラウジング、デジタル音楽の再生、メモ取り、及び/又はデジタルビデオの再生を含む。それらの機能を実行する実行可能命令は任意選択で、非一時的コンピュータ可読記憶媒体又は1つ以上のプロセッサによって実行されるように構成された他のコンピュータプログラム製品に含まれる。
いくつかの実施形態によれば、ディスプレイと、タッチ感知面と、1つ以上の触知出力生成器とを有する電子デバイスにおいて実行される方法は、ディスプレイ上に、それぞれのユーザインタフェース要素を含むユーザインタフェースを表示することを含み、それぞれのユーザインタフェース要素はそれぞれの動作に関連付けられている。方法は、タッチ感知面上で、それぞれのユーザインタフェース要素に向けられたユーザ入力を検出することを更に含み、それぞれのユーザインタフェース要素に対応する位置における接触を検出することと、接触の強度の減少を含むユーザ入力の第2の部分が後に続く、接触の強度の増大を含むユーザ入力の第1の部分を検出することと、を含んでいる。方法は、ユーザ入力を検出することに応じて、それぞれのユーザインタフェース要素の変換を表示することであって、変換の程度がユーザ入力の強度に基づいて判定される、ことと、ユーザ入力の第1の部分がフィードフォワード基準を満たすとの判定に従って、それぞれの動作を実行することなく第1の触知出力を生成することであって、フィードフォワード基準が、フィードフォワード基準を満たすために接触の特性強度がフィードフォワード強度閾値を上回って増大する要件を含む、ことと、を更に含む。
方法は、ユーザ入力の第2の部分がアクティブ化基準を満たすとの判定に従って、第2の触知出力を生成することであって、アクティブ化基準が、接触の特性強度がアクティブ化強度閾値を下回って減少する要件を含む、ことと、デバイスにおいて、それぞれのユーザインタフェース要素に関連付けられたそれぞれの動作を実行することと、を更に含む。更に、方法は、ユーザ入力中に接触の特性強度がフィードフォワード強度閾値を満たさないとの判定に従って、第1の触知出力及び第2の触知出力を生成することをやめることと、それぞれのユーザインタフェース要素に関連付けられたそれぞれの動作を実行することをやめることと、を含む。
いくつかの実施形態では、1つ以上の入力デバイス、1つ以上の出力デバイス、及び1つ以上の触知出力生成器を有する電子デバイスにおいて実行される方法は、メディアをキャプチャするためのカメラユーザインタフェースを表示することを含み、カメラは複数のメディアキャプチャモードを有する。方法は、カメラユーザインタフェースを表示している間に、1つ以上の入力デバイスを介して、キャプチャアフォーダンスのアクティブ化を検出することと、1つ以上の入力デバイスを介して、キャプチャアフォーダンスのアクティブ化を検出することに応じて、カメラのユーザインタフェースが第1のメディアキャプチャモードであった間にキャプチャアフォーダンスのアクティブ化が検出されたとの判定に従って、第1のタイプのメディアをキャプチャすることであって、第1のメディアキャプチャモードでメディアのキャプチャすることが、音声なしでキャプチャされた1つ以上の画像を含む第1のタイプのメディアをキャプチャすることを含む、ことと、第1の触知出力を生成することと、を更に含む。方法は、1つ以上の入力デバイスを介して、キャプチャアフォーダンスのアクティブ化を検出することに応じて、カメラユーザインタフェースが第1のメディアキャプチャモードとは異なる第2のメディアキャプチャモードにあった間にキャプチャアフォーダンスのアクティブ化が検出されたとの判定に従って、第2のタイプのメディアをキャプチャすることであって、第2のメディアキャプチャモードでメディアをキャプチャすることは、一連の画像及び対応する音声を含む第2のタイプのメディアをキャプチャすることを含む、ことと、キャプチャアフォーダンスのアクティブ化に応じて第1の触知出力を生成することをやめることと、を更に含む。
いくつかの実施形態では、電子デバイスは、ディスプレイ、タッチ感知面、任意選択的に、タッチ感知面との接触の強度を検出する1つ以上のセンサ、任意選択的に、1つ以上の触知出力生成器、1つ以上のプロセッサ、及び1つ以上のプログラムを記憶したメモリを含み、1つ以上のプログラムは、1つ以上のプロセッサによって実行されるように構成されており、1つ以上のプログラムは、本明細書で説明される方法のいずれかの動作を実行し又は実行させる命令を含む。いくつかの実施形態では、コンピュータ可読記憶媒体は、内部に記憶された命令を有し、命令は、ディスプレイ、タッチ感知面、任意選択的に、タッチ感知面との接触の強度を検出する1つ以上のセンサ、任意選択的に、1つ以上の触知出力生成器を有する電子デバイスによって実行されると、本明細書で説明される方法のいずれかの動作をデバイスに実行させ、又は動作の実行を行わせる。いくつかの実施形態では、ディスプレイ、タッチ感知面、任意選択的に、タッチ感知面との接触の強度を検出する1つ以上のセンサ、任意選択的に、1つ以上の触知出力生成器、メモリ、及びメモリに記憶された1つ以上のプログラムを実行する1つ以上のプロセッサを有する電子デバイス上のグラフィカルユーザインタフェースは、本明細書で説明される方法のいずれかにおいて表示される要素のうちの1つ以上を含み、要素は、本明細書で説明される方法のいずれかにおいて説明されるように、入力に応じて更新される。いくつかの実施形態によると、電子デバイスは、ディスプレイ、タッチ感知面、任意選択的に、タッチ感知面との接触の強度を検出する1つ以上のセンサ、任意選択的に、1つ以上の触知出力生成器、及び本明細書で説明される方法のいずれかの動作を実行し、又は実行させる手段を含む。いくつかの実施形態によると、ディスプレイ、タッチ感知面、任意選択的に、タッチ感知面との接触の強度を検出する1つ以上のセンサ、任意選択的に、1つ以上の触知出力生成器を有する電子デバイスにおける使用のための情報処理装置は、本明細書で説明される方法のいずれかの動作を実行し又は実行させる手段を含む。
このように、ディスプレイ、タッチ感知面、任意選択的に、タッチ感知面との接触の強度を検出する1つ以上のセンサ、任意選択的に、1つ以上の触知出力生成器、任意選択的に、1つ以上のデバイス向きセンサ、及び任意選択的に、オーディオシステムを有する電子デバイスは、触知出力を提供するための改善された方法及びインタフェースを提供し、それによって、そのようなデバイスの有効性、効率性、及びユーザ満足度を高める。そのような方法及びインタフェースは、触知出力を提供する従来の方法を補完し、又は置き換えることができる。
説明される様々な実施形態をより良く理解するため、以下の図面と併せて、以下の「発明を実施するための形態」が参照されるべきであり、類似の参照番号は、以下の図のすべてを通じて、対応する部分を指す。
いくつかの実施形態に係る、タッチ感知ディスプレイを有するポータブル多機能デバイスを示すブロック図である。
いくつかの実施形態に係る、イベント処理のための例示的な構成要素を示すブロック図である。
いくつかの実施形態に係る、触知出力モジュールを示すブロック図である。
いくつかの実施形態に係る、タッチスクリーンを有するポータブル多機能デバイスを示す。
いくつかの実施形態に係る、ディスプレイ及びタッチ感知面を有する例示的な多機能デバイスのブロック図である。
いくつかの実施形態に係る、ポータブル多機能デバイス上のアプリケーションのメニューのための例示的なユーザインタフェースを示す。
いくつかの実施形態に係る、ディスプレイから分離されたタッチ感知面を有する多機能デバイスのための例示的なユーザインタフェースを示す。
一部の実施形態に係る、動的強度閾値の例を示す。 一部の実施形態に係る、動的強度閾値の例を示す。 一部の実施形態に係る、動的強度閾値の例を示す。
一部の実施形態に係る、サンプル触知出力パターンのセットを示す。 一部の実施形態に係る、サンプル触知出力パターンのセットを示す。 一部の実施形態に係る、サンプル触知出力パターンのセットを示す。 一部の実施形態に係る、サンプル触知出力パターンのセットを示す。 一部の実施形態に係る、サンプル触知出力パターンのセットを示す。 一部の実施形態に係る、サンプル触知出力パターンのセットを示す。
いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。
いくつかの実施形態に係る、ロック動作モードにおけるデバイスのユーザインタフェース上のユーザアクションに応じて触知出力を生成するためのプロセスのフロー図である。 いくつかの実施形態に係る、ロック動作モードにおけるデバイスのユーザインタフェース上のユーザアクションに応じて触知出力を生成するためのプロセスのフロー図である。 いくつかの実施形態に係る、ロック動作モードにおけるデバイスのユーザインタフェース上のユーザアクションに応じて触知出力を生成するためのプロセスのフロー図である。 いくつかの実施形態に係る、ロック動作モードにおけるデバイスのユーザインタフェース上のユーザアクションに応じて触知出力を生成するためのプロセスのフロー図である。 いくつかの実施形態に係る、ロック動作モードにおけるデバイスのユーザインタフェース上のユーザアクションに応じて触知出力を生成するためのプロセスのフロー図である。 いくつかの実施形態に係る、ロック動作モードにおけるデバイスのユーザインタフェース上のユーザアクションに応じて触知出力を生成するためのプロセスのフロー図である。 いくつかの実施形態に係る、ロック動作モードにおけるデバイスのユーザインタフェース上のユーザアクションに応じて触知出力を生成するためのプロセスのフロー図である。 いくつかの実施形態に係る、ロック動作モードにおけるデバイスのユーザインタフェース上のユーザアクションに応じて触知出力を生成するためのプロセスのフロー図である。
いくつかの実施形態に係る、カメラアプリケーションのユーザインタフェース上のユーザアクションに応じて触知出力を生成するためのプロセスのフロー図である。 いくつかの実施形態に係る、カメラアプリケーションのユーザインタフェース上のユーザアクションに応じて触知出力を生成するためのプロセスのフロー図である。 いくつかの実施形態に係る、カメラアプリケーションのユーザインタフェース上のユーザアクションに応じて触知出力を生成するためのプロセスのフロー図である。
多くの電子デバイスは、デバイスが操作ロックモードになっているときにユーザを認証するために、ならびに、デバイス内の懐中電灯の状態をトグルするため、及びカメラアプリケーションを使用してデバイス内のカメラの使用を可能にするためなどの、デバイス機能の縮小セットへのアクセスを提供するために使用するグラフィカルユーザインタフェースを有する。以下により詳細に記載するように、そのような機能にアクセスするためのユーザ入力が偶発的でないことを確実にするため、様々な強度ベース基準、時間ベース基準、及び触知出力が使用されて、デバイスを効率的かつ直感的に利用でき、それによって、そのような機能の不注意なアクティブ化の可能性を低減しながら、ロックモード機能への直感的かつ迅速なアクセスを可能にする。
多くの電子デバイスは、グラフィカルユーザインタフェースにおいて入力を検出するとフィードバックを提供し、入力がデバイス動作に及ぼす効果のインジケーションを提供する。本明細書で説明される方法は、大抵の場合、視覚フィードバック及び/又はオーディオフィードバックとともに触覚フィードバックを提供して、検出された入力がデバイス動作に及ぼす効果をユーザが理解するのを支援し、かつデバイスの状態に関する情報をユーザに提供するものである。
以下、図1A~図1C、図2、及び図3は、例示的なデバイスの説明を提供する。図4A~図4B及び図5A~図5BAは、デバイスのロックモード機能にアクセスし、カメラアプリケーション機能にアクセスしている間にユーザに触知出力を提供するための例示的なユーザインタフェースを示し、カメラアプリケーションによってキャプチャされているメディアの音声部分を記録することとの干渉を回避するために、様々な触知出力の振幅を抑制又は低減する。図6A~図6Hは、デバイスのロックモード機能にアクセスする方法のフロー図を示す。図7A~図7Cは、カメラアプリケーションによってキャプチャされているメディアの音声部分の記録との干渉を回避するために、様々な触知出力の振幅を抑制又は低減しながら、ユーザ入力を確認するための触知出力を提供することを含む、デバイスのカメラアプリケーション機能にアクセスする方法のフロー図を示す。図5A~図5BAのユーザインタフェースは、図6A~図6H及び図7A~図7Cのプロセスを説明するために使用される。
例示的なデバイス
ここで、添付図面に実施例が示される実施形態への詳細な参照が行われる。以下の詳細な説明では、説明される様々な実施形態の完全な理解を提供するために数多くの具体的な詳細が記載されている。しかしながら、記載されている様々な実施形態は、これらの具体的な詳細を伴わずとも実践し得ることが、当業者には明らかであろう。他の例では、周知の方法、手順、構成要素、回路、及びネットワークは、実施形態の態様を不必要に不明瞭にしないよう詳細には説明されていない。
本明細書では、第1、第2などの用語は、いくつかの実施例で、様々な要素を説明するために使用されるが、これらの要素は、それらの用語によって限定されるべきではないことも理解されるであろう。これらの用語は、ある要素を別の要素と区別するためにのみ使用される。例えば、説明されている様々な実施形態の範囲から逸脱することなく、第1の接触は、第2の接触と称することができ、同様に、第2の接触は、第1の接触と称し得る。第1の接触及び第2の接触は両方とも接触であるが、文脈がそうではないことを明確に示さない限り、それらは同じ接触ではない。
本明細書に記載する様々な実施形態の説明で使用される術語は、特定の実施形態を説明することのみを目的とし、限定的であることは意図されていない。記載する様々な実施形態の説明及び添付の特許請求の範囲では、単数形の「a(1つ、一)」、「an(1つ、一)」、及び「the(その、この)」は、文脈上別途明白に記載しない限り、複数形も同様に含むことが意図される。また、本明細書で使用されるとき、用語「及び/又は」は、関連する列挙された項目のうちの1つ以上のいずれか及び全ての考えられる組み合わせを指し、かつこれを含むことを理解されたい。用語「includes(含む)」、「including(含む)」、「comprises(含む、備える)」、及び/又は「comprising(含む、備える)」は、本明細書で使用する場合、述べられた特徴、整数、ステップ、動作、要素、及び/又は構成要素の存在を指定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素、及び/又はそれらのグループの存在又は追加を除外しないことが更に理解されるであろう。
本明細書に記載される場合、用語「if(~の場合)」は、任意選択で、文脈に依存して「when(~のとき)」、「upon(~すると)」、「in response to determining(~と判定したことに応じて)」、又は「in response to detecting(~を検出したことに応じて)」を意味するものと解釈される。同様に、「~と判定された場合(if it is determined)」又は「[記載の状態又はイベント]が検出された場合(if[a stated condition or event]is detected)」という語句は、任意選択的に、文脈に応じて、「~と判定したとき(upon determining)」若しくは「~と判定したことに応じて(in response to determining)」、又は「[記載の状態又はイベント]を検出したとき(upon detecting[the stated condition or event])」若しくは「[記載の状態又はイベント]を検出したことに応じて(in response to detecting[the stated condition or event])」を意味すると解釈される。
電子デバイス、そのようなデバイス用のユーザインタフェース、及びそのようなデバイスを使用する関連するプロセスの実施形態が説明される。いくつかの実施形態では、デバイスは、PDA機能及び/又は音楽プレーヤ機能などの他の機能も含む、携帯電話などのポータブル通信デバイスである。ポータブル多機能デバイスの例示的な実施形態は、Cupertino、CaliforniaのApple Inc.からのiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)デバイスを含むが、これらに限定されない。タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を有するラップトップ又はタブレットコンピュータなどの他のポータブル電子デバイスが任意選択で使用される。いくつかの実施形態では、デバイスはポータブル通信デバイスではなく、タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を有するデスクトップコンピュータであることも理解されたい。
以下の論考では、ディスプレイ及びタッチ感知面を含む電子デバイスについて説明する。しかしながら、電子デバイスは任意選択で、物理キーボード、マウス、及び/又はジョイスティックなどの、1つ以上の他の物理ユーザインタフェースデバイスを含むことを理解されたい。
デバイスは、一般的に、メモ取りアプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、ワードプロセッシングアプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、スプレッドシートアプリケーション、ゲームアプリケーション、電話アプリケーション、ビデオ会議アプリケーション、電子メールアプリケーション、インスタントメッセージングアプリケーション、トレーニングサポートアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、ウェブブラウジングアプリケーション、デジタル音楽プレーヤアプリケーション及び/又はデジタルビデオプレーヤアプリケーションのうちの1つ以上などの様々なアプリケーションをサポートする。
本デバイス上で実行される様々なアプリケーションは、タッチ感知面などの、少なくとも1つの共通の物理ユーザインタフェースデバイスを、任意選択的に使用する。タッチ感知面の1つ以上の機能、並びにデバイス上に表示される対応する情報は、アプリケーションごとに、及び/又はそれぞれのアプリケーション内で、任意選択的に、調節及び/又は変更される。このように、デバイスの共通の物理アーキテクチャ(タッチ感知面など)は、任意選択的に、ユーザにとって直観的かつ分かり易いユーザインタフェースを備える様々なアプリケーションをサポートする。
ここで、タッチ感知ディスプレイを備えるポータブルデバイスの実施形態に注意を向ける。図1Aは、いくつかの実施形態に係る、タッチ感知ディスプレイシステム112を有するポータブル多機能デバイス100を示すブロック図である。タッチ感知ディスプレイシステム112は、便宜上「タッチスクリーン」と呼ばれる場合があり、単にタッチ感知ディスプレイと呼ばれる場合もある。デバイス100は、メモリ102(任意選択で、1つ以上のコンピュータ可読記憶媒体を含む)、メモリコントローラ122、1つ以上の処理ユニット(CPU)120、周辺機器インタフェース118、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、入出力(I/O)サブシステム106、その他の入力又は制御デバイス116、及び外部ポート124を含む。デバイス100は、任意選択的に、1つ以上の光センサ164を含む。デバイス100は任意選択で、デバイス100(例えば、デバイス100のタッチ感知ディスプレイシステム112などのタッチ感知面)上の接触の強度を検出する1つ以上の強度センサ165を含む。デバイス100は、任意選択的に、デバイス100上で触知出力を生成する(例えばデバイス100のタッチ感知ディスプレイシステム112又はデバイス300のタッチパッド355などのタッチ感知面上で触知出力を生成する)1つ以上の触知出力生成器167を含む。これらの構成要素は、任意選択的に、1つ以上の通信バス又は信号ライン103を介して通信する。
本明細書及び特許請求の範囲で使用されるように、用語「触知出力」は、ユーザの触覚でユーザによって検出されることになる、デバイスの従前の位置に対するそのデバイスの物理的変位、デバイスの構成要素(例えば、タッチ感知面)の、そのデバイスの別の構成要素(例えば、筐体)に対する物理的変位、又は、デバイスの質量中心に対する構成要素の変位を指す。例えば、デバイス又はデバイスの構成要素が、タッチに敏感なユーザの表面(例えば、ユーザの手の指、手のひら、又は他の部分)に接触している状況では、物理的変位によって生成された触知出力は、そのデバイス又はデバイスの構成要素の物理的特性の認識される変化に相当する触感として、ユーザによって解釈されることになる。例えば、タッチ感知面(例えば、タッチ感知ディスプレイ又はトラックパッド)の運動は、ユーザによって、物理アクチュエータボタンの「ダウンクリック」又は「アップクリック」として、任意選択的に解釈される。いくつかの場合、ユーザの動作により物理的に押された(例えば、変位された)タッチ感知面に関連付けられた物理アクチュエータボタンの運動がない時でさえ、ユーザは「ダウンクリック」又は「アップクリック」などの触感を感じる。別の例として、タッチ感知面の運動は、タッチ感知面の平滑度に変化がない場合であっても、ユーザによって、そのタッチ感知面の「粗さ」として、任意選択的に解釈又は感知される。そのようなユーザによるタッチの解釈は、ユーザの個人的な感覚認知に左右されるが、大多数のユーザに共通する、多くのタッチの感覚認知が存在する。したがって、触知出力が、ユーザの特定の感覚認知(例えば、「アップクリック」「ダウンクリック」、「粗さ」)に対応するものと記述される場合、別途記載のない限り、生成された触知出力は、典型的な(又は、平均的な)ユーザの記述された感覚認知を生成するデバイス、又はデバイスの構成要素の物理的変位に対応する。触知出力を使用して触覚フィードバックをユーザに提供することで、デバイスの操作性が向上し、ユーザ-デバイスインタフェースがより効率的になり(例えば、デバイスを動作させ/デバイスと相互作用するとき、ユーザが適切な入力を提供するのを助け、ユーザの誤りを低減させることによる)、加えて、ユーザがデバイスをより迅速かつ効率的に使用するのを有効化することによって、電力使用を低減させ、デバイスの電池寿命を改善する。
いくつかの実施形態では、触知出力パターンは、触知出力の振幅、触知出力の動き波形の形状、触知出力の周波数、及び/又は触知出力の持続時間などの触知出力の特性を指定する。
異なる触知出力パターンを有する触知出力がデバイスによって生成されると(例えば、触知出力を生成するために可動質量を移動させる1つ以上の触知出力生成器を介して)、触知出力は、ユーザがデバイスを保持又はタッチする際に異なる触覚感覚を引き起こし得る。ユーザの感覚は、触知出力のユーザの知覚に基づいているとき、ほとんどのユーザは、デバイスによって生成される触知出力の波形、周波数、及び振幅の変化を識別することが可能である。したがって、波形、周波数、及び振幅を調整して、異なる動作が実行されたことをユーザに示すことができる。したがって、いくつかの状況では、所与の環境(例えば、グラフィカル特徴及びオブジェクトを含むユーザインタフェース、仮想の境界及び仮想のオブジェクトを有するシミュレートされた物理的環境、物理的な境界及び物理的な物体を有する実際の物理的環境、並びに/又は上記の任意の組合せ)において、物体の特性(例えば、サイズ、材料、重量、剛性、平滑度、など)、挙動(例えば、振動、変位、加速、回転、膨張など)、及び/又は相互作用(例えば、衝突、粘着、反発、吸引、摩擦など)をシミュレートするように設計、選択、及び/又は開発された触知出力パターンを有する触知出力は、入力エラーを低減させ、デバイスのユーザの動作の効率を増大させる有用なフィードバックをユーザに提供する。加えて、触知出力は、任意選択的に、入力閾値又はオブジェクトの選択などのシミュレートされた物理的特性に関係ないフィードバックに対応するように生成される。いくつかの状況では、そのような触知出力は、入力エラーを低減させ、デバイスのユーザの動作の効率を増大させる有用なフィードバックをユーザに提供する。
いくつかの実施形態では、適した触知出力パターンを有する触知出力は、ユーザインタフェース内又はデバイス内のシーンの後ろにおける対象イベントの出現に対する合図として働く。対象となるイベントの例は、デバイス上又はユーザインタフェース内で提供されるアフォーダンス(例えば、実ボタン、仮想ボタン、又はトグルスイッチ)のアクティブ化、要求された動作の成功又は失敗、ユーザインタフェース内の境界に到達すること又は超えること、新たな状態に入ること、オブジェクト間の入力の焦点を切り替えること、新たなモードのアクティブ化、入力閾値に到達すること又は超えること、入力又はジェスチャのタイプの検出又は認識などを含む。一部の実施形態では、触知出力は、リダイレクション又は中断入力が時宜を得て検出されない限り発生する、近いうち起こるイベント又は結果に対する警告又はアラートとしての役割を果たすように提供される。触知出力はまた、他の文脈で、ユーザエクスペリエンスの向上、視覚若しくは運動の障害又は他のアクセシビリティに関する必要を有するユーザに対するデバイスのアクセシビリティの改善、並びに/あるいはユーザインタフェース及び/又はデバイスの効率及び機能性の改善のために使用される。触知出力は、任意選択的に、オーディオ出力及び/又は可視のユーザインタフェースの変化を伴い、ユーザがユーザインタフェース及び/又はデバイスと対話するときのユーザのエクスペリエンスを更に向上させ、ユーザインタフェース及び/又はデバイスの状態に関する情報のより良好な伝達を容易にし、入力エラーを低減させ、デバイスのユーザの動作の効率を増大させる。
図4F~図4Hは、1つ以上の変換(例えば、変調、増幅、トランケーションなど)のいずれか、又はそれらを介して、個別に又は組み合わせて使用できるサンプル触知出力パターンのセットを提供して、本明細書で論じたユーザインタフェース及び方法に関して上記で言及したもの、又は説明したものなどの、さまざまなシナリオ及びさまざまな目的に対して、好適な触覚フィードバックを作成する。触知出力のパレットのこの例は、触知出力パターンのアレイを作成するために、1組の3つの波形及び8つの周波数をどのように使用することができるかを示す。この図に示した触知出力パターンに加えて、これらの触知出力パターンのそれぞれは、例えば、図4I~4Kに示すフルタップ80Hz、フルタップ200Hz、ミニタップ80Hz、ミニタップ200Hz、マイクロタップ80Hz、及びマイクロタップ200Hzに対して、それぞれ利得1.0、0.75、0.5及び0.25の変更によって示すように、触知出力パターンに対する利得値を変更することにより、振幅が任意選択的に調整される。図4I~4Kに示すように、触知出力パターンの利得を変更することにより、パターンの周波数を変えたり波形の形状を変えたりすることなく、パターンの振幅を変更する。いくつかの実施形態では、可動質量にどれだけの力を印加することができるかによって、いくつかの触知出力生成器が制限されるため、触知出力パターンの周波数を変化させることで、振幅がより低くなり、したがって質量の周波数の動きが大きければ大きいほど、より低い振幅に制約され、波形を作成するために必要とされる加速が、触知出力生成器の動作力の範囲外の力を必要としないことが確実になる(例えば、230Hz、270Hz、及び300Hzにおけるフルタップのピーク振幅は、80Hz、100Hz、125Hz、及び200Hzにおけるフルタップの振幅より低い)。
図4F~4Kは、特定の波形を有する触知出力パターンを示す。触知出力パターンの波形は、その触知出力パターンで触知出力を生成するために可動質量が通過する時間に対する中立位置(例えば、xzero)に対する物理的変位のパターンを表す。例えば、図4Fに示す第1のセットの触知出力パターン(例えば「フルタップ」の触知出力パターン)は、完全な2サイクルの振動(例えば、中立位置で開始及び終了し、中立位置を3回横切る振動)を含む波形をそれぞれ有する。図4Gに示す触知出力パターン(例えば、「ミニタップ」の触知出力パターン)の第2のセットは、完全な1サイクルを含む振動(例えば、中立位置で開始及び終了し、中立位置を1回横切る振動)を含む波形をそれぞれ有する。図4Hに示す触知出力パターン(例えば、「マイクロタップ」の触知出力パターン)の第3のセットは、完全な1サイクルの半分を含む振動(例えば、中立位置で開始及び終了し、中立位置を横切らない振動)を含む波形をそれぞれ有する。触知出力パターンの波形はまた、触知出力の開始及び終了時の可動質量の漸進的な加速及び減速を表す開始バッファ及び終了バッファを含む。図4F~図4Kに示す例示的な波形は、可動質量の移動の最大限度及び最小限度を表すxmax値及びxmin値を含む。より大きな可動質量を有するより大きな電子デバイスの場合、質量の移動の最小限度及び最大限度が、より大きい、又はより小さいこともある。図4F~4Kに示す例は、1次元におけ質量の移動を説明しているが、同様の原理は2次元又は3次元における可動質量の移動にも適用し得る。
図4F~4Hに示すように、それぞれの触知出力パターンはまた、その特性周波数を有する触知出力からユーザが感じる触覚感覚の「ピッチ」に影響を及ぼす、対応する特性周波数を有する。連続する触知出力の場合、特性周波数は、触知出力生成器の可動質量によって所与の期間内に完了されるサイクルの数(例えば、1秒当たりのサイクル)を表す。離散的な触知出力の場合、離散的出力信号(例えば、0.5、1、又は2回のサイクルを有する)が生成され、特性周波数値は、その特性周波数を有する触知出力を生成するために可動質量がどれだけ速く動く必要があるかを指定する。図4F~4Hに示すように、触知出力のそれぞれのタイプ(例えば、フルタップ、ミニタップ、又はマイクロタップなどのそれぞれの波形により定義される)については、より高い周波数値は、可動質量によるより速い移動(単数又は複数)に対応し、したがって、一般に、触知出力を完了する時間がより短い(例えば、離散的な触知出力に必要なサイクルの数を完了する時間開始及び終了バッファ時間を含む)。例えば、特性周波数が80Hzのフルタップは、特性周波数が100Hzのフルタップよりも完了までに時間がかかる(例えば、図4Fでは35.4ms対28.3ms)。加えて、所与の周波数に対して、それぞれの周波数においてその波形でより多くのサイクルを有する触知出力は、同じそれぞれの周波数においてその波形でより少ないサイクルを有する触知出力より、完成させるのに長くかかる。例えば、150Hzにおけるフルタップは、150Hzにおけるミニタップより、完成させるのに長くかかり(例えば、19.4msと12.8ms)、150Hzにおけるミニタップは、150Hzにおけるマイクロタップより、完成させるのに長くかかる(例えば、12.8msと9.4ms)。しかし、異なる周波数の触知出力パターンでは、この規則性があてはまらないことがある(例えば、より多くのサイクルだがより高い周波数を伴う触知出力では、より少ないサイクルだがより低い周波数を伴う触知出力よりもかかる時間量が短いことがあり、その逆も起こり得る)。例えば、300Hzにおいて、フルタップは、ミニタップと同じだけ長くかかる(例えば、9.9ms)。
図4F~4Hに示すように、触知出力パターンはまた、触知信号に含まれるエネルギー量に影響を及ぼす特性振幅、又はその特性振幅を有する触知出力を通じてユーザが感じ得る触覚感覚の「強度」を有する。いくつかの実施形態では、触知出力パターンの特性振幅は、触知出力を生成するときの中立位置からの可動質量の最大変位を表す絶対値又は正規化値を指す。いくつかの実施形態では、触知出力パターンの特性振幅は、例えば、様々な状態(例えば、ユーザインタフェースのコンテキスト及び挙動に基づいてカスタマイズされる)に従って、固定された若しくは動的に決定されたゲイン係数(例えば、0~1の値)、並びに/又は事前設定されたメトリック(例えば、入力ベースのメトリック、及び/若しくはユーザインタフェースベースのメトリック)によって、調整可能である。いくつかの実施形態では、入力ベースのメトリック(例えば、強度変化メトリック又は入力速度メトリック)は、入力の特性(例えば、触知出力の生成をトリガする入力中の押下入力における接触の特性強度の変化速度、又はタッチ感知面における接触の動き速度)を示す。いくつかの実施形態では、ユーザインタフェースベースのメトリック(例えば、境界横断速度メトリック)は、触知出力の生成をトリガするユーザインタフェースの変化中のユーザインタフェース要素の特性(例えば、ユーザインタフェース内で隠された又は可視の境界を越える要素の動き速度)を示す。一部の実施形態では、触知出力パターンの特性振幅は「包絡線」によって変調されてもよく、隣接するサイクルのピークは異なる振幅を有してもよく、上記の波形のうちの1つは、触知出力が生成されている間に経時的に触知出力の一部の振幅を徐々に調整するように、経時的に(例えば、0~1まで)変更する包絡線パラメータ乗算することによって更に変調される。
例示的な目的で、図4F~4Hでは、具体的な周波数、振幅、及び波形がサンプル触知出力パターンで表されているが、他の周波数、振幅及び波形を有する触知出力パターンも同様の目的で使用され得る。例えば、0.5~4回のサイクルを有する波形を使用することができる。また、60Hz~400Hzの範囲の他の周波数も用いることができる。
デバイス100は、ポータブル多機能デバイスの一例に過ぎず、デバイス100は、任意選択的に、示されているものよりも多くの構成要素又は少ない構成要素を有するものであり、任意選択的に、2つ以上の構成要素を組合せるものであり、又は、任意選択的に、それらの構成要素の異なる構成若しくは配置を有するものであることを理解されたい。図1Aに示す様々な構成要素は、1つ以上の信号処理回路及び/又は特定用途向け集積回路を含む、ハードウェア、ソフトウェア、ファームウェア、又はそれらの組み合わせで実装される。
メモリ102は、任意選択的に、高速ランダムアクセスメモリを含み、また任意選択的に、1つ以上の磁気ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステートメモリデバイスなどの不揮発性メモリを含む。CPU(単数又は複数)120及び周辺機器インタフェース118などのデバイス100の他の構成要素によるメモリ102へのアクセスは任意選択で、メモリコントローラ122により制御される。
周辺機器インタフェース118が使用され、デバイスの入力及び出力周辺機器を、CPU(単数又は複数)120及びメモリ102と結合することができる。1つ以上のプロセッサ120は、メモリ102に記憶された様々なソフトウェアプログラム及び/又は命令セットを動作させる、又は実行して、デバイス100のための様々な機能を実行し、データを処理する。
いくつかの実施形態では、周辺機器インタフェース118、CPU(単数又は複数)120、及びメモリコントローラ122は任意選択で、チップ104などの単一チップ上で実装される。いくつかの他の実施形態では、それらは別々のチップ上に任意選択的に実装される。
RF(radio frequency)(無線周波数)回路108は、電磁信号とも呼ばれるRF信号を送受信する。RF回路108は、電気信号を電磁信号に、又は電磁信号を電気信号に変換し、電磁信号を介して通信ネットワーク及び他の通信デバイスと通信する。RF回路108は、任意選択的に、これらの機能を実行するための周知の回路を含み、それらの回路としては、限定するものではないが、アンテナシステム、RF送受信機、1つ以上の増幅器、同調器、1つ以上の発振器、デジタル信号プロセッサ、CODECチップセット、加入者識別モジュール(subscriber identity module、SIM)カード、メモリなどが挙げられる。RF回路108は、任意選択的に、ワールドワイドウェブ(World Wide Web、WWW)とも呼ばれるインターネット、イントラネット、並びに/又はセルラー電話ネットワーク、無線ローカルエリアネットワーク(local area network、LAN)及び/若しくはメトロポリタンエリアネットワーク(metropolitan area network、MAN)などの無線ネットワークなどのネットワークと、また他のデバイスと、無線通信によって通信する。無線通信は任意選択で、移動通信のためのグローバルシステム(GSM)、拡張データGSM環境(EDGE)、高速ダウンリンクパケット接続(HSDPA)、高速アップリンクパケット接続(HSUPA)、Evolution,Data-Only(EV-DO)、HSPA、HSPA+、デュアルセルHSPA(DC-HSPDA)、ロングタームエボリューション(LTE)、近距離無線通信(NFC)、広帯域符号分割多元接続(W-CDMA)、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、Bluetooth、Wireless Fidelity(Wi-Fi)(例えば、IEEE 802.11a、IEEE 802.11ac、IEEE 802.11ax、IEEE 802.11b、IEEE 802.11g、及び/若しくはIEEE 802.11n)、ボイスオーバーインターネットプロトコル(VoIP)、Wi-MAX、電子メールのためのプロトコル(例えば、インターネットメッセージアクセスプロトコル(IMAP)及び/若しくはポストオフィスプロトコル(POP))、インスタントメッセージング(例えば、拡張可能メッセージング及びプレゼンスプロトコル(XMPP)、インスタントメッセージング及びプレゼンス利用拡張向けセッション開始プロトコル(SIMPLE)、インスタントメッセージング及びプレゼンスサービス(IMPS))、並びに/又はショートメッセージサービス(SMS)、あるいは本文書の出願日現在までにまだ開発されていない通信プロトコルを含む任意の他の適切な通信プロトコルを含むが、それらに限定されない、複数の通信規格、通信プロトコル、及び通信技術のうちのいずれかを使用する。
オーディオ回路110、スピーカ111、及びマイクロフォン113は、ユーザとデバイス100との間のオーディオインタフェースを提供する。オーディオ回路110は、周辺機器インタフェース118からオーディオデータを受信し、このオーディオデータを電気信号に変換し、この電気信号をスピーカ111に伝送する。スピーカ111は、電気信号を人間の可聴音波に変換する。また、オーディオ回路110は、マイクロフォン113によって音波から変換された電気信号を受信する。オーディオ回路110は、電気信号をオーディオデータに変換し、このオーディオデータを処理のために周辺機器インタフェース118に伝送する。オーディオデータは、任意選択的に、周辺機器インタフェース118によって、メモリ102及び/若しくはRF回路108から取得され、かつ/又はメモリ102及び/若しくはRF回路108に伝送される。いくつかの実施形態では、オーディオ回路110は、更にヘッドセットジャック(例えば、212、図2)も含む。ヘッドセットジャックは、オーディオ回路110と、出力専用ヘッドホン又は出力(例えば片耳又は両耳用のヘッドホン)及び入力(例えばマイクロフォン)の両方を有するヘッドセットなどの着脱可能なオーディオ入出力周辺機器との間のインタフェースを提供する。
I/Oサブシステム106は、タッチ感知ディスプレイシステム112及びその他の入力又は制御デバイス116などのデバイス100上の入出力周辺機器を周辺機器インタフェース118と結合する。I/Oサブシステム106は、任意選択的に、ディスプレイコントローラ156、光センサコントローラ158、強度センサコントローラ159、触覚フィードバックコントローラ161、及び他の入力若しくは制御デバイスのための1つ以上の入力コントローラ160を含む。1つ以上の入力コントローラ160は、その他の入力又は制御デバイス116から電気信号を受信し、それらへ電気信号を送信する。その他の入力又は制御デバイス116は任意選択で、物理的ボタン(例えば、プッシュボタン、ロッカボタンなど)、ダイヤル、スライダスイッチ、ジョイスティック、クリックホイールなどを含む。いくつかの代替的実施形態では、入力コントローラ(単数又は複数)160は任意選択で、キーボード、赤外線ポート、USBポート、スタイラス、及び/又はマウスなどのポインタデバイスのうちのいずれかと結合される(又は、いずれにも結合されない)。1つ以上のボタン(例えば、208、図2)は、任意選択で、スピーカ111及び/又はマイクロフォン113の音量制御のためのアップ/ダウンボタンを含む。1つ以上のボタンは、任意選択で、プッシュボタン(例えば、206、図2)を含む。
タッチ感知ディスプレイシステム112は、デバイスとユーザの間の入力インタフェース及び出力インタフェースを提供する。ディスプレイコントローラ156は、タッチ感知ディスプレイシステム112から電気信号を受信し、及び/又はタッチ感知ディスプレイシステム112へ電気信号を送信する。タッチ感知ディスプレイシステム112は、ユーザに視覚出力を表示する。この視覚出力は、グラフィック、テキスト、アイコン、ビデオ、及びそれらの任意の組合せ(総称して「グラフィック」)を任意選択的に含む。いくつかの実施形態では、視覚出力の一部又はすべては、ユーザインタフェースオブジェクトに対応する。本明細書で使用されるように、用語「アフォーダンス」は、ユーザ-対話形式のグラフィカルユーザインタフェースオブジェクト(例えば、グラフィカルユーザインタフェースオブジェクトに向かって方向付けられた入力に応答するように構成されているグラフィカルユーザインタフェースオブジェクト)を指す。ユーザ-対話形式のグラフィカルユーザインタフェースオブジェクトの例は、ボタン、スライダ、アイコン、選択可能メニュー項目、スイッチ、ハイパーリンク、又はその他のユーザインタフェース制御を含むが、それらに限定されない。
タッチ感知ディスプレイシステム112は、触覚及び/又は触知の接触に基づくユーザからの入力を受け付けるタッチ感知面、センサ、又はセンサのセットを有する。(メモリ102内の任意の関連するモジュール及び/又は命令セットとともに)タッチ感知ディスプレイシステム112及びディスプレイコントローラ156は、タッチ感知ディスプレイシステム112上の接触(及び、接触の任意の移動又は中断)を検出し、検出された接触をタッチ感知ディスプレイシステム112上で表示されるユーザインタフェースオブジェクト(例えば、1つ以上のソフトキー、アイコン、ウェブページ、又は画像)との相互作用に変換する。一部の実施形態では、タッチ感知ディスプレイシステム112とユーザとの間の接触点は、ユーザの指又はスタイラスに対応する。
タッチ感知ディスプレイシステム112は任意選択で、LCD(liquid crystal display)(液晶ディスプレイ)技術、LPD(light emitting polymer display)(発光ポリマディスプレイ)技術、又はLED(light emitting diode)(発光ダイオード)技術を使用するが、他の実施形態では、他のディスプレイ技術が使用される。タッチ感知ディスプレイシステム112及びディスプレイコントローラ156は任意選択で、容量技術、抵抗性技術、赤外線技術、及び表面音響波技術、並びに、タッチ感知ディスプレイシステム112との1つ以上の接触点を判定するためのその他の近接センサアレイ又は他の要素を含むが、これらに限定されない、現在既知の又は後に開発される複数のタッチ感知技術のうちのいずれかを使用して、接触及びその任意の移動又は中断を検出する。一部の実施形態では、Cupertino、CaliforniaのApple Inc.からのiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)などにおいて見られるような、投影型相互キャパシタンス検知技術が使用される。
タッチ感知ディスプレイシステム112は任意選択で、100dpiを超えるビデオ解像度を有する。いくつかの実施形態では、タッチ画面のビデオ解像度は、400dpiを超える(例えば、500dpi、800dpi、又はそれより高い)。ユーザは任意選択で、スタイラス、指などの任意の適切な物体又は付属物を使用して、タッチ感知ディスプレイシステム112と接触する。いくつかの実施形態では、ユーザインタフェースは、指に基づく接触及びジェスチャで機能するように設計されるが、これらは、指の接触がタッチスクリーン上での面積がより広いことに起因して、スタイラスに基づく入力よりも精度が低い場合がある。いくつかの実施形態では、デバイスは、指に基づく粗い入力を、ユーザによって所望されているアクションを実行するための、正確なポインタ/カーソルの位置又はコマンドに変換する。
いくつかの実施形態では、タッチスクリーンに加えて、デバイス100は、任意選択的に、特定の機能をアクティブ化又は非アクティブ化するためのタッチパッド(図示せず)を含む。いくつかの実施形態では、タッチパッドは、タッチスクリーンとは異なり、視覚出力を表示しない、デバイスのタッチ感知エリアである。タッチパッドは任意選択で、タッチ感知ディスプレイシステム112と分離したタッチ感知面、又はタッチスクリーンによって形成されたタッチ感知面の延長である。
デバイス100は、また、様々なコンポーネントに電力を供給する電力システム162を含む。電力システム162は、任意選択的に、電力管理システム、1つ以上の電源(例えば、バッテリ、交流(AC))、再充電システム、停電検出回路、電力コンバータ又はインバータ、電力状態インジケータ(例えば、発光ダイオード(LED))、並びにポータブルデバイス内での電力の生成、管理、及び分配に関連付けられた任意の他の構成要素を含む。
また、デバイス100は、任意選択的に、1つ以上の光センサ164を含む。図1Aは、I/Oサブシステム106内の光センサコントローラ158と結合された光センサを示す。光センサ(単数又は複数)164は、任意選択で、電荷結合デバイス(CCD)又は相補的金属酸化膜半導体(CMOS)フォトトランジスタを含む。光センサ(単数又は複数)164は、1つ以上のレンズを通じて投影された、環境からの光を受信し、画像を表すデータに光を変換する。撮像モジュール143(カメラモジュールとも呼ばれる)と連携して、光センサ(単数又は複数)164は任意選択で、静止画像及び/又はビデオをキャプチャする。いくつかの実施形態では、タッチスクリーンを静止画像及び/又はビデオ画像取得のためのビューファインダとして使用することができるように、光センサは、デバイスの前面上のタッチ感知ディスプレイシステム112の反対である、デバイス100の背面上に配置される。いくつかの実施形態では、ユーザの画像が取得されるように(例えば、自撮りのため、ユーザがタッチスクリーン上でその他のビデオ会議参加者を見ている間のビデオ会議のためなど)、別の光センサがデバイスの前面上に配置される。
また、デバイス100は、任意選択的に、1つ以上の接触強度センサ165を含む。図1Aは、I/Oサブシステム106内の強度センサコントローラ159と結合された接触強度センサを示す。接触強度センサ(単数又は複数)165は、1つ以上のピエゾ抵抗ひずみゲージ、電気容量式力センサ、電気力センサ、圧電力センサ、光学力センサ、容量式タッチ感知面、又は他の強度センサ(例えば、タッチ感知面上の接触の力(若しくは圧力)を測定するために使用されるセンサ)を任意選択で含む。接触強度センサ(単数又は複数)165は、環境から接触強度情報(例えば、圧力情報又は圧力情報のためのプロキシ)を受信する。いくつかの実施形態では、少なくとも1つの接触強度センサは、タッチ感知面(例えばタッチ感知ディスプレイシステム112)と並置される、又はそれに近接している。いくつかの実施形態では、少なくとも1つの接触強度センサは、デバイス100の前面上に位置するタッチスクリーンディスプレイシステム112の反対である、デバイス100の背面上に配置される。
また、デバイス100は、任意選択的に、1つ以上の近接センサ166を含む。図1Aは、周辺機器インタフェース118と結合された近接センサ166を示す。代わりに、近接センサ166は、I/Oサブシステム106内の入力コントローラ160と結合される。いくつかの実施形態では、多機能デバイスがユーザの耳の近くに配置されるとき(例えば、ユーザが電話通話を行っているとき)、近接センサは、タッチ感知ディスプレイシステム112をターンオフ及び無効にする。
また、デバイス100は、任意選択的に、1つ以上の触知出力生成器167を含む。図1Aは、I/Oサブシステム106内の触覚フィードバックコントローラ161と結合され触知出力生成器を示す。一部の実施形態では、触知出力生成器(単数又は複数)167は、スピーカ若しくは他のオーディオ構成要素などの1つ以上の電気音響デバイス、及び/又はモータ、ソレノイド、電気活性ポリマー、圧電アクチュエータ、静電アクチュエータ、若しくは他の触知出力生成構成要素(例えば、デバイス上で電気信号を触知出力に変換する構成要素)など、エネルギーを線形の動きに変換する電気機械デバイスを含む。触知出力生成器(単数又は複数)167は、触覚フィードバックモジュール133から触知フィードバック生成命令を受信し、デバイス100のユーザが感知できる触知出力をデバイス100上に生成する。いくつかの実施形態では、少なくとも1つの触知出力生成器は、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)に配置されているか、又はそれに近接しており、任意選択的に、タッチ感知面を垂直方向(例えば、デバイス100の表面の内/外)に、又は水平方向(例えば、デバイス100の表面と同じ平面内の前後)に動かすことによって、触知出力を生成する。いくつかの実施形態では、少なくとも1つの触知出力生成器センサは、デバイス100の前面上に位置するタッチ感知ディスプレイシステム112の反対である、デバイス100の背面上に配置される。
また、デバイス100は、任意選択的に、1つ以上の加速度計168を含む。図1Aは、周辺機器インタフェース118と結合された加速度計168を示す。代わりに、加速度計168は任意選択で、I/Oサブシステム106内の入力コントローラ160と結合される。いくつかの実施形態では、情報は、1つ以上の加速度計から受信されたデータの分析に基づいて、縦方向ビュー又は横方向ビュー内でタッチスクリーンディスプレイ上に表示される。デバイス100は任意選択で、加速度計(単数又は複数)168に加えて、磁気計(図示せず)並びにデバイス100の位置及び向き(例えば、縦向き又は横向き)に関する情報を取得するためのGPS(又はGLONASS又は他のグローバルナビゲーションシステム)受信機(図示せず)を含む。
いくつかの実施形態では、メモリ102に記憶されたソフトウェア構成要素は、オペレーティングシステム126、通信モジュール(又は、命令セット)128、接触/動きモジュール(又は、命令セット)130、グラフィックモジュール(又は、命令セット)132、触覚フィードバックモジュール(又は、命令セット)133、テキスト入力モジュール(又は、命令セット)134、全地球測位システム(Global Positioning System)(GPS)モジュール(又は、命令セット)135、及びアプリケーション(又は、命令セット)136を含む。更に、いくつかの実施形態では、図1A及び図3に示されるように、メモリ102は、デバイス/グローバル内部状態157を記憶する。デバイス/グローバル内部状態157は、現在アクティブ状態のアプリケーションがある場合に、どのアプリケーションがアクティブであるかを示す、アクティブアプリケーション状態、どのアプリケーション、ビュー、又は他の情報がタッチ感知ディスプレイシステム112の様々な領域を占有しているかを示す表示状態、デバイスの様々なセンサ及びその他の入力又は制御デバイス116から取得される情報を含むセンサ状態、並びにデバイスの位置及び/又は姿勢に関する位置及び/若しくは位置情報、のうちの1つ以上を含む。
オペレーティングシステム126(例えば、iOS、Darwin、RTXC、LINUX、UNIX、OS X、WINDOWS、又はVxWorksなどの組み込みオペレーティングシステム)は、全体的なシステムタスク(例えば、メモリ管理、記憶デバイス制御、電力管理など)を制御及び管理するための様々なソフトウェア構成要素及び/又はドライバを含み、様々なハードウェア構成要素とソフトウェア構成要素の間の通信を促進する。
通信モジュール128は、1つ以上の外部ポート124を介して他のデバイスとの通信を容易にし、RF回路108及び/又は外部ポート124が受信したデータを処理するための様々なソフトウェア構成要素をも含む。外部ポート124(例えばユニバーサルシリアルバス(Universal Serial Bus、USB)、FIREWIRE(登録商標)など)は、直接的に、又はネットワーク(例えばインターネット、無線LANなど)を介して間接的に、他のデバイスに連結するように適合されている。いくつかの実施形態では、外部ポートは、Cupertino、CaliforniaのApple Inc.からのいくつかのiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)デバイス内で使用される30ピンコネクタと同一若しくは類似した、及び/又は互換性のあるマルチピン(例えば、30ピン)コネクタである。いくつかの実施形態では、外部ポートは、Cupertino、CaliforniaのApple Inc.からのいくつかのiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)デバイス内で使用されるLightningコネクタと同一若しくは類似した、及び/又は互換性のあるLightningコネクタである。
接触/動きモジュール130は任意選択で、タッチ感知ディスプレイシステム112との接触(ディスプレイコントローラ156と連携して)、及び他のタッチ感知デバイスとの接触(例えば、タッチパッド又は物理クリックホイール)を検出する。接触/動きモジュール130は、接触が発生したかを判定すること(例えば、指ダウンイベントを検出する)、接触の強度を判定すること(例えば、接触の力若しくは圧力、又は接触の力若しくは圧力に代替するもの)、接触の動きがあるかを判定すること及びタッチ感知面を横切る動きを追跡すること(例えば、1つ以上の指のドラッグイベントを検出する)、及び接触が停止したかどうかを判定すること(例えば、指アップイベント又は接触の中断を検出する)などの、接触の検出(例えば、指又はスタイラスによる)に関連する様々な動作を実行するためのソフトウェア構成要素を含む。接触/動きモジュール130は、タッチ感知面から接触データを受信する。一連の接触データによって表される、接触点の移動を判定することは、任意選択的に、接触点の速さ(大きさ)、速度(大きさ及び方向)、及び/又は加速度(大きさ及び/又は方向の変化)を判定することを含む。これらの動作は、任意選択で、単一の接触(例えば、1本の指の接触又はスタイラスの接触)又は複数の同時接触(例えば、「マルチタッチ」/複数の指の接触)に適用される。いくつかの実施形態では、接触/動きモジュール130及びディスプレイコントローラ156は、タッチパッド上の接触を検出する。
接触/動きモジュール130は、任意選択的に、ユーザによるジェスチャ入力を検出する。タッチ感知面上の異なるジェスチャは、異なる接触パターンを有する(例えば検出される接触の動き、タイミング、及び/又は強度が異なる)。したがって、ジェスチャは、任意選択的に、特定の接触パターンを検出することによって検出される。例えば、指のタップジェスチャを検出することは、指ダウンイベントを検出し、続いて(例えば、アイコンの位置での)その指ダウンイベントと同一の位置(又は、実質的に同一の位置)で指アップ(リフトオフ)イベントを検出することを含む。別の実施例として、タッチ感知面上の指のスワイプジェスチャの検出は、指ダウンイベントを検出し、続いて1つ以上の指のドラッグイベントを検出し、その後、指アップ(リフトオフ)イベントを検出することを含む。同様に、タップ、スワイプ、ドラッグ、及びその他のジェスチャは任意選択で、スタイラスに対して、スタイラスに対する特定の接触パターンを検出することにより、検出される。
いくつかの実施形態では、指のタップジェスチャを検出することは、指ダウンイベントを検出することと指アップイベントを検出することとの間の時間の長さに依存するが、指ダウンイベントを検出することと指アップイベントを検出することとの間の指の接触の強度とは関連しない。いくつかの実施形態では、タップジェスチャは、タップの間の指の接触の強度が、軽い押圧又は深い押圧強度閾値などの所与の強度閾値を満たす(名目上の接触検出強度閾値よりも大きい)かに関わらず、指ダウンイベントと指アップイベントの間の時間の長さが予め定められた値よりも短い(例えば、0.1、0.2、0.3、0.4又は0.5秒よりも短い)との判定に従って検出される。したがって、指のタップジェスチャは、特定の入力基準が満たされるために、接触の特性強度が所与の強度閾値を満たすことを必要としない特定の入力基準を満たすことができる。明確にするために、タップジェスチャにおける指の接触は一般的に、指ダウンイベントを検出するために、それを下回ると接触が検出されない名目上の接触検出強度閾値を満たす必要がある。同様の分析は、スタイラスによるタップジェスチャ又は他の接触を検出することに適用される。デバイスがタッチ感知面上をホバリングする指又はスタイラスの接触を検出することが可能なケースでは、名目上の接触検出強度閾値は任意選択で、指又はスタイラスとタッチ感知面の間の物理的接触に対応しない。
同様の方式で、同一の概念が他のタイプのジェスチャに適用される。例えば、スワイプジェスチャ、ピンチジェスチャ、デピンチジェスチャ、及び/又は長い押圧ジェスチャは任意選択で、ジェスチャに含まれる接触の強度と関係しない、又は認識されるためにジェスチャを実行する接触が強度閾値に到達することを必要としないのいずれかである基準を満たすことに基づいて検出される。例えば、スワイプジェスチャは、1つ以上の接触の移動量に基づいて検出され、ピンチジェスチャは、相互に向かう2つ以上の接触の移動に基づいて検出され、デピンチジェスチャは、相互に離れる2つ以上の接触の移動に基づいて検出され、長い押圧ジェスチャは、閾値移動量よりも小さいタッチ感知面上の接触の期間に基づいて検出される。したがって、特定のジェスチャ認識基準が満たされるために、接触(単数又は複数)の強度がそれぞれの強度閾値を満たすことを特定のジェスチャ認識基準が必要としないという記述は、ジェスチャにおける接触(複数可)がそれぞれの強度閾値に到達しない場合に特定のジェスチャ認識基準が満たされることが可能であること、及びジェスチャにおける接触のうちの1つ以上がそれぞれの強度閾値に到達せず、又は強度閾値を超えない状況で満たされることも可能であることを意味する。いくつかの実施形態では、タップジェスチャは、接触が所定の期間の間にそれぞれの強度閾値を上回るか又は下回るかに関わらず、指ダウンイベント及び指アップイベントが所定の期間内で検出されたという判定に基づいて検出され、スワイプジェスチャは、接触が接触の移動の終わりにそれぞれの強度閾値を上回る場合でさえ、接触の移動が所定の大きさよりも大きいという判定に基づいて検出される。ジェスチャの検出がジェスチャを実行する接触の強度によって影響される実施態様でさえ(例えば、接触の強度が強度閾値を上回るときにデバイスが長い押圧をより素早く検出し、又は接触の強度がより高いときにデバイスがタップ入力の検出に遅れる)、接触が特定の強度閾値に到達しない状況でジェスチャを認識する基準を満たすことができる限り(例えば、ジェスチャを認識するために要する時間量が変化する場合でさえ)、それらのジェスチャの検出は、接触が特定の強度閾値に到達することを必要としない。
接触強度閾値、期間閾値、及び移動閾値は、一部の状況では、同一の入力要素又は領域に方向付けられる2つ以上の異なるジェスチャを区別するためのヒューリスティックを作成するために、様々な異なる組み合わせで組み合わされ、それによって、同一の入力要素との複数の異なる対話がより豊かなセットのユーザ対話及び応答を提供するように有効化される。特定のジェスチャ認識基準が満たされるために、接触(単数又は複数)の強度がそれぞれの強度閾値を満たすことをジェスチャ認識基準の特定のセットが必要としない記述は、ジェスチャがそれぞれの強度閾値を上回る強度を有する接触を含むときに満たされる基準を有する他のジェスチャを識別するための他の強度依存ジェスチャ認識基準の同時評価を排除しない。例えば、いくつかの状況では、第1のジェスチャ認識基準が満たされるために、接触(単数又は複数)の強度がそれぞれの強度閾値を満たすことを必要としない第1のジェスチャのための第1のジェスチャ認識基準は、それぞれの強度閾値に到達する接触(複数可)に依存する第2のジェスチャのための第2のジェスチャ認識基準との競争関係にある。そのような競争では、ジェスチャは任意選択で、第2のジェスチャのための第2のジェスチャ認識基準が最初に満たされる場合に、第1のジェスチャのための第1のジェスチャ認識基準を満たすものとして認識されない。例えば、接触が所定の移動量を移動する前に接触がそれぞれの強度閾値に到達する場合、スワイプジェスチャではなく深い押圧ジェスチャが検出される。逆に、接触がそれぞれの強度閾値に到達する前に接触が所定の移動量を移動する場合、深い押圧ジェスチャではなくスワイプジェスチャが検出される。そのような状況でさえ、第1のジェスチャのための第1のジェスチャ認識基準は、第1のジェスチャ認識基準が満たされるために、接触(単数又は複数)の強度がそれぞれの強度閾値を満たすことをなおも必要としないが、これは、ジェスチャの終わりまで接触がそれぞれの強度閾値を下回ったままであった場合(例えば、それぞれの強度閾値を上回る強度まで増加しない接触を有するスワイプジェスチャ)、ジェスチャは、スワイプジェスチャとして第1のジェスチャ認識基準によって認識されているからである。そのようにして、特定のジェスチャ認識基準が満たされるために、接触(単数又は複数)の強度がそれぞれの強度閾値を満たすことを必要としない特定のジェスチャ認識基準は、(A)いくつかの状況では、強度閾値(例えば、タップジェスチャのための)に関して接触の強度を無視し、及び/又は(B)いくつかの状況では、特定のジェスチャ認識基準が入力に対応するジェスチャ(例えば、認識のための深い押圧ジェスチャと競争する長い押圧ジェスチャのための)を認識する前に、強度依存ジェスチャ認識基準の競争するセット(例えば、深い押圧ジェスチャのための)が強度依存ジェスチャに対応するものとして入力を認識する場合、特定のジェスチャ認識基準(例えば、長い押圧ジェスチャのための)が機能しないという意味で、強度閾値に関して接触の強度になおも依存している。
グラフィックモジュール132は、表示されるグラフィックの視覚的影響(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚特性)を変更するための構成要素を含む、タッチ感知ディスプレイシステム112又は他のディスプレイ上でグラフィックをレンダリング及び表示するための様々な既知のソフトウェア構成要素を含む。本明細書で使用される場合、用語「グラフィック」は、テキスト、ウェブページ、アイコン(ソフトキーを含むユーザインタフェースオブジェクトなど)、デジタル画像、ビデオ、及びアニメーションなどを含むがこれらに限定されない、ユーザに対して表示することができるいずれかのオブジェクトを含む。
いくつかの実施形態では、グラフィックモジュール132は、使用されることになるグラフィックを表すデータを記憶する。各グラフィックには、任意選択的に、対応するコードが割り当てられる。グラフィックモジュール132は、アプリケーションなどから、必要に応じて、座標データ及び他のグラフィック特性データと共に、表示されることとなるグラフィックを指定する1つ以上のコードを受信し、次にディスプレイコントローラ156に出力するスクリーンの画像データを生成する。
触覚フィードバックモジュール133は、デバイス100とのユーザ対話に応じて、触知出力生成器(単数又は複数)167を使用してデバイス100上の1つ以上の位置において触知出力を作成する命令(例えば、触覚フィードバックコントローラ161によって使用される命令)を生成する様々なソフトウェア構成要素を含む。
テキスト入力モジュール134は、任意選択で、グラフィックモジュール132の構成要素であり、様々なアプリケーション(例えば、連絡先137、電子メール140、IM141、ブラウザ147、及びテキスト入力を必要とする任意の他のアプリケーション)でテキストを入力するためのソフトキーボードを提供する。
GPSモジュール135は、デバイスの位置を判定し、この情報を、様々なアプリケーションで使用するために(例えば、位置に基づく電話発信で使用するために電話138へ、写真/ビデオのメタデータとしてカメラ143へ、並びに、気象ウィジェット、地域のイエローページウィジェット、及びマップ/ナビゲーションウィジェットなどの、位置に基づくサービスを提供するアプリケーションへ)提供する。
アプリケーション136は、任意選択的に、以下のモジュール(又は命令セット)又はそれらのサブセット若しくはスーパーセットを含む。
●連絡先モジュール137(時には、アドレス帳又は連絡先リストとも呼ぶ)、
●電話モジュール138、
●ビデオ会議モジュール139、
●電子メールクライアントモジュール140、
●インスタントメッセージング(IM)モジュール141、
●トレーニングサポートモジュール142、
●静止画像及び/又はビデオ画像用のカメラモジュール143、
●画像管理モジュール144、
●ブラウザモジュール147、
●カレンダーモジュール148、
●気象ウィジェット149-1、株価ウィジェット149-2、計算機ウィジェット149-3、アラーム時計ウィジェット149-4、辞書ウィジェット149-5、及びユーザによって取得された他のウィジェット、並びにユーザ作成ウィジェット149-6のうちの1つ以上を任意選択的に含む、ウィジェットモジュール149、
●ユーザ作成ウィジェット149-6を作成するためのウィジェットクリエータモジュール150、
●検索モジュール151、
●任意選択的にビデオプレーヤモジュール及び音楽プレーヤモジュールから構成されている、ビデオ及び音楽プレーヤモジュール152、
●メモモジュール153、
●マップモジュール154、及び/又は
●オンラインビデオモジュール155。
任意選択的にメモリ102に記憶される他のアプリケーション136の例としては、他のワードプロセッシングアプリケーション、他の画像編集アプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、JAVA(登録商標)対応アプリケーション、暗号化、デジタル著作権管理、音声認識、及び音声複製が挙げられる。
タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134とともに、連絡先モジュール137は、(例えば、メモリ102又はメモリ370内の連絡先モジュール137のアプリケーション内部状態192に記憶される)アドレス帳又は連絡先リストを管理するための実行可能命令を含み、それには、アドレス帳に名前(単数又は複数)を加えること、アドレス帳から名前(単数又は複数)を削除すること、電話番号(単数又は複数)、電子メールアドレス(単数又は複数)、住所(単数又は複数)、又は他の情報を名前に関連付けること、画像を名前に関連付けること、名前を分類して並べ替えること、電話番号及び/又は電子メールアドレスを提供して、電話138、ビデオ会議139、電子メール140、又はIM141による通信を開始及び/若しくは促進すること、などが含まれる。
RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、電話モジュール138は、電話番号に対応する一連の文字を入力し、アドレス帳137内の1つ以上の電話番号にアクセスし、入力されている電話番号を変更し、それぞれの電話番号をダイヤルし、会話を実行し、会話が完了したときに切断し又は電話を切る実行可能命令を含む。上述のように、無線通信は、任意選択で、複数の通信規格、プロトコル、及び技術のうちのいずれかを使用する。
RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、光センサ(単数又は複数)164、光センサコントローラ158、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、連絡先リスト137、及び電話モジュール138と連携して、ビデオ会議モジュール139は、ユーザの命令に従って、ユーザと1人以上の他の参加者の間のビデオ会議を開始し、行い、終了する実行可能命令を含む。
RF回路108、タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、電子メールクライアントモジュール140は、ユーザの指示に応じて、電子メールを作成し、送信し、受信し、管理する実行可能命令を含む。画像管理モジュール144と連動して、電子メールクライアントモジュール140は、カメラモジュール143で撮影された静止画像又はビデオ画像を有する電子メールの作成及び送信を非常に容易にする。
RF回路108、タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、インスタントメッセージングモジュール141は、インスタントメッセージに対応する一連の文字を入力し、前に入力された文字を修正し、それぞれのインスタントメッセージを送信し(例えば、電話ベースのインスタントメッセージのためのショートメッセージサービス(SMS)若しくはマルチメディアメッセージサービス(Multimedia Message Service、MMS)プロトコルを使用して、又はインターネットベースのインスタントメッセージのためのXMPP、SIMPLE、Apple Push Notification Service(APNs)、若しくはIMPSを使用して)、インスタントメッセージを受信し、受信したインスタントメッセージを見る実行可能命令を含む。いくつかの実施形態では、送信及び/又は受信されたインスタントメッセージは任意選択で、MMS及び/又は拡張メッセージングサービス(Enhanced Messaging Service、EMS)でサポートされるような、グラフィック、写真、音声ファイル、ビデオファイル、及び/又は他の添付ファイルを含む。本明細書で使用される場合、「インスタントメッセージ」は、電話ベースのメッセージ(例えば、SMS又はMMSを使用して送信されたメッセージ)及びインターネットベースのメッセージ(例えば、XMPP、SIMPLE、APNs、又はIMPSを使用して送信されたメッセージ)の両方を指す。
RF回路108、タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、地図モジュール154、並びにビデオ及び音楽プレーヤモジュール152に関連して、トレーニングサポートモジュール142は、(例えば時間、距離、及び/又はカロリー消費目標を有する)トレーニングを作成し、(スポーツデバイス及びスマートウォッチ内の)トレーニングセンサと通信し、トレーニングセンサデータの受信、トレーニングをモニタするために使用されるセンサの較正、トレーニングのための音楽を選択して再生する、並びに、トレーニングデータを表示し、記憶し、送信する、実行可能命令を含む。
タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、光センサ(単数又は複数)164、光センサコントローラ158、接触モジュール130、グラフィックモジュール132、及び画像管理モジュール144とともに、カメラモジュール143は、静止画像又はビデオ(ビデオストリームを含む)をキャプチャしてメモリ102にそれらを記憶する、静止画像又はビデオの特性を変更する、及び/又はメモリ102から静止画像若しくはビデオを削除する、実行可能命令を含む。
タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びカメラモジュール143とともに、画像管理モジュール144は、静止画像及び/又はビデオ画像を配置し、変更し(例えば、編集し)、又はその他の方式で操作し、ラベルを付け、削除し、提示し(例えば、デジタルスライドショー又はアルバム内で)、並びに記憶する、実行可能命令を含む。
RF回路108、タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134とともに、ブラウザモジュール147は、ウェブページ又はそれらの一部、並びにウェブページにリンクされた添付ファイル及び他のファイルの、検索、リンク付け、受信、及び表示を含め、ユーザの命令に従って、インターネットをブラウズする、実行可能命令を含む。
RF回路108、タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147とともに、カレンダーモジュール148は、ユーザの命令に従って、カレンダー及びカレンダーに関連付けられたデータ(例えば、カレンダー項目、するべきことのリストなど)を作成、表示、変更、及び記憶する、実行可能命令を含む。
RF回路108、タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147とともに、ウィジェットモジュール149は、任意選択で、ユーザによってダウンロードされ使用されるミニアプリケーション(例えば、気象ウィジェット149-1、株価ウィジェット149-2、計算機ウィジェット149-3、アラーム時計ウィジェット149-4、及び辞書ウィジェット149-5)、又はユーザによって作成されるミニアプリケーション(例えば、ユーザ作成ウィジェット149-6)である。いくつかの実施形態では、ウィジェットは、HTML(Hypertext Markup Language;ハイパーテキストマークアップ言語)ファイル、CSS(Cascading Style Sheets;カスケーディングスタイルシート)ファイル、及びJavaScript(登録商標)ファイルを含む。いくつかの実施形態では、ウィジェットは、XML(Extensible Markup Language:拡張可能マークアップ言語)ファイル及びJavaScriptファイル(例えば、Yahoo!ウィジェット)を含む。
RF回路108、タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と連携して、ウィジェットクリエータモジュール150は、ウィジェットを作成する(例えば、ウェブページのユーザ指定部分をウィジェットに変える)実行可能命令を含む。
タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、検索モジュール151は、ユーザの命令に従って、1つ以上の検索基準(例えば、1つ以上のユーザ指定の検索語句)と一致する、メモリ102内のテキスト、音楽、サウンド、画像、ビデオ、及び/又は他のファイルを検索する実行可能命令を含む。
タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、及びブラウザモジュール147と連携して、ビデオ及び音楽プレーヤモジュール152は、MP3又はAACファイルなどの1つ以上のファイル形式で記憶された記録された音楽又は他のサウンドファイルをユーザがダウンロード及び再生することを可能にする実行可能命令、並びにビデオを表示し、提示し、又はその他の方式で再生する(例えば、タッチ感知ディスプレイシステム112上で、又は無線で若しくは外部ポート124を介して接続された外部のディスプレイ上で)実行可能命令を含む。いくつかの実施形態では、デバイス100は、任意選択的に、iPod(Apple社の商標)などのMP3プレーヤの機能を含む。
タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、メモモジュール153は、ユーザの命令に従って、メモ、するべきことのリストなどを作成及び管理する実行可能命令を含む。
RF回路108、タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、及びブラウザモジュール147と連携して、マップモジュール154は、ユーザの命令に従って、地図及び地図と関連付けられたデータ(例えば、運転方向、特定の位置における又はその近くの店舗及び対象となる他の地点についてのデータ、並びに位置に基づく他のデータ)を受信し、表示し、変更し、記憶する実行可能命令を含む。
タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と連携して、オンラインビデオモジュール155は、ユーザがH.264などの1つ以上のファイル形式のオンラインビデオにアクセスし、閲覧し、受信し(例えば、ストリーミング及び/又はダウンロードにより)、再生し(例えば、タッチスクリーン112上で、又は無線で若しくは外部ポート124を介して接続された外部のディスプレイ上で)、特定のオンラインビデオへのリンクを有する電子メールを送信し、別の方法で管理することを可能にする実行可能命令を含む。いくつかの実施形態では、特定のオンラインビデオへのリンクを送信するために、電子メールクライアントモジュール140ではなく、インスタントメッセージングモジュール141が使用される。
上記特定されたモジュール及びアプリケーションの各々は、上記説明された1つ以上の機能、並びに本出願で説明される方法(例えば、コンピュータにより実行される方法、及び本明細書で説明される他の情報処理方法)を実行する実行可能な命令セットに対応する。それらのモジュール(すなわち、命令セット)は、別々のソフトウェアプログラム、手順、又はモジュールとして実装される必要はなく、よって、それらのモジュールの様々なサブセットは、任意選択で、様々な実施形態において、組み合わされ、又はその他の方式で再配置される。いくつかの実施形態では、メモリ102は、任意選択的に、上記で特定したモジュール及びデータ構造のサブセットを記憶する。更に、メモリ102は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。
いくつかの実施形態では、デバイス100は、そのデバイスにおける所定の機能のセットの動作がタッチスクリーン及び/又はタッチパッドのみを通じて実行されるデバイスである。デバイス100が動作するための主要な入力コントロールデバイスとしてタッチスクリーン及び/又はタッチパッドを使用することにより、任意選択的に、デバイス100上の物理的な入力コントロールデバイス(プッシュボタン、ダイヤルなど)の数が削減される。
タッチスクリーン及び/又はタッチパッドを通じてのみ実行される所定の機能のセットは、任意選択的に、ユーザインタフェース間のナビゲーションを含む。いくつかの実施形態では、タッチパッドは、ユーザによってタッチされたときに、デバイス100上に表示される任意のユーザインタフェースから、メインメニュー、ホームメニュー、又はルートメニューにデバイス100をナビゲートする。このような実施形態では、「メニューボタン」は、タッチパッドを使用して実装される。いくつかの他の実施形態では、メニューボタンは、タッチパッドではなく、物理プッシュボタン又はその他の物理入力制御デバイスである。
図1Bは、いくつかの実施形態に係る、イベント処理のための例示的な構成要素を示すブロック図である。いくつかの実施形態では、メモリ102(図1Aにおける)又は370(図3)は、イベントソート部170(例えば、オペレーティングシステム126内)及びそれぞれのアプリケーション136-1(例えば、上述したアプリケーション136、137~155、380~390のいずれか)を含む。
イベントソート部170は、イベント情報を受信し、イベント情報が配信されるアプリケーション136-1及びアプリケーション136-1のアプリケーションビュー191を判定する。イベントソート部170は、イベントモニタ171及びイベントディスパッチャモジュール174を含む。いくつかの実施形態では、アプリケーション136-1は、アプリケーションがアクティブ又は実行中のとき、タッチ感知ディスプレイシステム112上で表示される現在のアプリケーションビュー(単数又は複数)を示す、アプリケーション内部状態192を含む。いくつかの実施形態では、デバイス/グローバル内部状態157は、どのアプリケーション(単数又は複数)が現在アクティブであるかを判定するためにイベントソート部170によって使用され、アプリケーション内部状態192は、イベント情報が配信されるアプリケーションビュー191を決定するためにイベントソート部170によって使用される。
いくつかの実施形態では、アプリケーション内部状態192は、アプリケーション136-1が実行を再開するときに使用される再開情報、アプリケーション136-1によって表示されている又は表示される準備ができている情報を示すユーザインタフェース状態情報、ユーザがアプリケーション136-1の以前の状態又はビューに戻ることを可能にする状態待ち行列、及びユーザが行った以前のアクションのリドゥ/アンドゥ待ち行列のうちの1つ以上などの追加の情報を含む。
イベントモニタ171は、周辺機器インタフェース118からイベント情報を受信する。イベント情報は、サブイベント(例えば、マルチタッチジェスチャの一部としての、タッチ感知ディスプレイシステム112上のユーザのタッチ)についての情報を含む。周辺機器インタフェース118は、I/Oサブシステム106、又は近接センサ166、加速度計(単数又は複数)168、及び/若しくは(オーディオ回路110を介した)マイクロフォン113などのセンサから受信する情報を伝送する。周辺機器インタフェース118がI/Oサブシステム106から受信する情報は、タッチ感知ディスプレイシステム112又はタッチ感知面からの情報を含む。
いくつかの実施形態では、イベントモニタ171は、所定の間隔で周辺機器インタフェース118に要求を送信する。それに応じて、周辺機器インタフェース118は、イベント情報を伝送する。他の実施形態では、周辺機器インタフェース118は、重要なイベント(例えば、予め定められたノイズ閾値を上回り、及び/又は予め定められた期間よりも長い入力を受信すること)が存在するときのみ、イベント情報を送信する。
いくつかの実施形態では、イベントソート部170はまた、ヒットビュー判定モジュール172及び/又はアクティブイベント認識部判定モジュール173を含む。
ヒットビュー判定モジュール172は、タッチ感知ディスプレイシステム112が2つ以上のビューを表示するとき、1つ以上のビュー内のどこにおいてサブイベントが発生したかを判定するためのソフトウェア手順を提供する。ビューは、ユーザがディスプレイ上で見ることができる制御装置及び他の要素から構成されている。
アプリケーションに関連付けられたユーザインタフェースの別の態様は、本明細書ではアプリケーションビュー又はユーザインタフェースウィンドウと呼ばれることもあるビューのセットであり、その中で情報が表示され、タッチに基づくジェスチャが生じる。タッチが検出される(それぞれのアプリケーションの)アプリケーションビューは、任意選択的に、アプリケーションのプログラム階層又はビュー階層内のプログラムレベルに対応する。例えば、タッチが検出される最下位レベルビューは、任意選択的に、ヒットビューと呼ばれ、また、適切な入力として認識されるイベントのセットは、任意選択的に、タッチによるジェスチャを開始する初期タッチのヒットビューに少なくとも部分的に基づいて決定される。
ヒットビュー判定モジュール172は、タッチに基づくジェスチャのサブイベントに関連する情報を受信する。アプリケーションが階層状に構成された複数のビューを有するときには、ヒットビュー判定モジュール172は、サブイベントを処理すべき階層内の最下位のビューとして、ヒットビューを特定する。ほとんどの状況では、ヒットビューは、開始するサブイベント(すなわち、イベント又は潜在的なイベントを形成する一連のサブイベントにおける最初のサブイベント)が発生する最下位レベルのビューである。ヒットビューがヒットビュー判定モジュールによって特定されると、ヒットビューは典型的には、それがヒットビューとして特定された同一のタッチ又は入力元に関連するすべてのサブイベントを受信する。
アクティブイベント認識部判定モジュール173は、ビュー階層内のどのビュー(単数又は複数)がサブイベントの特定のシーケンスを受信すべきかを判定する。いくつかの実施形態では、アクティブイベント認識部判定モジュール173は、ヒットビューのみがサブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、アクティブイベント認識部判定モジュール173は、サブイベントの物理位置を含むすべてのビューがアクティブに関わりがあるビューであると判定し、したがって、すべてのアクティブに関わりがあるビューが、サブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、タッチサブイベントが1つの特定のビューに関連するエリアに完全に限定された場合でも、階層内の上位のビューは、依然としてアクティブに関わりがあるビューであり続ける。
イベントディスパッチャモジュール174は、イベント情報をイベント認識部(例えばイベント認識部180)にディスパッチする。アクティブイベント認識部判定モジュール173を含む実施形態において、イベントディスパッチャモジュール174は、アクティブイベント認識部判定モジュール173により判定されたイベント認識部にイベント情報を配信する。いくつかの実施形態では、イベントディスパッチャモジュール174は、それぞれのイベント受信部モジュール182によって取得されたイベント情報をイベント待ち行列に記憶する。
いくつかの実施形態では、オペレーティングシステム126は、イベントソート部170を含む。代替として、アプリケーション136-1がイベントソート部170を含む。更に他の実施形態では、イベントソート部170は、独立型のモジュール、又は接触/動きモジュール130などの、メモリ102に記憶された別のモジュールの一部である。
いくつかの実施形態では、アプリケーション136-1は、それぞれがアプリケーションのユーザインタフェースのそれぞれのビュー内で発生するタッチイベントを処理する命令を含む、複数のイベント処理部190及び1つ以上のアプリケーションビュー191を含む。アプリケーション136-1の各アプリケーションビュー191は、1つ以上のイベント認識部180を含む。典型的には、それぞれのアプリケーションビュー191は、複数のイベント認識部180を含む。他の実施形態では、イベント認識部180のうちの1つ以上は、ユーザインタフェースキット(図示せず)又はアプリケーション136-1が方法及び他の特性を継承する上位レベルのオブジェクトなどの、別個のモジュールの一部である。いくつかの実施形態では、対応するイベント処理部190は、データ更新部176、オブジェクト更新部177、GUI更新部178及び/又はイベントソート部170から受信されたイベントデータ179、のうちの1つ以上を含む。イベント処理部190は任意選択で、アプリケーション内部状態192を更新するために、データ更新部176、オブジェクト更新部177、又はGUI更新部178を利用し、又は呼び出す。代わりに、アプリケーションビュー191のうちの1つ以上は、1つ以上のそれぞれのイベント処理部190を含む。また、いくつかの実施形態では、データ更新部176、オブジェクト更新部177及びGUI更新部178のうちの1つ以上は、対応するアプリケーションビュー191に含まれる。
それぞれのイベント認識部180は、イベントソート部170からイベント情報(例えば、イベントデータ179)を受信し、イベント情報からイベントを特定する。イベント認識部180は、イベント受信部182及びイベント比較部184を含む。いくつかの実施形態では、イベント認識部180はまた、メタデータ183及びイベント配信命令188(任意選択的にサブイベント配信命令を含む)の少なくともサブセットも含む。
イベント受信部182は、イベントソート部170からイベント情報を受信する。イベント情報は、サブイベントについての情報、例えば、タッチ又はタッチの移動についての情報を含む。サブイベントに応じて、イベント情報はまた、サブイベントの位置などの追加の情報を含む。サブイベントがタッチの動きに関わるとき、イベント情報はまた任意選択的に、サブイベントの速さ及び方向を含む。いくつかの実施形態では、イベントは、1つの向きから別の向きへの(例えば、縦向きから横向きへ、又はその逆の)デバイスの回転を含み、イベント情報は、デバイスの現在の向き(デバイスの姿勢とも呼ぶ)についての対応する情報を含む。
イベント比較部184は、イベント情報を、定義済みのイベント又はサブイベントの定義と比較し、その比較に基づいて、イベント又はサブイベントを判定するか、あるいはイベント又はサブイベントの状態を判定若しくは更新する。いくつかの実施形態では、イベント比較部184は、イベント定義186を含む。イベント定義186は、例えばイベント1(187-1)及びイベント2(187-2)などのイベント(例えば所定のサブイベントのシーケンス)の定義を含む。いくつかの実施形態では、イベント187におけるサブイベントは、例えば、タッチの始め、タッチの終わり、タッチの移動、タッチの中止、及び複数のタッチを含む。一例では、イベント1(187-1)についての定義は、表示されたオブジェクト上のダブルタップである。ダブルタップは、例えば、表示されたオブジェクト上の予め定められた段階についての第1のタッチ(タッチの始め)、予め定められた段階についての第1のリフトオフ(タッチの終わり)、表示されたオブジェクト上の予め定められた段階についての第2のタッチ(タッチの始め)、及び予め定められた段階についての第2のリフトオフ(タッチの終わり)を含む。別の例では、イベント2(187-2)の定義は、表示されたオブジェクト上のドラッグである。ドラッグは、例えば、表示されたオブジェクト上の予め定められた段階についてのタッチ(又は、接触)、タッチ感知ディスプレイシステム112を横切るタッチの移動、及びタッチのリフトオフ(タッチの終わり)を含む。いくつかの実施形態では、イベントはまた、1つ以上の関連付けられたイベント処理部190に関する情報を含む。
いくつかの実施形態では、イベント定義187は、それぞれのユーザインタフェースオブジェクトについてのイベントの定義を含む。いくつかの実施形態では、イベント比較部184は、どのユーザインタフェースオブジェクトがサブイベントに関連付けられているかを判定するヒットテストを実行する。例えば、3つのユーザインタフェースオブジェクトがタッチ感知ディスプレイシステム112上で表示されるアプリケーションビューにおいて、タッチ感知ディスプレイシステム112上でタッチが検出されたとき、イベント比較部184は、3つのユーザインタフェースオブジェクトのうちのどれがタッチ(サブイベント)と関連付けられているかを判定するためにヒットテストを実行する。表示された各オブジェクトが、対応するイベント処理部190に関連付けられている場合、イベント比較部は、ヒットテストの結果を用いて、どのイベント処理部190をアクティブ化すべきかを判定する。例えば、イベント比較部184は、ヒットテストをトリガするサブイベント及びオブジェクトと関連付けられたイベント処理部を選択する。
いくつかの実施形態では、それぞれのイベント187の定義は、一連のサブイベントがイベント認識部のイベントタイプに対応するかどうかが判定されるまで、イベント情報の配信を遅らせる遅延アクションも含む。
それぞれのイベント認識部180が一連のサブイベントがイベント定義186のいずれのイベントとも一致しないと判断した場合には、それぞれのイベント認識部180は、イベント不可能、イベント失敗、又はイベント終了の状態になり、その後は、タッチによるジェスチャの後続のサブイベントを無視する。この状況では、ヒットビューについてアクティブのままである他のイベント認識部があれば、そのイベント認識部は、進行中のタッチによるジェスチャのサブイベントの追跡及び処理を続行する。
いくつかの実施形態では、対応するイベント認識部180は、イベント配信システムがどのようにサブイベント配信を実行すべきかをアクティブに関与しているイベント認識部に示す構成可能なプロパティ、フラグ、及び/又はリストを有するメタデータ183を含む。いくつかの実施形態では、メタデータ183は、イベント認識部が互いにどのように対話するか、又はイベント認識部が互いにどのように対話することができるようになっているかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。いくつかの実施形態では、メタデータ183は、サブイベントがビュー階層又はプログラム階層における多様なレベルに配信されるかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。
いくつかの実施形態では、それぞれのイベント認識部180は、イベントの1つ以上の特定のサブイベントが認識されるときに、イベントと関連付けられたイベント処理部190をアクティブ化する。いくつかの実施形態では、それぞれのイベント認識部180は、イベントと関連付けられたイベント情報をイベント処理部190に配信する。イベント処理部190をアクティブ化することは、それぞれのヒットビューにサブイベントを送信する(及び、送信を延期する)こととは別個である。いくつかの実施形態では、イベント認識部180は、認識したイベントと関連付けられたフラグを投入し、そのフラグと関連付けられたイベント処理部190は、そのフラグを捕らえ、既定のプロセスを実行する。
いくつかの実施形態では、イベント配信命令188は、イベント処理部をアクティブ化することなくサブイベントについてのイベント情報を配信するサブイベント配信命令を含む。代わりに、サブイベント配信命令は、一連のサブイベントと関連付けられたイベント処理部に、又はアクティブに関与しているビューにイベント情報を配信する。一連のサブイベント又はアクティブに関与しているビューと関連付けられたイベント処理部は、イベント情報を受信し、所定の処理を実行する。
いくつかの実施形態では、データ更新部176は、アプリケーション136-1で使用されるデータを作成及び更新する。例えば、データ更新部176は、連絡先モジュール137で使用される電話番号を更新するか、又はビデオ及び音楽プレーヤモジュール152で使用されるビデオファイルを記憶する。いくつかの実施形態では、オブジェクト更新部177は、アプリケーション136-1で使用されるオブジェクトを作成及び更新する。例えば、オブジェクト更新部177は、新たなユーザインタフェースオブジェクトを作成するか、又はユーザインタフェースオブジェクトの位置を更新する。GUI更新部178は、GUIを更新する。例えば、GUI更新部178は、表示情報を準備し、タッチ感知ディスプレイ上に表示するために表示情報をグラフィックモジュール132に送る。
いくつかの実施形態では、イベント処理部(単数又は複数)190は、データ更新部176、オブジェクト更新部177、及びGUI更新部178を含むか又はそれらへのアクセスを有する。いくつかの実施形態では、データ更新部176、オブジェクト更新部177、及びGUI更新部178は、それぞれのアプリケーション136-1又はアプリケーションビュー191の単一モジュールに含まれる。他の実施形態では、それらは、2つ以上のソフトウェアモジュールに含まれる。
タッチ感知ディスプレイ上のユーザのタッチのイベント処理に関する前述の記載は、入力デバイスを用いて多機能デバイス100を動作させるための他の形態のユーザ入力にも適用されるが、そのすべてがタッチスクリーン上で開始されるわけではないことを理解されたい。例えば、キーボードの単一又は複数の押圧若しくは保持と任意選択的に連携される、マウスの移動及びマウスボタンの押圧、タッチパッド上のタップ、ドラッグ、スクロールなどの接触の移動、ペンスタイラス入力、デバイスの移動、口頭による命令、検出された目の動き、バイオメトリック入力、並びに/又はそれらの任意の組合せを、任意選択的に、認識するイベントを定義するサブイベントに対応する入力として利用する。
図1Cは、一部の実施形態に係る、触知出力モジュールを示すブロック図である。一部の実施形態では、I/Oサブシステム106(例えば、触覚フィードバックコントローラ161(図1A)及び/又は他の入力コントローラ(単数又は複数)160(図1A)は、図1Cに示す例たる構成要素の少なくともいくつかを含む。一部の実施形態では、周辺機器インタフェース118は、図1Cに示す例たる構成要素のうちの少なくともいくつかを含む。
いくつかの実施形態では、触知出力モジュールは、触覚フィードバックモジュール133を含む。いくつかの実施形態では、触覚フィードバックモジュール133は、電子デバイス上のソフトウェアアプリケーションからのユーザインタフェースフィードバック(例えば、表示ユーザインタフェースに対応するユーザ入力、並びに電子デバイスのユーザインタフェースにおける動作の実行又はイベントの出現を示す警報及び他の通知に応答するフィードバック)に対する触知出力を集約して組み合わせる。触覚フィードバックモジュール133は、波形モジュール123(触知出力を生成するために使用される波形を提供する)、ミキサ125(異なるチャネルの波形などの波形を混合する)、圧縮器127(波形のダイナミックレンジを低減又は圧縮する)、ローパスフィルタ129(波形内の高周波信号成分をフィルタリングする)、及び熱コントローラ131(熱状態に従って波形を調整する)のうちの1つ以上を含む。一部の実施形態では、触覚フィードバックコントローラ161(図1A)には、触覚フィードバックモジュール133が含まれる。一部の実施形態では、触覚フィードバックモジュール133の別々のユニット(又は触覚フィードバックモジュール133の別個の実装)はまた、オーディオコントローラ(例えば、図1Aのオーディオ回路110)に含まれ、音声信号を生成するために使用される。いくつかの実施形態では、単一の触覚フィードバックモジュール133が、オーディオ信号及び触知出力に対する波形を生成するために使用される。
いくつかの実施形態では、触覚フィードバックモジュール133はまた、トリガモジュール121(例えば、ソフトウェアアプリケーション、オペレーティングシステム、又は生成すべき触知出力を判定して対応する触知出力を生成するプロセスを開始する他のソフトウェアモジュール)を含む。いくつかの実施形態では、トリガモジュール121は、波形の生成(例えば、波形モジュール123による)を開始するトリガ信号を生成する。例えば、トリガモジュール121は、事前設定されたタイミング基準に基づいて、トリガ信号を生成する。いくつかの実施形態では、トリガモジュール121は、ユーザインタフェース要素(例えば、アプリケーション内のアプリケーションアイコン若しくはアフォーダンス)又はハードウェア入力デバイス(例えば、ホームボタン若しくは強度感知タッチスクリーンなどの強度感知入力面)のアクティブ化に基づいて、触覚フィードバックモジュール133の外からトリガ信号を受信し(例えば、いくつかの実施形態では、触覚フィードバックモジュール133は、触覚フィードバックモジュール133の外に位置するハードウェア入力処理モジュール146からトリガ信号を受信する)、触覚フィードバックモジュール133内の他の構成要素(例えば、波形モジュール123)又は動作をトリガ(例えば、トリガモジュール121による)するソフトウェアアプリケーションへ、それらのトリガ信号を中継する。一部の実施形態では、トリガモジュール121はまた、触知フィードバック生成命令(例えば、触覚フィードバックモジュール133から、図1A及び3)を受信する。一部の実施形態では、トリガモジュール121は、触知フィードバック命令を(例えば、図1A及び3の触覚フィードバックモジュール133から)受信する触覚フィードバックモジュール133(又は触覚フィードバックモジュール133内のトリガモジュール121)に応じてトリガ信号を生成する。
波形モジュール123は、入力としてトリガ信号を(例えば、トリガモジュール121から)受信し、受信トリガ信号に応じて、1つ以上の触知出力の生成のための波形(例えば、図4F~4Gを参照して以下でより詳細に説明される波形などの、波形モジュール123によって使用するために設計された所定のセットの波形から選択された波形)を提供する。
ミキサ125は、波形(例えば、波形モジュール123から)を入力として受信し、これらの波形をともに混合する。例えば、ミキサ125が2つ以上の波形(例えば、第1のチャネルの第1の波形及び第1の波形と少なくとも部分的に重複する第2のチャネルの第2の波形)受信したとき、ミキサ125は、2つ以上の波形の和に対応する組み合わせた波形を出力する。いくつかの実施形態では、ミキサ125はまた、2つ以上の波形のうちの1つ以上の波形を修正し、2つ以上の波形のうちの残りに対して特定の波形を強調する(例えば、特定の波形の縮尺の増大及び/又は波形のうちの残りの縮尺の減少による)。いくつかの状況では、ミキサ125は、組み合わせた波形から除去すべき1つ以上の波形を選択する(例えば、触知出力生成器167によって同時に出力することが要求された4つ以上のソースからの波形があるとき、最も古いソースからの波形が落とされる)。
圧縮器127は、波形(例えば、ミキサ125からの合成波形)を入力として受信し、波形を変更する。一部の実施形態では、圧縮器127は、波形に対応する触知出力が減少するように、(例えば、触知出力生成器167(図1A)又は357(図3)の物理的な仕様に従って)波形を低減する。いくつかの実施形態では、圧縮器127は、波形に対する所定の最大振幅を強制することなどによって、波形を制限する。例えば、圧縮器127は、波形のうち所定の振幅閾値を超過する部分の振幅を低減させながら、波形のうち所定の振幅閾値を超過しない部分の振幅は維持する。いくつかの実施形態では、圧縮器127は、波形のダイナミックレンジを低減させる。いくつかの実施形態では、圧縮器127は、波形のダイナミックレンジを動的に低減させ、その結果、組み合わせた波形は、触知出力生成器167の性能仕様(例えば、力及び/又は可動質量の変位限界)の範囲内に留まる。
ローパスフィルタ129は、波形(例えば、圧縮器127からの圧縮された波形)を入力として受信し、これらの波形をフィルタリング(例えば、平滑化)する(例えば、波形内の高周波信号成分を除去又は低減する)。例えば、いくつかの場合、触知出力が圧縮された波形に従って生成されるとき、圧縮器127は、圧縮された波形内に、触知出力の生成に干渉しかつ/又は触知出力生成器167の性能仕様を超過する外部信号(例えば、高周波信号成分)を含む。ローパスフィルタ129は、波形内のそのような外部信号を低減又は除去する。
熱コントローラ131は、波形(例えば、ローパスフィルタ129からのフィルタリングされた波形)を入力として受信し、デバイス100の熱状態に従ってこれらの波形を調整する(例えば、触覚フィードバックコントローラ161の温度などのデバイス100内で検出される内部温度、及び/又はデバイス100によって検出される外部温度に基づく)。例えば、いくつかの場合、触覚フィードバックコントローラ161の出力は、温度に応じて変動する(例えば、触覚フィードバックコントローラ161は、同じ波形を受信したことに応じて、触覚フィードバックコントローラ161が第1の温度であるときは、第1の触知出力を生成し、触覚フィードバックコントローラ161が第1の温度とは異なる第2の温度であるときは、第2の触知出力を生成する)。例えば、触知出力の大きさ(又は振幅)は、温度によって変化してもよい。温度変動の影響を低減させるために、波形が修正される(例えば、温度に基づいて波形の振幅が増大又は減少される)。
いくつかの実施形態では、触覚フィードバックモジュール133(例えば、トリガモジュール121)が、ハードウェア入力処理モジュール146に結合される。一部の実施形態では、図1Aの他の入力コントローラ(単数又は複数)160は、ハードウェア入力処理モジュール146を含む。いくつかの実施形態では、ハードウェア入力処理モジュール146は、ハードウェア入力デバイス145(例えば、ホームボタン、又は強度感知タッチスクリーン等の強度感知入力面などの、図1Aの他の入力又は制御デバイス116)からの入力を受信する。一部の実施形態では、ハードウェア入力デバイス145は、タッチ感知ディスプレイシステム112(図1A)、キーボード/マウス350(図3)、タッチパッド355(図3)、他の入力又は制御デバイス116(図1A)のうちの1つ、又は強度感知ホームボタンなどの入力デバイスのいずれかである。いくつかの実施形態では、ハードウェア入力デバイス145は、強度感知ホームボタンからなり、タッチ感知ディスプレイシステム112(図1A)、キーボード/マウス350(図3)、又はタッチパッド355(図3)ではない。いくつかの実施形態では、ハードウェア入力デバイス145(例えば、強度感知ホームボタン又はタッチスクリーン)からの入力に応じて、ハードウェア入力処理モジュール146は、ホームボタンの「クリック」(例えば、「ダウンクリック」又は「アップクリック」)に対応する入力などの所定の入力基準を満足させるユーザ入力が検出されたことを示すために、1つ以上のトリガ信号を触覚フィードバックモジュール133に提供する。いくつかの実施形態では、触覚フィードバックモジュール133は、ホームボタンの「クリック」に対応する入力に応じて、ホームボタンの「クリック」に対応する波形を提供し、物理ホームボタンを押下する触覚フィードバックをシミュレートする。
一部の実施形態では、触知出力モジュールは、触知出力の生成を制御する触覚フィードバックコントローラ161(図1Aの触覚フィードバックコントローラ161)を含む。いくつかの実施形態では、触覚フィードバックコントローラ161は、複数の触知出力生成器に結合されており、複数の触知出力生成器のうちの1つ以上の触知出力生成器を選択し、触知出力を生成する選択された1つ以上の触知出力生成器へ波形を送信する。いくつかの実施形態では、触覚フィードバックコントローラ161は、ハードウェア入力デバイス145のアクティブ化に対応する触知出力要求、及びソフトウェアイベントに対応する触知出力要求(例えば、触覚フィードバックモジュール133からの触知出力要求)を統合し、2つ以上の波形のうちの1つ以上の波形を修正、2つ以上の波形のうちの残りに対して特定の波形を強調する(例えば、ソフトウェアイベントに対応する触知出力よりハードウェア入力デバイス145のアクティブ化に対応する触知出力に優先順位をつけるためなどの、特定の波形の縮尺の増大及び/又は波形のうちの残りの縮尺の減少による)。
一部の実施形態では、図1Cに示されるように、触覚フィードバックコントローラ161の出力は、デバイス100のオーディオ回路(例えば、オーディオ回路110、図1A)に結合され、音声信号をデバイス100のオーディオ回路に提供する。いくつかの実施形態では、触覚フィードバックコントローラ161は、触知出力を生成するために使用される波形と、触知出力の生成と連動してオーディオ出力を提供するために使用されるオーディオ信号との両方を提供する。いくつかの実施形態では、触覚フィードバックコントローラ161は、オーディオ信号及び/又は波形(触知出力を生成するために使用される)を修正し、その結果、オーディオ出力及び触知出力が同期される(例えば、オーディオ信号及び/又は波形を遅延させることによる)。いくつかの実施形態では、触覚フィードバックコントローラ161は、デジタル波形をアナログ信号に変換するために使用されるデジタルアナログ変換器を含み、アナログ信号は、増幅器163及び/又は触知出力生成器167によって受信される。
いくつかの実施形態では、触知出力モジュールは、増幅器163を含む。一部の実施形態では、増幅器163は、波形を(例えば、触覚フィードバックコントローラ161から)受信し、増幅波形を触知出力生成器167(例えば、触知出力生成器167(図1A)又は357(図3)のうちのいずれか)に送信する前に波形を増幅する。例えば、増幅器163は、触知出力生成器167の物理仕様に従った信号レベル(例えば、触知出力生成器167へ送信された信号が、触覚フィードバックコントローラ161から受信した波形に対応する触知出力を生成するように、触知出力を生成するために触知出力生成器167によって必要とされる電圧及び/又は電流)まで、受信した波形を増幅し、増幅された波形を触知出力生成器167へ送信する。応じて、触知出力生成器167は、触知出力を生成する(例えば、可動質量の中立位置に対して可動質量を1つ以上の次元で前後にシフトさせることによる)。
いくつかの実施形態では、触知出力モジュールは、触知出力生成器167に結合されたセンサ169を含む。センサ169は、触知出力生成器167又は触知出力生成器167の1つ以上の構成要素(例えば、触知出力を生成するために使用される膜などの1つ以上の動き部分)の状態又は状態変化(例えば、機械的位置、物理的変位、及び/又は動き)を検出する。いくつかの実施形態では、センサ169は、磁界センサ(例えば、ホール効果センサ)又は他の変位及び/若しくは動きセンサである。いくつかの実施形態では、センサ169は、情報(例えば、触知出力生成器167内の1つ以上の部分の位置、変位、及び/又は動き)を触覚フィードバックコントローラ161に提供し、触知出力生成器167の状態に関するセンサ169によって提供された情報に従って、触覚フィードバックコントローラ161は、触覚フィードバックコントローラ161から出力される波形(例えば、任意選択的に増幅器163を介して触知出力生成器167へ送信される波形)を調整する。
図2は、いくつかの実施形態に係る、タッチスクリーン(例えば、タッチ感知ディスプレイシステム112、図1A)を有するポータブル多機能デバイス100を示す。タッチスクリーンは、任意選択的に、ユーザインタフェース(user interface、UI)200内に1つ以上のグラフィックを表示する。これらの実施形態、並びに後述する実施形態では、ユーザは、例えば、1本以上の指202(図には、正確な縮尺率では描かれていない)又は1つ以上のスタイラス203(図には、正確な縮尺率では描かれていない)を用いて、グラフィック上でジェスチャを行うことにより、グラフィックのうちの1つ以上を選択することが可能になる。いくつかの実施形態では、1つ以上のグラフィックの選択は、ユーザが、その1つ以上のグラフィックとの接触を中断する場合に実施される。いくつかの実施形態では、ジェスチャは、1回以上のタップ、1回以上のスワイプ(左から右へ、右から左へ、上向きに及び/若しくは下向きに)、並びに/又は、デバイス100と接触した指のローリング(右から左へ、左から右へ、上向きに及び/若しくは下向きに)を、任意選択で含む。いくつかの実装形態又は状況では、グラフィックとの不測の接触は、そのグラフィックを選択するものではない。例えば、選択に対応するジェスチャがタップである場合、アプリケーションアイコンの上をスイープするスワイプジェスチャは、任意選択的に、対応するアプリケーションを選択するものではない。
デバイス100は、任意選択で、「ホーム」又はメニューボタン204などの1つ以上の物理的ボタンも含む。前述のように、メニューボタン204は、任意選択で、デバイス100上で任意選択的に実行される、アプリケーションのセットにおける任意のアプリケーション136にナビゲートするために使用される。あるいは、いくつかの実施形態では、メニューボタンは、タッチスクリーンディスプレイ上で表示されるGUI内のソフトキーとして実装される。
一部の実施形態では、デバイス100は、タッチスクリーンディスプレイ、メニューボタン204(ホームボタン204と呼ばれる場合がある)、デバイスへの電源供給のオン/オフ及びデバイスのロックのためのプッシュボタン206、音量調節ボタン(単数又は複数)208、加入者識別モジュール(SIM)カードスロット210、ヘッドセットジャック212、ドッキング/充電用外部ポート124を含む。プッシュボタン206は、任意選択的に、ボタンを押し下げて、所定の期間にわたってボタンを押し下げた状態に保持することによって、デバイスの電源をオン/オフするため、ボタンを押し下げて、所定の期間が経過する前にボタンを解放することによって、デバイスをロックするため、及び/又はデバイスをロック解除する、若しくはロック解除プロセスを開始するために、使用される。いくつかの実施形態では、デバイス100は、マイクロフォン113を通して、一部の機能をアクティブ化又は非アクティブ化するための口頭入力をも受け入れる。デバイス100はまた任意選択で、タッチ感知ディスプレイシステム112上の接触の強度を検出する1つ以上の接触強度センサ165、及び/又はデバイス100のユーザに対する触知出力を生成する1つ以上の触知出力生成器167を含む。
図3は、いくつかの実施形態に係る、ディスプレイ及びタッチ感知面を有する例示的な多機能デバイスのブロック図である。デバイス300は、ポータブル型である必要はない。いくつかの実施形態では、デバイス300は、ラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、マルチメディア再生デバイス、ナビゲーションデバイス、教育的デバイス(子供の学習玩具など)、ゲームシステム、又は制御デバイス(例えば、家庭用又は業務用コントローラ)である。デバイス300は、典型的には、1つ以上の処理ユニット(CPU)310と、1つ以上のネットワーク又は他の通信インタフェース360と、メモリ370と、及びこれらの構成要素を相互接続するための1つ以上の通信バス320とを含む。通信バス320は、任意選択的に、システム構成要素間の通信を相互接続及び制御する回路(チップセットと呼ばれることもある)を含む。デバイス300は典型的にはタッチスクリーンディスプレイであるディスプレイ340を含む、入出力(I/O)インタフェース330を含む。I/Oインタフェース330は、任意選択で、キーボード及び/又はマウス(又は、他のポインティングデバイス)350、並びにタッチパッド355、(例えば、図1Aを参照して上記説明された触知出力生成器(単数又は複数)167と同様の)デバイス300上で触知出力を生成するための触知出力生成器357、センサ359(例えば、光センサ、加速度センサ、近接センサ、タッチ感知センサ、及び/又は図1Aを参照して上記説明された接触強度センサ(単数又は複数)165と同様の接触強度センサ)をも含む。メモリ370は、DRAM、SRAM、DDR RAM、又は他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含み、任意選択で、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステート記憶デバイスなどの不揮発性メモリを含む。メモリ370は、CPU310からリモートに位置する1つ以上の記憶デバイスを任意選択的に含む。いくつかの実施形態では、メモリ370は、ポータブル多機能デバイス100(図1A)のメモリ102に記憶されたプログラム、モジュール、及びデータ構造に類似するプログラム、モジュール、及びデータ構造、又はそれらのサブセットを記憶する。更に、メモリ370は任意選択で、ポータブル多機能デバイス100のメモリ102に存在しない追加のプログラム、モジュール、及びデータ構造を記憶する。例えば、デバイス300のメモリ370は任意選択で、描画モジュール380、プレゼンテーションモジュール382、ワードプロセッシングモジュール384、ウェブサイト作成モジュール386、ディスクオーサリングモジュール388、及び/又はスプレッドシートモジュール390を記憶するが、ポータブル多機能デバイス100(図1A)のメモリ102は、任意選択で、それらのモジュールを記憶しない。
上記特定された図3における要素の各々は、任意選択で、前に言及したメモリデバイスのうちの1つ以上に記憶される。上記特定されたモジュールのうちの各々は、上記説明された機能を実行する命令セットに対応する。上記特定されたモジュール又はプログラム(すなわち、命令セット)は、別々のソフトウェアプログラム、手順、又はモジュールとして実装される必要はなく、したがって、それらのモジュールの様々なサブセットは任意選択で、様々な実施形態において組み合わされ、又はその他の方式で再配置される。いくつかの実施形態では、メモリ370は、任意選択的に、上記で特定したモジュール及びデータ構造のサブセットを記憶する。更に、メモリ370は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。
ここで、ポータブル多機能デバイス100上で任意選択的に実装されるユーザインタフェース(「UI」)の実施形態に着目する。
図4Aは、いくつかの実施形態に係る、ポータブル多機能デバイス100上のアプリケーションのメニューのための例示的なユーザインタフェースを示す。同様のユーザインタフェースは、デバイス300上に任意選択的に実装される。いくつかの実施形態では、ユーザインタフェース400は、以下の要素、又はそれらのサブセット若しくはスーパーセットを含む。
●セルラー信号及びWi-Fi信号などの無線通信(単数又は複数)のための信号強度インジケータ(単数又は複数)、
●時間、
●Bluetooth(登録商標)インジケータ、
●バッテリ状態インジケータ、
●以下のような、頻繁に使用されるアプリケーションのアイコンを有するトレイ408、
○不在着信又はボイスメールメッセージの数のインジケータ414を任意選択的に含む、「電話」とラベル付けされた、電話モジュール138のアイコン416、
○未読電子メールの数のインジケータ410を任意選択的に含む、「メール」とラベル付けされた、電子メールクライアントモジュール140のアイコン418、
○「ブラウザ」とラベル付けされた、ブラウザモジュール147のアイコン420、及び
○「音楽」とラベル付けされたビデオ及び音楽プレーヤモジュール152用のアイコン422、及び
●以下のような、他のアプリケーションのアイコン、
○「メッセージ」とラベル付けされた、IMモジュール141のアイコン424、
○「カレンダ」とラベル付けされた、カレンダモジュール148のアイコン426、
○「写真」とラベル付けされた、画像管理モジュール144のアイコン428、
○「カメラ」とラベル付けされた、カメラモジュール143のアイコン430、
○「オンラインビデオ」とラベル付けされた、オンラインビデオモジュール155のアイコン432、
○「株価」とラベル付けされた、株式ウィジェット149-2のアイコン434、
○「地図」のラベル付けされた、地図モジュール154のためのアイコン436、
○「天気」とラベル付けされた、気象ウィジェット149-1のアイコン438、
○「時計」とラベル付けされた、アラーム時計ウィジェット149-4のアイコン440、
○「トレーニングサポート」とラベル付けされた、トレーニングサポートモジュール142のアイコン442、
○「メモ」とラベル付けされた、メモモジュール153のアイコン444、及び
○デバイス100及びその様々なアプリケーション136に関する設定へのアクセスを提供する、設定アプリケーション若しくはモジュール用のアイコン446。
図4Aに示されたアイコンのラベルは単なる例に過ぎないことに留意されたい。例えば、他のラベルが任意選択的に、様々なアプリケーションアイコンに使用される。いくつかの実施形態では、それぞれのアプリケーションアイコンに関するラベルは、それぞれのアプリケーションアイコンに対応するアプリケーションの名前を含む。いくつかの実施形態では、特定のアプリケーションアイコンのラベルは、その特定のアプリケーションアイコンに対応するアプリケーションの名前とは異なる。
図4Bは、ディスプレイ450と分離したタッチ感知面451(例えば、タブレット又はタッチパッド355、図3)を有するデバイス(例えば、デバイス300、図3)上の例示的なユーザインタフェースを示す。以下の実施例のうちの多くはタッチスクリーンディスプレイ112上の入力(タッチ感知面とディスプレイとが組み合わされている場合)を参照して与えられるが、いくつかの実施形態では、デバイスは、図4Bに示すように、ディスプレイと分離したタッチ感知面上の入力を検出する。いくつかの実施形態では、タッチ感知面(例えば、図4Bにおける451)は、ディスプレイ(例えば、450)上の主軸(例えば、図4Bにおける453)に対応する主軸(例えば、図4Bにおける452)を有する。それらの実施形態によれば、デバイスは、ディスプレイ上のそれぞれの位置に対応する位置(例えば、図4Bにおいて、460は468に対応し、462は470に対応する)におけるタッチ感知面451との接触(例えば、図4Bにおける460及び462)を検出する。このように、タッチ感知面がディスプレイと分離しているとき、タッチ感知面(例えば、図4Bにおける451)上でデバイスによって検出されたユーザ入力(例えば、接触460及び462、及びそれらの移動)は、多機能デバイスのディスプレイ(例えば、図4Bにおける450)上でユーザインタフェースを操作するためにデバイスによって使用される。同様の方法が、本明細書に記載の他のユーザインタフェースに任意選択的に使用されることを理解されたい。
加えて、以下の実施例は、主に指入力(例えば、指の接触、指のタップジェスチャ、指のスワイプジェスチャなど)を参照して与えられるが、いくつかの実施形態では、それらの指の入力のうちの1つ以上は、別の入力デバイスからの入力(例えば、マウスに基づく入力又はスタイラス入力)と置換されることを理解されたい。例えば、スワイプジェスチャは、(例えば、接触の代わりの)マウスクリックに続けた、(例えば、接触の移動の代わりの)スワイプの経路に沿ったカーソルの移動によって、任意選択的に置き換えられる。別の例として、タップジェスチャは、任意選択的に、カーソルがタップジェスチャの位置の上に位置する間はマウスクリックと置き換えられる(例えば、接触を検出して、それに続いて接触の検出を停止する代わりに)。同様に、複数のユーザ入力が同時に検出されるとき、複数のコンピュータマウスが、任意選択的に、同時に使用され、又はマウス及び指の接触が、任意選択的に、同時に使用されることを理解されたい。
本明細書で使用される「フォーカスセレクタ」という用語は、ユーザが対話しているユーザインタフェースの現在の部分を示す入力要素を指す。カーソル又は他のロケーションマーカを含むいくつかの実装形態では、カーソルは、カーソルが特定のユーザインタフェース要素(例えば、ボタン、ウィンドウ、スライダ、又は他のユーザインタフェース要素)の上にある間に、タッチ感知面(例えば、図3におけるタッチパッド355、又は図4Bにおけるタッチ感知面451)上で入力(例えば、押圧入力)が検出されると、特定のユーザインタフェース要素が検出された入力に従って調整されるように、「フォーカスセレクタ」として機能する。タッチスクリーンディスプレイ上のユーザインタフェース要素との直接的な対話を有効化するタッチスクリーンディスプレイ(例えば、図1Aにおけるタッチ感知ディスプレイシステム112、又は図4Aにおけるタッチスクリーン)を含むいくつかの実装形態では、タッチスクリーン上で検出された接触は、入力(例えば、接触による押圧入力)がタッチスクリーンディスプレイ上で特定のユーザインタフェース要素(例えば、ボタン、ウィンドウ、スライダ、又は他のユーザインタフェース要素)の位置において検出されると、特定のユーザインタフェース要素が検出された入力に従って調節されるように、「フォーカスセレクタ」として機能する。いくつかの実装では、タッチスクリーンディスプレイ上の対応するカーソルの移動又は接触の移動なしに、(例えば、タブキー又は矢印キーを使ってフォーカスを1つのボタンから別のボタンに移動させることにより)フォーカスが、ユーザインタフェースの1つの領域からユーザインタフェースの別の領域に移動される。これらの実装形態では、フォーカスセレクタは、ユーザインタフェースの種々の領域間でのフォーカスの移動に従って移動する。フォーカスセレクタによってとられる具体的な形態とは関わりなく、フォーカスセレクタは一般的に、ユーザインタフェースとのユーザの意図した対話を通信するために(例えば、ユーザが対話することを意図しているユーザインタフェースの要素をデバイスに示すことによって)、ユーザによって制御されるユーザインタフェース要素(又は、タッチスクリーンディスプレイ上の接触)である。例えば、タッチ感知面(例えば、タッチパッド又はタッチスクリーン)上で押圧入力が検出されている間の、対応のボタンの上のフォーカスセレクタ(例えば、カーソル、接触、又は選択ボックス)の位置は、その対応のボタンを(そのデバイスのディスプレイ上に示される他のユーザインタフェース要素ではなく)アクティブ化することをユーザが意図していることを示すものである。
本明細書及び特許請求の範囲で使用される、タッチ感知面上の接触の「強度」という用語は、タッチ感知面上の接触(例えば、指の接触若しくはスタイラスの接触)の力若しくは圧力(単位面積あたりの力)、又はタッチ感知面上の接触の力若しくは圧力の代替物(プロキシ)を指す。接触の強度は、少なくとも4つの別個の値を含み、より典型的には、数百の(例えば、少なくとも256の)別個の値を含む、値の範囲を有する。接触の強度は、任意選択的に、様々な手法、及び様々なセンサ又はセンサの組合せを使用して、特定(又は測定)される。例えば、タッチ感知面の下又はそれに隣接する1つ以上の力センサは、任意選択的に、タッチ感知面上の様々なポイントにおける力を測定するために使用される。いくつかの実装形態では、複数の力センサからの力測定値は、推定される接触の力を特定するために組み合わされる(例えば、加重平均又は合計)。同様に、スタイラスの感圧性先端部は、任意選択的に、タッチ感知面上のスタイラスの圧力を特定するために使用される。あるいは、タッチ感知面上で検出される接触エリアのサイズ及び/若しくはその変化、接触に近接するタッチ感知面の電気容量及び/若しくはその変化、並びに/又は、接触に近接するタッチ感知面の抵抗及び/若しくはその変化は、任意選択的に、タッチ感知面上の接触の力又は圧力の代替物として使用される。いくつかの実装形態では、接触の力又は圧力のための代替測定値は、強度閾値を超えているかどうかを判定するために直接使用される(例えば、強度閾値は、代替測定値に対応する単位で記述される)。いくつかの実装形態では、接触の力又は圧力のための代替測定値は、推定される力又は圧力に変換され、推定される力又は圧力は、強度閾値を超えているかどうかを判定するために使用される(例えば、強度閾値は、圧力の単位で測定された圧力閾値である)。ユーザ入力の属性として接触の強度を使用すると、(例えば、タッチ感知ディスプレイ上に)アフォーダンスを表示するため、及び/又は(例えば、タッチ感知ディスプレイ、タッチ感知面、又はノブ若しくはボタンなどの物理的/機械的コントロールを介して)ユーザ入力を受信するための資産が制限された、低減されたサイズのデバイス上で、そうでない場合ユーザによるアクセスが容易に可能でない場合がある、追加のデバイス機能にユーザがアクセスすることが可能になる。
いくつかの実施形態では、接触/動きモジュール130は、1つ以上の強度閾値のセットを使用して、ユーザによって操作が実行されたかどうかを判定する(例えば、ユーザがアイコン上で「クリック」したかどうかを判定する)。いくつかの実施形態では、強度閾値の少なくとも1つのサブセットが、ソフトウェアパラメータに従って判定される(例えば、強度閾値は、特定の物理アクチュエータのアクティブ化閾値によって判定されるのではなく、デバイス100の物理ハードウェアを変化させることなく調整することができる)。例えば、トラックパッド又はタッチスクリーンディスプレイのマウス「クリック」閾値は、トラックパッド又はタッチスクリーンディスプレイのハードウェアを変更することなく、広範囲の既定の閾値のうちのいずれかに設定することができる。更に、いくつかの実装形態では、デバイスのユーザは、(例えば、個々の強度閾値を調整することにより、及び/又は、システムレベルのクリック「強度」パラメータで一度に複数の強度閾値を調整することにより)強度閾値のセットのうちの1つ以上を調整するためのソフトウェア設定が提供される。
本明細書及び特許請求の範囲で使用される、接触の「特性強度」という用語は、接触の1つ以上の強度に基づく、その接触の特性を指す。いくつかの実施形態では、特性強度は複数の強度サンプルに基づく。特性強度は、任意選択的に、既定の数の強度サンプル、すなわち、既定のイベント(例えば、接触を検出した後、接触のリフトオフを検出する前、接触の移動の開始を検出する前若しくは後、接触の終了を検出する前、接触の強度の増大を検出する前若しくは後、及び/又は、接触の強度の減少を検出する前若しくは後の)に関連する既定の期間(例えば、0.05、0.1、0.2、0.5、1、2、5、10秒)の間に収集された強度サンプルのセットに基づく。接触の特性強度は任意選択で、接触の強度の最大値、接触の強度の平均値(mean value)、接触の強度の平均値(average value)、接触の強度の上位10%値、接触の強度の最大値の半分の値、接触の強度の最大値の90%の値、予め定義された期間にわたって、又は予め定義された時間において開始した接触の強度を低域フィルタリングすることによって生成された値などのうちの1つ以上に基づく。いくつかの実施形態では、特性強度を特定する際に(例えば、特性強度が経時的な接触の強度の平均であるときに)、接触の持続期間が使用される。いくつかの実施形態では、特性強度は、ユーザによって操作が実行されたかどうかを判定するために、1つ以上の強度閾値のセットと比較される。例えば、1つ以上の強度閾値のセットは、第1の強度閾値及び第2の強度閾値を含んでもよい。この実施例では、第1の閾値を上回らない特性強度を有する接触の結果として第1の動作が実行され、第1の強度閾値を上回り第2の強度閾値を上回らない特性強度を有する接触の結果として第2の動作が実行され、第2の強度閾値を上回る特性強度を有する接触の結果として第3の動作が実行される。いくつかの実施形態では、特性強度と1つ以上の強度閾値との間の比較は、第1の操作を実行するか、又は第2の操作を実行するかを判定するために使用されるのではなく、1つ以上の操作を実行するか否か(例えば、それぞれの選択肢を実行するか、又はそれぞれの操作を実行することを控えるか)を判定するために使用される。
いくつかの実施形態では、特性強度を特定する目的のために、ジェスチャの一部分が識別される。例えば、タッチ感知面は、開始位置から遷移して終了位置に達する連続的なスワイプ接触(例えば、ドラッグジェスチャ)を受け取る場合があり、そのポイントにおいて接触の強度が増大する。この例では、終了位置における接触の特性強度は、スワイプ接触全体ではなく、連続的なスワイプ接触の一部分のみ(例えば、終了位置におけるスワイプ接触の一部分のみ)に基づいてもよい。いくつかの実施形態では、接触の特性強度を特定する前に、スワイプ接触の強度に平滑化アルゴリズムが適用されてもよい。例えば、平滑化アルゴリズムは、任意選択的に、非加重移動平均平滑化アルゴリズム、三角平滑化アルゴリズム、中央値フィルタ平滑化アルゴリズム、及び/又は指数平滑化アルゴリズムのうちの1つ以上を含む。いくつかの状況では、これらの平滑化アルゴリズムは、特性強度を特定する目的のために、スワイプ接触の強度の小幅な上昇又は降下を排除する。
本明細書で説明されるユーザインタフェースの図は、任意選択で、1つ以上の強度閾値(例えば、接触検出強度閾値IT0、軽押圧強度閾値ITL、深押圧強度閾値ITD(例えば、少なくとも最初はITLよりも高い)、及び/又は1つ以上の他の強度閾値(例えば、TILよりも低い強度閾値ITH)に対する、タッチ感知面上の接触の現在の強度を示す、様々な強度の図表を含む。この強度の図は、典型的には、表示されるユーザインタフェースの一部ではないが、図の解釈を支援するために提供される。いくつかの実施形態では、軽い押圧強度閾値は、通常、物理マウスのボタン又はトラックパッドをクリックすることに関連付けられた動作をデバイスが実行する強度に相当する。いくつかの実施形態では、深い押圧強度閾値は、通常、物理マウスのボタン又はトラックパッドをクリックすることに関連付けられた動作とは異なる動作をデバイスが実行する強度に相当する。いくつかの実施形態では、軽い押圧強度閾値を下回る(例えば、それを下回ると接触がもはや検出されない名目上の接触検出強度閾値IT0を上回る)特性強度を有する接触が検出されると、デバイスは、軽い押圧強度閾値又は深い押圧強度閾値に関連付けられた動作を実行することなく、タッチ感知面上の接触の移動に従ってフォーカスセレクタを移動させる。一般に、特に明記しない限り、これらの強度閾値は、ユーザインタフェース図の様々なセットの間で一貫している。
いくつかの実施形態では、デバイスによって検出された入力へのデバイスの応答は、入力中の接触強度に基づく基準に依存する。例えば、いくつかの「軽い押圧」入力の場合、入力中の第1の強度閾値を超える接触の強度は第1の応答をトリガする。いくつかの実施形態では、デバイスによって検出された入力へのデバイスの応答は、入力中の接触強度と時間ベースの基準の両方を含む基準に依存する。例えば、いくつかの「深い押圧」入力の場合、軽い押圧用の第1の強度閾値より大きい入力中の第2の強度閾値を超える接触の強度は、第1の強度閾値を満たすことと第2の強度閾値を満たすこととの間に遅延時間が経過した場合のみ、第2の応答をトリガする。この遅延時間は典型的には、時間が200ms(ミリ秒)よりも短い(例えば、第2の強度閾値の大きさに依存して、40ms、100ms、又は120msであり、遅延時間は第2の強度閾値が増大するにつれて増大する)。この遅延時間は、深い押圧入力の偶発的な認識を回避することを支援する。別の例として、いくつかの「深い押圧」入力の場合、第1の強度閾値が満たされた時間の後に発生する感度が低下した期間が存在する。感度が低下した期間の間、第2の強度閾値は増大する。第2の強度閾値のこの一時的な増大も、偶発的な深い押圧入力を回避するのに役立つ。他の深い押圧入力の場合、深い押圧入力の検出に対する応答は、時間ベースの基準に依存しない。
いくつかの実施形態では、入力強度閾値及び/又は対応する出力のうちの1つ以上は、ユーザ設定、接触の動き、入力タイミング、実行しているアプリケーション、強度が加わる速度、同時入力の数、ユーザ履歴、環境要因(例えば、周囲ノイズ)、フォーカスセレクタの位置などの、1つ以上の要因に基づいて変化する。例示的な要因が、米国特許出願公開第14/399,606号及び第14/624,296号に記載されており、それらは参照により全体が本明細書に組み込まれている。
例えば、図4Cは、経時的なタッチ入力476の強度に部分的に基づいて、経時的に変化する動的な強度閾値480を示す。動的な強度閾値480は、2つの成分、タッチ入力476が最初に検出されたときから既定の遅延時間p1後に経時的に減衰する第1の成分474、及び経時的にタッチ入力476の強度の跡を辿る第2の成分478の合計である。第1の成分474の最初の高い強度閾値は、タッチ入力476が十分な強度を提供する場合に即時の「深い押圧」応答を更に可能にしながら、「深い押圧」応答の偶発的トリガを削減する。第2の成分478は、タッチ入力の段階的な強度変動によって「深い押圧」応答の意図しないトリガを削減する。いくつかの実施形態では、タッチ入力476が動的な強度閾値480を満たすとき(例えば、図4Cにおけるポイント481において)、「深い押圧」応答がトリガされる。
図4Dは、別の動的な強度閾値486(例えば、強度閾値ITD)を示す。図4Dはまた、2つの他の強度閾値、第1の強度閾値ITH及び第2の強度閾値ITLを示す。図4Dにおいて、タッチ入力484が時間p2の前に第1の強度閾値ITH及び第2の強度閾値ITLを満たすが、時間482において遅延時間p2が経過するまでは応答が提供されない。また、図4Dでは、動的強度閾値486は、予め定義された遅延時間p1が時間482から経過した後(第2の強度閾値ITLと関連付けられた応答がトリガされたとき)の時間488において開始する減衰で、経時的に減衰する。このタイプの動的強度閾値は、第1の強度閾値ITH又は第2の強度閾値ITLなど、より低い強度閾値と関連付けられた応答のトリガの直後に又はそれと同時に、動的強度閾値ITDと関連付けられた応答を偶発的にトリガすることを減少させる。
図4Eは、更に別の動的な強度閾値492(例えば、強度閾値ITD)を示す。図4Eにおいて、強度閾値ITLと関連付けられた応答は、タッチ入力490が最初に検出されるときから遅延時間p2が経過した後にトリガされる。同時に、動的な強度閾値492は、タッチ入力490が最初に検出されたときから既定の遅延時間p1が経過した後に減衰する。そのため、タッチ入力490を解放することなしに、タッチ入力490の強度の増大がその後に続く、強度閾値ITLに関連付けられた応答をトリガした後のタッチ入力490の強度の減少は、タッチ入力490の強度が別の強度閾値、例えば、強度閾値ITLを下回るときでも、(例えば、時間494において)強度閾値ITDに関連付けられた応答をトリガすることができる。
軽い押圧強度閾値ITLを下回る強度から、軽い押圧強度閾値ITLと深い押圧強度閾値ITDとの間の強度への接触の特性強度の増大は、「軽い押圧」入力と呼ばれる場合がある。深い押圧強度閾値ITDを下回る強度から深い押圧強度閾値ITDを上回る強度への接触の特性強度の増大は、「深い押圧」入力と呼ばれる場合がある。接触検出強度閾値IT0を下回る強度から接触検出強度閾値IT0と軽い押圧強度閾値ITLの間の強度への接触の特性強度の増大は、タッチ面上の接触の検出と呼ばれる場合がある。接触検出強度閾値IT0を上回る強度から接触検出強度閾値IT0を下回る強度への接触の特性強度の減少は、タッチ面からの接触のリフトオフの検出と呼ばれる場合がある。いくつかの実施形態では、IT0はゼロである。いくつかの実施形態では、IT0はゼロより大きい。いくつかの例示では、タッチ感知面上の接触の強度を表すために、網掛けの円又は楕円が使用される。いくつかの例示では、それぞれの接触の強度を指定することなく、タッチ感知面上のそれぞれの接触を表すために、網掛けなしの円又は楕円が使用される。
本明細書に記載されるいくつかの実施形態では、1つ以上の動作は、それぞれの押圧入力を含むジェスチャを検出したことに応じて、又はそれぞれの接触(若しくは複数の接触)で実行されるそれぞれの押圧入力を検出したことに応じて実行され、それぞれの押圧入力は、押圧入力強度閾値を上回る接触(又は複数の接触)の強度の増大を検出したことに少なくとも部分的に基づいて検出される。いくつかの実施形態では、それぞれの動作は、押圧入力強度閾値を上回るそれぞれの接触の強度の増大を検出したことに応じて実行される(例えば、それぞれの動作は、それぞれの押圧入力の「ダウンストローク」上で実行される)。いくつかの実施形態では、押圧入力は、押圧入力強度閾値を上回るそれぞれの接触の強度の増大、及びその後の押圧入力強度閾値を下回る接触の強度の減少を含み、それぞれの動作は、その後の押圧入力閾値を下回るそれぞれの接触の強度の減少を検出したことに応じて実行される(例えば、それぞれの動作は、それぞれの押圧入力の「アップストローク」上で実行される)。
いくつかの実施形態では、デバイスは、「ジッタ」と呼ばれる場合がある偶発的な入力を回避するために強度ヒステリシスを採用し、デバイスは、押圧入力強度閾値との既定の関係を有するヒステリシス強度閾値を定義又は選択する(例えば、ヒステリシス強度閾値は、押圧入力強度閾値よりも低いX強度単位であり、又はヒステリシス強度閾値は、押圧入力強度閾値の75%、90%、若しくは何らかの妥当な割合である)。したがって、いくつかの実施形態では、押圧入力は、押圧入力強度閾値を上回るそれぞれの接触の強度の増大、及びその後の押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少を含み、それぞれの動作は、その後のヒステリシス強度閾値を下回るそれぞれの接触の強度の減少を検出したことに応じて実行される(例えば、それぞれの動作は、それぞれの押圧入力の「アップストローク」上で実行される)。同様に、いくつかの実施形態では、押下入力は、デバイスが、ヒステリシス強度閾値以下の強度から押下入力強度閾値以上の強度への接触の強度の増大、及び任意選択的に、その後のヒステリシス強度以下の強度への接触の強度の減少を検出するときにのみ検出され、それぞれの動作は、押下入力(例えば、状況に応じて、接触の強度の増大又は接触の強度の減少)を検出したことに応じて実行される。
説明を容易にするために、押圧入力強度閾値に関連付けられた押圧入力に応じて、又は押圧入力を含むジェスチャに応じて実行される動作の説明は、任意選択的に、押圧入力強度閾値を上回る接触の強度の増大、ヒステリシス強度閾値を下回る強度から押圧入力強度閾値を上回る強度への接触の強度の増大、押圧入力強度閾値を下回る接触の強度の減少、又は押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少を検出したことに応じてトリガされる。更に、押圧入力強度閾値を下回る接触の強度の減少を検出したことに応じて実行されるように動作が記載される例では、動作は、任意選択的に、押圧入力強度閾値に対応し、かつそれよりも低いヒステリシス強度閾値を下回る接触の強度の減少を検出したことに応じて実行される。上述されたように、いくつかの実施形態では、これらの応答のトリガは、満たされる時間ベースの基準にも依存する(例えば、遅延時間は、第1の強度閾値が満たされることと第2の強度閾値が満たされることとの間で経過している)。
例示的な目的で、図4F~4Kでは特定の周波数、振幅、及び波形のみがサンプル触知出力パターンで表されているが、他の周波数、振幅及び波形を有する触知出力パターンも同様の目的で使用され得る。例えば、0.5~4回のサイクルを有する波形を使用することができる。また、60Hz~400Hzの範囲の他の周波数も用いることができる。
ユーザインタフェース及び関連付けられた処理
ここで、ディスプレイとタッチ感知面と、(任意選択的に)触知出力を生成するための1つ以上の触知出力生成器と、(任意選択的に)タッチ感知面との接触の強度を検出するための1つ以上のセンサとを備える、ポータブル多機能デバイス100又はデバイス300などの電子デバイス上で実装され得る、ユーザーインタフェース(「UI」)及び関連プロセスの実施形態に注意を向ける。
図5A~図5BAは、いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。これらの図のユーザインタフェースは、図6A~図6H及び図7A~図7Cのプロセスを含む、以下に説明する処理を示すために用いられる。説明の便宜上、実施形態のいくつかは、タッチ感知ディスプレイシステム112を有するデバイス上で実行される操作を参照して議論される。そのような実施形態では、フォーカスセレクタは任意選択で、それぞれの指若しくはスタイラスの接触、指若しくはスタイラスの接触に対応する代表的な点(例えば、それぞれの接触の面心若しくはそれぞれの接触と関連付けられた点)、又はタッチ感知ディスプレイシステム112上で検出された2つ以上の接触の面心である。しかしながら、同様の操作は任意選択で、フォーカスセレクタと共に、ディスプレイ450上の図に示されるユーザインタフェースを表示する間、タッチ感知面451上の接触を検出したことに応じて、ディスプレイ450及び別々のタッチ感知面451を有するデバイス上で実行される。
図5A~図5BAは、いくつかの実施形態に係る、触知出力を生成するための例示的なユーザインタフェースを示す。
図5Aは、デバイス100のタッチスクリーン112上に表示されるロックスクリーンユーザインタフェース500を示す。いくつかの実施形態では、ロックスクリーン500は、スクリーンオフからスクリーンオン状態へデバイス100をウェイクすると表示される。ロックスクリーン500は、通知504、506、及び508のリスト、懐中電灯アイコン510、並びにカメラアイコン512を含む複数のユーザインタフェース要素を含む。懐中電灯アイコン510は、より暗い背景上に明るい色の懐中電灯を示し、デバイス100の懐中電灯が非アクティブ化(例えば、オフにされた)状態にあることに対応している。接触強度グラフ502は、ロックスクリーン500上で検出された接触の強度を示す。
図5Bは、図5Aからのロックスクリーン500の遷移を示す。図5Bは、懐中電灯アイコン510に対応する位置においてタッチスクリーン112上で検出された接触514を示す。接触強度グラフ502は、接触514の接触強度が強度閾値ITHを下回ることを示す。強度閾値ITHを下回る強度を有する接触514を検出することに応じて、ロックスクリーン500への変更は表示されない。
図5Cは、図5Bからのロックスクリーン500の遷移を示す。図5Cでは、接触514の強度は、強度閾値ITHまで増大している。強度ITHを有する接触514に従って、懐中電灯アイコン510は、図5A~図5Bにおけるその外観からの変換とともに表示される。具体的には、懐中電灯アイコンは、より暗い背景を有し、スケールがより大きい。
図5Dは、図5Cからのロックスクリーン500の遷移を示す。図5Dでは、接触514の強度は、強度閾値ITHを上回って増大している。図5Dの例では、懐中電灯アイコン510の変換の程度は、接触514の強度に基づいている。このように、接触514の強度の増大に従って、懐中電灯アイコン510は、図5Cよりも、背景が更に暗くスケールが更に大きくなっている。
図5Eは、図5Dからのロックスクリーン500の遷移を示す。図5Eでは、接触強度グラフ502に示すように、接触514の強度は、図5Dのその強度から減少している。懐中電灯アイコン510の変換の程度は接触514の強度に基づくため、接触514の強度の減少に従って、懐中電灯アイコン510はより明るい背景を有し、スケールがより小さくなる(例えば、図5Cから図5Dへの懐中電灯アイコン510の変換は、強度の関数として反転される)。
図5Fは、図5Dからのロックスクリーン500の代替的な遷移を示す。図5Fでは、接触強度グラフ502に示すように、接触514の強度は強度閾値ITLまで増大している。いくつかの実施形態では、図5Fに示す例のように、触知出力518は、強度閾値ITLに達している接触514の強度に従って生成され、生成された触知出力の強度は、接触514の強度が増加し続ける(例えば、強度閾値ITDに近づく)につれて増大する。触知出力強度グラフ516は、生成された触知出力の強度が接触強度の関数としてどのように増大するかの例を示す。したがって、触知出力518は、接触強度ITLに対応する触知出力強度レベル520aで生成される。
いくつかの実施形態では、触知出力518及び他の触知出力522、524、528、530、532、558、570、572、588、596、589、585、及び569は、図4F~図4Kに関して上述した触知出力タイプのうちの様々な触知出力タイプを使用して実装される。
図5Gは、図5Fからのロックスクリーン500の遷移を示す。図5Gでは、接触強度グラフ502に示すように、接触514の強度は強度閾値ITDまで増大している。加えて、接触514は、少なくとも所定のフィードフォワード期間TFFに(例えば、接触514が検出されてからの)検出されている。触知出力強度グラフ516に示すように、触知出力522は、(例えば、強度閾値ITDに達している接触514の強度に従って、及び任意選択的に、少なくとも所定の期間TFFの間に検出されている接触514に従って)ITDの接触強度に対応する触知出力強度レベル520bで生成される。懐中電灯アイコン510は、強度閾値ITDに達している接触514の強度に従って、完全に暗くされた背景を有し、更に大きな(例えば、最大の)スケールとなる(例えば、懐中電灯アイコン510は、図5A~図5Bにおけるその外観から更に大きな(例えば、最大の)変換の程度で表示される)。
いくつかの実施形態では、触知出力522は、強度閾値ITDに達している接触514の強度に従って、(例えば、触知出力強度レベル520bで)生成されるが、接触514の強度が強度閾値ITDに達する前には、触知出力は生成されない。
図5Hは、図5Gからのロックスクリーン500の遷移を示す。図5Hでは、接触強度グラフ502に示すように、接触514の強度は強度閾値ITDを上回って増大している。しかしながら、懐中電灯アイコン510は、図5Gでの最大の変換の程度で表示されたため、強度閾値ITDを上回って増大している接触514の強度に従って、懐中電灯アイコン510の外観の追加の変化は表示されない。加えて、追加の触知出力は生成されない。
図5Iは、図5Hからのロックスクリーン500の遷移を示す。図5Iでは、接触強度グラフ502に示すように、接触514の強度は強度閾値ITLまで減少している。加えて、接触514は、少なくとも所定のアクティブ化期間TAに(例えば、接触514が検出されてからの)検出されている。強度閾値ITLまで減少している接触514の強度に従って、及び任意選択的に、少なくとも所定の期間TAの間に検出されている接触514にも従って、触知出力524が生成され、懐中電灯ビーム526によって示すように、デバイス100の懐中電灯がアクティブ化される(例えば、オンにされる)。いくつかの実施形態では、接触514の強度が強度閾値ITLに減少するまで、触知出力524は生成されず、デバイス100の懐中電灯はアクティブ化(例えば、オンに)されない。懐中電灯のアクティブ化に従って、懐中電灯アイコン510は、より暗い背景上に明るい色の懐中電灯を表示することから、より明るい背景上に暗い色の懐中電灯を表示するように変化する(例えば、図5Hから図5Iへの遷移に示すように、アクティブ化状態にあるデバイス100の懐中電灯に対応する懐中電灯アイコン510の変換)。図5Hから図5Iへの懐中電灯アイコン510の変化は、時に、懐中電灯アイコンの背景及び前景の色の反転であると言われる。
図5Jは、図5Iからのロックスクリーン500の遷移を示す。図5Jでは、接触強度グラフ502に示すように、接触514がリフトオフされ、接触514の強度はゼロに減少している。デバイス100の懐中電灯は、懐中電灯ビーム526によって示されるようにアクティブ化される(例えば、図5Iでアクティブ化された後にアクティブ化されたままである)。接触514の強度の減少に従って、懐中電灯アイコン510は、図5Jにおけるその外観からの変換(例えば、より高い接触強度に従って表示された図5Iにおける懐中電灯アイコン510の変換の反転)とともに表示される。懐中電灯アイコン510は、白色の背景上に暗い色の懐中電灯を示し、デバイス100の懐中電灯がアクティブ化状態にあることに対応し、かつ、強度閾値ITHを下回る接触強度に、又は接触が検出されていないことに対応する。
図5Kは、図5Iからのロックスクリーン500の代替的な遷移を示す。図5Kでは、接触514は、懐中電灯アイコン510に対応する位置においてタッチスクリーン112上で維持されている。接触514の強度は、最初に強度閾値ITLを下回って減少し、その後再び、強度閾値ITDに増大する。強度閾値ITDまで増大している接触514の強度に従って、触知出力528が生成される。図5Kに示す例では、触知出力528は、以前に生成された触知出力522とは異なる(例えば、懐中電灯がオフである間に強度閾値ITDに達するために生成された触知出力は、懐中電灯がオンである間に強度閾値ITDに達するために生成された触知出力とは異なる)。懐中電灯アイコン510は、より明るい色の背景上により暗い色の懐中電灯を表示するように変化し、懐中電灯ビーム526によって更に示すように、懐中電灯がアクティブ化していることを示している。接触514の強度がITDであることに従って、懐中電灯510は、最大限に暗くされた背景を有し、更により大きい(例えば、最大の)スケールとなる(例えば、懐中電灯アイコン510は、図5I~図5Jにおけるその外観から更に大きな(例えば、最大の)変換の程度で表示される)。
図5Lは、図5Kからのロックスクリーン500の遷移を示す。図5Lでは、接触強度グラフ502に示すように、接触514がリフトオフされ、接触514の強度はゼロに減少している。図5Kにおける強度閾値ITDから図5Lにおける強度閾値ITLを下回るまで減少している接触514の強度に従って、触知出力530が生成される(例えば、触知出力530は、図5Kにおける触知出力528と同じタイプの触知出力である)。加えて、図5Kにおける強度閾値ITDから図5Lにおける強度閾値ITLを下回るまで減少している接触514の強度に従って、デバイス100の懐中電灯の状態がトグルされる。懐中電灯は、懐中電灯ビームの欠如によって示されるように、図5Kにけるアクティブ化状態から図5Lにおける非アクティブ化状態(例えば、オフにされた)に変化する。懐中電灯アイコン510は、(例えば、図5Aのように)より暗い背景上に表示される明るい色の懐中電灯を示し、懐中電灯が非アクティブ化状態にあることに対応し、かつ、強度閾値ITHを下回る接触強度であって、又は接触が検出されていないことに対応している。
図5Mは、図5Hからのロックスクリーン500の代替的な遷移を示す。図5Mでは、接触514は、懐中電灯アイコン510から離れて、懐中電灯アイコン510に対応するタッチスクリーン112上の位置に移動している。懐中電灯アイコン510から離れる接触514の横方向の動きに従って、触知出力532が生成される。接触強度グラフ502に示すように、接触514の強度は強度閾値ITDを上回ったままである(例えば、図5I及び図5Lを参照して上述したように、触知出力532は、接触強度の減少の結果としてではなく生成される)。いくつかの実施形態では、触知出力532は、(例えば、図5Iを参照して上述したように)たとえ接触514の強度がその後に強度閾値ITL以下に減少しても、懐中電灯の状態のトグルが実行されないことを示すキャンセル触知出力である。加えて、懐中電灯アイコン510から離れる接触514の横方向の移動に従って、懐中電灯アイコン510の変換は、図5Hにおける最大の変換の程度から、完全に暗くなった背景及び最大スケールで、図5Mにおけるより暗い背景上に表示される明るい色の懐中電灯(例えば、非アクティブ化状態にある懐中電灯に対応し、強度閾値ITHを下回る接触強度に又は接触が検出されていないことに対応する、図5Aにおける懐中電灯アイコン510の初期外観)に反転される。
図5Nは、図5Mからのロックスクリーン500の遷移を示す。図5Nでは、接触強度グラフ502に示すように、接触514がリフトオフされ、接触514の強度はゼロに減少している。図5Mを参照して上述されたトグル動作のキャンセルに従って、たとえ接触514の強度が懐中電灯をトグルするための他の基準(例えば、強度閾値ITD及び強度閾値ITLへの増大)を満たしても、図5Nでは、デバイス100の懐中電灯は非アクティブ化のままである。加えて、たとえ接触514の強度が強度閾値ITLを過ぎて減少しても、触知出力は生成されない。
図5O~図5Pは、所定の期間(例えば、高速タップジェスチャ)の前の接触及び接触のリフトオフを含むユーザ入力に応じた、図5Aからのロックスクリーン500の代替的な遷移を示す。図5Oは、接触強度グラフ502に示すように、懐中電灯アイコン510に対応する位置でタッチスクリーン112上で検出された接触、及び接触の強度の強度閾値ITDへの増大を含む、ユーザ入力534の第1部分を示す。ユーザ入力534の第1の部分(例えば、接触)は、所定のフィードフォワード期間TFFよりも少ない時間量で検出される(例えば、ユーザ入力534は、タイミング要件を含むフィードフォワード基準を満たさない)。強度閾値ITDまで増加しているユーザ入力534の強度に従って、ユーザ入力534の第1の部分が所定のフィードフォワード期間TFFよりも短かかった期間続いた(例えば、検出された)ため、懐中電灯アイコン510は最大の変換の程度で(例えば、完全に暗くされた背景で、かつ最大スケールで)表示されるが、触知出力は生成されない。
図5Pは、接触強度グラフ502に示すように、接触のリフトオフ及び接触の強度のゼロへの減少を含むユーザ入力534の第2の部分を示す。第1の部分及び第2の部分の両方を含む、ユーザ入力534が検出された時間の合計量は、所定のアクティブ化期間TA未満である(例えば、ユーザ入力534は、タイミング要件を含むアクティブ化基準を満たさない)。ユーザ入力534の強度は強度閾値ITDから強度閾値ITLを下回るまで減少したが、ユーザ入力534が所定のアクティブ化期間TAよりも短かかった期間続いたため(及び/又は、ユーザ入力534の第1の部分が少なくとも所定のフィードフォワード期間TFFの長さであった期間だけずっと続かなかったため)、懐中電灯の状態はトグルされず、触知出力は生成されない。したがって、懐中電灯はアクティブ化されないままである。加えて、懐中電灯アイコン510は、アクティブ化されていない懐中電灯に対応して、より暗い背景上に明るい色の懐中電灯を表示し続け、ITDからゼロに減少しているユーザ入力534の強度に従って、図5Aに示すように、懐中電灯アイコン510の変換がその元の外観に反転される。
図5O~図5Pを参照すると、所定のアクティブ化期間TA及び/又は所定のフィードフォワード期間TFFを満たさないユーザ入力に対して、懐中電灯の状態はトグルされていない。しかしながら、いくつかの実施形態では、たとえユーザ入力の第1の部分がフィードフォワード期間TFFを満たさなくても、ユーザ入力の第1の部分が強度閾値ITDまで増大すると、触知出力がなおも生成される。いくつかの実施形態では、たとえユーザ入力がアクティブ化期間TAを満たさなくても、ユーザ入力の第2の部分が強度閾値ITLまで減少すると、触知出力がなおも生成される。
図5Qは、デバイス100のタッチスクリーン112上に表示されるロックスクリーンユーザインタフェース540を示す。ロックスクリーン540は、ロックスクリーン540上の通知のリストが追加の通知542を含むことを除いて、ロックスクリーン500(図5A)と同様である。強度計544は、ロックスクリーン540上で検出された接触の強度を示す。
図5Rは、図5Qからのロックスクリーン540の遷移を示す。図5Rは、通知504に対応する位置でタッチスクリーン112上で検出された接触546を示す。通知504は、受信した電子メールをデバイス100のユーザに通知し、受信した電子メールに情報のプレビューを含める。強度計544は、接触546の強度がゼロ(IT0)を上回り、強度閾値ITHを下回ることを示す。
図5Sは、図5Rからのロックスクリーン540の遷移を示す。図5Sでは、接触546の強度が強度閾値ITLを上回るまで増加している。したがって、通知504のサイズは、通知504に関連付けられた追加情報を表示するために増大される。図5Sでは、増大したサイズでの通知504は、受信した電子メールのより大きい部分のプレビューを表示する。
図5Tは、図5Qからのロックスクリーン540の代替的な遷移を示す。図5Tは、ロックスクリーン540上の通知のリストに向けられた接触548と、接触強度がゼロを上回り強度閾値ITHを下回る接触548の上方移動(例えば、スクロールジェスチャ)とを示す。
図5Uは、図5Tからのロックスクリーン540の遷移を示す。図5Uは、接触548の移動に応じて、通知504、506、508及び542が上方に移動するように、通知のリストが接触548の移動方向にスクロールされることを示す。加えて、ロックスクリーン540上の通知のリストをスクロールすることに従って、懐中電灯アイコン510及びカメラアイコン512が表示されなくなる。懐中電灯アイコン510及びカメラアイコン512が以前に表示された領域を使用して、追加の通知550及び552を表示する。
図5Vは、図5Uからのロックスクリーン540の遷移を示す。図5Vは、接触548の継続的な移動に応じて、通知のリストが更にスクロールされることを示す。現在の日付(例えば、図5Q~図5Tに示す「火曜日」)からの利用可能である追加の通知がないことに従って、通知のリストの更なるスクロールが前日(例えば、「昨日」)からの通知の表示をもたらすことを示すために指標554が表示される。
図5Wは、図5Vからのロックスクリーン540の遷移を示す。図5Wは、連絡先548の継続的な移動に応じて、通知のリストが更にスクロールされて前日(例えば、この例では「月曜日」であった「昨日」)からの通知556を表示することを示す。閾値を過ぎて(例えば前日まで)スクロールされている通知のリストに従って、触知出力558が生成される。
図5X~図5AAは、ロックスクリーン背景に向けられたユーザ入力の強度に基づいたロックスクリーン背景(壁紙と呼ばれることもある)のアニメーションを示す。図5Xは、背景560を含むロックスクリーンユーザインタフェース561を示す。背景560は、アニメーション化された背景である(例えば、静止画像ではなく、1つ以上の変換又はアニメーションを含む)。
図5Yは、図5Xからのロックスクリーンユーザインタフェース561の遷移を示す。図5Yは、背景560に対応するタッチスクリーン112上の位置で検出された接触562を示す。強度計544は、接触562の強度が強度閾値ITHを上回り、強度閾値ITLを下回ることを示す。接触562の強度が強度閾値ITLを下回るに従い、背景560への変化は表示されない。
図5Z~図5AAは、図5Yからの背景560の遷移を示す。図5Zでは、接触562の強度が、強度閾値ITLを上回るまで増大している。接触562の強度が強度閾値ITLを上回るに従って、背景560の第1の変換の程度(例えば、アニメーション)が表示される。図5AAでは、接触562の強度が、強度閾値ITDを上回って更に増大している。図5Z~図5AAに示す例では、接触562の強度が増大するにつれて、背景560の変換の程度が増大する(例えば、接触562の強度が増大するにつれて、背景560のアニメーションが前進する)。いくつかの実施形態では、背景560の変換の程度(例えば、アニメーション)は、接触562の強度が減少するにつれて反転される。いくつかの実施形態では、背景560のアニメーションの再生は、接触562の強度が強度閾値ITLに達するのに従って開始する。いくつかの実施形態では、接触562の強度が強度閾値ITLに達した後、続いて検出される接触562の強度に関係なく、背景560のアニメーション再生が(例えば、たとえ接触562の強度がITLを下回って減少しても、及びたとえ接触562がリフトオフされても)継続する。
図5AB~5ADは、図5Xからのロックスクリーン561の代替的な遷移を示す。図5ABは、タッチスクリーン112の下端で検出された接触564、及び接触強度がゼロを上回り強度閾値ITHを下回る接触564の上方移動(例えば、スワイプジェスチャ)を示す。図5ACは、接触564の継続的な上方移動を示す。図5ACは、タッチスクリーン112の底端部からの接触564の上方移動に応じて、ロックスクリーン561の上部の表示が停止し、ロックスクリーン561の残りの下部が上方にシフトするように、ロックスクリーン561がスクロールされていることを示す。加えて、ホームスクリーンユーザインタフェース566の下部は、ロックスクリーン561をもはや表示しないディスプレイの領域内に表示される。
図5ADは、接触564のリフトオフを示す。接触564の移動及び接触564のリフトオフに応じて、ロックスクリーン561が閉じられ、ホームスクリーン566がディスプレイ上に表示される。
図5AEは、図5Xからのロックスクリーン561の別の代替的な遷移を示す。図5AEは、カメラアイコン512に対応するタッチスクリーン112上の位置で検出された接触568を示す。強度計544は、接触568の強度がゼロを上回り、強度閾値ITHを下回ることを示す。接触568の強度が強度閾値ITHを下回るに従って、カメラアイコン512がその初期の外観からの変換なしに表示される(例えば、カメラアイコン512の外観が維持される)。
図5AFは、図5AEからのロックスクリーン561の遷移を示す。図5AFでは、強度計544によって示すように、接触568の強度が強度閾値ITDを上回って増大している。強度閾値ITDを上回って増大している(例えば、フィードフォワード基準を満たしている)接触568の強度に従って、カメラアイコン512は、更に大きな(例えば、最大の)変換の程度で(例えば、背景が完全に暗くされ、及び更に大きな(例えば最大の)スケールで)表示され、触知出力570が生成される。
図5AGは、図5AFからのロックスクリーン561の遷移を示す。図5AGでは、接触568の強度は、強度閾値ITDを下回って強度閾値ITLをちょうど上回るまで減少している(例えば、接触568がリフトオフされているプロセスにある)。接触568の強度の減少に従って、カメラアイコン512の変換は、(例えば、図5AEよりも暗い背景であるが図5AFのように完全に暗くはされず、図5AEよりも大きいスケールであるが図5AFのように最大スケールではなく)反転される。接触568の強度が強度閾値ITL以下に減少していないため、触知出力は生成されず、カメラアプリケーションユーザインタフェースは表示されない(例えば、接触568は、例えばカメラをアクティブ化するためのアクティブ化基準を満たさない)。
図5AHは、図5AGからのロックスクリーン561の遷移を示す。図5AHでは、接触568がリフトオフされている。図5AGに示す強度から強度閾値ITLを下回るまで減少している接触568の強度に従って、触知出力572が生成される。加えて、強度閾値ITLを下回るまで減少している接触568の強度に従って、カメラアプリケーションユーザインタフェース574が表示される(例えば、カメラアプリケーションユーザインタフェースを表示するカメラアイコン512に関連付けられた機能が実行される)。カメラインタフェース574は、キャプチャアフォーダンス576(例えば、画像又はビデオなどのメディアをキャプチャするための)、モードインジケータ577(例えば、カメラインタフェースの現在のメディアキャプチャモードを示すための)、ライブビュー領域578(例えば、キャプチャされるべきメディアのプレビューを表示する)、画像ウェル580(例えば、直近にキャプチャされた画像又はビデオを表すプレビュー画像を表示する)、フィルタアイコン582(例えば、カメラフィルタを変更するための)、及びライブ写真インジケータ584(例えば、カメラアプリケーションが、メディアのキャプチャが音声付きの一連の画像のキャプチャを含む、ライブ写真キャプチャモードにあるかどうかを示すための)、を含む。
図5AI~5AJは、図5AHからのカメラインタフェース574の遷移を示す。図5AIは、キャプチャアフォーダンス576に対応するタッチスクリーン112上の位置で検出された接触586を示し、図5AJは、接触586のリフトオフを示す(例えば、接触586はタップジェスチャである)。図5AJでは、キャプチャアフォーダンス576のアクティブ化に応じて、ライブビューエリア578に表示されるビューの画像がキャプチャされ、キャプチャされた画像のプレビューが画像ウェル580に表示される。キャプチャアフォーダンス576のアクティブ化に応じて、カメラインタフェース574が、メディアをキャプチャすることが音声なしで画像をキャプチャすることを含むメディアキャプチャモードにあるとの判定に従って(例えば、カメラインタフェース574が静止画をキャプチャすることを含む写真キャプチャモードにあることを示すモードインジケータ577に従って、及びライブ写真キャプチャモードがアクティブ化されていないことを示すライブ写真インジケータ584に従って)、触知出力588が生成される。
図5AKは、図5AIにおけるキャプチャアフォーダンス576の持続的な(又は代替的に繰り返される)アクティブ化に従った触知出力の繰り返し生成を示す。具体的には、図5AKは、入力強度グラフ590に示されるように、強度閾値ITHを上回る入力強度でキャプチャアフォーダンス576上で維持されている接触586に対応する触知出力の生成を示す。キャプチャアフォーダンス576の継続的なアクティブ化に従って、複数の画像が、グラフ591に示されるように、時間t0、t1、t2、t3、t4、t5、t6、及びt7において(例えば、静止画像キャプチャモードのバースト動作モードで)キャプチャされる。いくつかの実施形態では、バーストモードでキャプチャされた複数の画像に対応する複数の触知出力が生成される。
いくつかの実施形態では、時間Tにおいて触知出力が生成される場合に時間Tと時間T+TIBとの間の任意の時間に触知出力が生成されないように、連続的な触知出力の生成の間に最小時間間隔TIBが強制される。例えば、同期触知出力グラフ592は、触知出力がキャプチャ画像と同期して生成されるいくつかの実施形態では、時間t0においてキャプチャされた画像に対応する第1の触知出力が生成されることを示す。第1の触知出力が生成されてから時間間隔TIBの間に、第2の触知出力が生成され得るため、時間t1においてキャプチャされた画像に対応する第2の触知出力の生成はやめられる。第1の触知出力が生成されてから時間間隔TIB後に第3の触知出力が生成されたため、第3の触知出力は、時間t2においてキャプチャされた画像に対応して生成される。同様に、時間t3、t5、及びt7においてキャプチャされた画像に対応する触知出力の生成はやめられ、時間t4及びt6においてキャプチャされた画像に対応する触知出力が生成される。
別の例では、非同期触知出力グラフ593は、時間t0においてキャプチャされた画像に対応する第1の触知出力が生成された後に触知出力がキャプチャ画像と非同期に生成されるいくつかの実施形態では、追加の触知出力がTIBに等しい時間間隔で繰り返し生成されるが、入力強度は強度閾値ITHを上回ったままであり、かつ、追加の画像がキャプチャされた時間t1、t2、t3、t4、t5、t6、及びt7とは関係ないことを示す。
図5ALは、図5AJからのカメラインタフェース574の遷移を示す。図5ALは、カメラインタフェース574が静止画像キャプチャモード(例えば、ライブ写真キャプチャモードが非アクティブ化された写真キャプチャモード)にある間に、ライブビュー領域578内に表示されたビューをズームする(例えば、ズームスケールを変更する)要求に対応する、互いから離れて移動する2つの接触(例えば、デピンチジェスチャ)を含む、ユーザ入力594を示す。ユーザ入力594の検出に応じて、ライブビュー領域578の現在のズームスケールが最小ズームスケールであることを示すズームスケールバー595が表示される。
図5AMは、図5ALからのカメラインタフェース574の遷移を示す。図5AMは、2つの接触が互いから離れるように移動した後のユーザ入力594のリフトオフを示す。ユーザ入力594の接触の移動に応じて、ライブビュー領域578内に表示されたビューは、更に大きい(例えば、最大の)ズームスケールにズームされる。最大ズームスケールに到達するライブビュー領域578の現在のズームスケールに従って、触知出力596が生成される。
図5AN~図5AOは、カメラインタフェース574を示し、図5AN~図5AOにおいて、ライブフォトインジケータ584が、カメラインタフェース574のライブフォトキャプチャモードがアクティブ化されていることを示すことを除いて、図5AI~図5AJと同様である。カメラインタフェース574がライブ写真キャプチャモードにある間、接触597(図5AN)によるキャプチャアフォーダンス576のアクティブ化、及び接触597(図5AO)のリフトオフ(例えば、接触597はタップジェスチャである)に従って、ライブ写真がキャプチャされ、ライブ写真は一連の画像及び対応する記録音声を含む。キャプチャされたライブ写真を表すプレビュー画像は、画像ウェル580内に表示される。カメラインタフェース574が(例えば、ライブ写真をキャプチャすることが、一連の画像及び対応する記録音声をキャプチャすることを含む)ライブ写真キャプチャモードにあった間にキャプチャアフォーダンス576がアクティブ化されたとの判定に従って、触知出力は、(例えば、対応する音声が記録されなかった静止画像キャプチャモードにあるカメラインタフェース574に従って触知出力が生成された、図5AI~図5AJとは対照的に)キャプチャアフォーダンス576のアクティブ化に応じて生成されない。
図5AP~図5ASは、カメラインタフェース574のライブ写真キャプチャモードがアクティブ化されている間に、カメラインタフェース574内のカメラフィルタを変更することを示す。図5APは、フィルタアイコン582に対応するタッチスクリーン112上の位置で検出された接触598を示す。図5AQでは、接触598のリフトオフに応じて、スクロール可能なフィルタ選択メニューが表示される。フィルタ選択メニューは、現在選択されているフィルタ583-1、及びフィルタ583-2を含む複数のフィルタオプションを含む。フィルタ選択メニューは、ライブビュー領域578に表示されたビューに適用された、それぞれのフィルタのプレビューを示す画像として複数のフィルタの各々を表示する。図5ARは、フィルタ583-1に対応するタッチスクリーン112上の位置で検出された接触599、及び左に向かう接触の移動を示す。図5ASでは、接触599のリフトオフに応じて、フィルタ583-2が現在のフィルタとして選択されるようにスクロールされる。フィルタ583-2が現在選択されているフィルタになるに従って、フィルタ583-2が適用されたライブビュー領域578が表示される。(例えば、フィルタ583-1からフィルタ583-2に)変更されている現在選択されているフィルタに従って、(例えば、たとえカメラインタフェース574のライブ写真キャプチャモードがアクティブ化されていても)触知出力589が生成される。いくつかの実施形態では、カメラインタフェース574が静止写真キャプチャモードにある間にフィルタを変更することに応じて、同じ(又は同じインスタンス)触知出力が生成され得る。いくつかの実施形態では、触知出力は、対応する記録音声を含むメディアをキャプチャしている間でもフィルタを変更するときに生成される。
図5AT~5AUは、図5AHからのカメラインタフェース574の代替的な遷移を示す。図5ATは、ライブビュー領域578に対応するタッチスクリーン112上の位置で検出された接触587、及び右に向かう接触587の移動を示す。図5AUでは、接触587のリフトオフに応じて、カメラインタフェース574は、図5ATのモードインジケータ577によって示される写真キャプチャモードから、図5AUのモードインジケータ577によって示されるビデオキャプチャモードに変化する。キャプチャモードの変更に従って、触知出力585が生成される。
図5AV~図5BAは、カメラインタフェース574がビデオキャプチャモードにある間の、図5AUからのカメラインタフェース574の遷移を示す。ビデオキャプチャモードにある間、カメラインタフェース574のキャプチャアフォーダンス576を使用して、ビデオ録画を開始及び停止する。タイマ573は、記録されているビデオの現在の長さを示し、あるいは、ビデオが記録されていないときに「00:00:00」を表示する。図5AVは、キャプチャアフォーダンス576に対応するタッチスクリーン112上の位置で検出された接触581を示す。図5AWでは、接触581のリフトオフに応じて、カメラインタフェース574は、キャプチャアフォーダンス576の視覚的外観の変化(例えば、キャプチャアフォーダンス576を「記録」アイコンから「記録停止」アイコンへ変化すること)によって、デバイス100がビデオの記録を(例えば、対応する音声とともに)開始したことを示す。タイマ573は、記録されているビデオが「00:00:01」の現在長を有することを示す。加えて、第2のキャプチャアフォーダンス579が、キャプチャアフォーダンス576の左側に表示される。キャプチャアフォーダンス579は、ビデオ及び対応する音声を記録し続けながら、静止画像をキャプチャするために使用される。
図5AX~図5AYは、ビデオ及び音声を記録している間の静止画像キャプチャアフォーダンス579(第2のキャプチャアフォーダンス)のアクティブ化を示す(例えば、タイマ573は、ビデオ録画が継続していること、及び記録されているビデオが「00:00:03」の現在長を有することを示す)。図5AXは、静止画像キャプチャアフォーダンス579に対応するタッチスクリーン112上の位置における接触575を示す。図5AYでは、接触575のリフトオフに応じて、静止画像がキャプチャされる(図5AYには示されていない)。しかしながら、カメラインタフェース574がビデオキャプチャモードにあるとの判定に従って、音声を含むビデオが記録されている間に、キャプチャアフォーダンス579のアクティブ化を検出したことに応じて触知出力は生成されない。
図5AZ~図5BAは、ビデオ及び音声を記録している間にライブビュー領域578内に表示されたビューのズームスケールを変更することを示す(例えば、タイマ573は、ビデオ録画が継続していること、及び記録されているビデオが「00:00:05」の現在長を有することを示す)。図5AZは、ライブビュー領域578内に表示されたビューをズームする要求に対応する、互いから離れて移動する2つの接触(例えば、デピンチジェスチャ)を含むユーザ入力571を示す。ユーザ入力571の検出に応じて、ライブビュー領域578の現在のズームスケールが最小ズームスケールであることを示すズームスケールバー595が表示される。図5BAは、2つの接触が互いから離れるように移動した後のユーザ入力571のリフトオフを示す。ユーザ入力571の接触の移動に応じて、ライブビュー領域578内に表示されたビューは、更に大きい(例えば、最大の)ズームスケールにズームされる。最大ズームスケールに達している、ライブビュー領域578の現在のズームスケールに従って、たとえビデオ及び音声が記録されていても、触知出力569が生成される。
強度ベースアクティブ化基準及び触知フィードバックを有するロックスクリーンUI
図6A~図6Hは、デバイスが操作ロックモードで動作している間に利用可能なデバイスの機能へのアクセスを容易にする方法600を示すフロー図であり、一方、いくつかの実施形態では、例えば、デバイスがユーザのポケットにあったり、又は持ち上げたり、置かれたり、ポケット若しくは他の容器に入れられていたり、又は他の容器のポケットから取り出されたりしている間に、それらの機能の偶発的なアクティブ化を回避するアクティブ化基準を提供する。方法600は、ディスプレイ、タッチ感知面、及びタッチ感知面との接触の強度を検出する1つ以上のセンサを有する電子デバイス(例えば、デバイス300、図3、又はポータブル多機能デバイス100、図1A)において実行される。いくつかの実施形態では、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面がディスプレイ上にあるか又はこれに組み込まれている。いくつかの実施形態では、ディスプレイはタッチ感知面から分離している。方法600の一部の動作が任意選択的に組み合わされ、かつ/又は、一部の動作の順序が任意選択的に変更される。
以下に説明するように、方法600は、たとえデバイスが操作ロックモードで動作している間であっても、ユーザが利用可能なままであることを一般的に望む機能にアクセスする直感的な方法を提供する。この方法は、ロックモードのデバイス機能をアクティブ化するときにユーザからの入力の数、範囲、及び/又は種類を低減し、それによって、より効率的なヒューマンマシンインタフェースを作成する。バッテリ駆動電子デバイスの場合、ユーザがロックモードデバイス機能をアクティブ化することを可能にし、一方、そのような機能の偶発的なアクティブ化を防止することにより、デバイスのユーザを過度に負担させることなく、電力を節約し、バッテリ充電間の時間を増大させる。
ディスプレイ、タッチ感知面、及び1つ以上の触知出力生成器(602)を有する電子デバイスにおいて実行される(及び電子デバイスによってこのように実行される)方法600は、ディスプレイ上に、それぞれの動作に関連付けられた(例えば、対応する)それぞれのユーザインタフェース要素を含むユーザインタフェースを表示すること(604)を含む。例えば、図5Aに示すように、ユーザインタフェース要素は、懐中電灯アイコン510、又はカメラアプリケーションアイコン512である。懐中電灯アイコン510は、デバイスの懐中電灯をオン/オフにトグルするためのオン/オフ動作に関連付けられている。カメラアイコン512は、カメラアプリケーションユーザインタフェースを表示する動作に関連付けられている。
方法600は、タッチ感知面上で、それぞれのユーザインタフェース要素に向けられたユーザ入力を検出すること(606)を更に含み、それぞれのユーザインタフェース要素に対応する位置における接触を検出することと、接触の強度の減少を含むユーザ入力の第2の部分が後に続く、接触の強度の増大を含むユーザ入力の第1の部分を検出することと、を含んでいる。例えば、ユーザ入力は、図5B~図5Nを参照して上述したタッチ入力514、図5O~図5Pを参照して上述したタッチ入力534、並びに図5R~図5Wを参照して上述したタッチ入力546及び548、又は図5Y~図5AHを参照して上述したタッチ入力562、564、及び568であり得る。
方法600は、ユーザ入力を検出することに応じて(608)、それぞれのユーザインタフェース要素の変換を表示すること(610)であって、変換の程度が、ユーザ入力の強度に基づいて判定される、こと(例えば、それぞれのユーザインタフェース要素のサイズ又はスケールを、初期のサイズ又はスケール、不透明度、明るさから増大させること、及び/又はそれぞれのユーザインタフェース要素の1つ以上の色をその初期の色(単数又は複数)から変更すること)を更に含む。いくつかの実施形態では、それぞれのユーザインタフェース要素の視覚的外観の変換は、それぞれのユーザインタフェース要素に対応する(向けられた)ユーザ入力の検出強度の関数として進行する。このような変換の例は、図5B~図5Pにおける懐中電灯アイコン、図5AE~図5AGにおけるカメラアイコン、及び図5Y~図5AAにおけるロックスクリーン背景560を参照して上述されている。
方法600は、ユーザ入力の第1の部分がフィードフォワード基準であって、フィードフォワード基準を満たすために、接触の特性強度がフィードフォワード強度閾値を上回って増大する(例えば、図5Hに示すように、深い押圧閾値ITDなどの所定の強度閾値を上回って増大する)要件を含む、フィードフォワード基準を満たすとの判定(612)に従って、それぞれの動作を実行することなく第1の触知出力を生成すること、を更に含む。図5A~図5Iを参照して上述したように、いくつかの実施形態では、フィードフォワード強度閾値を上回る接触の特性強度を初期に増大させることで触知出力を生成させて、デバイスの懐中電灯をアクティブ化するための第1の基準が満たされたことをユーザに知らせる。しかしながら、ユーザが懐中電灯状態トグル動作のアクティブ化をなおもキャンセル又は停止することができるため、この条件に応じて懐中電灯の状態はトグルされない。触知出力の形態で動作前通知を提供することによって、それぞれの動作が開始しそうなことをユーザに前もって警告することによりデバイスの効率的使用が改善され、それぞれの動作の偶発的又は意図しない開始又は実行をユーザが回避するのに役立つ。
方法600は、ユーザ入力の第2の部分が、アクティブ化基準であって、接触の特性強度がアクティブ化強度閾値を下回って減少する要件を含む、アクティブ化基準を満たすとの判定(620)に従って、第2の触知出力を生成すること(622)と、デバイスにおいて、それぞれのユーザインタフェース要素に関連付けられたそれぞれの動作を実行すること(624)(例えば、懐中電灯のオン若しくは又はオフをトグルすること(図5H~図5Iの上記説明を参照)、又はカメラユーザインタフェースを表示すること(図5AG~図5AHの上記説明を参照)など、それぞれのユーザインタフェース要素に関連付けられた機能をアクティブ化/非アクティブ化すること)と、を更に含む。いくつかの実施形態では、それぞれのユーザインタフェース要素の変換は、図5H~図5Iを参照して上述したように、懐中電灯をオン又はオフにトグルしているときに、懐中電灯アイコンの反転背景及び前景色などのその視覚的外観における更なる変換を含む。2つの触知出力の形態における動作前通知及びアクティブ化通知の両方を提供することによって、ユーザの入力の現在の状態をユーザが知ることによりデバイスの効率的な使用が改善され、それぞれの動作の偶発的又は意図しないアクティブ化又は実行を回避するだけではなく、それぞれの動作を開始又は実行させることを意図した入力が成功したことをユーザが知ることでもユーザをも支援し、それによって、それぞれの動作が開始又は実行されたという信頼とともにユーザが別のタスクに移動することを可能にする。
いくつかの実施形態では、アクティブ化強度閾値は、深い押圧閾値ITDなどの第1の強度閾値、又は第1の強度閾値よりも低い第2の強度閾値である。いくつかの実施形態では、アクティブ化強度閾値は、第1の強度閾値未満の所定の量、又はユーザ入力中の接触のピーク強度未満の所定の量であるように選択される。
いくつかの実施形態では、第1の触知出力及び第2の触知出力は、同じ触知出力の別個のインスタンスである。例えば、第1の触知出力及び第2の触知出力は、同じ触知出力パターン、同じ振幅、及び同じ持続時間を有する。いくつかの実施形態では、第1の触知出力及び第2の触知出力は、異なる触知出力である。例えば、第1の触知出力及び第2の触知出力は、触知出力パターン、振幅、及び持続時間のうちの1つ以上によって異なる。
方法600は、ユーザ入力中に接触の特性強度がフィードフォワード強度閾値を満たさないとの判定(626)に従って(例えば、ユーザ入力の検出強度は、例えば、タップ又は長い押圧のユーザ入力中に強度閾値を下回ったままである)、第1の触知出力及び第2の触知出力を生成することをやめること(628)と、それぞれのユーザインタフェース要素に関連付けられたそれぞれの動作を実行することをやめること(630)、とを更に含む。上述のように、他の状況におけるそれらの触知出力の生成と併せて、挙げられた状況における第1の触知出力及び第2の触知出力を生成することをやめることにより、ユーザの入力が、それぞれの動作の開始又は実行を引き起こすための基準(例えば、フィードフォワード強度閾値)を満たさない場合に、触知出力の生成又は非存在を介してユーザに知らせことによってデバイスの効率的な使用を促進する。
いくつかの実施形態では、アクティブ化基準は、アクティブ化基準を満たすために、少なくとも所定の閾値時間量(例えば、接触が検出されてから所定の時間量)の間、タッチ感知面上に接触が留まる要件を更に含む(634)。図5Iに関しては、所定の期間TAの説明を参照されたい。この持続時間要件は、デバイスのロックスクリーンのアイコンの不注意なアクティブ化を防止するのに役立ち、それによって、ユーザによって要求されない動作に対するバッテリ電力の浪費を回避し、デバイスの効率を改善し、デバイスのバッテリ寿命を延長する。
いくつかの実施形態では、ユーザ入力の第1の部分がフィードフォワード強度閾値要件を満たすとの判定に従って、第1の触知出力が生成され、ユーザ入力の第2の部分がアクティブ化強度閾値要件を満たすとの判定に従って、アクティブ化持続時間要件が満たされているかどうかに関係なく、第2の触知出力が生成される。より一般的には、第1及び第2の触知出力は、動作が実行されるかどうかに関係なく、接触の強度に基づいて生成される。
いくつかの実施形態では、第1及び/又は第2の触知出力の生成はまた、少なくとも所定の閾値時間量の間タッチ感知面上に接触が留まることを必要とする(例えば、フィードフォワード基準及びアクティブ化基準は両方とも、図5G~図5Iを参照して上述した持続時間要件を含む)。より一般的には、第1及び/又は第2の触知出力は、少なくとも所定の閾値時間量の間タッチ感知面上に接触が留まる要件を満たさないユーザ入力に対して生成されない(例えば、たとえ高速タップ入力が触知出力を生成するための強度基準を満たしても、高速タップ入力に対して第1及び/又は第2の触知出力は生成されない)。
いくつかの実施形態では、それぞれの動作は、タッチ感知面上の接触を検出し続ける間に実行され(632)、それぞれの動作を実行した後に、それぞれのユーザインタフェース要素の変換が、接触の強度が減少するときに継続して表示される。この例は、図5I~図5Lを参照して上述されている。接触の強度が減少するときにユーザインタフェース要素の変換を継続することによって、ユーザはデバイスがユーザのタッチ入力の強度に応じていることの視覚的確認を受信し、ユーザの意図を反映する入力をユーザがより正確に提供することを助け、時間及びバッテリの両方の使用量の点でデバイスの使用をより効率的する。
方法600のいくつかの実施形態では、それぞれのユーザインタフェース要素を含む(635)ユーザインタフェースは、デバイスがロック状態にあるとの判定に従って表示される。例えば、いくつかの実施形態では、ユーザインタフェース(例えば、ウェイクスクリーンインタフェース)は、デバイスをスクリーンオフ状態からスクリーンオン状態にウェイクすることに応じて表示される。
方法600のいくつかの実施形態では、電子デバイスは、懐中電灯(例えば、カメラフラッシュとして任意選択的に使用される光などの懐中電灯として機能するデバイス上の光)を含み(636)、それぞれのユーザインタフェース要素は、懐中電灯の状態(例えば、オンオフ状態)を制御するための懐中電灯アイコンである。このような実施形態は、図5A~図5Pを参照して上述されている。
方法600のいくつかの実施形態では、電子デバイスはカメラを含み(638)、それぞれのユーザインタフェース要素は、カメラ用カメラアプリケーションユーザインタフェースを表示するためのカメラアプリケーションアイコンである。このような実施形態は、図5AH~図5BAを参照して上述されている。
方法600のいくつかの実施形態では、それぞれのユーザインタフェース要素の変換を表示することは、ユーザ入力の強度が増大するにつれてそれぞれのユーザインタフェース要素の第1の変換を表示することと、ユーザ入力の強度が減少するにつれて第1の変換を反転することと、を含む(640)。このような実施形態は、懐中電灯アイコン510(例えば、図5A~図5P)、カメラアイコン512(図5AE~図5AH)、及びロックスクリーン背景560(図5Z~図5AA)を参照して上述されている。
方法600のいくつかの実施形態では、それぞれのユーザインタフェース要素の変換の程度は、入力の強度が増大するにつれて増大し、入力の強度が減少するにつれて減少する(例えば、より高い特性強度は、それぞれのユーザインタフェース要素へのより大きな変化を引き起こす)。このような実施形態は、懐中電灯アイコン510(例えば、図5A~図5P)、カメラアイコン512(図5AE~図5AH)、及びロックスクリーン背景560(図5Z~図5AA)を参照して上述されている。
方法600のいくつかの実施形態では、ユーザ入力の検出強度がフィードフォワード強度閾値(例えば、深い押圧閾値ITD)を下回る第2の強度閾値(例えば、ヒント閾値ITH)を満たす(例えば、上回る)と、それぞれのユーザインタフェース要素の変換を表示する程度が開始する(644)。
方法600のいくつかの実施形態では、フィードフォワード基準(動作612を参照)は、フィードフォワード基準を満たすために、入力の第1の部分の間に、それぞれのユーザインタフェース要素に対応する位置に接触が留まる要件(例えば、図5B~図5Hの、接触514が懐中電灯アイコン510の位置に留まる要件)を更に含む(650)。
方法600のいくつかの実施形態では、フィードフォワード基準は、フィードフォワード基準を満たすために、少なくとも所定の閾値時間量の間、タッチ感知面上に接触が留まる要件を更に含む(652)。例えば、接触がタッチ感知面に留まる時間量は、接触が最初に検出されたときから測定され、少なくとも所定の時間量(例えば、図5Pに示すアクティブ化時間TA)だけ継続する必要があり得る。いくつかの実施形態では、少なくとも既定の閾値時間量の間、タッチ感知面上に接触が留まる要件は、ユーザ入力をタップジェスチャから区別し、その例が図5O~図5Pに示されている。
方法600のいくつかの実施形態では、第1の触知出力は、接触の強度が増大するにつれて変化する一連の触知出力成分を含む(654)(例えば、接触の強度が増大するにつれて、一連の触知出力成分間の振幅、周波数、及び/又は時間間隔が増大又は減少する)。
いくつかの実施形態では、方法600は、フィードフォワード基準を満たした後に、ユーザ入力が、キャンセル基準であって、接触がそれぞれのアクティブ化可能なユーザインタフェースオブジェクトから閾値距離を超えて移動する要件を含む、キャンセル基準を満たすとの判定(656)に従って、それぞれのユーザインタフェースオブジェクトの変換を反転することと、それぞれの動作を実行することをやめることと、キャンセル触知出力を生成することと、を含む。いくつかの実施形態では、キャンセル触知出力は、第2の触知出力と同じである。そのようなキャンセル基準を満たすそのような入力の例は、図5M~図5Nを参照して上述されている。
いくつかの実施形態では、方法600は、同じ入力がタッチ感知面上で検出され続ける、アクティブ化ジェスチャの繰り返しに応じたユーザインタフェースオブジェクトの繰り返しアクティブ化(例えば、デバイスの懐中電灯の状態を再びトグルすること)を含み、その例が図5I~図5Lに示されている。より具体的には、いくつかの実施形態では、方法600は、タッチ感知面上で、接触の強度の第2の減少を含むユーザ入力の第4の部分が後に続く、接触の強度の第2の増大を含むユーザ入力の第3の部分を検出することを含む、それぞれのユーザインタフェース要素に向けられたユーザ入力を検出し続けること(660)であって、ユーザ入力の第3の部分が、ユーザ入力の第2の部分に続いている、ことを含む。そのような実施形態では、方法600は、ユーザ入力を検出したことに応じて(661)、それぞれのユーザインタフェース要素の第2の変換を表示すること(662)であって、第2の変換の程度がユーザ入力の強度に基づいて判定される、ことと、ユーザ入力の第3の部分がフィードフォワード基準を満足するとの判定に従って、それぞれの動作(例えば、懐中電灯の状態をトグルすること)を実行することなく第1の触知出力(又は第1の触知出力のインスタンス)を生成すること(663)と、を更に含む。
方法600のそのような実施形態は、ユーザ入力の第4の部分がアクティブ化基準を満たすとの判定(664)に従って、第2の触知出力(又は第2の触知出力のインスタンス)を生成すること(665)と、デバイスにおいて、それぞれのユーザインタフェース要素に関連付けられたそれぞれの動作(例えば、懐中電灯の状態をトグルすること)を実行すること(666)と、を更に含む。いくつかの実施形態では、それぞれのユーザインタフェース要素の変換は、その視覚的外観における更なる変換(例えば、懐中電灯をオン又はオフにトグルするときの懐中電灯アイコンの色の変化)を含む。いくつかの実施形態では、懐中電灯の状態をトグルすることなどのそれぞれの動作を実行することは、ユーザ入力によってオンになった懐中電灯をオンからオフにトグルすること、又はユーザ入力によってオフになった懐中電灯をオフからオンにトグルすることなどの、異なるサブ動作を実行することを含む。
方法600のいくつかの実施形態では、ユーザインタフェースは第1のユーザインタフェース(667)であり、方法600は、第1のユーザインタフェース(例えば、ホームスクリーン)とは別個の第2のユーザインタフェースを表示する要求に対応する第2のユーザ入力(例えば、ホームボタンの押圧、又はデバイスの端部から開始する上方向のスワイプジェスチャで、その例は図5AB~図5ADを参照して上述されている)を検出すること(668)を含む。第2のユーザ入力を検出したことに応じて、第2のユーザインタフェースを表示することと、を含む。いくつかの実施形態では、第2のユーザインタフェース(例えば、ホームスクリーンインタフェース)は、デバイスが認証され、ロック解除された状態にあるとの判定に従って表示される。
いくつかの実施形態では、方法600は、図5AE~図5AHを参照して上述したように、第2のそれぞれの動作(例えば、カメラアプリケーションユーザインタフェースを表示すること)に関連付けられた第2のユーザインタフェース要素(例えば、カメラアイコン)上の第2のユーザ入力に応じて、繰り返される。より具体的には、方法600のいくつかの実施形態では、ユーザインタフェースは、第2のそれぞれの動作(例えば、カメラアプリケーションユーザインタフェースの表示)に関連付けられた(例えば、対応する)第2のそれぞれのユーザインタフェース要素(例えば、カメラアプリケーションアイコン)を含み(670)、方法は、タッチ感知面上で、第2のそれぞれのユーザインタフェース要素(例えば、図5AE~図5AGのカメラアイコン512)に向けられた第2のユーザ入力(例えば、図5AE~図5AGのユーザ入力568)を検出すること(671)を含み、第2のそれぞれのユーザインタフェース要素に対応する位置で第2の接触を検出することと、第2の接触の強度の減少を含む第2のユーザ入力の第2の部分が後に続く、第2の接触の強度の増加を含む第2のユーザ入力の第1の部分を検出することと、を含む。
このような実施形態では、方法600は、第2のユーザ入力を検出すること(672)に応じて、第2のそれぞれのユーザインタフェース要素の変換を表示すること(673)であって、第2のそれぞれのユーザインタフェース要素の変換の程度が第2のユーザ入力の強度に基づいて判定される、こと(例えば、その最初のサイズ又はスケール、不透明度、明るさから第2のそれぞれのユーザインタフェース要素のサイズ又はスケールを増大すること、及び/又はその最初の色(単数又は複数)からそれぞれのユーザインタフェース要素の1つ以上の色を変更すること)と、第2のユーザ入力の第1の部分がフィードフォワード基準を満たすとの判定に従って、第2のそれぞれの動作を実行することなく第3の触知出力を生成すること(674)とを、更に含む。いくつかの実施形態では、第2のそれぞれのユーザインタフェース要素の視覚的外観の変換は、第2のそれぞれのユーザインタフェース要素に対応する(向けられた)第2のユーザ入力の検出強度の関数として進行する。
そのような実施形態では、方法600は、第2のユーザ入力の第2の部分がアクティブ化基準を満たすとの判定(675)に従って、第4の触知出力を生成すること(676)と、デバイスにおいて、第2のそれぞれのユーザインタフェース要素に関連付けられた第2のそれぞれの動作(例えば、カメラユーザインタフェースを表示することなど、それぞれのユーザインタフェース要素に関連付けられた機能をアクティブ化/非アクティブ化すること)を実行すること(678)と、を更に含む。いくつかの実施形態では、それぞれのユーザインタフェース要素の変換は、その視覚的外観における更なる変換(例えば、懐中電灯をオン又はオフにトグルするときの懐中電灯アイコンの色の反転又は変化)を含む。いくつかの実施形態では、第3の触知出力及び第4の触知出力は、同じ触知出力の別個のインスタンスである。例えば、第3の触知出力及び第4の触知出力は、同じ触知出力パターン、同じ振幅、及び同じ持続時間を有する。いくつかの実施形態では、第3の触知出力及び第4の触知出力は、異なる触知出力である。例えば、第3の触知出力及び第4の触知出力は、触知出力パターン、振幅、及び持続時間のうちの1つ以上によって異なる。
最後に、このような実施形態では、方法600は、第2の接触の特性強度が、第2のユーザ入力中のフィードフォワード強度閾値を満たさないとの判定(678)に従って(例えば、ユーザ入力の検出強度は、軽い強度のタップ又は長押しなどの強度閾値を下回ったままである)、第3の触知出力及び第4の触知出力を生成することをやめること(679)と、第2のそれぞれのユーザインタフェース要素に関連付けられた第2のそれぞれの動作を実行することをやめること(680)と、を含む。
いくつかの実施形態では、方法600は、それぞれのユーザインタフェース要素に関連付けられたそれぞれの動作が、それぞれのユーザインタフェース要素に関連付けられた機能をアクティブ化する(例えば、懐中電灯をオンにするなど、デバイス設定の状態を第1の状態から第2の状態にトグルする)ことを含むとの判定(681)に従って、第1の触知出力及び/又は第2の触知出力が、第1の基準触知出力のインスタンスであることを含む。更に、このような実施形態では、方法600は、それぞれの動作が、それぞれのユーザインタフェース要素に関連付けられた機能を非アクティブ化する(例えば、懐中電灯をオフにするなど、デバイス設定の状態を第2の状態から第1の状態にトグルする)ことを含むとの判定(682)に従って、第1の触知出力及び/又は第2の触知出力が、第1の基準触知出力とは別個の第2の基準触知出力のインスタンスであることを含む。例えば、機能をアクティブ化するときに生成される触知出力のうちの1つ以上は、機能を非アクティブ化するときの対応する触知出力のうちの1つ以上とは異なる。
方法600のいくつかの実施形態では、ユーザインタフェースは、第3のそれぞれのユーザインタフェース要素(例えば、図5R及び図5Sの要素504などの通知要素)を含み(683)、方法600は、第3のユーザインタフェース要素に向けられた第3のユーザ入力を検出すること(684)と、第3のユーザ入力を検出したことに応じて、(例えば、図5Rから図5Sへの遷移に示すように)第3のユーザインタフェース要素のサイズを増大させることを含む、第3のユーザインタフェース要素の変換を表示することと、を含む。いくつかの実施形態では、それぞれのユーザインタフェース要素の視覚的外観の変換は、それぞれのユーザインタフェース要素に対応する(向けられた)ユーザ入力の検出強度の関数として進行する(例えば、オブジェクトのサイズは、任意選択的にオブジェクトの初期サイズに対応する最小サイズと所定の最大サイズとの間で、強度が増大するにつれて初期サイズから増大し、強度が減少するにつれて減少する)。いくつかの実施形態では、入力の強度が増大するにつれて、ユーザインタフェースの背景が漸進的に不明瞭化される(例えば、入力の強度が増大するにつれて、増大するぼかし半径でぼやかされる)。いくつかの実施形態では、入力が第3のユーザインタフェースオブジェクトに対するプレビュー表示基準を満たすとき、第3のユーザインタフェースオブジェクトは、第3のユーザインタフェースオブジェクトに対応するコンテンツの拡張プレビューで置き換えられる。
方法600のいくつかの実施形態では、ユーザインタフェースは、スクロールリスト内に、それぞれのユーザインタフェース要素以外の複数のユーザインタフェース要素(例えば、複数のユーザインタフェース要素は、図5Tに示すように、見落とした通知などの通知である)を含み(686)、かつ、方法600は、スクロールリスト内の複数のユーザインタフェース要素をスクロールする(例えば、現在表示されていない追加の通知を表示するために受信した通知のリストをスクロールする)要求に対応する第4のユーザ入力(例えば、図5T~図5Wのユーザ入力548)を検出すること(688)を含み、第4のユーザ入力を検出したことに応じて、スクロールリスト内の複数のユーザインタフェース要素をスクロールすることと、それぞれの動作に関連付けられたそれぞれのユーザインタフェース要素の表示を停止することと、を含む。いくつかの実施形態では、方法600は、それぞれの動作(例えば、複数のボタン)に関連付けられた複数のそれぞれのユーザインタフェース要素を表示することを停止することを含み、その例は、図5Tから図5Uへの遷移に示されている。いくつかの実施形態では、その例が図5Uに示されており、1つ以上のそれぞれのユーザインタフェース要素が表示されたユーザインタフェースの領域が、スクロールリストの追加のコンテンツ(例えば、以前に表示されなかったスクロールリストの一部分)を表示する代わりに使用される。例えば、ユーザインタフェース(例えば、図5Tを参照)は、見逃した通知のリスト及び1つ以上のボタン(例えば、懐中電灯アイコン、又はカメラアプリケーションアイコン)を含み、(見逃した)通知のリストをスクロールすると、ボタンが消え、ボタンが表示されていたユーザインタフェースの領域が、以前は表示されなかった(例えば、図5Uを参照)1つ以上の追加の通知(又は通知の追加部分)を表示するために使用される。
方法600のいくつかの実施形態では、ユーザインタフェースは、スクロールリスト内に、それぞれのユーザインタフェース要素以外の複数のユーザインタフェース要素(例えば、複数のユーザインタフェース要素は、図5Tに示すように、見逃した通知などの通知である)を含み(690)、かつ、方法600は、スクロールリスト内の複数のユーザインタフェース要素をスクロールする(例えば、現在表示されていない追加の通知を表示するために通知のリストをスクロールする)要求に対応する第5のユーザ入力(例えば、図5T~図5Wのユーザ入力548)を検出すること(692)を含み、第5のユーザ入力を検出したことに応じて、スクロールリスト内の複数のユーザインタフェース要素をスクロールすることと、スクロールリストが所定の閾値位置に達したとの判定に従って、第3の触知出力を生成する(例えば、図5W、及び図5Wの上記説明を参照)。例えば、第3の触知出力は、スクロールリストが所定の閾値位置(例えば、日の境界)に達する前に以前の期間からの通知が表示されなかった場合に、以前の期間(例えば、前日)からの1つ以上の通知が表示されるように、スクロールリスト内の閾値位置を過ぎて通知のリストをスクロールすることに関連して生成される。
方法600のいくつかの実施形態では、ユーザインタフェースは背景(例えば、壁紙)を含み(694)、方法600は、背景に対応する位置における接触を検出すること、及び接触の強度の変化を検出することを含む、ユーザインタフェースの背景に向けられた第6のユーザ入力(例えば、図5Y~図5AAのユーザ入力562)を検出すること(696)を含む。方法600のそのような実施形態は、第6のユーザ入力を検出したことに応じて、接触の特性強度が背景アニメーション強度閾値に達したとの判定に従って、(例えば、図5Y~図5Zを参照して上述したライブ壁紙用の)背景のアニメーションを表示することと、接触の特性強度が背景アニメーション強度閾値に達しなかったとの判定に従って、背景のアニメーションを表示することをやめることと、を更に含む。いくつかの実施形態では、背景のアニメーションは、第6のユーザ入力の強度(例えば、第6のユーザ入力の接触)に基づいて進行する。いくつかの実施形態では、背景の変換を表示することは、背景がアニメーションを含む(例えば、背景がライブ壁紙である)との判定に従う。いくつかの実施形態では、背景の変換を表示することは、第6のユーザ入力の検出強度がアニメーション強度閾値を満たするときに開始する。いくつかの実施形態では、背景のアニメーションは、それぞれのユーザインタフェース要素に向けられた接触の特性強度が背景アニメーション強度閾値に達するときに表示される。いくつかの実施形態では、いったん開始されると、たとえそれぞれのユーザインタフェース要素に向けられた接触の特性強度が背景アニメーション強度閾値を下回って低下しても、背景のアニメーションは継続する。
方法600のいくつかの実施形態では、背景のアニメーションを表示することは、第6のユーザ入力の強度が増大するにつれて背景のアニメーションを通して進行することと、第6のユーザ入力の強度が減少するにつれてアニメーションを通して進行を反転することと、を含む。図5A~図5AAの上記の検討を参照されたい。
図6A~図6Hにおける動作について説明された特定の順序は単なる例であり、説明された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書に記載される動作を再順序付けるための様々な方法を認識するであろう。加えて、本明細書で説明される他の方法(例えば、方法700)に関連して本明細書で説明される、他のプロセスの詳細もまた、図6A~6Hに関連して上述された方法600と類似の方式で適用可能であることに留意されたい。例えば、方法600を参照して上述したように、ユーザインタフェース要素の視覚的変換、及び強度ベース基準を含む基準を満たすユーザ入力と連動した触知出力の生成はまた、方法700を参照して以下で説明するユーザインタフェース要素に任意選択的に適用可能である。簡潔にするために、それらの詳細はここでは繰り返さない。
カメラアプリケーションにおける状況依存触知出力の抑制又は低減
図7A~図7Cは、いくつかの実施形態に係る、カメラアプリケーション又はカメラユーザインタフェースにおける特定の触知出力の生成をやめる方法700を示すフロー図である。方法700は、ディスプレイ、タッチ感知面、及びタッチ感知面との接触の強度を検出する1つ以上のセンサを有する電子デバイス(例えば、デバイス300、図3、又はポータブル多機能デバイス100、図1A)において実行される。いくつかの実施形態では、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面がディスプレイ上にあるか又はこれに組み込まれている。いくつかの実施形態では、ディスプレイはタッチ感知面から分離している。方法700の一部の動作が任意選択的に組み合わされ、かつ/又は、一部の動作の順序が任意選択的に変更される。
後述するように、方法700は、カメラアプリケーションのユーザに直感的に視覚的かつ触知的なフィードバックを提供して、ユーザによるカメラアプリケーションの効率的な使用を容易にし、カメラアプリケーションによってキャプチャされているメディアの音声部分を記録することとの干渉を回避するために、様々な触知出力の振幅を抑制及び/又は低減する。それによって、この方法は、カメラアプリケーションの非音声記録コンテキストで、ユーザによるカメラアプリケーションの効率的な使用を容易にする触知出力をなおも提供しながら、触知出力からの干渉なしに、音声を有するメディアをキャプチャすることを容易にし、そうして、より効率的なヒューマンマシンインタフェースを作り出す。バッテリー駆動の電子デバイスの場合、触知出力を使用して、カメラのユーザインタフェース機能をユーザがより速くより効率的に選択できるようにすることで、電力を節約し、バッテリの充電間隔を長くする。
1つ以上の入力デバイス、1つ以上の出力デバイス、及び1つ以上の触知出力生成器(702)を有する電子デバイスにおいて実行される(及び電子デバイスによってこのように実行される)方法700は、メディアをキャプチャするためのカメラユーザインタフェースを表示すること(704)を含み、カメラは複数のメディアキャプチャモードを有する。方法700は、カメラユーザインタフェースを表示している間に、1つ以上の入力デバイスを介して、キャプチャアフォーダンス(例えば、表示されたシャッターボタン、又はボリュームアップボタンなどのシャッターボタンとして機能する物理ボタン)のアクティブ化を検出すること(706)を更に含む。方法700は、1つ以上の入力デバイスを介して、キャプチャアフォーダンスのアクティブ化を検出したことに応じて(708)、カメラユーザインタフェースが第1のメディアキャプチャモード(例えば、静止画キャプチャモード)にあった間にキャプチャアフォーダンスのアクティブ化が検出されたとの判定(710)に従って、第1のタイプのメディア(例えば、静止画像)をキャプチャすること(712)であって、第1のメディアキャプチャモードでメディアをキャプチャすることは、音声なしでキャプチャされた1つ以上の画像を含む第1のタイプのメディアをキャプチャすることを含む、ことと、第1の触知出力を生成すること(714)と、を更に含む。カメラアプリケーションのキャプチャアフォーダンスのアクティブ化及び第1の触知出力の生成の例は、図5AI~5AJを参照して上述されている。
方法700は、1つ以上の入力デバイスを介して、キャプチャアフォーダンスのアクティブ化を検出することに応じて(708)、カメラユーザインタフェースが第1のメディアキャプチャモードとは別個の第2のメディアキャプチャモード(例えば、ビデオキャプチャ又はライブフォトキャプチャモード)にあった間にキャプチャアフォーダンスのアクティブ化が検出されたとの判定(716)に従って、第2のタイプのメディア(例えばビデオ又はライブ写真)をキャプチャすること(716)であって、第2のメディアキャプチャモードでメディアをキャプチャすることは、一連の画像及び対応する音声(例えば、ビデオの録画又はライブ写真のキャプチャ)を含む第2のタイプのメディアをキャプチャすることを含む、ことと、キャプチャアフォーダンスのアクティブ化に応じて第1の触知出力を生成することをやめること(718)と、を更に含む。ビデオキャプチャモードにある間のカメラアプリケーションのキャプチャアフォーダンスのアクティブ化の例、及び第1の触知出力の生成をやめることの例は、図5AV~図5AWを参照して上述されている。
いくつかの実施形態では、方法700は、カメラユーザインタフェースが第1のメディアキャプチャモードにある間に検出されたキャプチャアフォーダンスの第1のアクティブ化、及びカメラユーザインタフェースが第2のメディアキャプチャモードにある間に検出されたキャプチャアフォーダンスの第2のアクティブ化を含む、キャプチャアフォーダンスの一連のアクティブ化を検出することを含む。触知出力を生成することは、意図された結果が達成されたことの確認をデバイスのユーザを提供するが、音声を含むメディアを記録している間に触知出力を生成をやめることが、キャプチャされた音声との触知出力の干渉を低減することに留意されたい。
いくつかの実施形態では、方法700は、1つ以上の入力デバイスを介して、キャプチャアフォーダンスのアクティブ化を検出したことに応じて、カメラユーザインタフェースが第2のメディアキャプチャモードにあった間にキャプチャアフォーダンスのアクティブ化が検出されたとの判定に従って、第2のタイプのメディアをキャプチャすることと併せて、第1の触知出力よりも低い振幅を有する第2の触知出力を生成すること(720)を含む。いくつかの実施形態では、第2の触知出力は、第1の触知出力をゼロに低減することを含む。より一般的には、いくつかの実施形態では、キャプチャアフォーダンスのアクティブ化に応じて第2のメディアキャプチャモードで生成された触知出力は、キャプチャアフォーダンスのアクティブ化に応じて第1のメディアキャプチャモードで生成された触知出力に関して低減される。一般に、触知出力を生成することは、意図された結果が達成されたことの確認をユーザに提供するが、音声を含むメディアを記録している間により低い振幅で触知出力を生成することが、キャプチャされた音声などとの触知出力の干渉を低減することに留意されたい。
方法700のいくつかの実施形態では、第2の触知出力は、低減された振幅を有する第1の触知出力を含む(722)(例えば、第2の触知出力は、第1の触知出力のインスタンスを減衰した結果である)。触知出力振幅を低減することは、ユーザ入力に関する、又はユーザ入力に応じてデバイスによって実行されている動作に関する何らかのフィードバックをユーザになおも提供するが、音声キャプチャとの干渉を低減することに留意されたい。
方法700のいくつかの実施形態では、第2のタイプのメディアをキャプチャしている間に生成されたそれぞれの触知出力に対して、所定の閾値を下回る量だけそれぞれの触知出力がキャプチャされたメディアと干渉するとの判定に基づいて、それぞれの触知出力が選択される(724)。そのような実施形態は、動作モードに関係なく、特定の所定の動作に対して意図された結果が達成されたことの確認をユーザに提供し、それによって、デバイス及びカメラアプリケーションの使用をより効率的にし、特定の動作モード(例えば、記録音声に対するノイズ低減)でキャプチャされたメディアへの混乱を低減又は最小化する。
方法700のいくつかの実施形態では、第2の触知出力は、ゼロに低減されたスケールを有する第1の触知出力を含む(726)(例えば、第2の触知出力は、触知沈黙を含むか、又は触知沈黙として実装される)。触知出力のスケールをゼロに低減するこのような実施形態は、カメラアプリケーションの他のコンテキストにおいて触知出力とそれらに付随する利益をなおも提供しながら、音声キャプチャとの干渉を全て除去する。
カメラアプリケーションがバーストモードで動作しているときの触知出力の生成については、図5AKを参照して上述されている。方法700のいくつかの実施形態では、第1のタイプのメディアをキャプチャすることは、一連の画像をキャプチャすることを含み(730)、第1の触知出力は、一連の画像内の初期画像に対応する(例えば、初期画像に対して生成される)(732)。そのような実施形態では、方法700は、初期画像以外の一連の画像内の各画像に対して、第1の触知出力が生成された直近の先行画像をキャプチャすることに対応する時点からそれぞれの画像をキャプチャすることに対応する(例えば、第1の触知出力を生成するその後の要求に対応する)時点までの時間間隔を判定すること(734)を含む。更に、このような実施形態では、方法700は、時間間隔が所定の期間未満であるとの判定に従って、第1の触知出力を生成することなくそれぞれの画像をキャプチャすること(736)と、時間間隔が所定の期間よりも大きいとの判定に従って、それぞれの画像をキャプチャすること(738)と、第1の触知出力を生成することと、を含む。いくつかの実施形態では、時間間隔は、触知出力に対する要求時間、画像をキャプチャすることに関連付けられた時間、又は(実際の及び投影される)触知出力時間から測定される。より一般的には、いくつかの実施形態では、触知出力は、直近に生成された触知出力の直後にそれぞれの触知出力が生成され得るかどうかに基づいて、キャプチャされた画像に対して触知出力が生成されるか、又は生成されない。いくつかの実施形態では、最小時間間隔TIB(例えば、図5AKを参照)は、連続触知出力の間に実施される。いくつかの実施形態では、一連の画像はバーストモードで取得され、既定の期間(例えば、バーストモード間隔TIC)によって時間的に分離された連続画像を有する。いくつかの実施形態では、一連の画像に対する触知出力は、許可されたときにバーストモード間隔と同期して生成される。例えば、TICがTIB未満である実施形態では、それぞれの画像(例えば、初期画像)をキャプチャし、それぞれの画像に対する触知出力を生成した後に、それぞれの画像をキャプチャしてから最小の触知出力時間間隔TIBの間にキャプチャされた画像に対する触知出力は生成されず、次に生成された触知出力が、それぞれの画像をキャプチャしてからの最小の触知出力時間間隔の満了に続く次のキャプチャ画像に対応する。
いくつかの実施形態では、一連の画像に対する触知出力生成は、バースト間隔と非同期である(例えば、「非同期触知出力」グラフ593、図5AKを参照)。いくつかの実施形態では、第1の触知出力の生成は、キャプチャアフォーダンスのアクティブ化を検出し続ける間(例えば、キャプチャアフォーダンスのアクティブ化が維持されている間)、第1のそれぞれの画像のキャプチャと第1のそれぞれの画像の直後(又は直前)の第2のそれぞれの画像のキャプチャとの間の任意のそれぞれの時間間隔に関係なく、最小時間間隔で繰り返される。
先行する触知出力からの時間間隔に基づいて触知出力の生成をやめることにより、触知出力の過度の生成が低減され、それによって、ハードウェア仕様及び制限を遵守し、触知出力生成器を保護する。加えて、先行する触知出力からの時間間隔に基づいて触知出力の生成をやめることにより、触知出力によるユーザの過負荷を低減し、それによって、ユーザがより重要な触知出力にフォーカスすることを可能にする。このように、これらの機能(例えば、730~738又はそのサブセット)は、(例えば、より重要な触知出力を提供し、デバイスを動作/デバイスと対話するときにユーザの誤り及び/又は意図しない動作を低減することによって)デバイスを保護し、ユーザデバイスインタフェースをより効率的にする。
いくつかの実施形態では、方法700は、第1のそれぞれのメディアキャプチャモードから第2のそれぞれのメディアキャプチャモードに切り替えるユーザ入力を検出すること(740)を含む。例えば、図5AT~図5AUの上記の検討を参照されたい。いくつかの実施形態では、カメラユーザインタフェースが第1のメディアキャプチャモードにある間に(モードを切り替える)ユーザ入力が検出され、カメラユーザインタフェースを第1のメディアキャプチャモードから第2のメディアキャプチャモードに切り替える。いくつかの実施形態では、カメラユーザインタフェースが第2のメディアキャプチャモードにある間にユーザ入力が検出され、カメラユーザインタフェースを第2のメディアキャプチャモードから第1のメディアキャプチャモードに切り替える。いくつかの実施形態では、ユーザ入力は、キャプチャアフォーダンスのアクティブ化を検出した後に検出される。いくつかの実施形態では、ユーザ入力は、左から右、又は右から左へのスワイプジェスチャーである。いくつかの実施形態では、ユーザ入力は、第2のそれぞれのメディアキャプチャモードに対して、(例えば、カメラユーザインタフェースが第1のそれぞれのメディアキャプチャモードにある間に)カメラユーザインタフェース内に表示されるアフォーダンス上のタップジェスチャである。
方法700のそのような実施形態は、ユーザ入力を検出じたことに応じて(742)、カメラユーザインタフェースを第1のそれぞれのメディアキャプチャモードから第2のそれぞれのメディアキャプチャモードに切り替えること(744)と、第3の触知出力を生成すること(746)と、を更に含む。より一般的には、いくつかの実施形態では、触知出力(例えば、第3の触知出力)は、メディアキャプチャモード間の切り替えと併せて生成される。いくつかの実施形態では、第3の触知出力は、第1の触知出力及び/又は第2の触知出力とは異なる(例えば、異なる触知出力パターンを有する)。これらの機能は、意図された結果が達成されたことの確認をデバイスのユーザに提供し、これは、既に実行されている機能を実行しようと試みる繰り返しユーザ入力を回避する助けとなる。
いくつかの実施形態では、方法700は、カメラユーザインタフェースを表示している(750)間に、1つ以上の入力デバイスを介して、キャプチャアフォーダンスのアクティブ化以外のカメラユーザインタフェースにおける動作、例えばカメラユーザインタフェースの設定変更などのメディアをキャプチャすること以外の動作、を実行するための第2のユーザ入力(例えば、ユーザ入力598、図5AP)を検出することを含む。いくつかの実施形態では、動作は、異なるキャプチャモード間の切り替え、(例えば、図5AP~図5ASに示すような)異なるカメラフィルタ間の切り替え、又は(例えば、図5AL~図5AM及び5AZ~図5BAに示すような)カメラのライブビューをズームイン又はズームアウトすることを含んでもよい。
このような実施形態では、方法700は、1つ以上の入力デバイスを介して第2のユーザ入力を検出したことに応じて、カメラユーザインタフェースにおける動作を実行すること(752)と、カメラユーザインタフェースが第1のメディアキャプチャモード(例えば、静止画キャプチャ)又は第2のメディアキャプチャモード(例えば、ビデオキャプチャ又はライブ写真キャプチャ)のどちらにあるかに関係なく、第4の触知出力を生成することと、を更に含む。より一般的には、いくつかの実施形態では、触知出力(例えば、第4の触知出力)は、メディアキャプチャモードに関係なく、ユーザインタフェースでの動作(例えば、キャプチャアフォーダンスのアクティブ化以外の動作)の実行に従って生成される。例えば、第4の触知出力は、第1のメディアキャプチャモード(例えば、静止画のキャプチャ)で動作(例えば、フィルタの変更)を実行することに従って生成され、第4の触知出力(又は第4の触知出力のインスタンス)はまた、第2のメディアキャプチャモードで縮小されるのではなく、(例えば、ビデオやライブ写真などのメディアが第2のメディアキャプチャモードでキャプチャされているかどうかに関係なく、及び任意選択的に、たとえライブ写真用などのキャプチャアフォーダンスのアクティブ化を検出する前にキャプチャするメディアをバッファリングしている間であっても)第2のメディアキャプチャモードで動作(例えば、フィルタの変更)の実行することに従って生成される。いくつかの実施形態では、第4の触知出力は、第1の触知出力とは、及び/又は第2の触知出力とは、及び/又は第3の触知出力とは異なる(例えば、異なる触知出力パターンを有する)。そのような実施形態は、動作モードに関係なく、特定の所定の動作に対して意図された結果が達成されたことの確認を、ユーザに一貫して提供する。
方法700のいくつかの実施形態では、カメラユーザインタフェースにおける動作は、カメラユーザインタフェース内に表示されたユーザインタフェース要素のスケールを変更すること(例えば、図5AL~図5AM及び5AZ~図5BAに示すようにズーム率を変更すること)を含む(例えば、カメラのライブビュー内のズーム率を増大又は縮小する)。方法700のそのような実施形態では、第4の触知出力は、表示されたユーザインタフェース要素のスケールが所定の制限を満たす(例えば、最大又は最小ズームレベルに達したか又は超えた)との判定に従って生成される。例えば、カメラユーザインタフェースのライブビュー(例えば、カメラのレンズを通してユーザがキャプチャされているものを見るのに役立つカメラユーザインタフェースのライブビュー領域)をズームイン又はズームアウトしている間にズーム制限に達するのに従って、触知出力(例えば、ズーム制限触知出力などの第4の触知出力)が生成される。いくつかの実施形態では、ズーム制限触知出力は、メディアキャプチャモードにかかわらず生成される。例えば、ズーム制限触知出力は、静止写真キャプチャモードにおけるズーム制限に達する(又は、いくつかの実施形態では、超える)に従って生成され、ズーム制限触知出力(又はズーム制限触知出力のインスタンス)もまた、第2のメディアキャプチャモードで縮小されるのではなく、ビデオキャプチャモード又はライブフォトキャプチャモードなどの第2のメディアキャプチャモードにおけるズーム制限に達する(又は、超える)に従って生成される。そのような実施形態は、特定の動作モード(例えば、録音された音声に対するノイズリダクション)でキャプチャされたメディアへの混乱を最小限に抑えながら、動作モードに関係なく特定の所定の動作に対して意図した結果が達成されていることの確認をユーザに提供する。
方法700のいくつかの実施形態では、カメラユーザインタフェース内の動作は、カメラユーザインタフェースのフィルタ設定を変更することを含む(例えば、現在選択されているフィルタ設定とは異なるフィルタ設定上をタップしたり、又はスクロール可能な一連のフィルタ設定内のフィルタ設定までスクロールしたり、若しくはフィルタ設定を通してスクロールしたりするなど、図5AQ~5ASの上記の検討を参照されたい)。例えば、現在選択されているフィルタからカメラユーザインタフェースのフィルタを変更することに従って、触知出力(例えば、選択変更触知出力などの第4の触知出力)が生成される。いくつかの実施形態では、選択変更触知出力は、メディアキャプチャモードにかかわらず生成される。例えば、選択変更触知出力は、静止写真キャプチャモードにおける異なるフィルタへの変更に従って生成され、選択変更触知出力(又は選択変更触知出力のインスタンス)もまた、第2のメディアキャプチャモードで低減されるのではなく、ビデオキャプチャモード又はライブフォトキャプチャモードなどの第2のメディアキャプチャモードにおける異なるフィルタへの変更に従って生成される。このような実施形態は、特定の動作モード(例えば、ライブ画像及びビデオキャプチャモード)でキャプチャされたメディアへの混乱を最小限に抑えながら、動作モードに関係なく特定の所定の動作に対して意図した結果が達成されていることの確認をユーザに提供する。
図7A~図7Cにおける動作について説明された特定の順序は単なる例であり、説明された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書に記載される動作を再順序付けるための様々な方法を認識するであろう。加えて、本明細書で説明される他の方法(例えば、方法600)に関連して本明細書で説明される、他のプロセスの詳細もまた、図7A~7Cに関連して上述された方法700と類似の方式で適用可能であることに留意されたい。簡潔にするために、それらの詳細はここでは繰り返さない。
上記は、説明を目的として、特定の実施形態を参照して記述されている。しかしながら、上記の例示的な論考は、網羅的であること、又は開示される厳密な形態に本発明を限定することを意図するものではない。上記の教示を考慮して、多くの修正及び変形が可能である。本発明の原理及びその実際的な応用を最良の形で説明し、それによって他の当業者が、想到される特定の用途に適した様々な変更で本発明及び様々な記載された実施形態を最良の形で使用することを有効化するために、これらの実施形態を選択し記載した。

Claims (20)

  1. ディスプレイと、タッチ感知面と、1つ以上の触知出力生成器とを有する電子デバイスにおいて、
    前記ディスプレイ上に、それぞれの動作に関連付けられているそれぞれのユーザインタフェース要素を含むユーザインタフェースを表示することと、
    前記タッチ感知面上で、前記それぞれのユーザインタフェース要素に向けられたユーザ入力を検出することであって、前記それぞれのユーザインタフェース要素に対応する位置における接触を検出することと、前記ユーザ入力の第2の部分が後に続く、前記ユーザ入力の第1の部分を検出することと、を含む、ことと、
    前記ユーザ入力を検出したことに応じて、
    前記それぞれのユーザインタフェース要素の変換を表示することであって、前記変換の程度が前記接触の特性に基づいて判定されている、ことと、
    前記ユーザ入力の前記第1の部分がフィードフォワード基準を満たすとの判定に従って、前記フィードフォワード基準が、前記フィードフォワード基準を満たすために、少なくとも所定の時間量の間、前記タッチ感知面上に前記接触が留まる要件を含み、
    前記それぞれの動作を実行することなく第1の触知出力を生成することと、
    前記ユーザ入力が、前記フィードフォワード基準を満たした後であって、かつ前記接触が前記タッチ感知面からリフトオフされる要件を含むアクティブ化基準を満たす前に、前記接触が前記それぞれのユーザインタフェース要素から閾値距離を超えて移動する要件を含むキャンセル基準を満たすとの判定に従って、
    前記ユーザ入力が前記キャンセル基準を満たすことに応じて前記それぞれのユーザインタフェース要素の前記変換を反転することと、
    前記それぞれの動作を実行することをやめることと、
    第2の触知出力を生成することをやめることと、
    前記ユーザ入力の前記第1の部分が前記フィードフォワード基準を満たし、かつ前記ユーザ入力の前記第2の部分が前記アクティブ化基準を満たすとの判定に従って、前記ユーザ入力の前記第2の部分に応答して、
    第2の触知出力を生成することと、
    前記電子デバイスにおいて、前記それぞれのユーザインタフェース要素に関連付けられた機能をアクティブ化することを含む、前記それぞれのユーザインタフェース要素に関連付けられた前記それぞれの動作を実行することであって、前記それぞれの動作が前記第1の触知出力を生成することと前記第2の触知出力を生成することとは異なり、前記接触が前記タッチ感知面からリフトオフされた後に前記機能のアクティブ化が維持される、ことと
    前記接触の前記特性が、前記ユーザ入力中の前記フィードフォワード基準を満たさないとの判定に従って、
    前記第1の触知出力及び前記第2の触知出力を生成することをやめることと、
    前記それぞれのユーザインタフェース要素に関連付けられた前記それぞれの動作を実行することをやめることと、を含む、方法。
  2. 前記それぞれのユーザインタフェース要素の前記変換を表示することは、前記ユーザ入力の強度が増大するにつれて前記それぞれのユーザインタフェース要素の第1の変換を表示することと、前記ユーザ入力の前記強度が減少するにつれて前記第1の変換を反転することと、を含む、請求項1に記載の方法。
  3. 前記フィードフォワード基準は、前記フィードフォワード基準を満たすために、前記ユーザ入力の前記第1の部分中に前記それぞれのユーザインタフェース要素に対応する前記位置に前記接触が留まる要件を更に含む、請求項1又は2に記載の方法。
  4. 前記アクティブ化基準は、前記アクティブ化基準を満たすために、少なくとも所定の閾値時間量の間、前記タッチ感知面上に前記接触が留まる要件を更に含む、請求項1から3のいずれか一項に記載の方法。
  5. 前記それぞれのユーザインタフェース要素の前記変換の前記程度は、前記ユーザ入力の強度が増大するにつれて増大し、前記ユーザ入力の前記強度が減少するにつれて減少する、請求項1から4のいずれか一項に記載の方法。
  6. 前記第1の触知出力は、前記接触の強度が増大するにつれて変化する一連の触知出力成分を含む、請求項1から5のいずれか一項に記載の方法。
  7. 前記それぞれのユーザインタフェース要素の前記変換を表示することは、前記接触の特性がフィードフォワード閾値を下回る第2の閾値を満たすときに開始する、請求項1からのいずれか一項に記載の方法。
  8. 前記それぞれのユーザインタフェース要素を含む前記ユーザインタフェースは、前記電子デバイスがロック状態にあるとの判定に従って表示される、請求項1からのいずれか一項に記載の方法。
  9. 前記ユーザインタフェースは、第2のそれぞれの動作に関連付けられた第2のそれぞれのユーザインタフェース要素を含み、前記方法が、
    前記タッチ感知面上で、前記第2のそれぞれのユーザインタフェース要素に向けられた第2のユーザ入力を検出することであって、前記第2のそれぞれのユーザインタフェース要素に対応する位置における第2の接触を検出することと、前記第2のユーザ入力の第2の部分が後に続く、前記第2のユーザ入力の第1の部分を検出することと、を含む、ことと、
    前記第2のユーザ入力を検出したことに応じて、
    前記第2のそれぞれのユーザインタフェース要素の変換を表示することであって、前記第2のそれぞれのユーザインタフェース要素の前記変換の程度が前記第2の接触の特性に基づいて判定されている、ことと、
    前記第2のユーザ入力の前記第1の部分が前記フィードフォワード基準を満たすとの判定に従って、
    前記第2のそれぞれの動作を実行することなく第3の触知出力を生成することと、
    前記第2のユーザ入力の前記第2の部分が前記アクティブ化基準を満たすとの判定に従って、
    第4の触知出力を生成することと、
    前記電子デバイスにおいて、前記第2のそれぞれのユーザインタフェース要素に関連付けられた前記第2のそれぞれの動作を実行することと、
    前記第2の接触の特性が、前記第2のユーザ入力中の前記フィードフォワード基準を満たさないとの判定に従って、
    前記第3の触知出力及び前記第4の触知出力を生成することをやめることと、
    前記第2のそれぞれのユーザインタフェース要素に関連付けられた前記第2のそれぞれの動作を実行することをやめることと、を含む、請求項1からのいずれか一項に記載の方法。
  10. 前記ユーザインタフェースは第1のユーザインタフェースであり、前記方法が、
    前記第1のユーザインタフェースとは別個の第2のユーザインタフェースを表示する要求に対応する第2のユーザ入力を検出することと、
    前記第2のユーザ入力を検出したことに応じて、前記第2のユーザインタフェースを表示することと、を含む、請求項1からのいずれか一項に記載の方法。
  11. 前記電子デバイスは懐中電灯を含み、前記それぞれのユーザインタフェース要素は、前記懐中電灯の状態を制御するための懐中電灯アイコンである、請求項1から10のいずれか一項に記載の方法。
  12. 前記電子デバイスはカメラを含み、前記それぞれのユーザインタフェース要素は、前記カメラ用のカメラアプリケーションユーザインタフェースを表示するためのカメラアプリケーションアイコンである、請求項1から10のいずれか一項に記載の方法。
  13. 前記それぞれのユーザインタフェース要素に関連付けられた前記それぞれの動作が、前記それぞれのユーザインタフェース要素に関連付けられた機能をアクティブ化することを含むとの判定に従って、前記第1の触知出力及び/又は前記第2の触知出力は、第1の基準触知出力のインスタンスであり、
    前記それぞれの動作が、前記それぞれのユーザインタフェース要素に関連付けられた前記機能を非アクティブ化することを含むとの判定に従って、前記第1の触知出力及び/又は前記第2の触知出力は、前記第1の基準触知出力とは別個の第2の基準触知出力のインスタンスである、請求項1から12のいずれか一項に記載の方法。
  14. 前記ユーザインタフェースは第3のそれぞれのユーザインタフェース要素を含み、前記方法が、
    前記第3のそれぞれのユーザインタフェース要素に向けられた第3のユーザ入力を検出することと、
    前記第3のユーザ入力を検出したことに応じて、前記第3のそれぞれのユーザインタフェース要素のサイズを増大させることを含む、前記第3のそれぞれのユーザインタフェース要素の変換を表示することと、を含む、請求項1から13のいずれか一項に記載の方法。
  15. 前記ユーザインタフェースは、スクロールリスト内に前記それぞれのユーザインタフェース要素以外の複数のユーザインタフェース要素を含み、前記方法が、
    前記スクロールリスト内の前記複数のユーザインタフェース要素をスクロールする要求に対応する第4のユーザ入力を検出することと、
    前記第4のユーザ入力を検出したことに応じて、
    前記スクロールリスト内の前記複数のユーザインタフェース要素をスクロールすることと、
    前記それぞれの動作に関連付けられた前記それぞれのユーザインタフェース要素を表示することを停止することと、を含む、請求項1から14のいずれか一項に記載の方法。
  16. 前記ユーザインタフェースは、スクロールリスト内に前記それぞれのユーザインタフェース要素以外の複数のユーザインタフェース要素を含み、前記方法が、
    前記スクロールリスト内の前記複数のユーザインタフェース要素をスクロールする要求に対応する第5のユーザ入力を検出することと、
    前記第5のユーザ入力を検出したことに応じて、
    前記スクロールリスト内の前記複数のユーザインタフェース要素をスクロールすることと、
    前記スクロールリストが所定の閾値位置に達したとの判定に従って、第3の触知出力を生成することと、を含む、請求項1から14のいずれか一項に記載の方法。
  17. 前記ユーザインタフェースは背景を含み、前記方法が、
    前記背景に対応する位置で接触を検出することと、前記接触の強度の変化を検出することと、を含む、前記ユーザインタフェースの前記背景に向けられた第6のユーザ入力を検出することと、
    前記第6のユーザ入力を検出したことに応じて、
    前記第6のユーザ入力の前記接触の特性強度が背景アニメーション強度閾値に達したとの判定に従って、前記背景のアニメーションを表示することと、
    前記第6のユーザ入力の前記接触の特性強度が前記背景アニメーション強度閾値に達しなかったとの判定に従って、前記背景の前記アニメーションを表示することをやめることと、を含む、請求項1から16のいずれか一項に記載の方法。
  18. 前記背景の前記アニメーションを表示することは、前記第6のユーザ入力の前記接触の前記特性強度が増大するにつれて前記背景の前記アニメーションを通して進行することと、前記第6のユーザ入力の前記接触の前記特性強度が減少するにつれて前記アニメーションを通した前記進行を反転することと、を含む、請求項17に記載の方法。
  19. 電子デバイスであって、
    ディスプレイと、
    タッチ感知面と、
    1つ以上の触知出力生成器と、
    1つ以上のプロセッサと、
    1つ以上のプログラムを記憶したメモリと、を備え、前記1つ以上のプログラムが、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項1から18のいずれか一項に記載の方法を実行する命令を含んでいる、電子デバイス。
  20. 命令を含むコンピュータプログラムであって、前記命令が、ディスプレイとタッチ感知面と1つ以上の触知出力生成器とを有する電子デバイスによって実行されると、前記電子デバイスに、請求項1から18のいずれか一項に記載の方法を実行させる、コンピュータプログラム。
JP2019562305A 2017-05-16 2018-05-16 ユーザインタフェースのための触知フィードバック Active JP7049368B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022050345A JP2022095736A (ja) 2017-05-16 2022-03-25 ユーザインタフェースのための触知フィードバック
JP2024017391A JP2024063012A (ja) 2017-05-16 2024-02-07 ユーザインタフェースのための触知フィードバック

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201762507138P 2017-05-16 2017-05-16
US62/507,138 2017-05-16
DKPA201770372 2017-05-24
DKPA201770372A DK201770372A1 (en) 2017-05-16 2017-05-24 TACTILE FEEDBACK FOR LOCKED DEVICE USER INTERFACES
US15/972,040 2018-05-04
US15/972,040 US11314330B2 (en) 2017-05-16 2018-05-04 Tactile feedback for locked device user interfaces
PCT/US2018/032936 WO2018213423A1 (en) 2017-05-16 2018-05-16 Tactile feedback for user interfaces

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022050345A Division JP2022095736A (ja) 2017-05-16 2022-03-25 ユーザインタフェースのための触知フィードバック

Publications (2)

Publication Number Publication Date
JP2020520011A JP2020520011A (ja) 2020-07-02
JP7049368B2 true JP7049368B2 (ja) 2022-04-06

Family

ID=64271676

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019562305A Active JP7049368B2 (ja) 2017-05-16 2018-05-16 ユーザインタフェースのための触知フィードバック
JP2022050345A Pending JP2022095736A (ja) 2017-05-16 2022-03-25 ユーザインタフェースのための触知フィードバック
JP2024017391A Pending JP2024063012A (ja) 2017-05-16 2024-02-07 ユーザインタフェースのための触知フィードバック

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2022050345A Pending JP2022095736A (ja) 2017-05-16 2022-03-25 ユーザインタフェースのための触知フィードバック
JP2024017391A Pending JP2024063012A (ja) 2017-05-16 2024-02-07 ユーザインタフェースのための触知フィードバック

Country Status (6)

Country Link
US (3) US11314330B2 (ja)
JP (3) JP7049368B2 (ja)
KR (2) KR20230131953A (ja)
CN (1) CN115494956A (ja)
AU (1) AU2020289876B2 (ja)
DK (1) DK201770372A1 (ja)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102497720B1 (ko) 2014-09-02 2023-02-10 애플 인크. 가변 햅틱 출력을 위한 시맨틱 프레임워크
DK201670737A1 (en) 2016-06-12 2018-01-22 Apple Inc Devices, Methods, and Graphical User Interfaces for Providing Haptic Feedback
DK179823B1 (en) 2016-06-12 2019-07-12 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR PROVIDING HAPTIC FEEDBACK
DK179278B1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, methods and graphical user interfaces for haptic mixing
DK201670720A1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs
US10606357B2 (en) * 2017-03-28 2020-03-31 Tanvas, Inc. Multi rate processing device for rendering haptic feedback
US10732714B2 (en) 2017-05-08 2020-08-04 Cirrus Logic, Inc. Integrated haptic system
US11259121B2 (en) 2017-07-21 2022-02-22 Cirrus Logic, Inc. Surface speaker
US10620704B2 (en) 2018-01-19 2020-04-14 Cirrus Logic, Inc. Haptic output systems
US11139767B2 (en) 2018-03-22 2021-10-05 Cirrus Logic, Inc. Methods and apparatus for driving a transducer
US10832537B2 (en) 2018-04-04 2020-11-10 Cirrus Logic, Inc. Methods and apparatus for outputting a haptic signal to a haptic transducer
US11069206B2 (en) 2018-05-04 2021-07-20 Cirrus Logic, Inc. Methods and apparatus for outputting a haptic signal to a haptic transducer
US11055346B2 (en) * 2018-08-03 2021-07-06 Gracenote, Inc. Tagging an image with audio-related metadata
US11269415B2 (en) 2018-08-14 2022-03-08 Cirrus Logic, Inc. Haptic output systems
GB201817495D0 (en) 2018-10-26 2018-12-12 Cirrus Logic Int Semiconductor Ltd A force sensing system and method
US20220004250A1 (en) * 2018-11-19 2022-01-06 Sony Group Corporation Information processing apparatus, information processing method, and program
US10992297B2 (en) 2019-03-29 2021-04-27 Cirrus Logic, Inc. Device comprising force sensors
US11509292B2 (en) 2019-03-29 2022-11-22 Cirrus Logic, Inc. Identifying mechanical impedance of an electromagnetic load using least-mean-squares filter
US11283337B2 (en) 2019-03-29 2022-03-22 Cirrus Logic, Inc. Methods and systems for improving transducer dynamics
US10828672B2 (en) 2019-03-29 2020-11-10 Cirrus Logic, Inc. Driver circuitry
US10955955B2 (en) 2019-03-29 2021-03-23 Cirrus Logic, Inc. Controller for use in a device comprising force sensors
US10726683B1 (en) 2019-03-29 2020-07-28 Cirrus Logic, Inc. Identifying mechanical impedance of an electromagnetic load using a two-tone stimulus
US11644370B2 (en) 2019-03-29 2023-05-09 Cirrus Logic, Inc. Force sensing with an electromagnetic load
US11150733B2 (en) 2019-06-07 2021-10-19 Cirrus Logic, Inc. Methods and apparatuses for providing a haptic output signal to a haptic actuator
US10976825B2 (en) 2019-06-07 2021-04-13 Cirrus Logic, Inc. Methods and apparatuses for controlling operation of a vibrational output system and/or operation of an input sensor system
KR20220024091A (ko) 2019-06-21 2022-03-03 시러스 로직 인터내셔널 세미컨덕터 리미티드 디바이스 상에 복수의 가상 버튼을 구성하기 위한 방법 및 장치
US11408787B2 (en) 2019-10-15 2022-08-09 Cirrus Logic, Inc. Control methods for a force sensor system
US11380175B2 (en) 2019-10-24 2022-07-05 Cirrus Logic, Inc. Reproducibility of haptic waveform
US11545951B2 (en) 2019-12-06 2023-01-03 Cirrus Logic, Inc. Methods and systems for detecting and managing amplifier instability
USD967127S1 (en) * 2020-01-31 2022-10-18 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
USD973065S1 (en) * 2020-01-31 2022-12-20 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
USD967838S1 (en) * 2020-01-31 2022-10-25 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
US11662821B2 (en) 2020-04-16 2023-05-30 Cirrus Logic, Inc. In-situ monitoring, calibration, and testing of a haptic actuator
US11922842B2 (en) * 2021-05-26 2024-03-05 Samsung Electronics Co., Ltd. Electronic device having extendable display and method for providing content thereof
US11933822B2 (en) 2021-06-16 2024-03-19 Cirrus Logic Inc. Methods and systems for in-system estimation of actuator parameters
US11908310B2 (en) 2021-06-22 2024-02-20 Cirrus Logic Inc. Methods and systems for detecting and managing unexpected spectral content in an amplifier system
US11765499B2 (en) 2021-06-22 2023-09-19 Cirrus Logic Inc. Methods and systems for managing mixed mode electromechanical actuator drive
US11552649B1 (en) 2021-12-03 2023-01-10 Cirrus Logic, Inc. Analog-to-digital converter-embedded fixed-phase variable gain amplifier stages for dual monitoring paths

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004070492A (ja) 2002-08-02 2004-03-04 Hitachi Ltd タッチパネルを備えた表示装置及び情報処理方法
JP2006185443A (ja) 2004-12-21 2006-07-13 Microsoft Corp 圧力応動コントロール
JP2008033739A (ja) 2006-07-31 2008-02-14 Sony Corp 力覚フィードバックおよび圧力測定に基づくタッチスクリーンインターラクション方法および装置
JP2010152716A (ja) 2008-12-25 2010-07-08 Kyocera Corp 入力装置
JP2011129019A (ja) 2009-12-21 2011-06-30 Kyocera Corp 触感呈示装置
JP2013045173A (ja) 2011-08-22 2013-03-04 Kyocera Corp 電子機器
JP2014215639A (ja) 2013-04-22 2014-11-17 シャープ株式会社 情報処理装置および制御プログラム
JP2014229150A (ja) 2013-05-23 2014-12-08 キヤノン株式会社 表示制御装置及びその制御方法
JP2017050003A (ja) 2015-03-08 2017-03-09 アップル インコーポレイテッド 視覚及び/又は触覚フィードバックを用いてユーザインタフェースオブジェクトを操作するためのデバイス、方法、及びグラフィカルユーザインタフェース

Family Cites Families (423)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6433771B1 (en) 1992-12-02 2002-08-13 Cybernet Haptic Systems Corporation Haptic device attribute control
EP0760125B1 (en) 1994-05-16 2002-04-03 Apple Computer, Inc. A system and method for customizing appearance and behavior of graphical user interfaces
US20030040361A1 (en) 1994-09-21 2003-02-27 Craig Thorner Method and apparatus for generating tactile feedback via relatively low-burden and/or zero burden telemetry
US6219032B1 (en) 1995-12-01 2001-04-17 Immersion Corporation Method for providing force feedback to a user of an interface device based on interactions of a controlled cursor with graphical elements in a graphical user interface
US5990869A (en) 1996-08-20 1999-11-23 Alliance Technologies Corp. Force feedback mouse
JP3138666B2 (ja) 1997-08-21 2001-02-26 日本電気通信システム株式会社 携帯電話機
US6211861B1 (en) 1998-06-23 2001-04-03 Immersion Corporation Tactile mouse device
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US6429846B2 (en) 1998-06-23 2002-08-06 Immersion Corporation Haptic feedback for touchpads and other touch controls
JP2000209311A (ja) 1999-01-13 2000-07-28 Yazaki Corp 車両用呼出応対方法
US7469381B2 (en) 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
US7561142B2 (en) 1999-07-01 2009-07-14 Immersion Corporation Vibrotactile haptic feedback devices
WO2001024158A1 (en) 1999-09-28 2001-04-05 Immersion Corporation Controlling haptic sensations for vibrotactile feedback interface devices
US6424251B1 (en) 1999-11-10 2002-07-23 Matthew T. Byrne Personal electronic device notification system
US6560165B1 (en) 2000-03-28 2003-05-06 Diane K. Barker Medical information appliance
US7016707B2 (en) 2000-06-21 2006-03-21 Seiko Epson Corporation Mobile telephone and radio communication device cooperatively processing incoming call
EP1330811B1 (en) 2000-09-28 2012-08-22 Immersion Corporation Directional tactile feedback for haptic feedback interface devices
GB0029622D0 (en) 2000-12-05 2001-01-17 Nokia Networks Oy Improved user interface
US6703550B2 (en) 2001-10-10 2004-03-09 Immersion Corporation Sound data output and manipulation using haptic feedback
JP4149926B2 (ja) 2001-11-01 2008-09-17 イマージョン コーポレーション 触知感覚を与える方法及び装置
US6690387B2 (en) 2001-12-28 2004-02-10 Koninklijke Philips Electronics N.V. Touch-screen image scrolling system and method
JP2003288158A (ja) 2002-01-28 2003-10-10 Sony Corp タクタイル・フィードバック機能を持つ携帯型機器
JP3794395B2 (ja) * 2002-06-04 2006-07-05 カシオ計算機株式会社 電子カメラ及びその報知制御方法、並びにプログラム
JP2004064117A (ja) 2002-07-24 2004-02-26 Kenwood Corp 移動体通信端末、着信報知方法及びプログラム
EP1406150A1 (en) 2002-10-01 2004-04-07 Sony Ericsson Mobile Communications AB Tactile feedback method and device and portable device incorporating same
US20040095311A1 (en) 2002-11-19 2004-05-20 Motorola, Inc. Body-centric virtual interactive apparatus and method
GB2412989B (en) 2002-12-08 2007-02-14 Immersion Corp Methods and systems for providing a virtual touch haptic effect to handheld communication devices
US8165640B2 (en) 2003-03-14 2012-04-24 Jeffrey D Mullen Systems and methods for providing remote incoming call notification for cellular phones
US7886236B2 (en) 2003-03-28 2011-02-08 Microsoft Corporation Dynamic feedback for gestures
US7454009B2 (en) 2003-04-25 2008-11-18 International Business Machines Corporation Ring-tone identification of urgent phone calls
JP4240293B2 (ja) 2003-05-27 2009-03-18 株式会社ソニー・コンピュータエンタテインメント マルチメディア再生装置およびマルチメディア再生方法
JP2004363999A (ja) 2003-06-05 2004-12-24 Hitachi Ltd 携帯電話機、携帯電話基地局サーバ及びip電話装置と電子メールシステム
US7130664B1 (en) 2003-06-12 2006-10-31 Williams Daniel P User-based signal indicator for telecommunications device and method of remotely notifying a user of an incoming communications signal incorporating the same
US7669177B2 (en) 2003-10-24 2010-02-23 Microsoft Corporation System and method for preference application installation and execution
JP2005276089A (ja) 2004-03-26 2005-10-06 Seiko Epson Corp 入力装置、画像表示装置及びプロジェクタ
US20050231489A1 (en) 2004-04-15 2005-10-20 Research In Motion Limited System and method for providing dynamic tactile feedback on hand-held electronic devices
US7305257B2 (en) 2004-04-16 2007-12-04 Research In Motion Limited Portable alerter for wireless device
JP2006011646A (ja) 2004-06-23 2006-01-12 Pioneer Electronic Corp 触覚表示装置及び触覚表示機能付タッチパネル装置
US7308253B2 (en) 2004-06-30 2007-12-11 Avaya Technology Corp. Log-based ringtone service
US8867724B2 (en) 2004-08-31 2014-10-21 At&T Intellectual Property I, L.P. Distinctive ring tones prompted by call urgency and context
US8232969B2 (en) 2004-10-08 2012-07-31 Immersion Corporation Haptic feedback for button and scrolling action simulation in touch input devices
US9591345B2 (en) 2004-10-21 2017-03-07 Core Wireless Licensing S.A.R.L. Group editing of media content stored on wireless portable devices
US7720213B2 (en) 2004-12-30 2010-05-18 Alcatel Lucent Parameter dependent ring tones
US8768838B1 (en) 2005-02-02 2014-07-01 Nexus Payments, LLC Financial transactions using a rule-module nexus and a user account registry
EP1872257B1 (en) 2005-04-18 2010-09-08 Research In Motion Limited Method and system for centralized user notification and application execution control
US20060248183A1 (en) 2005-04-28 2006-11-02 Microsoft Corporation Programmable notifications for a mobile device
KR100714725B1 (ko) 2005-08-29 2007-05-07 삼성전자주식회사 입력 정보의 노출을 방지하기 위한 입력 장치 및 입력 방법
US9166823B2 (en) 2005-09-21 2015-10-20 U Owe Me, Inc. Generation of a context-enriched message including a message component and a contextual attribute
US20070088560A1 (en) 2005-10-14 2007-04-19 Motorola, Inc. Method and system for conveying context information in a personal and family security environment
US20070106457A1 (en) 2005-11-09 2007-05-10 Outland Research Portable computing with geospatial haptic compass
US7958456B2 (en) 2005-12-23 2011-06-07 Apple Inc. Scrolling list with floating adjacent index symbols
US20070132789A1 (en) 2005-12-08 2007-06-14 Bas Ording List scrolling in response to moving contact over list of index symbols
CN101375582A (zh) 2006-01-19 2009-02-25 高通股份有限公司 将已分类源地址群组与振动模式相关联的方法
US7710958B2 (en) 2006-01-20 2010-05-04 Iona Technologies Limited Method for recoverable message exchange independent of network protocols
JP5129478B2 (ja) 2006-03-24 2013-01-30 株式会社デンソーアイティーラボラトリ 画面表示装置
US7751542B2 (en) 2006-05-04 2010-07-06 Avaya Inc. Feeble ring tones
US20070283239A1 (en) 2006-05-30 2007-12-06 Robert Paul Morris Methods, systems, and computer program products for providing a user interaction model for use by a device
US9304675B2 (en) 2006-09-06 2016-04-05 Apple Inc. Portable electronic device for instant messaging
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US7809406B2 (en) 2006-09-15 2010-10-05 Sony Ericsson Mobile Communications Ab Continued transfer or streaming of a data file after loss of a local connection
DE102006048833A1 (de) 2006-10-16 2008-04-17 Universität Rostock Behandlung von Osteoporose
WO2008075082A1 (en) 2006-12-21 2008-06-26 Symbian Software Limited Mobile device and method of operation thereof
US8583189B2 (en) 2006-12-28 2013-11-12 Motorola Mobility Llc Method and apparatus for the selective use of imperceptible invites
CN101232665B (zh) 2007-01-24 2012-02-22 北京三星通信技术研究有限公司 用于移动通信终端的回电设定及自动提示的方法
JP2008181365A (ja) 2007-01-25 2008-08-07 Mitsubishi Electric Corp 携帯機器
US8098234B2 (en) 2007-02-20 2012-01-17 Immersion Corporation Haptic feedback system with stored effects
US7801569B1 (en) 2007-03-22 2010-09-21 At&T Intellectual Property I, L.P. Mobile communications device with distinctive vibration modes
TWI351638B (en) 2007-04-27 2011-11-01 Htc Corp Touch-based tab navigation method and related devi
JP4803105B2 (ja) 2007-05-09 2011-10-26 ソニー株式会社 電子機器
US9954996B2 (en) 2007-06-28 2018-04-24 Apple Inc. Portable electronic device with conversation management for incoming instant messages
US8026814B1 (en) 2007-07-25 2011-09-27 Pinpoint Technologies Inc. Wireless mesh network for an asset tracking system
US8331268B2 (en) 2007-08-31 2012-12-11 At&T Intellectual Property I, L.P. Methods, systems, and computer-readable media for providing an event alert
US9619143B2 (en) 2008-01-06 2017-04-11 Apple Inc. Device, method, and graphical user interface for viewing application launch icons
CN102749997B (zh) * 2007-09-18 2016-06-22 微软技术许可有限责任公司 移动终端和控制该移动终端的操作的方法
US8098235B2 (en) 2007-09-28 2012-01-17 Immersion Corporation Multi-touch device having dynamic haptic effects
US20090128581A1 (en) 2007-11-20 2009-05-21 Microsoft Corporation Custom transition framework for application state transitions
US20090135142A1 (en) 2007-11-27 2009-05-28 Motorola, Inc. Data entry device and method
US9509829B2 (en) 2007-12-28 2016-11-29 Apple, Inc. Urgent communications
US9857872B2 (en) 2007-12-31 2018-01-02 Apple Inc. Multi-touch display screen with localized tactile feedback
US8373549B2 (en) 2007-12-31 2013-02-12 Apple Inc. Tactile feedback in an electronic device
US8577423B2 (en) 2008-02-27 2013-11-05 Palm, Inc. Vibration tone differentiation
US10015158B2 (en) 2008-02-29 2018-07-03 Blackberry Limited Methods and apparatus for use in enabling a mobile communication device with a digital certificate
US8205157B2 (en) 2008-03-04 2012-06-19 Apple Inc. Methods and graphical user interfaces for conducting searches on a portable multifunction device
US9513704B2 (en) 2008-03-12 2016-12-06 Immersion Corporation Haptically enabled user interface
JP2009265818A (ja) 2008-04-23 2009-11-12 Denso Corp ドライバ覚醒装置
EP2112579B1 (en) 2008-04-25 2013-05-22 Research In Motion Limited Electronic device comprising touch-sensitive input surface and method of determining user-selected input
JP2009278294A (ja) 2008-05-13 2009-11-26 Sony Ericsson Mobilecommunications Japan Inc 情報処理装置、情報処理方法、情報処理プログラム、及び携帯端末装置
KR101456001B1 (ko) 2008-05-23 2014-11-03 엘지전자 주식회사 단말기 및 그 제어 방법
US8266550B1 (en) 2008-05-28 2012-09-11 Google Inc. Parallax panning of mobile device desktop
US9357052B2 (en) 2008-06-09 2016-05-31 Immersion Corporation Developing a notification framework for electronic device events
US8203444B2 (en) 2008-06-10 2012-06-19 Silent Call Corporation Alerting device with supervision
KR101498622B1 (ko) 2008-06-25 2015-03-04 엘지전자 주식회사 촉각 효과를 제공하는 휴대 단말기 및 그 제어방법
US8306576B2 (en) 2008-06-27 2012-11-06 Lg Electronics Inc. Mobile terminal capable of providing haptic effect and method of controlling the mobile terminal
KR101556522B1 (ko) 2008-06-27 2015-10-01 엘지전자 주식회사 촉각 효과를 제공하는 휴대 단말기 및 그 제어방법
KR101443341B1 (ko) 2008-06-30 2014-11-03 엘지전자 주식회사 휴대 단말기 및 그 동작제어 방법
KR101474963B1 (ko) 2008-07-01 2014-12-19 엘지전자 주식회사 휴대 단말기 및 그 제어방법
US9600175B2 (en) 2008-07-14 2017-03-21 Sony Corporation Method and system for classification sign display
WO2010009152A1 (en) 2008-07-15 2010-01-21 Immersion Corporation Systems and methods for shifting haptic feedback function between passive and active modes
GB2462465B (en) 2008-08-08 2013-02-13 Hiwave Technologies Uk Ltd Touch sensitive device
US8604364B2 (en) 2008-08-15 2013-12-10 Lester F. Ludwig Sensors, algorithms and applications for a high dimensional touchpad
US8402381B2 (en) 2008-09-23 2013-03-19 International Business Machines Corporation Automatically arranging widgets of a model within a canvas using iterative region based widget relative adjustments
KR101529502B1 (ko) 2008-10-16 2015-06-17 엘지전자 주식회사 인스턴트 메시지 제어방법과 이를 이용한 이동 단말기
KR101569176B1 (ko) 2008-10-30 2015-11-20 삼성전자주식회사 오브젝트 실행 방법 및 장치
JP5003655B2 (ja) 2008-11-07 2012-08-15 富士通株式会社 携帯端末装置
EP2187290A1 (en) 2008-11-18 2010-05-19 Studer Professional Audio GmbH Input device and method of detecting a user input with an input device
JP5227769B2 (ja) 2008-12-05 2013-07-03 ソニーモバイルコミュニケーションズ, エービー 携帯端末およびコンピュータプログラム
JP5181093B2 (ja) 2008-12-08 2013-04-10 韓國電子通信研究院 タッチスクリーン及びその動作方法
US8886252B2 (en) 2008-12-22 2014-11-11 Htc Corporation Method and apparatus for automatically changing operating modes in a mobile device
US8686952B2 (en) 2008-12-23 2014-04-01 Apple Inc. Multi touch with multi haptics
AU2009333038B2 (en) * 2008-12-29 2015-12-17 Red.Com, Llc Modular digital camera
US8378979B2 (en) 2009-01-27 2013-02-19 Amazon Technologies, Inc. Electronic device with haptic feedback
US8588430B2 (en) 2009-02-11 2013-11-19 Nxp B.V. Controlling an adaptation of a behavior of an audio device to a current acoustic environmental condition
GB2480418B (en) 2009-02-20 2013-11-13 Solocem Systems Oy Short-range communication-enabled mobile device, method and related server arrangement
US9746923B2 (en) 2009-03-12 2017-08-29 Immersion Corporation Systems and methods for providing features in a friction display wherein a haptic effect is configured to vary the coefficient of friction
US8572513B2 (en) 2009-03-16 2013-10-29 Apple Inc. Device, method, and graphical user interface for moving a current position in content at a variable scrubbing rate
KR101553842B1 (ko) 2009-04-21 2015-09-17 엘지전자 주식회사 멀티 햅틱 효과를 제공하는 휴대 단말기 및 그 제어방법
US9658760B2 (en) 2009-05-07 2017-05-23 Creative Technology Ltd. Methods for searching digital files on a user interface
JP2010268086A (ja) 2009-05-13 2010-11-25 Nec Saitama Ltd 携帯端末装置およびその着信報知出力制御方法
KR101597553B1 (ko) 2009-05-25 2016-02-25 엘지전자 주식회사 기능 실행 방법 및 그 장치
US20100302042A1 (en) 2009-05-28 2010-12-02 David Barnett Sensor-based independent living assistant
US8271898B1 (en) 2009-06-04 2012-09-18 Mellmo Inc. Predictive scrolling
US8254957B2 (en) 2009-06-16 2012-08-28 Intel Corporation Context-based limitation of mobile device operation
KR20100136156A (ko) 2009-06-18 2010-12-28 삼성전자주식회사 터치스크린을 구비하는 휴대 단말기의 화면 스크롤 방법 및 장치
US8310458B2 (en) 2009-07-06 2012-11-13 Research In Motion Limited Electronic device including a moveable touch-sensitive input and method of controlling same
WO2011011025A1 (en) 2009-07-24 2011-01-27 Research In Motion Limited Method and apparatus for a touch-sensitive display
US20110017828A1 (en) 2009-07-24 2011-01-27 Jadak, Llc Handheld optical imaging device and method
US9244562B1 (en) * 2009-07-31 2016-01-26 Amazon Technologies, Inc. Gestures and touches on force-sensitive input devices
US20110053577A1 (en) 2009-08-31 2011-03-03 Lee Changkee Methods and apparatus for communicating by vibrating or moving mobile devices
US20110055753A1 (en) 2009-08-31 2011-03-03 Horodezky Samuel J User interface methods providing searching functionality
US9176962B2 (en) 2009-09-07 2015-11-03 Apple Inc. Digital media asset browsing with audio cues
US20110074695A1 (en) 2009-09-25 2011-03-31 Peter William Rapp Device, Method, and Graphical User Interface Using Mid-Drag Gestures
US20110190582A1 (en) 2009-09-28 2011-08-04 Bennett James D Intravaginal optics targeting system
US8131848B1 (en) 2009-09-29 2012-03-06 Jason Adam Denise Image analysis and communication device control technology
US8487759B2 (en) 2009-09-30 2013-07-16 Apple Inc. Self adapting haptic device
US9338274B2 (en) 2009-10-02 2016-05-10 Blackberry Limited Method of interacting with electronic devices in a locked state and handheld electronic device configured to permit interaction when in a locked state
US8279052B2 (en) 2009-11-04 2012-10-02 Immersion Corporation Systems and methods for haptic confirmation of commands
US8839128B2 (en) 2009-11-25 2014-09-16 Cooliris, Inc. Gallery application for content viewing
EP2328063B1 (en) 2009-11-30 2018-01-10 BlackBerry Limited Portable electronic device and method of controlling same to provide tactile feedback
US8204548B1 (en) 2009-12-01 2012-06-19 Sprint Communications Company L.P. System and method for mobile device application pre-emption
US8347238B2 (en) 2009-12-16 2013-01-01 Apple Inc. Device, method, and graphical user interface for managing user interface content and user interface elements by dynamic snapping of user interface elements to alignment guides
US20110148608A1 (en) 2009-12-18 2011-06-23 Research In Motion Limited Portable electronic device and method of control
US8386965B2 (en) 2010-01-15 2013-02-26 Apple Inc. Techniques and systems for enhancing touch screen device accessibility through virtual containers and virtually enlarged boundaries
US20110202843A1 (en) 2010-02-15 2011-08-18 Robert Paul Morris Methods, systems, and computer program products for delaying presentation of an update to a user interface
US8548418B1 (en) 2010-01-25 2013-10-01 Sprint Spectrum L.P. Methods and devices for distributing ringtone
JP5635274B2 (ja) 2010-01-27 2014-12-03 京セラ株式会社 触感呈示装置および触感呈示方法
JP5360499B2 (ja) 2010-02-01 2013-12-04 国立大学法人東北大学 力覚提示方法および力覚提示装置
TW201205910A (en) 2010-02-03 2012-02-01 Bayer Materialscience Ag An electroactive polymer actuator haptic grip assembly
US9361018B2 (en) 2010-03-01 2016-06-07 Blackberry Limited Method of providing tactile feedback and apparatus
US8957981B2 (en) * 2010-03-03 2015-02-17 Intellectual Ventures Fund 83 Llc Imaging device for capturing self-portrait images
US8881060B2 (en) 2010-04-07 2014-11-04 Apple Inc. Device, method, and graphical user interface for managing folders
EP2378406B1 (en) 2010-04-13 2018-08-22 LG Electronics Inc. Mobile terminal and method of controlling operation of the mobile terminal
KR101657543B1 (ko) 2010-06-14 2016-09-22 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US8698766B2 (en) 2010-04-22 2014-04-15 Maxim Integrated Products, Inc. System integration of tactile feedback and touchscreen controller for near-zero latency haptics playout
EP2561424B1 (en) 2010-04-23 2019-02-20 Immersion Corporation Systems and methods for providing haptic effects
US8671504B2 (en) 2010-04-28 2014-03-18 Denso Corporation Cover of vehicle optical sensor and vehicle optical sensor device
US20110271181A1 (en) 2010-04-28 2011-11-03 Acer Incorporated Screen unlocking method and electronic apparatus thereof
US20110267294A1 (en) 2010-04-29 2011-11-03 Nokia Corporation Apparatus and method for providing tactile feedback for user
US20110267181A1 (en) 2010-04-29 2011-11-03 Nokia Corporation Apparatus and method for providing tactile feedback for user
US20110270358A1 (en) 2010-04-30 2011-11-03 Medtronic, Inc. Implantable medical device programming using gesture-based control
US8451255B2 (en) * 2010-05-14 2013-05-28 Arnett Ryan Weber Method of providing tactile feedback and electronic device
US8466889B2 (en) * 2010-05-14 2013-06-18 Research In Motion Limited Method of providing tactile feedback and electronic device
EP2386935B1 (en) 2010-05-14 2015-02-11 BlackBerry Limited Method of providing tactile feedback and electronic device
US20120327006A1 (en) 2010-05-21 2012-12-27 Disney Enterprises, Inc. Using tactile feedback to provide spatial awareness
US9749176B2 (en) 2010-06-29 2017-08-29 Nokia Technologies Oy Systems, methods, and apparatuses for providing adaptive user notifications
US8811948B2 (en) * 2010-07-09 2014-08-19 Microsoft Corporation Above-lock camera access
US8798534B2 (en) 2010-07-09 2014-08-05 Digimarc Corporation Mobile devices and methods employing haptics
EP2407896A1 (en) 2010-07-16 2012-01-18 Research In Motion Limited Systems and methods of user interface for image display
JP2012027875A (ja) 2010-07-28 2012-02-09 Sony Corp 電子機器、処理方法及びプログラム
US8766984B2 (en) 2010-08-20 2014-07-01 Qualcomm Incorporated Graphics rendering methods for satisfying minimum frame rate requirements
US9069760B2 (en) 2010-08-24 2015-06-30 Lg Electronics Inc. Mobile terminal and controlling method thereof
JP5656511B2 (ja) 2010-08-26 2015-01-21 京セラ株式会社 表示装置
US8676274B2 (en) 2010-08-27 2014-03-18 At&T Intellectual Property I, L.P. Devices, systems, and methods for notification of events on a wireless communication device
FR2964761B1 (fr) 2010-09-14 2012-08-31 Thales Sa Dispositif d'interaction haptique et procede de generation d'effets haptiques et sonores
CA2792243C (en) 2010-09-24 2013-11-12 Qnx Software Systems Limited Alert display on a portable electronic device
DE102010048745A1 (de) 2010-10-16 2012-04-19 Volkswagen Ag Benutzerschnittstelle und Verfahren zum Bedienen einer Benutzerschnittstelle
US20120105367A1 (en) 2010-11-01 2012-05-03 Impress Inc. Methods of using tactile force sensing for intuitive user interface
US8914743B2 (en) 2010-11-12 2014-12-16 Apple Inc. Device, method, and graphical user interface for navigating a list of identifiers
WO2012081182A1 (ja) 2010-12-13 2012-06-21 パナソニック株式会社 電子機器
US9223471B2 (en) 2010-12-28 2015-12-29 Microsoft Technology Licensing, Llc Touch screen control
US9052758B2 (en) 2010-12-31 2015-06-09 Blackberry Limited System and method for detecting accidental peripheral device disconnection
KR101785323B1 (ko) 2011-01-05 2017-10-17 삼성전자주식회사 휴대 단말기의 사용자 인터페이스 제공 방법 및 장치
CN102609078B (zh) 2011-01-20 2014-12-31 宏达国际电子股份有限公司 具有触觉反馈的电子装置及提供触觉反馈的方法
US8615511B2 (en) 2011-01-22 2013-12-24 Operational Transparency LLC Data visualization interface
US9158378B2 (en) 2011-02-10 2015-10-13 Kyocera Corporation Electronic device and control method for electronic device
CN103370683A (zh) 2011-02-15 2013-10-23 Nec卡西欧移动通信株式会社 便携式终端设备及其屏幕显示方法
CN102651920A (zh) 2011-02-24 2012-08-29 腾讯科技(深圳)有限公司 基于移动通信终端的操作提示方法及移动通信终端
US8749349B2 (en) 2011-03-11 2014-06-10 Nokia Corporation Method apparatus and computer program
WO2012135378A1 (en) 2011-04-01 2012-10-04 Analog Devices, Inc. Method and apparatus for haptic vibration response profiling and feedback
US9733708B2 (en) 2011-04-06 2017-08-15 Kyocera Corporation Electronic device, operation control method, and operation control program
US9448713B2 (en) 2011-04-22 2016-09-20 Immersion Corporation Electro-vibrotactile display
US9218727B2 (en) 2011-05-12 2015-12-22 Apple Inc. Vibration in portable devices
US8717151B2 (en) 2011-05-13 2014-05-06 Qualcomm Incorporated Devices and methods for presenting information to a user on a tactile output surface of a mobile device
US20120306790A1 (en) 2011-06-02 2012-12-06 Electronics And Telecommunications Research Institute Film type apparatus for providing haptic feedback and touch screen including the same
US9083821B2 (en) 2011-06-03 2015-07-14 Apple Inc. Converting audio to haptic feedback in an electronic device
US9383820B2 (en) 2011-06-03 2016-07-05 Apple Inc. Custom vibration patterns
KR101678271B1 (ko) 2011-06-05 2016-11-21 애플 인크. 다수의 애플리케이션들로부터 수신된 통지들을 디스플레이하기 위한 시스템들 및 방법들
EP2535134B1 (de) 2011-06-16 2018-01-24 Klingelnberg AG Verfahren zum Vorverzahnen mehrerer unterschiedlicher Kegelräder
CN103621056A (zh) * 2011-06-23 2014-03-05 株式会社尼康 拍摄装置
CN102330123A (zh) 2011-07-27 2012-01-25 太仓市金鹿电镀有限公司 一种连续镀金工艺
US20130031507A1 (en) 2011-07-28 2013-01-31 Moses George Systems and methods for scrolling a document by providing visual feedback of a transition between portions of the document
US9880640B2 (en) 2011-10-06 2018-01-30 Amazon Technologies, Inc. Multi-dimensional interface
GB2495486A (en) 2011-10-07 2013-04-17 Hiwave Technologies Uk Ltd Contextual haptic feedback in response to touch input
JP5899845B2 (ja) 2011-11-15 2016-04-06 セイコーエプソン株式会社 画像記録装置
CN102420906A (zh) 2011-12-01 2012-04-18 华为终端有限公司 提示方法和用户终端
WO2013089294A1 (ko) 2011-12-15 2013-06-20 엘지전자 주식회사 햅틱 전송 방법 및 그 이동 단말기
US9223472B2 (en) 2011-12-22 2015-12-29 Microsoft Technology Licensing, Llc Closing applications
KR101919617B1 (ko) 2011-12-27 2018-11-16 엘지전자 주식회사 어포던스와 인터랙션이 강화된 사용자 인터페이스
US9032385B2 (en) 2011-12-28 2015-05-12 Lg Electronics Inc. Mobile terminal and control method thereof
US8812994B2 (en) 2011-12-29 2014-08-19 Apple Inc. Device, method, and graphical user interface for configuring restricted interaction with a user interface
US9092953B1 (en) 2012-01-24 2015-07-28 Bruce J. P. Mortimer System and method for providing a remote haptic stimulus
JP5590345B2 (ja) 2012-02-01 2014-09-17 シャープ株式会社 入出力装置、入出力方法、及び入出力プログラム
US9411423B2 (en) 2012-02-08 2016-08-09 Immersion Corporation Method and apparatus for haptic flex gesturing
US8493354B1 (en) 2012-08-23 2013-07-23 Immersion Corporation Interactivity model for shared feedback on mobile devices
EP2817703B1 (en) 2012-02-20 2018-08-22 Sony Mobile Communications Inc. Touch screen interface with feedback
US20130222224A1 (en) 2012-02-24 2013-08-29 Marcus Eriksson Device, System and Method for Generating Display Data
CN102622175B (zh) 2012-02-24 2019-03-12 中兴通讯股份有限公司 一种在触摸屏设备上新建文件夹的方法及终端
US20130225300A1 (en) 2012-02-28 2013-08-29 Timothy J. Brinlee Apparatus for personalized gaming environment
US20130234929A1 (en) 2012-03-07 2013-09-12 Evernote Corporation Adapting mobile user interface to unfavorable usage conditions
US9247525B2 (en) 2012-03-16 2016-01-26 Qualcomm Incorporated Systems and methods for providing notifications
US9934713B2 (en) 2012-03-28 2018-04-03 Qualcomm Incorporated Multifunction wristband
US8881269B2 (en) 2012-03-31 2014-11-04 Apple Inc. Device, method, and graphical user interface for integrating recognition of handwriting gestures with a screen reader
US20150169059A1 (en) 2012-04-18 2015-06-18 Nokia Corporation Display apparatus with haptic feedback
JP5987443B2 (ja) 2012-04-19 2016-09-07 富士通株式会社 操作動作検出装置、操作動作検出方法、及びプログラム
CN103649885B (zh) 2012-04-27 2017-03-01 松下知识产权经营株式会社 触觉提示装置、触觉提示方法、驱动信号生成装置以及驱动信号生成方法
US20130290442A1 (en) 2012-04-30 2013-10-31 Emoze Ltd. Downloaded attachments flow
JP6273263B2 (ja) 2012-05-09 2018-01-31 アップル インコーポレイテッド ユーザ接触に応答して追加情報を表示するための、デバイス、方法、及びグラフィカルユーザインタフェース
US9459781B2 (en) 2012-05-09 2016-10-04 Apple Inc. Context-specific user interfaces for displaying animated sequences
JP6002836B2 (ja) 2012-05-09 2016-10-05 アップル インコーポレイテッド ジェスチャに応答して表示状態間を遷移するためのデバイス、方法、及びグラフィカルユーザインタフェース
EP2847660B1 (en) 2012-05-09 2018-11-14 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
EP2847662B1 (en) 2012-05-09 2020-02-19 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
WO2013169300A1 (en) * 2012-05-09 2013-11-14 Yknots Industries Llc Thresholds for determining feedback in computing devices
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
CN107728906B (zh) 2012-05-09 2020-07-31 苹果公司 用于移动和放置用户界面对象的设备、方法和图形用户界面
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US10097496B2 (en) 2012-05-09 2018-10-09 Apple Inc. Electronic mail user interface
EP2847658B1 (en) 2012-05-09 2017-06-21 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US20130300684A1 (en) 2012-05-11 2013-11-14 Samsung Electronics Co. Ltd. Apparatus and method for executing multi applications
US8570296B2 (en) 2012-05-16 2013-10-29 Immersion Corporation System and method for display of multiple data channels on a single haptic display
US9891709B2 (en) 2012-05-16 2018-02-13 Immersion Corporation Systems and methods for content- and context specific haptic effects using predefined haptic effects
CN106133748B (zh) 2012-05-18 2020-01-31 苹果公司 用于基于指纹传感器输入来操纵用户界面的设备、方法和图形用户界面
US20130318437A1 (en) 2012-05-22 2013-11-28 Samsung Electronics Co., Ltd. Method for providing ui and portable apparatus applying the same
US8948821B2 (en) 2012-05-27 2015-02-03 Qualcomm Incorporated Notification based on user context
US9348607B2 (en) 2012-06-07 2016-05-24 Apple Inc. Quiet hours for notifications
US8712383B1 (en) 2012-06-21 2014-04-29 Google Inc. Tactile output device for computing device notifications
US8886576B1 (en) 2012-06-22 2014-11-11 Google Inc. Automatic label suggestions for albums based on machine learning
US9641239B2 (en) 2012-06-22 2017-05-02 Fitbit, Inc. Adaptive data transfer using bluetooth
DE102012211163A1 (de) 2012-06-28 2014-06-26 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Empfangen einer Eingabe auf einem berührungsempfindlichen Feld
US20140007005A1 (en) 2012-06-29 2014-01-02 Evernote Corporation Scrollable calendar with combined date and time controls
US20140002376A1 (en) 2012-06-29 2014-01-02 Immersion Corporation Method and apparatus for providing shortcut touch gestures with haptic feedback
US9110562B1 (en) 2012-07-26 2015-08-18 Google Inc. Snapping a pointing-indicator to a scene boundary of a video
US20150156196A1 (en) 2012-07-31 2015-06-04 Intellectual Discovery Co., Ltd. Wearable electronic device and method for controlling same
CN102843681A (zh) 2012-08-15 2012-12-26 腾讯科技(深圳)有限公司 信息交互方法和装置
EP2703947B1 (de) 2012-08-27 2019-02-27 Siemens Aktiengesellschaft Bedieneinrichtung für ein technisches System
KR102008916B1 (ko) 2012-09-07 2019-08-08 삼성전자주식회사 미확인 콘텐츠 표시 방법 및 그 전자 장치
US10042603B2 (en) 2012-09-20 2018-08-07 Samsung Electronics Co., Ltd. Context aware service provision method and apparatus of user device
WO2014049392A1 (en) 2012-09-25 2014-04-03 Nokia Corporation Method and display device with tactile feedback
WO2014049398A1 (en) 2012-09-28 2014-04-03 Nokia Corporation Apparatus displaying animated image combined with tactile output
US8743072B2 (en) 2012-09-28 2014-06-03 Lg Electronics Inc. Display device and control method thereof
US9178509B2 (en) 2012-09-28 2015-11-03 Apple Inc. Ultra low travel keyboard
US9196134B2 (en) 2012-10-31 2015-11-24 Immersion Corporation Method and apparatus for simulating surface features on a user interface with haptic effects
IN2015DN03804A (ja) 2012-11-20 2015-10-02 Jolla Oy
US9836150B2 (en) 2012-11-20 2017-12-05 Immersion Corporation System and method for feedforward and feedback with haptic effects
JP6183661B2 (ja) 2012-11-30 2017-08-23 パナソニックIpマネジメント株式会社 触感呈示装置および触感呈示方法
KR102091077B1 (ko) 2012-12-14 2020-04-14 삼성전자주식회사 입력 유닛의 피드백을 제어하는 휴대 단말 및 방법과, 이를 제공하는 상기 입력 유닛 및 방법
JP6094198B2 (ja) 2012-12-17 2017-03-15 カシオ計算機株式会社 携帯型電子装置、通信システム、報知動作制御方法、及び、プログラム
CN103869960B (zh) 2012-12-18 2018-02-23 富泰华工业(深圳)有限公司 触感反馈系统及其提供触感反馈的方法
US9223403B2 (en) 2012-12-19 2015-12-29 Panasonic Intellectual Property Management Co., Ltd. Tactile input and output device
US9202350B2 (en) 2012-12-19 2015-12-01 Nokia Technologies Oy User interfaces and associated methods
US9128523B2 (en) 2012-12-20 2015-09-08 Amazon Technologies, Inc. Dynamically generating haptic effects from audio data
US9432323B2 (en) 2012-12-21 2016-08-30 Blackberry Limited Method, system and apparatus for providing notifications for different workspaces
US9213478B2 (en) 2012-12-21 2015-12-15 Business Objects Software Visualization interaction design for cross-platform utilization
US9323327B2 (en) 2012-12-22 2016-04-26 Intel Corporation System and method for providing tactile feedback
US9285880B2 (en) 2012-12-26 2016-03-15 Panasonic Intellectual Property Management Co., Ltd. Touch panel device and method of controlling a touch panel device
CN105144057B (zh) 2012-12-29 2019-05-17 苹果公司 用于根据具有模拟三维特征的控制图标的外观变化来移动光标的设备、方法和图形用户界面
JP6093877B2 (ja) 2012-12-29 2017-03-08 アップル インコーポレイテッド 複数接触ジェスチャのために触知出力の生成を見合わせるためのデバイス、方法、及びグラフィカルユーザインタフェース
US20150332565A1 (en) 2012-12-31 2015-11-19 Lg Electronics Inc. Device and method for generating vibrations
KR20140090318A (ko) * 2013-01-07 2014-07-17 삼성전자주식회사 햅틱 기반 카메라 운용 지원 방법 및 이를 지원하는 단말기
US20140197963A1 (en) 2013-01-15 2014-07-17 Fitbit, Inc. Portable monitoring devices and methods of operating the same
US9088668B1 (en) 2013-01-24 2015-07-21 Amazon Technologies, Inc. Configuring notification intensity level using device sensors
US9699130B2 (en) 2013-01-24 2017-07-04 International Business Machines Corporation User interface with recipient status indication
KR20140095712A (ko) 2013-01-25 2014-08-04 삼성전자주식회사 알림 제어 방법 및 그 전자 장치
KR102087005B1 (ko) 2013-01-31 2020-03-11 삼성전자 주식회사 페이지 검색 방법 및 이를 지원하는 단말기
KR20140098384A (ko) 2013-01-31 2014-08-08 삼성전자주식회사 복수의 터치스크린을 가지는 휴대 장치 및 복수의 터치스크린을 가지는 휴대 장치의 사운드 출력방법
US10775888B2 (en) 2013-02-15 2020-09-15 Facebook, Inc. Method and system for integrating haptic feedback into portable electronic devices
US20140232679A1 (en) * 2013-02-17 2014-08-21 Microsoft Corporation Systems and methods to protect against inadvertant actuation of virtual buttons on touch surfaces
EP2959667B1 (en) 2013-02-19 2019-09-25 InterDigital CE Patent Holdings Method and apparatus for notifying missed events
US10504339B2 (en) 2013-02-21 2019-12-10 Immersion Corporation Mobile device with instinctive alerts
KR102104910B1 (ko) 2013-02-28 2020-04-27 삼성전자주식회사 입력 유닛에 촉각 피드백을 제공하는 휴대 장치 및 그 방법
US8754757B1 (en) 2013-03-05 2014-06-17 Immersion Corporation Automatic fitting of haptic effects
US10795528B2 (en) 2013-03-06 2020-10-06 Nuance Communications, Inc. Task assistant having multiple visual displays
US9854084B2 (en) 2013-03-06 2017-12-26 Google Llc Contextual alarm and notification management
US9189098B2 (en) 2013-03-14 2015-11-17 Immersion Corporation Systems and methods for syncing haptic feedback calls
US9632986B2 (en) 2013-03-14 2017-04-25 Aol Inc. Systems and methods for horizontally paginating HTML content
JP6143506B2 (ja) * 2013-03-15 2017-06-07 キヤノン株式会社 表示制御装置及びその制御方法
US20140267076A1 (en) 2013-03-15 2014-09-18 Immersion Corporation Systems and Methods for Parameter Modification of Haptic Effects
US9471200B2 (en) 2013-03-15 2016-10-18 Apple Inc. Device, method, and graphical user interface for organizing and presenting a collection of media items
WO2014149498A2 (en) 2013-03-15 2014-09-25 First Data Corporation Remote secure transactions
KR101666393B1 (ko) 2013-03-27 2016-10-14 한국전자통신연구원 음향효과를 이용한 촉각효과 재생 장치 및 방법
KR102115397B1 (ko) 2013-04-01 2020-05-26 삼성전자주식회사 휴대 장치 및 휴대 장치의 재생목록 표시 방법
US20140292706A1 (en) 2013-04-01 2014-10-02 Lenovo (Singapore) Pte. Ltd. Non-visual touch input targeting
US20140292668A1 (en) 2013-04-01 2014-10-02 Lenovo (Singapore) Pte. Ltd. Touch input device haptic feedback
US9507495B2 (en) 2013-04-03 2016-11-29 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9997032B2 (en) 2013-04-09 2018-06-12 Immersion Corporation Offline haptic conversion system
US9075435B1 (en) 2013-04-22 2015-07-07 Amazon Technologies, Inc. Context-aware notifications
JP6297787B2 (ja) 2013-04-25 2018-03-20 京セラ株式会社 携帯電子機器
KR20160003031A (ko) 2013-04-26 2016-01-08 임머숀 코퍼레이션 햅틱 셀들의 어레이를 이용한 유형의 사용자 인터페이스 상호작용들 및 제스처들의 시뮬레이션
US9939900B2 (en) 2013-04-26 2018-04-10 Immersion Corporation System and method for a haptically-enabled deformable surface
US20140329567A1 (en) 2013-05-01 2014-11-06 Elwha Llc Mobile device with automatic volume control
US20140331162A1 (en) 2013-05-06 2014-11-06 Sap Ag Quick time-related data entry
US20140340316A1 (en) 2013-05-14 2014-11-20 Microsoft Corporation Feedback for Gestures
US9274603B2 (en) 2013-05-24 2016-03-01 Immersion Corporation Method and apparatus to provide haptic feedback based on media content and one or more external parameters
KR102161230B1 (ko) 2013-05-28 2020-09-29 삼성전자주식회사 멀티미디어 콘텐츠 검색을 위한 사용자 인터페이스 방법 및 장치
US20140358709A1 (en) 2013-05-31 2014-12-04 Mastercard Asia Pacific Pte. Ltd. Card Present Transaction Authentication by Short Messaging Service
DE102013210522A1 (de) 2013-06-06 2014-12-11 Aktiebolaget Skf Wälzlager
JP6093659B2 (ja) 2013-06-24 2017-03-08 シャープ株式会社 情報処理装置、および情報処理プログラム
US9804675B2 (en) 2013-06-27 2017-10-31 Elwha Llc Tactile feedback generated by non-linear interaction of surface acoustic waves
US9729730B2 (en) 2013-07-02 2017-08-08 Immersion Corporation Systems and methods for perceptual normalization of haptic effects
JP2015015600A (ja) 2013-07-04 2015-01-22 シャープ株式会社 携帯端末、制御方法
US10359857B2 (en) 2013-07-18 2019-07-23 Immersion Corporation Usable hidden controls with haptic feedback
US10037081B2 (en) 2013-08-12 2018-07-31 Immersion Corporation Systems and methods for haptic fiddling
US9124720B2 (en) 2013-08-19 2015-09-01 Lisa Marie West Driving cannot text noncontrolling cell phone app system and method
US20150054727A1 (en) 2013-08-23 2015-02-26 Immersion Corporation Haptically enabled viewing of sporting events
US9898085B2 (en) 2013-09-06 2018-02-20 Immersion Corporation Haptic conversion system using segmenting and combining
US9401079B2 (en) 2013-09-06 2016-07-26 Immersion Corporation Method and apparatus of converting control tracks for providing haptic feedback
US9514620B2 (en) 2013-09-06 2016-12-06 Immersion Corporation Spatialized haptic feedback based on dynamically scaled values
US9652945B2 (en) 2013-09-06 2017-05-16 Immersion Corporation Method and system for providing haptic effects based on information complementary to multimedia content
US9558637B2 (en) 2013-09-10 2017-01-31 Immersion Corporation Systems and methods for performing haptic conversion
JP6127853B2 (ja) 2013-09-13 2017-05-17 富士通株式会社 情報処理装置、方法及びプログラム
US20150078586A1 (en) 2013-09-16 2015-03-19 Amazon Technologies, Inc. User input with fingerprint sensor
US9892200B2 (en) 2013-09-18 2018-02-13 Ebay Inc. Location-based and alter-ego queries
US9553872B2 (en) 2013-09-20 2017-01-24 Verizon Patent And Licensing Inc. Method and system for providing zero sign on user authentication
US9213408B2 (en) 2013-10-08 2015-12-15 Immersion Corporation Generating haptic effects while minimizing cascading
US9430796B1 (en) 2013-10-16 2016-08-30 Google Inc. Direct purchase from user-received advertisement
GB2519558A (en) 2013-10-24 2015-04-29 Ibm Touchscreen device with motion sensor
CN104599121B (zh) 2013-10-30 2017-04-12 腾讯科技(深圳)有限公司 一种信息传输方法、装置和系统
US9189932B2 (en) 2013-11-06 2015-11-17 Andrew Kerdemelidis Haptic notification apparatus and method
KR101504237B1 (ko) 2013-11-15 2015-03-19 엘지전자 주식회사 이동 단말기 및 그 제어방법
US9639158B2 (en) 2013-11-26 2017-05-02 Immersion Corporation Systems and methods for generating friction and vibrotactile effects
US9671826B2 (en) 2013-11-27 2017-06-06 Immersion Corporation Method and apparatus of body-mediated digital content transfer and haptic feedback
US9411422B1 (en) 2013-12-13 2016-08-09 Audible, Inc. User interaction with content markers
GB2521225A (en) 2013-12-16 2015-06-17 Vicast Ltd A method and apparatus for cataloguing data items
KR102225031B1 (ko) 2014-01-14 2021-03-09 엘지전자 주식회사 단말기 및 그 동작 방법
US9766852B2 (en) 2014-01-15 2017-09-19 Lenovo (Singapore) Pte. Ltd. Non-audio notification of audible events
WO2015116056A1 (en) 2014-01-29 2015-08-06 Hewlett-Packard Development Company, L.P. Force feedback
US10726018B2 (en) 2014-02-10 2020-07-28 Microsoft Technology Licensing, Llc Semantic matching and annotation of attributes
EP2908236A1 (en) 2014-02-13 2015-08-19 Samsung Electronics Co., Ltd Electronic device and index display method thereof
US9836123B2 (en) 2014-02-13 2017-12-05 Mide Technology Corporation Bussed haptic actuator system and method
KR102102647B1 (ko) 2014-02-21 2020-04-21 엘지전자 주식회사 무선 리시버 및 그 제어 방법
JP2015166890A (ja) 2014-03-03 2015-09-24 ソニー株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
KR102335217B1 (ko) 2014-03-05 2021-12-03 삼성전자 주식회사 전류 또는 전력 소모량을 이용한 애플리케이션 프로세서의 구동 방법 및 모바일 장치
US10417570B2 (en) 2014-03-06 2019-09-17 Verizon Patent And Licensing Inc. Systems and methods for probabilistic semantic sensing in a sensory network
JP2015170173A (ja) 2014-03-07 2015-09-28 ソニー株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP6381240B2 (ja) 2014-03-14 2018-08-29 キヤノン株式会社 電子機器、触感制御方法及びプログラム
US9639231B2 (en) 2014-03-17 2017-05-02 Google Inc. Adjusting information depth based on user's attention
CN104932681B (zh) 2014-03-21 2019-09-20 意美森公司 触觉效果的自动调整
CN106104426B (zh) 2014-03-21 2020-04-03 意美森公司 用于基于力的对象操纵和触觉检测的系统、方法和计算机可读介质
KR102243680B1 (ko) 2014-04-07 2021-04-23 엘지전자 주식회사 투명 플렉서블 디스플레이 장치 및 그 장치의 제어 방법
KR20150118813A (ko) 2014-04-15 2015-10-23 삼성전자주식회사 햅틱 정보 운용 방법 및 이를 지원하는 전자 장치
US10162505B2 (en) 2014-04-17 2018-12-25 Blackberry Limited System and method for enabling customized notifications on an electronic device
JP6322830B2 (ja) 2014-05-09 2018-05-16 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法
US9507420B2 (en) * 2014-05-13 2016-11-29 Qualcomm Incorporated System and method for providing haptic feedback to assist in capturing images
CN105099688B (zh) 2014-05-15 2018-12-21 阿里巴巴集团控股有限公司 一种电子账户的操作方法、支付页面的展示方法及装置
US20150350146A1 (en) 2014-05-29 2015-12-03 Apple Inc. Coordination of message alert presentations across devices based on device modes
US9898162B2 (en) 2014-05-30 2018-02-20 Apple Inc. Swiping functions for messaging applications
KR101929372B1 (ko) 2014-05-30 2018-12-17 애플 인크. 하나의 디바이스의 사용으로부터 다른 디바이스의 사용으로의 전환
US9733880B2 (en) 2014-05-30 2017-08-15 Immersion Corporation Haptic notification manager
US9971500B2 (en) 2014-06-01 2018-05-15 Apple Inc. Displaying options, assigning notification, ignoring messages, and simultaneous user interface displays in a messaging application
US9588586B2 (en) 2014-06-09 2017-03-07 Immersion Corporation Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity
US9648062B2 (en) 2014-06-12 2017-05-09 Apple Inc. Systems and methods for multitasking on an electronic device with a touch-sensitive display
US20140320402A1 (en) 2014-07-14 2014-10-30 Immersion Corporation Self calibration for haptic devices
US9710063B2 (en) 2014-07-21 2017-07-18 Immersion Corporation Systems and methods for determining haptic effects for multi-touch input
WO2016017978A1 (en) 2014-07-31 2016-02-04 Samsung Electronics Co., Ltd. Device and method for performing functions
US20160036996A1 (en) 2014-08-02 2016-02-04 Sony Corporation Electronic device with static electric field sensor and related method
WO2016032806A1 (en) 2014-08-26 2016-03-03 Apple Inc. User interface for limiting notifications and alerts
WO2016036509A1 (en) 2014-09-02 2016-03-10 Apple Inc. Electronic mail user interface
US9659482B2 (en) 2014-09-02 2017-05-23 Apple Inc. Context-based alerts for an electronic device
KR102143310B1 (ko) 2014-09-02 2020-08-28 애플 인크. 햅틱 통지
KR102497720B1 (ko) 2014-09-02 2023-02-10 애플 인크. 가변 햅틱 출력을 위한 시맨틱 프레임워크
US9977573B2 (en) 2014-10-31 2018-05-22 Microsoft Technology Licensing, Llc Facilitating interaction between users and their environments using a headset having input mechanisms
GB2532766A (en) 2014-11-27 2016-06-01 Ibm Interaction with a graph for device control
US10764424B2 (en) 2014-12-05 2020-09-01 Microsoft Technology Licensing, Llc Intelligent digital assistant alarm system for application collaboration with notification presentation
KR102230523B1 (ko) 2014-12-08 2021-03-19 신상현 이동 단말기
CN104536643B (zh) 2014-12-10 2018-05-29 广东欧珀移动通信有限公司 一种图标拖动方法及终端
GB2533572A (en) 2014-12-22 2016-06-29 Nokia Technologies Oy Haptic output methods and devices
US9665960B1 (en) 2014-12-22 2017-05-30 Amazon Technologies, Inc. Image-based item location identification
US9851805B2 (en) 2014-12-24 2017-12-26 Immersion Corporation Systems and methods for haptically-enabled holders
US9466188B2 (en) 2014-12-24 2016-10-11 Immersion Corporation Systems and methods for haptically-enabled alarms
DE102015200036A1 (de) 2015-01-05 2016-07-07 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung in einem Kraftfahrzeug zur Eingabe von Daten mit zwei Eingabearten und haptischer Rückkopplung
US9794402B2 (en) 2015-01-12 2017-10-17 Apple Inc. Updating device behavior based on user behavior
US9619034B2 (en) 2015-02-25 2017-04-11 Immersion Corporation Overlaying of haptic effects
US9600094B2 (en) 2015-03-04 2017-03-21 Lenovo (Singapore) Pte. Ltd. Apparatus, method, and program product for directing motion of a writing device
US10055121B2 (en) 2015-03-07 2018-08-21 Apple Inc. Activity based thresholds and feedbacks
US9542037B2 (en) 2015-03-08 2017-01-10 Apple Inc. Device, method, and user interface for processing intensity of touch contacts
US9788138B2 (en) 2015-04-03 2017-10-10 Snaptrack, Inc. Methods and systems of allocating application functions to motion-correlated devices
US10466861B2 (en) 2015-04-21 2019-11-05 Apple Inc. Adaptive user interfaces
WO2016171848A1 (en) 2015-04-23 2016-10-27 Thomson Licensing Vibration signatures for intelligent alerts
KR102307303B1 (ko) 2015-05-20 2021-09-30 엘지전자 주식회사 이동단말기 및 그 제어방법
US9844984B2 (en) 2015-05-22 2017-12-19 General Motors Llc Vehicle tire gauge systems
KR102423184B1 (ko) 2015-05-29 2022-07-21 삼성전자주식회사 화면 출력 방법 및 이를 지원하는 전자 장치
US20160357354A1 (en) 2015-06-04 2016-12-08 Apple Inc. Condition-based activation of a user interface
US9529500B1 (en) 2015-06-05 2016-12-27 Apple Inc. Application recommendation based on detected triggering events
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US10275116B2 (en) 2015-06-07 2019-04-30 Apple Inc. Browser with docked tabs
US10335686B2 (en) 2015-06-30 2019-07-02 Gree, Inc. Program, control method, and information processing apparatus
US10055048B2 (en) 2015-07-31 2018-08-21 Apple Inc. Noise adaptive force touch
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10034129B1 (en) 2015-08-24 2018-07-24 Groupon, Inc. Mobile proximity based messages
US11099650B1 (en) * 2015-09-07 2021-08-24 Oliver Markus Haynold Camera with improved shutter button
US9928029B2 (en) 2015-09-08 2018-03-27 Apple Inc. Device, method, and graphical user interface for providing audiovisual feedback
UA118951U (uk) 2015-09-17 2017-09-11 Микола Сергійович Лещенко Спосіб представлення контенту користувачу
KR20180044877A (ko) 2015-09-22 2018-05-03 임머숀 코퍼레이션 압력-기반 햅틱들
KR101708319B1 (ko) 2015-10-12 2017-02-20 엘지전자 주식회사 와치 타입 단말기
US20170185729A1 (en) 2015-11-18 2017-06-29 Srinidhi Boray Methods and systems of a hyperbolic-dirac-net-based bioingine platform and ensemble of applications
KR102521214B1 (ko) 2016-01-19 2023-04-13 삼성전자주식회사 사용자 인터페이스를 표시하는 방법 및 이를 지원하는 전자 장치
DK179823B1 (en) 2016-06-12 2019-07-12 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR PROVIDING HAPTIC FEEDBACK
DK201670737A1 (en) 2016-06-12 2018-01-22 Apple Inc Devices, Methods, and Graphical User Interfaces for Providing Haptic Feedback
DK179278B1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, methods and graphical user interfaces for haptic mixing
DK201670720A1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs
US10365719B2 (en) 2017-07-26 2019-07-30 Google Llc Haptic feedback of user interface scrolling with synchronized visual animation components
US10645294B1 (en) 2019-05-06 2020-05-05 Apple Inc. User interfaces for capturing and managing visual media

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004070492A (ja) 2002-08-02 2004-03-04 Hitachi Ltd タッチパネルを備えた表示装置及び情報処理方法
JP2006185443A (ja) 2004-12-21 2006-07-13 Microsoft Corp 圧力応動コントロール
JP2008033739A (ja) 2006-07-31 2008-02-14 Sony Corp 力覚フィードバックおよび圧力測定に基づくタッチスクリーンインターラクション方法および装置
JP2010152716A (ja) 2008-12-25 2010-07-08 Kyocera Corp 入力装置
JP2011129019A (ja) 2009-12-21 2011-06-30 Kyocera Corp 触感呈示装置
JP2013045173A (ja) 2011-08-22 2013-03-04 Kyocera Corp 電子機器
JP2014215639A (ja) 2013-04-22 2014-11-17 シャープ株式会社 情報処理装置および制御プログラム
JP2014229150A (ja) 2013-05-23 2014-12-08 キヤノン株式会社 表示制御装置及びその制御方法
JP2017050003A (ja) 2015-03-08 2017-03-09 アップル インコーポレイテッド 視覚及び/又は触覚フィードバックを用いてユーザインタフェースオブジェクトを操作するためのデバイス、方法、及びグラフィカルユーザインタフェース

Also Published As

Publication number Publication date
US20230324996A1 (en) 2023-10-12
US11314330B2 (en) 2022-04-26
JP2020520011A (ja) 2020-07-02
JP2022095736A (ja) 2022-06-28
DK201770372A1 (en) 2019-01-08
KR20220075457A (ko) 2022-06-08
KR20230131953A (ko) 2023-09-14
US20220091678A1 (en) 2022-03-24
US20180335848A1 (en) 2018-11-22
AU2020289876A1 (en) 2021-01-28
AU2020289876B2 (en) 2022-01-06
JP2024063012A (ja) 2024-05-10
CN115494956A (zh) 2022-12-20

Similar Documents

Publication Publication Date Title
JP7049368B2 (ja) ユーザインタフェースのための触知フィードバック
US11635818B2 (en) Devices, methods, and graphical user interfaces for providing feedback during interaction with an intensity-sensitive button
US10901513B2 (en) Devices, methods, and graphical user interfaces for haptic mixing
JP7139450B2 (ja) 通知を事前対策的に管理するためのデバイス、方法、及びグラフィカルユーザインタフェース
JP7009651B2 (ja) アプリケーション切り替えユーザインタフェースと対話するためのデバイス及び方法
EP3593230B1 (en) Tactile feedback for user interfaces
AU2017251751B2 (en) Devices, methods, and graphical user interfaces for haptic mixing
EP3293611A1 (en) Devices, methods, and graphical user interfaces for haptic mixing

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191111

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210128

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210305

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220325

R150 Certificate of patent or registration of utility model

Ref document number: 7049368

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150