JP2020198105A - 指紋センサ入力に基づくユーザインタフェースを操作するための機器、方法、及びグラフィカルユーザインタ−フェース - Google Patents

指紋センサ入力に基づくユーザインタフェースを操作するための機器、方法、及びグラフィカルユーザインタ−フェース Download PDF

Info

Publication number
JP2020198105A
JP2020198105A JP2020128391A JP2020128391A JP2020198105A JP 2020198105 A JP2020198105 A JP 2020198105A JP 2020128391 A JP2020128391 A JP 2020128391A JP 2020128391 A JP2020128391 A JP 2020128391A JP 2020198105 A JP2020198105 A JP 2020198105A
Authority
JP
Japan
Prior art keywords
fingerprint
display
user interface
electronic device
fingerprint sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020128391A
Other languages
English (en)
Other versions
JP7345442B2 (ja
JP2020198105A5 (ja
Inventor
ベンジャミン ジェイ. ポープ,
J Pope Benjamin
ベンジャミン ジェイ. ポープ,
ダニエル ダブリュ. ジャーヴィス,
W Jarvis Daniel
ダニエル ダブリュ. ジャーヴィス,
ニコラス ジー. メルツ,
G Merz Nicholas
ニコラス ジー. メルツ,
スコット エー. マイヤーズ,
A Myers Scott
スコット エー. マイヤーズ,
マイケル エー. クレテラ,
A Cretella Michael
マイケル エー. クレテラ,
マイケル エング,
Eng Michael
マイケル エング,
ジェームス エイチ. フォスター,
h foster James
ジェームス エイチ. フォスター,
テリー エル. ジウトン,
L Gilton Terry
テリー エル. ジウトン,
マイラ ハガティ,
Haggerty Myra
マイラ ハガティ,
バイロン ビー. ハン,
B Han Byron
バイロン ビー. ハン,
エム. エヴァンス ハンキー,
Evans Hankey M
エム. エヴァンス ハンキー,
スティーブン ピー. ホテリング,
Steven P Hotelling
スティーブン ピー. ホテリング,
ブライアン アール. ランド,
r land Brian
ブライアン アール. ランド,
ステファン ブライアン リンチ,
Brian Lynch Stephen
ステファン ブライアン リンチ,
ポール ミード,
Meade Paul
ポール ミード,
ムシュタク エー. サルワール,
A Sarwar Mushtaq
ムシュタク エー. サルワール,
ピー. ターナス,ジョン
P Ternus John
ピー. ターナス,ジョン
ポール エム. トンプソン,
m thompson Paul
ポール エム. トンプソン,
オス, マルセル ファン
Van Os Marcel
オス, マルセル ファン
ジョン エー. ライト,
A Wright John
ジョン エー. ライト,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2020198105A publication Critical patent/JP2020198105A/ja
Publication of JP2020198105A5 publication Critical patent/JP2020198105A5/ja
Application granted granted Critical
Publication of JP7345442B2 publication Critical patent/JP7345442B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/218Input arrangements for video game devices characterised by their sensors, purposes or types using pressure sensors, e.g. generating a signal proportional to the pressure applied by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1662Details related to the integrated keyboard
    • G06F1/1671Special purpose buttons or auxiliary keyboards, e.g. retractable mini keypads, keypads or buttons that remain accessible at closed laptop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04897Special input arrangements or commands for improving display capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1431Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display using a single graphics controller

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)
  • Image Input (AREA)
  • Collating Specific Patterns (AREA)

Abstract

【課題】ユーザの認識的負担を軽減し、より効率的なヒューマンマシンインタフェースを提供する。【解決手段】ディスプレイと指紋センサとを有し第1のユーザインタフェースをディスプレイに表示する電子機器であって、第1のユーザインタフェースをディスプレイに表示している間に、指紋センサにおいて指紋の動きを検出する。指紋センサにおいて指紋の動きを検出したことに応じて、電子機器は、指紋の動きが第1の方向であるという判定に従って、第1のユーザインタフェースをナビゲートし、指紋の動きが第1の方向とは異なる第2の方向であるという判定に従って、第1のユーザインタフェースとは異なる第2のユーザインタフェースをディスプレイに表示する。【選択図】図6A

Description

本願は、全体として、ユーザインタフェースを操作する入力を検出する指紋センサを有する電子機器を含むがそれに限定されない、指紋センサを有する電子機器に関する。
コンピュータ及びその他の電子計算機器の入力機器としてのタッチ感知面の使用が、近年著しく増加している。例示的なタッチ感知面としては、タッチパッドとタッチスクリーンディスプレイが挙げられる。このような面は、ディスプレイ上でユーザインタフェースを操作するために幅広く使用されている。加えて、一部の電子機器は、ユーザを認証するための指紋センサを含む。
例示的な操作には、1つ以上のユーザインタフェースオブジェクトの位置及び若しくはサイズを調節すること、又はボタンをアクティブ化すること、又はユーザインタフェースオブジェクトによって表されるファイル/アプリケーションを開くこと、並びに、メタデータを1つ以上のユーザインタフェースオブジェクトに関連付けること、又は他の方法でユーザインタフェースを操作することが挙げられる。例示的なユーザインタフェースオブジェクトには、デジタルイメージ、映像、テキスト、アイコン、ボタンなどの制御要素及びその他の図形が挙げられる。ユーザは、いくつかの状況において、ファイル管理プログラム(例えば、カリフォルニア州クパチーノApple Inc.製のFinder)、イメージ管理アプリケーション(例えば、カリフォルニア州クパチーノApple Inc.製のAperture又はiPhoto、デジタルコンテンツ(例えば、映像及びミュージック)管理アプリケーション(例えば、カリフォルニア州クパチーノApple Inc.製のiTunes、描画アプリケーション、プレゼンテーションアプリケーション(例えば、カリフォルニア州クパチーノApple Inc.製のKeynote、文書作成アプリケーション(例えば、カリフォルニア州クパチーノApple Inc.製のPages)、ウェブサイト作成アプリケーション(例えば、カリフォルニア州クパチーノApple Inc.製のiWeb)、ディスクオーサリングアプリケーション(例えば、カリフォルニア州クパチーノApple Inc.製のiDVD)、又はスプレッドシートアプリケーション(例えば、カリフォルニア州クパチーノApple Inc.製のNumbers)においてユーザインタフェースオブジェクト上でこのような操作を実行する必要がある。
しかし、これらの操作を実行する方法は必要以上に時間がかかり、それによってエネルギーを浪費する。加えて、これらの方法は必要以上に時間がかかり、それによってエネルギーを浪費する。この後者の考慮事項は、バッテリ動作機器においては特に重要である。
したがって、ユーザインタフェースを操作するためのより速く、より効率的な方法及びインタフェースを備えた電子機器が必要とされている。かかる方法及びインタフェースは、任意選択的に、ユーザインタフェースを操作するための従来の方法を補完するか又は取って代る。かかる方法及びインタフェースは、ユーザの認識的負担を軽減し、より効率的なヒューマンマシンインタフェースを作り出す。バッテリ動作機器の場合、かかる方法及びインタフェースにより、電力を保存し、バッテリの充電の間の時間を増やす。
タッチ感知面を有する電子機器のユーザインタフェースに関連付けられた上記の欠点及び他の問題は、開示される機器によって低減又は解消される。いくつかの実施形態において、この機器は、デスクトップコンピュータである。いくつかの実施形態において、この機器は、ポータブル(例えば、ノートブックコンピュータ、タブレットコンピュータ、又はハンドヘルド機器)である。いくつかの実施形態において、この機器は、タッチパッドを有する。いくつかの実施形態において、この機器は、タッチ感知ディスプレイ(「タッチスクリーン」又は「タッチスクリーンディスプレイ」としても知られる)を有する。いくつかの実施形態において、機器は指紋センサを有する。いくつかの実施形態において、この機器は、グラフィカルユーザインタフェース(GUI)、1つ以上のプロセッサ、メモリ、及び複数の機能を実行するためにメモリに記憶された1つ以上のモジュール、プログラム、又は命令セットを有する。いくつかの実施形態において、ユーザは、タッチ感知面及び/又は指紋センサ上で、主として指接触及びジェスチャを通じてGUIを対話する。いくつかの実施形態において、機能は、画像編集、描画、プレゼンテイング、文書作成、ウェブサイト作成、ディスクオーサリング、スプレッドシートの作成、ゲームプレイ、電話をかけること、ビデオ会議、電子メール送信、インスタントメッセージ、トレーニングサポート、デジタル写真撮影、デジタル映像撮影、ウェブブラウジング、デジタル音楽の再生、及び/又はデジタル映像の再生を任意選択的に、含む。これらの機能を実行するための実行可能命令は、永続的コンピュータ可読記憶媒体又は1つ以上のプロセッサによって実行するように構成された他のコンピュータプログラム製品に、任意選択的に、含まれる。
いくつかの実施形態によれば、電子機器は、指紋センサと、ディスプレイと、及び又は/タッチ感知面と、1つ以上のプロセッサと、メモリと、1つ以上のプログラムと、を含み、1つ以上のプログラムは、メモリに記憶され、1つ以上のプロセッサによって実行されるように構成され、1つ以上のプログラムは上述の方法のうちのいずれかの動作を実行するための命令を含む。いくつかの実施形態によれば、指紋センサと、ディスプレイと、任意選択的に、タッチ感知面と、メモリと、メモリに記憶された1つ以上のプログラムを実行する1つ以上のプロセッサとを有する電子機器上のグラフィカルユーザインタフェースは、上述の方法のいずれかで表示される要素のうちの1つ以上を含み、これらの要素は上記の方法のうちのいずれかにおいて説明されているように、入力に応答して更新される。いくつかの実施形態に係るコンピュータ可読記憶媒体は、指紋センサと、任意選択的に、ディスプレイと、及び/又はタッチ感知面とを有する電子機器によって実行されると、電子機器に上記の方法のうちのいずれかの動作を実行させる命令を記憶している。いくつかの実施形態に係る電子機器は、指紋センサと、任意選択的に、ディスプレイと、1つ以上のタッチ感知面と、上記の方法のうちのいずれかの動作を実行するための手段とを含む。いくつかの実施形態に係る、指紋センサと、任意選択的に、ディスプレイと、及び/又はタッチ感知面とを有する電子機器内で使用する情報処理装置は、上記の方法のうちのいずれか動作を実行するための手段を含む。
携帯型多機能機器上でユーザインタフェースと簡便に対話するためのより高速で、より効率的な(例えば、アプリケーションをナビゲートする、1つのアプリケーションインタフェースから別のアプリケーションインタフェースに切り換える、又はマルチタスキングユーザインタフェースを表示する)方法及びインタフェースを有する電子機器に対するニーズがある。かかる方法及びインタフェースは、ユーザインタフェースと対話する(例えば、アプリケーションユーザインタフェースをナビゲートする、アプリケーションユーザインタフェース間を切り替える、マルチタスキングユーザインタフェースを表示する)従来の方法を補完するか又は取って代り得る。かかる方法及びインタフェースは、ユーザの認識的負担を軽減し、より効率的なヒューマンマシンインタフェースを作り出す。バッテリ動作機器の場合、かかる方法及びインタフェースにより、電力を保存し、バッテリの充電の間の時間を増やす。
いくつかの実施形態に係る方法は、ディスプレイ及び指紋センサを有する電子機器で実行される。方法は、第1のユーザインタフェースをディスプレイ上に表示することを含む。方法は、第1のユーザインタフェースをデュスプレイ上に表示している間に、指紋センサ上の指紋の移動を検知することを更に含む。方法は、指紋センサ上で指紋の移動を検出すると、指紋の移動が第1の方向であるとの判定に従って、第1のユーザインタフェースをナビゲートし、指紋の移動が、第1の方向とは異なる第2の方向であるとの判定に従って、ディスプレイ上の第1のユーザインタフェースとは異なる第2のユーザインタフェースを表示することを、また含む。
いくつかの実施形態に係る電子機器は、第1のユーザインタフェースを表示するように構成されたディスプレイユニット、指紋センサユニット、並びにディスプレイユニット及び指紋センサユニットに連結された処理ユニットを有する。いくつかの実施形態において、処理ユニットは、検出ユニットと、ナビゲーティングユニットと、表示有効化ユニットと、リプレーシングユニットとを含む。処理ユニットは、第1のユーザインタフェースをディスプレイ上に表示している間に、指紋センサ上の指紋の移動を検出し、指紋センサ上の指紋の移動を検出すると、指紋の移動が第1の方向である場合、第1のユーザインタフェースをナビゲートし、指紋の移動が第1の方向とは異なる第2の方向である場合、ディスプレイユニット上で第1のユーザインタフェースとは異なる第2のユーザインタフェースの表示を可能にするように構成されている。
このように、ディスプレイ及び指紋センサを有する電子機器は、ユーザインタフェース間で切り換えするためのより高速で、より効率的な方法を備えており、このような機器の有効性、効率、ユーザ満足度を高める。かかる方法及びインタフェースは、ユーザインタフェース間の切り替えのための従来の方法を補完するか、又は取って代わり得る。
複数の目的の機能を果たすボタン(例えば、アクティブ化と同時に、機器に第1の動作か、又は、特定の基準によって、第1の動作とは異なる第2の動作を実行させるボタン)を有するより高速で、より効率的な方法と、インタフェースとを有する電子機器に対するニーズがある。かかる方法及びインタフェースは、ボタンが複数の目的を果たすことを可能にする従来の方法を補完するか、又は取って代わり得る。かかる方法及びインタフェースは、ユーザの認識的負担を軽減し、より効率的なヒューマンマシンインタフェースを作り出す。バッテリ動作機器の場合、かかる方法及びインタフェースにより、電力を保存し、バッテリの充電の間の時間を増やす。携帯型多機能機器の場合、かかる方法及びインタフェースは、機器の筐体上の貴重な物理的空間を節約でき、より大きなスクリーンと、より好ましいユーザエクスペリエンスを提供する。
いくつかの実施形態に係る方法は、統合指紋センサを含む、ボタンを有する電子機器で実行される。本方法は、統合指紋センサ上で指紋を検出することを含む。本方法は、統合指紋センサ上で指紋を検出し続けている間に、ボタンのアクティブ化を検出することを更に含む。本方法は、ボタンのアクティブ化を検出すると、ボタンがアクティブ化する前の所定の時間より長い間に統合指紋センサ上に指紋が連続して検出されなかったとの判定に従って、ボタンのアクティブ化と関連付けられた所定の動作である第1の動作を実行することを更に含む。本方法は、ボタンのアクティブ化を検出し、ボタンがアクティブ化する前の所定の時間より長い間に統合指紋センサ上に指紋が連続して検出されたとの判定に従って、ボタンのアクティブ化を検出する直前にディスプレイ上に表示されたユーザインタフェースに関連付けられた動作であって、第1の動作とは異なる、第2の動作を実行することを更に含む。
いくつかの実施形態に係る電子機器は、統合指紋センサユニットを有するボタンユニットと、ボタンユニットに連結された処理ユニットとを含む。処理ユニットは、統合指紋センサユニット上で指紋を検出するように構成されている。処理ユニットは、統合指紋センサユニット上で指紋を検出し続けている間に、ボタンユニットのアクティブ化を検出するように更に構成されている。処理ユニットは、ボタンのアクティブ化を検出すると、ボタンのアクティブ化前の所定の時間より長い間に統合指紋センサユニット上に指紋が連続して検出されなかったとの判定に従って、ボタンのアクティブ化と関連付けられた所定の動作である第1の動作を実行するように、更に構成されている。処理ユニットは、ボタンのアクティブ化を検出し、ボタンのアクティブ化前の所定の時間より長い間に統合指紋センサユニット上に指紋が連続して検出されたとの判定に従って、ボタンのアクティブ化を検出する直前にディスプレイ上に表示されたユーザインタフェースに関連付けられた動作であって、第1の動作とは異なる、第2の動作を実行するように、更に構成されている。
このようにして、指紋センサ付きボタンを有する電子機器は、ボタンが複数の目的を果たすことを可能にする、より高速で、より効率的な方法及びインタフェースを備え、かかる機器の有効性と、効率と、ユーザ満足とを高める。かかる方法及びインタフェースは、ボタンが複数の目的を果たすことを可能にする従来の方法を補完するか、又は取って代わり得る。
ユーザインタフェースの向きをロックするためのより高速で、より効率的な方法及びインタフェースに対するニーズがある。かかる方法及びインタフェースは、ユーザインタフェースの向きをロックするための従来の方法を補完するか、又は取って代わり得る。かかる方法及びインタフェースは、ユーザの認識的負担を軽減し、より効率的なヒューマンマシンインタフェースを作り出す。バッテリ動作機器の場合、かかる方法及びインタフェースにより、電力を保存し、バッテリの充電の間の時間を増やす。
いくつかの実施形態に係る方法は、ディスプレイ及び指紋センサを有する電子機器で実行される。本方法は、機器の第一の向きと関連付けられた動作の第1の向き固有モードと、機器の第1の向きとは異なり、機器の第2の向きに関連付けられた動作の第2の向き固有モードとを有するユーザインタフェースをディスプレイ上に表示することと、ユーザインタフェースの向きがロックされていない間に、機器が第1の向きである時にユーザインタフェースを動作の第1の向き固有モードで表示することと、機器が第2の向きにある時に、ユーザインタフェースを動作の第2の向き固有モードで表示することと、指紋センサ上で指紋を検出することと、ユーザインタフェースが、動作の第1の向き固有モードである間に、指紋センサ上の指紋の第1の向きの回転を検出することと、指紋センサ上の指紋の第1の向きの回転を検出すると、動作の第1の向き固有モードでユーザインタフェースをロックすることと、ユーザインタフェースが動作の第1の向き固有モードでロックされている間に、機器が第2の方向にあることを検出することと、ユーザインタフェースを動作の第1の向き固有モードに保持することとを含む。
いくつかの実施形態に係る電子機器は、機器の第1の向きに関連付けられた動作の第1の向き固有モードと、機器の第1の向きとは異なる、機器の第2の向きに関連付けられた動作の第2の向き固有モードとを有するユーザインタフェースを表示するように構成されたディスプレイユニット、指紋センサユニット、並びにディスプレイユニット及び指紋センサユニットに連結された処理ユニットを含む。処理ユニットは、ユーザインタフェースの向きがロックされていない間に、機器が第1の向きである時に動作の第1の向き固有モードでのユーザインタフェースの表示を有効化にし、機器が第2の向きである時に動作の第2の向き固有モードでのユーザインタフェースの表示を有効化にし、指紋センサユニット上で指紋を検出し、ユーザインタフェースが動作の第1の向き固有モードである間に、指紋センサユニット上の指紋の第1の方向の回転を検出し、指紋センサユニット上の指紋の第1の方向の回転を検出すると、ユーザインタフェースを動作の第1の向き固有モードでロックし、ユーザインタフェースが、動作の第1の向き固有モードでロックされている間に、機器が第2の向きであることを検出し、ユーザインタフェースを動作の第1の向き固有モードに保持するように構成されている。
このように、ディスプレイ及び指紋センサを有する電子機器は、ユーザインタフェースの向きを固定するためのより高速で、より効率的な方法及びインタフェースを備えており、このような機器の有効性、効率、ユーザ満足度を高める。かかる方法及びインタフェースは、ユーザインタフェースの向きをロックするための従来の方法を補完するか、又は取って代わり得る。
記録された音声におけるノイズ低減を指紋センサで制御するためのより高速で、より効率的な方法及びインタフェースを有する電子機器に対するニーズがある。かかる方法及びインタフェースは、記録された音声におけるノイズ低減を指紋センサで制御するための従来の方法を補完するか、又は取って代わり得る。かかる方法及びインタフェースは、ユーザの認識的負担を軽減し、より効率的なヒューマンマシンインタフェースを作り出す。バッテリ動作機器の場合、かかる方法及びインタフェースにより、電力を保存し、バッテリの充電の間の時間を増やす。
いくつかの実施形態に係る方法は、指紋センサを有する電子機器で実行される。本方法は、音声を記録することを含む、機器でメディアを記録することを含む。本方法は、更に、メディアを記録しながら、記録された音声において機器の第1の側で発生するノイズを低減することと、指紋センサ上で指紋を検出することと、指紋センサ上で指紋を検出すると、機器の第1の側で発生するノイズを低減することを中止することを含む。
いくつかの実施形態に係る電子機器は、指紋を検出するように構成された指紋センサユニットと、指紋センサユニットに連結された処理ユニットとを含む。処理ユニットは、メディアをメディアで記録するように構成されおり、メディアを記録することは、音声を記録することを含む。処理ユニットは、メディアを記録する間に、記録された音声において機器の第1の側で発生するノイズを低減し、指紋センサユニット上で指紋を検出し、指紋センサユニット上で指紋を検出すると、機器の第1の側で発生するノイズを低減することを中止するように更に構成されている。
このようにして、指紋センサを有する電子機器は、記録された音声におけるノイズ低減を指紋センサで制御するためのより高速で、より効率的な方法及びインタフェースを備え、かかる機器の有効性と、効率と、ユーザ満足とを高める。かかる方法及びインタフェースは、記録された音声におけるノイズ低減を指紋センサで制御するための従来の方法を補完するか、又は取って代わり得る。
機器の現在のユーザに適合する動作を実行するためのより高速で、より効率的な方法及びインタフェースを有する電子機器に対するニーズがある。かかる方法及びインタフェースは、機器の現在のユーザに適合する従来の方法を補完するか、又は取って代わり得る。かかる方法及びインタフェースは、ユーザの認識的負担を軽減し、より効率的なヒューマンマシンインタフェースを作り出す。バッテリ動作機器の場合、かかる方法及びインタフェースにより、電力を保存し、バッテリの充電の間の時間を増やす。
いくつかの実施形態に係る方法は、ディスプレイと、それぞれの入力要素と、指紋センサとを有する電子機器で実行される。本方法は、1つ以上のユーザ固有プロファイルと、ユーザ固有プロファイルとは異なり、ユーザのそれぞれのクラスに対応する1つ以上のクラス別プロファイルとを含む複数のプロファイルを取得することと、第1の指紋が、第1のクラス別プロファイルに関連付けられたユーザの第1のクラスにおけるユーザの指紋に対応するとの判定に従って、第1のクラス別プロファイルをアクティブなプロファイルとして選択することを含む、第1の指紋の前に登録された指紋との認証の如何に係らず第1の指紋に対応するアクティブなプロファイルとして、機器に関連付けられた1つ以上のクラス別プロファイルを選択することと、第1のクラス別プロファイルをアクティブなプロファイルとして選択することと、それぞれの入力要素で、機器での1つ以上の動作を実行する要求に対応する入力を受け付けることと、第1のクラス別プロファイルがアクティブなプロファイルとして選択されている間にそれぞれの入力要素で入力を受け付けると、上記の要求と第1のクラス別プロファイルに基づいてそれぞれの動作を実行することとを含む。
いくつかの実施形態に係る電子機器は、ディスプレイユニット、それぞれの入力要素ユニット、指紋センサユニット、ディスプレイユニット、並びにそれぞれの入力要素ユニット及び指紋センサユニットに連結された処理ユニットを含む。いくつかの実施形態において、処理ユニットは、取得ユニットと、検出ユニットと、選択ユニットと、実行ユニットと、判定ユニットと、識別ユニットとを含む。処理ユニットは、1以上のユーザ固有プロファイルと、ユーザ固有プロファイルとは異なり、ユーザのそれぞれのクラスに対応する1つ以上のクラス別プロファイルとを含む複数のプロファイルを取得し、指紋センサユニット上で指紋を検出し、第1の指紋が、第1のクラス別プロファイルに関連付けられたユーザの第1のクラスにおけるユーザの指紋に対応するとの判定に従って、第1のクラス別プロファイルをアクティブなプロファイルとして選択することを含み、第1の指紋の前に登録された指紋との認証の如何に係らず第1の指紋に対応するアクティブなプロファイルとして、機器に関連付けられた1つ以上のクラス別プロファイルを選択し、第1のクラス別プロファイルをアクティブなプロファイルとして選択し、それぞれの入力要素で、機器での1つ以上の動作を実行する要求に対応する入力を受け付け、第1のクラス別プロファイルがアクティブなプロファイルとして選択されている間にそれぞれの入力要素で入力を受け付けると、上記の要求と第1のクラス別プロファイルに基づいてそれぞれの動作を実行するように構成されている。
このようにして、ディスプレイと、それぞれの入力要素と、指紋センサとを有する電子機器は、機器の現在のユーザに適合した動作を実行するためのより高速で、より効率的な方法及びインタフェースを備え、かかる機器の有効性と、効率と、ユーザ満足度とを高める。かかる方法及びインタフェースは、クラス別プロファイルに基づく動作を実行するための従来の方法を補完するか、又は取って代わり得る。
指紋に基づいてロギングプリファレンスを変更するためのより高速で、より効率的な方法及びインタフェースを有する電子機器に対するニーズがある。かかる方法及びインタフェースは、ロギングプリファレンスを変更するための従来の方法を補完するか、又は取って代わり得る。かかる方法及びインタフェースは、ユーザの認識的負担を軽減し、より効率的なヒューマンマシンインタフェースを作り出す。バッテリ動作機器の場合、かかる方法及びインタフェースにより、電力を保存し、バッテリの充電の間の時間を増やす。携帯型多機能機器の場合、かかる方法及びインタフェースは、失った又は盗まれた機器をより容易に復元することを可能にする。
いくつかの実施形態に係る方法は、ディスプレイと、それぞれの入力要素と、指紋センサとを有する電子機器で実行される。本方法は、第1の指紋を指紋センサ上で検出することと、第1の指紋が、機器に関連付けられたユーザプロファイルに関連付けられているかを判定することを含む。本方法は、第1の指紋が、機器に関連付けられたユーザプロファイルに関連付けられているか判定した後で、第1の指紋が機器に関連付けられたそれぞれのユーザプロファイルに関連付けられているとの判定に従って、それぞれのユーザプロファイルをアクティブなプロファイルとして設定することを、更に含む。本方法は、第1の指紋が、機器に関連付けられたユーザプロファイルに関連付けられているか判定した後で、第1の指紋が機器に関連付けられたそれぞれのユーザプロファイルに関連付けられていないとの判定に従って、デフォルトプロファイルをアクティブなプロファイルとして設定することを、更に含む。本方法は、それぞれの入力要素で、要求された動作を実行する要求に対応する入力を受け付けることを、更に含む。本方法は、それぞれの入力要素で入力を受け付けると、それぞれのユーザプロファイルがアクティブなプロファイルであるとの判定に従って、それぞれのユーザプロファイルのロギングプリファレンスに従って要求された動作に関連付けられた1つ以上の動作の第1のセットを実行することを、更に含む。本方法は、それぞれの入力要素で入力を受け付けると、それぞれのユーザプロファイルがアクティブなプロファイルであるとの判定に従って、デフォルトプロファイルがアクティブなプロファイルであると判定されると、デフォルトプロファイルのロギングプリファレンスに従って要求された動作に関連付けられた動作の第2のセットを実行することを、更に含む。
いくつかの実施形態に係る電子機器は、要求された動作を実行する要求に対応する入力を受け付けるように構成されたそれぞれの入力ユニット、指紋センサユニット、並びに指紋センサユニット及びそれぞれの入力ユニットに連結された処理ユニットを含み、処理ユニットは、第1の指紋を指紋センサユニット上で検出し、第1の指紋が、機器に関連付けられたユーザプロファイルに関連付けられているか判定するように構成されている。処理ユニットは、第1の指紋が、機器に関連付けられたユーザプロファイルに関連付けられているか判定した後で、第1の指紋が機器に関連付けられたそれぞれのユーザプロファイルに関連付けられているとの判定に従って、それぞれのユーザプロファイルをアクティブなプロファイルとして設定し、第1の指紋が、機器に関連付けられた任意のユーザプロファイルに関連付けられていないとの判定に従って、デフォルトプロファイルをアクティブなプロファイルとして設定するように、更に構成されている。処理ユニットは、それぞれの入力ユニットで入力を受け付けると、それぞれのユーザプロファイルが、アクティブなプロファイルであるとの判定に従って、それぞれのユーザプロファイルのロギングプリファレンスに従って要求された動作に関連付けられた1つ以上の動作の第2のセットを実行し、デフォルトプロファイルがアクティブなプロファイルであるとの判定に従って、デフォルトプロファイルのロギングプリファレンスに従って要求された動作に関連付けられた動作の第2のセットを実行するように、更に構成されている。
このように、入力要素及び指紋センサを有する電子機器は、指紋に基づいてロギングプリファレンスを変更するためのより高速で、より効率的な方法及びインタフェースを備えており、かかる機器の有効性、効率、ユーザ満足度を高める。かかる方法及びインタフェースは、ロギングプリファレンスを変更するための従来の方法を補完するか、又は取って代わり得る。
それぞれの制限された動作を指紋照合情報に基づいて実行するための(例えば、指紋照合情報が、それぞれの制限された動作のそれぞれの権限付与基準を満たす時)より高速で、効率的な方法及びインタフェースを有する電子機器に対するニーズがある。かかる方法及びインタフェースは、それぞれの制限された動作を指紋照合情報に基づいて実行するための従来の方法を補完するか、又は取って代わり得る。かかる方法及びインタフェースは、ユーザの認識的負担を軽減し、より効率的なヒューマンマシンインタフェースを作り出す。バッテリ動作機器の場合、かかる方法及びインタフェースにより、電力を保存し、バッテリの充電の間の時間を増やす。
いくつかの実施形態に係る方法は、指紋の照合を制御するための指紋照合基準を取得することを含む。それぞれの制限された動作に対応する複数のそれぞれの入力のうちのそれぞれについて、本方法は、それぞれの入力の指紋の特徴を識別することと、少なくとも部分的にそれぞれの入力の指紋の特徴と1つ以上の登録済みの指紋の指紋の特徴との比較と、指紋照合基準に基づいてそれぞれの入力の指紋照合情報を判定することを含む。
最後に、本方法は、それぞれの入力を検出すると、指紋照合情報がそれぞれの制限された動作のそれぞれの権限付与基準を満たしているとの判定に従って、それぞれの制限された動作を実行することと、指紋照合情報が、制限された動作のそれぞれの権限付与基準を満たしていないとの判定に従って、それぞれの制限された動作を実行することを取り止めることとを更に含む。
いくつかの実施形態に係る電子機器は、情報を表示するように構成されたディスプレイユニット、指紋センサユニット、並びにディスプレイユニット及び指紋センサユニットに連結された処理ユニットを含む。処理ユニットは、指紋の照合を制御するための指紋照合基準を取得するように構成されている。それぞれの制限された動作に対応する複数のそれぞれの入力のうちのそれぞれについて、処理ユニットは、それぞれの入力の指紋の特徴を識別し、それぞれの入力の指紋の特徴と1つ以上の登録済みの指紋の指紋の特徴との比較と、指紋照合基準とに少なくとも部分的に基づいてそれぞれの入力の指紋照合情報を判定するように、更に構成されている。最後に、処理ユニットは、それぞれの入力を検出すると、指紋照合情報がそれぞれの制限された動作のそれぞれの権限付与基準を満たしているとの判定に従って、それぞれの制限された動作を実行し、指紋照合情報が制限された動作のそれぞれの権限付与基準を満たしていないとの判定に従って、それぞれの制限された動作の実行を取り止めるように構成されている。
このようにして、ディスプレイ及び指紋センサを有する電子機器は、指紋照合情報に基づくそれぞれの制限された動作を実行するためのより高速で、より効率的な方法及びインタフェースを備え、かかる機器の有効性と、効率と、ユーザ満足度とを高める。かかる方法及びインタフェースは、それぞれの制限された動作を実行するための従来の方法を補完するか、又は取って代わり得る。
アイデンティティとロケーション情報を関連付けるためのより高速で、効率的な方法及びインタフェースを有する電子機器に対するニーズがある。かかる方法及びインタフェースは、アイデンティティとロケーション情報を関連付けるための従来の方法を補完するか、又は取って代わり得る。かかる方法及びインタフェースは、ユーザの認識的負担を軽減し、より効率的なヒューマンマシンインタフェースを作り出す。バッテリ動作機器の場合、かかる方法及びインタフェースにより、電力を保存し、バッテリの充電の間の時間を増やす。
いくつかの実施形態に係る方法は、ディスプレイ及び指紋センサを有する電子機器で実行される。本方法は、マップをディスプレイ上に表示することと、アクティブ化入力を検出することとを含む。アクティブ化入力は、それぞれの地理的ロケーションに対応するマップ上に表示されたロケーションと、指紋センサ上で検出された指紋とに関連付けられる。本方法は、アクティブ化入力を検出すると、指紋に対応するユーザを識別することと、それぞれの地理的ロケーションと、ユーザに関連付けられた動作とを実行することとを、更に含む。
いくつかの実施形態に係る電子機器は、マップを表示するように構成されたディスプレイユニット、指紋を検出するように構成された指紋センサユニット、並びにディスプレイユニット及び指紋センサユニットに連結された処理ユニットを含む。いくつかの実施形態において、ディスプレイユニットは、タッチ感知ディスプレイユニットであり、指紋センサユニットは指紋をタッチ感知ディスプレイユニット上で検出する。処理ユニットは、それぞれの地理的ロケーションに対応するマップ上に表示されたロケーションと、指紋センサユニット上で検出された指紋に関連付けられたアクティブ化入力を検出し、アクティブ化入力を検出すると、指紋に対応するユーザを識別し、それぞれの地理的ロケーション及びユーザに関連付けられた動作を実行するように構成されている。
このように、ディスプレイ及び指紋センサを有する電子機器は、アイデンティティとロケーション情報を関連付けるためのより高速で、より効率的な方法及びインタフェースを備えており、このような機器の有効性、効率、ユーザ満足度を高める。かかる方法及びインタフェースは、アイデンティティとロケーション情報を関連付けるための従来の方法を補完するか、又は取って代わり得る。
1人以上のユーザが独自の個人的な作業空間又は作業領域を作成又は画成することを可能にするためのより高速で、効率的な方法及びインタフェースを有する電子機器に対するニーズがある。したがって、開示されている実施形態は、多機能機器上のより大きな共用作業空間内のそれぞれの作業空間の境界を画成し、それぞれの作業空間を、個々の優先順位に基づくそれぞれのカスタムユーザ設定に関連付けたメニューがタッチ感知面に押したユーザの指紋の検出に基づいて1人以上のユーザにそれぞれの作業空間を割り当てる方法を提供する。かかる方法及びインタフェースは、1人以上のユーザに作業空間を割り当てるための従来の方法を補完するか、又は取って代わり得る。かかる方法及びインタフェースは、ユーザの認識的負担を軽減し、より効率的なヒューマンマシンインタフェースを作り出す。バッテリ動作機器の場合、かかる方法及びインタフェースにより、電力を保存し、バッテリの充電の間の時間を増やす。
いくつかの実施形態に係る方法は、ディスプレイ、タッチ感知面、及び指紋センサを有する電子機器で実行される。本方法は、タッチ感知面の第1の領域を画成するタッチ感知面上の1つ以上の入力の第1のセットを検出することを含む。本方法は、1つ以上の入力の第1のセットを検出した後、1つ以上の入力の第1のセットが、第1のユーザに関連付けられた第1の指紋を含む第1の接触を含んでいると判定することと、1つ以上の入力の第1のセットが、第1のユーザに関連付けられた第1の指紋を含む第1の接触を含むと判定することに、少なくとも部分的に、基づいて、タッチ感知面の第1の領域を第1のユーザに関連付けることとを、更に含む。
いくつかの実施形態に係る電子機器は、1つ以上のユーザインタフェースオブジェクトを表示するように構成されたディスプレイユニット、タッチ感知面ユニットへの接触を受け付けるように構成されたタッチ感知面ユニット、指紋センサユニット、並びにディスプレイユニット、タッチ感知面ユニット、及び指紋センサユニットに連結された処理ユニットを含む。処理ユニットは、タッチ感知面ユニットの第1の領域を画成するタッチ感知面ユニット上で1つ以上の入力の第1のセットを検出し、1つ以上の入力の第1のセットを検出した後で、1つ以上の入力の第1のセットが、第1のユーザに関連付けられた第1の指紋を含む第1の接触を含んでいることを判定し、1つ以上の入力の第1のセットが、第1のユーザに関連付けられた第1の指紋を含む第1の接触を含んでいると判定することに、少なくとも部分的に基づき、タッチ感知面ユニットの第1の領域を第1のユーザに関連付けるように構成されている。
このようにして、ディスプレイ、タッチ感知面、及び指紋センサを有する電子機器は、タッチ感知面の領域を1つ以上のユーザに関連付けるための、より高速で、効率的な方法及びインタフェースを備え、かかる機器の有効性と、効率と、ユーザ満足度とを高める。かかる方法及びインタフェースは、1人以上のユーザに作業空間を割り当てるための従来の方法を補完するか、又は取って代わり得る。
例えば、コンピュータのキーボードにキー入力したり、楽器のキーボード上のキーを押したり(例えば、ピアノを演奏)する時に用いる正しい指使い技術についてユーザを訓練するためのより高速で、効率的な方法及びインタフェースに対するニーズがある。かかる方法及びインタフェースは、正しい指使い技術についてユーザを訓練するための従来の方法を補完するか、又は取って代わり得る。かかる方法及びインタフェースは、ユーザの認識的負担を軽減し、より効率的なヒューマンマシンインタフェースを作り出す。バッテリ動作機器の場合、かかる方法及びインタフェースにより、電力を保存し、バッテリの充電の間の時間を増やす。
いくつかの実施形態に係る方法は、ディスプレイ及びタッチ感知面を有する電子機器で実行される。本方法は、それぞれのアクティブ化可能なユーザインタフェースオブジェクトを含むユーザインタフェースを表示することと、ディスプレイ上のそれぞれのアクティブ化可能なユーザインタフェースオブジェクトの上にある、フォーカスセレクタに対応するタッチ感知面上で、接触の指紋模様を検出することとを含む。本方法は、更に、ディスプレイ上のそれぞれのアクティブ化可能なユーザインタフェースオブジェクトの上にあるフォーカスセレクタに対応するタッチ感知面上で、接触の指紋模様を検出すると、タッチ感知面上の接触の指紋模様を分析して、接触の1つ以上の指使い特性を判定することと、接触が、1つ以上の指使い特性に基づいて、既定の好適な指使い基準に合致しているかを判定することとを含む。本方法は、接触が好適な指使い基準に合致していないとの判定に従って、好適な指使い基準に合致していないことを指示するフィードバックを提供することと、接触が好適な指使い基準に合致しているとの判定に従って、アクティブ化可能なユーザインタフェースオブジェクトに関連付けられた動作を実行することとを、更に含む。
いくつかの実施形態に係る電子機器は、ユーザインタフェースを表示するように構成されたディスプレイユニット、ユーザの接触を受け付けるように構成されたタッチ感知面ユニット、並びにディスプレイユニット及びタッチ感知面ユニットに連結された処理ユニットを含む。処理ユニットは、それぞれのアクティブ化可能なユーザインタフェースオブジェクトを含むユーザインタフェースの表示を有効化にし、ディスプレイユニット上のそれぞれのアクティブ化可能なユーザインタフェースオブジェクトの上にあるフォーカスセレクタに対応するタッチ感知面ユニット上で接触の指紋模様を検出するように構成されている。処理ユニットは、ディスプレイユニット上のそれぞれのアクティブ化可能なユーザインタフェースオブジェクトの上にあるフォーカスセレクタに対応するタッチ感知面ユニット上で接触の指紋模様を検出すると、タッチ感知面ユニット上の接触の指紋模様を分析して、接触の1つ以上の指使い特性を判定し、接触が、1つ以上の指使い特性に基づいて、既定の好適な指使い基準に合致しているかを判定するように、また構成されている。処理ユニットは、接触が好適な指使い基準に合致していないとの判定に従って、好適な指使い基準に合致していないことを指示するフィードバックを提供し、接触が好適な指使い基準に合致しているとの判定に従って、アクティブ化可能なユーザインタフェースオブジェクトに関連付けられた動作を実行するように、更に構成されている。
タッチ感知面の一部分を高感度動作モードで動作させるためのより高速で、より効率的な方法及びインタフェースを有する電子機器に対するニーズがある。かかる方法及びインタフェースは、タッチ感知面を動作させるための従来の方法を補完するか、又は取って代わり得る。かかる方法及びインタフェースは、ユーザの認識的負担を軽減し、より効率的なヒューマンマシンインタフェースを作り出す。バッテリ動作機器の場合、かかる方法及びインタフェースにより、電力を保存し、バッテリの充電の間の時間を増やす。
いくつかの実施形態に係る方法は、ディスプレイ及びタッチ感知面を有する電子機器で実行される。本方法は、タッチ感知面の、低感度動作モードにある第1の領域における接触を検出することと、接触を検出すると、接触が1つ以上の指紋センサのアクティブ化基準に合致しているか判定することと、接触が、指紋センサのアクティブ化基準に合致しているとの判定に従って、タッチ感知面の第1の領域を高感度動作モードで動作させることと、接触が指紋センサのアクティブ化基準に合致していないとの判定に従って、タッチ感知面の第1の領域を低感度動作モードで引き続き動作させることとを含む。
いくつかの実施形態に係る電子機器は、ディスプレイユニット、接触を受け付けるように構成されたタッチ感知面ユニット、並びにディスプレイユニット及びタッチ感知面ユニットに連結された処理ユニットを含む。処理ユニットは、タッチ感知面ユニットの、低感度動作モードにある第1の領域における接触を検出し、接触を検出すると、接触が指紋センサのアクティブ化基準に合致しているか判定し、接触が、指紋センサのアクティブ化基準に合致しているとの判定に従って、タッチ感知面の第1の領域を高感度動作モードで動作させ、接触が指紋センサのアクティブ化基準に合致していないとの判定に従って、タッチ感知面の第1の領域を低感度動作モードで引き続き動作させるように構成されている。
このようにして、ディスプレイ及びタッチ感知面を有する電子機器は、タッチ感知面の一部分を高感度動作モードで動作させることによってタッチ感知面を動作させるための、より高速で、より効率的な方法及びインタフェースを備え、かかる機器の有効性と、効率と、ユーザ満足度を高める。かかる方法及びインタフェースは、タッチ感知面を動作させるための従来の方法を補完するか、又は取って代わり得る。
機器上で特定の動作を実行するためのより高速で、より効率的な方法及びインタフェースを有する電子機器に対するニーズがある。かかる方法及びインタフェースは、機器上で特定の動作を実行するための従来の方法を補完するか、又は取って代わり得る。かかる方法及びインタフェースは、ユーザの認識的負担を軽減し、より効率的なヒューマンマシンインタフェースを作り出す。バッテリ動作機器の場合、かかる方法及びインタフェースにより、電力を保存し、バッテリの充電の間の時間を増やす。
いくつかの実施形態に係る方法は、ディスプレイ及びタッチ感知面を有する電子機器で実行される。本方法は、第1の指紋を第1の動作に関連付けることと、第1の動作以外の複数の動作を実行するアフォーダンスを含むそれぞれのユーザインタフェースをディスプレイ上に表示することと、第1の動作以外の複数の動作を実行するアフォーダンスを含むそれぞれのユーザインタフェースを表示している間に、タッチ感知面で第1の指紋を検出することを含む第1のジェスチャを検出することと、第1のジェスチャを検出すると、第1の動作を実行することとを含む。
いくつかの実施形態に係る電子機器は、第1の動作以外の複数の動作を実行するアフォーダンスを含むそれぞれのユーザインタフェースを表示するように構成されたディスプレイユニット、ジェスチャを受け付けるように構成されたタッチ感知面ユニット、並びにディスプレイユニット及びタッチ感知面ユニットに連結された処理ユニットを含む。処理ユニットは、第1の指紋を第1の動作に関連付け、第1の動作以外の複数の動作を実行するアフォーダンスを含むそれぞれのユーザインタフェースの表示を有効化にする間、タッチ感知面ユニット上で第1の指紋を検出することを含む第1のジェスチャを検出し、第1のジェスチャを検出すると、第1の動作を実行するように構成されている。
このようにして、ディスプレイ、タッチ感知面、及び指紋センサを有する電子機器は、指紋ジェスチャに関連付けられた動作を実行するための、より高速で、より効率的な方法及びインタフェースを備え、かかる機器の有効性と、効率と、ユーザ満足度とを高める。かかる方法及びインタフェースは、指紋ジェスチャに関連付けられた動作を実行するための従来の方法を補完するか、又は取って代わり得る。
それぞれのコントロールを移動することに関連付けられた第1の指紋の検出に基づいてユーザインタフェースのそれぞれのコントロールを表示するための、より高速で、より効率的な方法及びインタフェースを有する電子機器に対するニーズがある。かかる方法及びインタフェースは、ユーザインタフェースのそれぞれのコントロールを表示するための従来の方法を補完するか、又は取って代わり得る。かかる方法及びインタフェースは、ユーザの認識的負担を軽減し、より効率的なヒューマンマシンインタフェースを作り出す。バッテリ動作機器の場合、かかる方法及びインタフェースにより、電力を保存し、バッテリの充電の間の時間を増やす。
いくつかの実施形態に係る方法は、ディスプレイ、タッチ感知面、及び指紋センサを有する電子機器で実行される。本方法は、ユーザインタフェースをディスプレイ上に表示することを含む。本方法は、更に、タッチ感知面上のユーザインタフェースのそれぞれのコントロールを移動することに関連付けられた第1の指紋を検出することを含み、第1の指紋は、それぞれのコントロールを含まないディスプレイ上の第1のロケーションのフォーカスセレクタに対応する。本方法は、第1の指紋を検出すると、ディスプレイ上の第1のロケーションにそれぞれのコントロールを表示することを含む。
いくつかの実施形態に係る電子機器は、ユーザインタフェースを表示するように構成されたディスプレイユニット、1つ以上の接触を受け付けるように構成されたタッチ感知面ユニット、指紋センサユニット、並びにディスプレイユニット、タッチ感知面ユニット、及び指紋センサユニットに連結された処理ユニットを備える。処理ユニットは、タッチ感知面ユニット上のユーザインタフェースのそれぞれのコントロールを移動することに関連付けられた、それぞれのコントロールを含まないディスプレイユニット上の第1の位置にあるフォーカスセレクタに対応する第1の指紋を検出し、第1の指紋を検出すると、それぞれのコントロールをディスプレイユニット上の第1のロケーションに表示することを有効化するように構成されている。
このようにして、ディスプレイ、タッチ感知面、及び指紋センサを有する電子機器は、それぞれのコントロールを移動することに関連付けられた第1の指紋の検出に基づいてユーザインタフェースのそれぞれのコントロールを表示するための、より高速で、より効率的な方法及びインタフェースを備え、かかる機器の有効性、効率とユーザ満足度を高める。かかる方法及びインタフェースは、ユーザインタフェースのそれぞれのコントロールを表示するための従来の方法を補完するか、又は取って代わり得る。
第1の電子機器の補助ディスプレイとして第2の電子機器を構成するためのより高速で、より効率的な方法及びインタフェースを有する電子機器に対するニーズがある。かかる方法及びインタフェースは、第2の電子機器を補助ディスプレイとして構成するための従来の方法を補完するか、又は取って代わり得る。かかる方法及びインタフェースは、ユーザの認識的負担を軽減し、より効率的なヒューマンマシンインタフェースを作り出す。バッテリ動作機器の場合、かかる方法及びインタフェースにより、電力を保存し、バッテリの充電の間の時間を増やす。
いくつかの実施形態に係る方法は、ディスプレイ及び指紋センサを有する電子機器で実行される。本方法は、それぞれのユーザに登録されている第1の指紋を、第1の時間に第1の電子機器の指紋センサ上で検出することを含む。本方法は、第2の指紋が第2の時間に第2の機器の指紋センサ上で検出されたことを指示する情報を含む、第1の電子機器とは異なる、第2の電子機器から通信を受信することを、また含む。本方法は、第1の指紋を検出し、第2の電子機器から通信を受信すると、第2の指紋がそれぞれのユーザに登録された時に満たされる基準を含む、既定の補助ディスプレイ基準が満たされているか判定することを、更に含む。本方法は、補助ディスプレイ基準が満たされているとの判定に従って、第2の電子機器が第1の電子機器の補助ディスプレイとして構成されることを有効化する応答を第2の電子機器に送信することと、補助ディスプレイ基準が満たされていないとの判定に従って、第2の電子機器が第1の電子機器の補助ディスプレイとして構成されることを有効化する応答を第2の電子機器に送信することを取り止めることとを、更に含む。
いくつかの実施形態に係る電子機器は、ユーザインタフェースを表示するように構成されたディスプレイユニット、指紋センサユニット、並びにディスプレイユニット及び指紋センサユニットに連結された処理ユニットを有する。処理ユニットは、それぞれのユーザに登録されている第1の指紋を、第1の時間に第1の電子機器の指紋センサユニット上で検出するように構成されている。処理ユニットは、第2の指紋が第2の時間に第2の機器の指紋センサユニット上で検出されたことを指示する情報を含む通信を、第1の電子機器とは異なる、第2の電子機器から受信するように、また構成されている。処理ユニットは、第1の指紋を検出し、第2の電子機器から通信を受信すると、第2の指紋がそれぞれのユーザに登録された時に満たされる基準を含む、既定の補助ディスプレイ基準が満たされているか判定するように、更に構成されている。処理ユニットは、補助ディスプレイ基準が満たされているとの判定に従って、第2の電子機器が第1の電子機器の補助ディスプレイとして構成されることを有効にする応答を第2の電子機器に送信し、補助ディスプレイ基準が満たされていないとの判定に従って、第2の電子機器が第1の電子機器の補助ディスプレイとして構成されることを有効にする応答を第2の電子機器に送信することを取り止めるように、更に構成されている。
このようにして、ディスプレイ及び指紋センサを有する電子機器は、第2の電子機器を第1の電子機器の補助ディスプレイとして構成するための、より高速で、より効率的な方法及びインタフェースを備え、かかる機器の有効性と、効率と、ユーザ満足度とを高める。かかる方法及びインタフェースは、第2の電子機器を補助ディスプレイとして構成するための従来の方法を補完するか、又は取って代わり得る。
指紋の向きに基づいてビーム形成パラメータを変更するためのより高速で、より効率的な方法及びインタフェースを有する電子機器に対するニーズがある。かかる方法及びインタフェースは、ビーム形成パラメータを変更するための従来の方法を補完するか、又は取って代わり得る。かかる方法及びインタフェースは、ユーザの認識的負担を軽減し、より効率的なヒューマンマシンインタフェースを作り出す。バッテリ動作機器の場合、かかる方法及びインタフェースにより、電力を保存し、バッテリの充電の間の時間を増やす。
いくつかの実施形態に係る方法は、ディスプレイ及び指紋センサを有する電子機器で実行される。本方法は、第1の指紋が指紋センサ上の第1の向きで検出される時、ビーム形成パラメータの第1のセットに従って1つ以上の音声要素のセットを動作させることを含む。本方法は、指紋センサ上の第1の向きとは異なる第2の向きを有し、向きが変更された第1の指紋と第1の指紋とは異なる第2の指紋とから成るセットから選択された、以降の指紋を検出することと、指紋センサ上に第2の向きを有する以降の指紋を検出すると、ビーム形成パラメータの第1のセットとは異なるビーム形成パラメータの第2のセットに従って1つ以上の音声要素のセットを動作させることとを、更に含む。
いくつかの実施形態に係る電子機器は、情報を表示するように構成されたディスプレイユニット、指紋センサユニット、音声信号を生成及び/又はキャプチャするように構成された1つ以上の音声ユニットのセット、並びにディスプレイユニット、指紋センサユニット、及び1つ以上の音声ユニットのセットに連結された処理ユニットを含む。処理ユニットは、第1の指紋が指紋センサユニット上の第1の向きで検出される間、ビーム形成パラメータの第1のセットに従って1つ以上の音声ユニットのセットを動作させるように構成されている。処理ユニットは、指紋センサユニット上の第1の向きとは異なる第2の向きを有し、向きが変更された第1の指紋と第1の指紋とは異なる第2の指紋とから成るセットから選択された、以降の指紋を検出し、指紋センサユニット上に第2の向きを有する以降の指紋を検出すると、ビーム形成パラメータの第1のセットとは異なるビーム形成パラメータの第2のセットに従って1つ以上の音声要素のセットを動作させるように、更に構成されている。
このように、ディスプレイ及び指紋センサを有する電子機器は、指紋の方向に基づいてビーム形成パラメータを変更するためのより高速で、より効率的な方法及びインタフェースを備えており、かかる機器の有効性、効率、ユーザ満足度を高める。かかる方法及びインタフェースは、ビーム形成パラメータを変更するための従来の方法を補完するか、又は取って代わり得る。
上記の様々な実施形態をより良く理解するために、下記の図面と併せて、以下の実施形態の説明を参照されたい。類似の参照番号は、図面全体を通じて、対応する部品を指す。
いくつかの実施形態に係る、タッチ感知ディスプレイ及び指紋センサを備える携帯型多機能機器を示すブロック図である。 いくつかの実施形態に係る、イベント処理のための例示的な構成要素を示すブロック図である。 いくつかの実施形態に係る、タッチスクリーン及び指紋センサを有する携帯型多機能機器を示す。 いくつかの実施形態に係る、ディスプレイと、及び指紋センサと、任意選択的に、タッチ感知面とを含む複数のセンサとを有する例示的な多機能機器のブロック図である。 いくつかの実施形態に係る、携帯型多機能機器上のアプリケーションのメニューのための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、指紋センサ及びディスプレイとは別個のタッチ感知面を有する多機能機器のための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、指紋に関連付けられた2つの手の略図を示す。 いくつかの実施形態に係る、指紋センサ上の指紋の異なるタイプの回転を示す。 いくつかの実施形態に係る、指紋センサ上の指の動きに従ってユーザインタフェースと対話するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋センサ上の指の動きに従ってユーザインタフェースと対話するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋センサ上の指の動きに従ってユーザインタフェースと対話するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋センサ上の指の動きに従ってユーザインタフェースと対話するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋センサ上の指の動きに従ってユーザインタフェースと対話するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋センサ上の指の動きに従ってユーザインタフェースと対話するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋センサ上の指の動きに従ってユーザインタフェースと対話するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋センサ上の指の動きに従ってユーザインタフェースと対話するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋センサ上の指の動きに従ってユーザインタフェースと対話するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋センサ上の指の動きに従ってユーザインタフェースと対話するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋センサ上の指の動きに従ってユーザインタフェースと対話するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋センサ上の指の動きに従ってユーザインタフェースと対話するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋センサ上の指の動きに従ってユーザインタフェースと対話するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋センサ上の指の動きに従ってユーザインタフェースと対話するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋センサ上の指の動きに従ってユーザインタフェースと対話する方法を示すフローチャートである。 いくつかの実施形態に係る、指紋センサ上の指の動きに従ってユーザインタフェースと対話する方法を示すフローチャートである。 いくつかの実施形態に係る、指紋センサ上の指の動きに従ってユーザインタフェースと対話する方法を示すフローチャートである。 いくつかの実施形態における、電子機器の機能ブロック図である。 いくつかの実施形態に係る、多目的ボタンと併用される例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、多目的ボタンと併用される例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、多目的ボタンと併用される例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、多目的ボタンと併用される例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、多目的ボタンと併用される例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、多目的ボタンと併用される例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、多目的ボタンと併用される例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、多目的ボタンと併用される例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、多目的ボタンと併用される例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、多目的ボタンと併用される例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、多目的ボタンと併用される例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、多目的ボタンと併用される例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、多目的ボタンと併用される例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、多目的ボタンと併用される例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、多目的ボタンと併用される例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、ボタンが多目的に機能することを可能にする方法を示すフローチャートである。 いくつかの実施形態に係る、ボタンが多目的に機能することを可能にする方法を示すフローチャートである。 いくつかの実施形態に係る、ボタンが多目的に機能することを可能にする方法を示すフローチャートである。 いくつかの実施形態に係る、電子機器の機能ブロック図である。 いくつかの実施形態に係る、ユーザインタフェースの向きをロックするための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、ユーザインタフェースの向きをロックするための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、ユーザインタフェースの向きをロックするための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、ユーザインタフェースの向きをロックするための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、ユーザインタフェースの向きをロックするための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、ユーザインタフェースの向きをロックするための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、ユーザインタフェースの向きをロックする方法を示すフローチャートである。 いくつかの実施形態に係る、ユーザインタフェースの向きをロックする方法を示すフローチャートである。 いくつかの実施形態に係る、電子機器の機能ブロック図である。 いくつかの実施形態に係る、記録された音声におけるノイズ低減を指紋センサで制御するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、記録された音声におけるノイズ低減を指紋センサで制御するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、記録された音声におけるノイズ低減を指紋センサで制御するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、記録された音声におけるノイズ低減を指紋センサで制御するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、記録された音声におけるノイズ低減を指紋センサで制御する方法を示すフローチャートである。 いくつかの実施形態に係る、電子機器の機能ブロック図である。 いくつかの実施形態に係る、クラス別プロファイルに基づく動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、クラス別プロファイルに基づく動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、クラス別プロファイルに基づく動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、クラス別プロファイルに基づく動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、クラス別プロファイルに基づく動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、クラス別プロファイルに基づく動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、クラス別プロファイルに基づく動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、クラス別プロファイルに基づく動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、クラス別プロファイルに基づく動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、クラス別プロファイルに基づく動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、クラス別プロファイルに基づく動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかに実施形態に係る、クラス別プロファイルに基づく動作を実行する方法を示すフローチャートである。 いくつかに実施形態に係る、クラス別プロファイルに基づく動作を実行する方法を示すフローチャートである。 いくつかの実施形態に係る、電子機器の機能ブロック図である。 指紋に基づいてロギングプリファレンスを変更する機器に実装される例示的なユーザインタフェースを示す図である。 指紋に基づいてロギングプリファレンスを変更する機器に実装される例示的なユーザインタフェースを示す図である。 指紋に基づいてロギングプリファレンスを変更する機器に実装される例示的なユーザインタフェースを示す図である。 指紋に基づいてロギングプリファレンスを変更する機器に実装される例示的なユーザインタフェースを示す図である。 指紋に基づいてロギングプリファレンスを変更する機器に実装される例示的なユーザインタフェースを示す図である。 指紋に基づいてロギングプリファレンスを変更する機器に実装される例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋に基づいてロギングプリファレンスを変更する方法を示すフローチャートである。 いくつかの実施形態に係る、指紋に基づいてロギングプリファレンスを変更する方法を示すフローチャートである。 いくつかの実施形態に係る、電子機器の機能ブロック図である。 いくつかの実施形態に係る、指紋照合情報に基づいてそれぞれの制限された動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋照合情報に基づいてそれぞれの制限された動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋照合情報に基づいてそれぞれの制限された動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋照合情報に基づいてそれぞれの制限された動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋照合情報に基づいてそれぞれの制限された動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋照合情報に基づいてそれぞれの制限された動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋照合情報に基づいてそれぞれの制限された動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋照合情報に基づいてそれぞれの制限された動作を実行する方法を示すフローチャートである。 いくつかの実施形態に係る、指紋照合情報に基づいてそれぞれの制限された動作を実行する方法を示すフローチャートである。 いくつかの実施形態に係る、指紋照合情報に基づいてそれぞれの制限された動作を実行する方法を示すフローチャートである。 いくつかの実施形態に係る、指紋照合情報に基づいてそれぞれの制限された動作を実行する方法を示すフローチャートである。 いくつかの実施形態に係る、電子機器の機能ブロック図である。 いくつかの実施形態に係る、アイデンティティとロケーション情報を関連付けるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、アイデンティティとロケーション情報を関連付けるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、アイデンティティとロケーション情報を関連付けるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、アイデンティティとロケーション情報を関連付けるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、アイデンティティとロケーション情報を関連付けるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、アイデンティティとロケーション情報を関連付けるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、アイデンティティとロケーション情報を関連付けるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、アイデンティティとロケーション情報を関連付ける方法を示すフローチャートである。 いくつかの実施形態に係る、電子機器の機能ブロック図である。 いくつかの実施形態に係る、作業空間を1人以上のユーザに割り当てるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、作業空間を1人以上のユーザに割り当てるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、作業空間を1人以上のユーザに割り当てるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、作業空間を1人以上のユーザに割り当てるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、作業空間を1人以上のユーザに割り当てるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、作業空間を1人以上のユーザに割り当てるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、作業空間を1人以上のユーザに割り当てるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、作業空間を1人以上のユーザに割り当てるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、作業空間を1人以上のユーザに割り当てるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、作業空間を1人以上のユーザに割り当てるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、作業空間を1人以上のユーザに割り当てるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、作業空間を1人以上のユーザに割り当てるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、作業空間を1人以上のユーザに割り当てるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、作業空間を1人以上のユーザに割り当てるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、作業空間を1人以上のユーザに割り当てるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、作業空間を1人以上のユーザに割り当てるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、作業空間を1人以上のユーザに割り当てるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、作業空間を1人以上のユーザに割り当てるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、作業空間を1人以上のユーザに割り当てるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、作業空間を1人以上のユーザに割り当てる方法を示すフローチャートである。 いくつかの実施形態に係る、作業空間を1人以上のユーザに割り当てる方法を示すフローチャートである。 いくつかの実施形態に係る、電子機器の機能ブロック図である。 いくつかの実施形態に係る、正しい指使い技術についてユーザを訓練するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、正しい指使い技術についてユーザを訓練するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、正しい指使い技術についてユーザを訓練するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、正しい指使い技術についてユーザを訓練するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、正しい指使い技術についてユーザを訓練するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、正しい指使い技術についてユーザを訓練するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、正しい指使い技術についてユーザを訓練するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、正しい指使い技術についてユーザを訓練するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、正しい指使い技術についてユーザを訓練するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、正しい指使い技術についてユーザを訓練するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、正しい指使い技術についてユーザを訓練するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、正しい指使い技術についてユーザを訓練するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、正しい指使い技術についてユーザを訓練するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、正しい指使い技術についてユーザを訓練するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、正しい指使い技術についてユーザを訓練するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、正しい指使い技術についてユーザを訓練するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、正しい指使い技術についてユーザを訓練するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、正しい指使い技術についてユーザを訓練するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、正しい指使い技術についてユーザを訓練するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、正しい指使い技術についてユーザを訓練する方法を示すフローチャートである。 いくつかの実施形態に係る、正しい指使い技術についてユーザを訓練する方法を示すフローチャートである。 いくつかの実施形態に係る、正しい指使い技術についてユーザを訓練する方法を示すフローチャートである。 いくつかの実施形態に係る、電子機器の機能ブロック図である。 いくつかの実施形態に係る、タッチ感知面の一部分を高感度動作モードで動作させるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、タッチ感知面の一部分を高感度動作モードで動作させるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、タッチ感知面の一部分を高感度動作モードで動作させるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、タッチ感知面の一部分を高感度動作モードで動作させるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、タッチ感知面の一部分を高感度動作モードで動作させるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、タッチ感知面の一部分を高感度動作モードで動作させるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、タッチ感知面の一部分を高感度動作モードで動作させるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、タッチ感知面の一部分を高感度動作モードで動作させるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、タッチ感知面の一部分を高感度動作モードで動作させるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、タッチ感知面の一部分を高感度動作モードで動作させるための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、タッチ感知面の一部分を高感度動作モードで動作させる方法を示すフローチャートである。 いくつかの実施形態に係る、タッチ感知面の一部分を高感度動作モードで動作させる方法を示すフローチャートである。 いくつかの実施形態に係る、電子機器の機能ブロック図である。 いくつかの実施形態に係る、指紋ジェスチャに関連付けられた動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋ジェスチャに関連付けられた動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋ジェスチャに関連付けられた動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋ジェスチャに関連付けられた動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋ジェスチャに関連付けられた動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋ジェスチャに関連付けられた動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋ジェスチャに関連付けられた動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋ジェスチャに関連付けられた動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋ジェスチャに関連付けられた動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋ジェスチャに関連付けられた動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋ジェスチャに関連付けられた動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋ジェスチャに関連付けられた動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋ジェスチャに関連付けられた動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋ジェスチャに関連付けられた動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋ジェスチャに関連付けられた動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋ジェスチャに関連付けられた動作を実行するための例示的なユーザインタフェースを示す図である。 いくつかに実施形態に係る、指紋ジェスチャに関連付けられた動作を実行する方法を示すフローチャートである。 いくつかに実施形態に係る、指紋ジェスチャに関連付けられた動作を実行する方法を示すフローチャートである。 いくつかに実施形態に係る、指紋ジェスチャに関連付けられた動作を実行する方法を示すフローチャートである。 いくつかに実施形態に係る、指紋ジェスチャに関連付けられた動作を実行する方法を示すフローチャートである。 いくつかに実施形態に係る、指紋ジェスチャに関連付けられた動作を実行する方法を示すフローチャートである。 いくつかの実施形態に係る、電子機器の機能ブロック図である。 いくつかの実施形態に係る、それぞれのコントロールを移動することに関連付けられた第1の指紋の検出に基づきユーザインタフェースのそれぞれのコントロールを表示するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、それぞれのコントロールを移動することに関連付けられた第1の指紋の検出に基づきユーザインタフェースのそれぞれのコントロールを表示するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、それぞれのコントロールを移動することに関連付けられた第1の指紋の検出に基づきユーザインタフェースのそれぞれのコントロールを表示するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、それぞれのコントロールを移動することに関連付けられた第1の指紋の検出に基づきユーザインタフェースのそれぞれのコントロールを表示するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、それぞれのコントロールを移動することに関連付けられた第1の指紋の検出に基づきユーザインタフェースのそれぞれのコントロールを表示するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、それぞれのコントロールを移動することに関連付けられた第1の指紋の検出に基づきユーザインタフェースのそれぞれのコントロールを表示するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、それぞれのコントロールを移動することに関連付けられた第1の指紋の検出に基づきユーザインタフェースのそれぞれのコントロールを表示するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、それぞれのコントロールを移動することに関連付けられた第1の指紋の検出に基づきユーザインタフェースのそれぞれのコントロールを表示するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、それぞれのコントロールを移動することに関連付けられた第1の指紋の検出に基づきユーザインタフェースのそれぞれのコントロールを表示するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、それぞれのコントロールを移動することに関連付けられた第1の指紋の検出に基づきユーザインタフェースのそれぞれのコントロールを表示するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、それぞれのコントロールを移動することに関連付けられた第1の指紋の検出に基づきユーザインタフェースのそれぞれのコントロールを表示するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、それぞれのコントロールを移動することに関連付けられた第1の指紋の検出に基づきユーザインタフェースのそれぞれのコントロールを表示する方法を示すフローチャートである。 いくつかの実施形態に係る、それぞれのコントロールを移動することに関連付けられた第1の指紋の検出に基づきユーザインタフェースのそれぞれのコントロールを表示する方法を示すフローチャートである。 いくつかの実施形態に係る、それぞれのコントロールを移動することに関連付けられた第1の指紋の検出に基づきユーザインタフェースのそれぞれのコントロールを表示する方法を示すフローチャートである。 いくつかの実施形態に係る、電子機器の機能ブロック図である。 いくつかの実施形態に係る、第2の電子機器を補助ディスプレイとして構成するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第2の電子機器を補助ディスプレイとして構成するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第2の電子機器を補助ディスプレイとして構成するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第2の電子機器を補助ディスプレイとして構成するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第2の電子機器を補助ディスプレイとして構成するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第2の電子機器を補助ディスプレイとして構成するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第2の電子機器を補助ディスプレイとして構成するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第2の電子機器を補助ディスプレイとして構成するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第2の電子機器を補助ディスプレイとして構成するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第2の電子機器を補助ディスプレイとして構成するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第2の電子機器を補助ディスプレイとして構成するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第2の電子機器を補助ディスプレイとして構成するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第2の電子機器を補助ディスプレイとして構成するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第2の電子機器を補助ディスプレイとして構成するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第2の電子機器を補助ディスプレイとして構成するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第2の電子機器を補助ディスプレイとして構成するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第2の電子機器を補助ディスプレイとして構成するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第2の電子機器を補助ディスプレイとして構成するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第2の電子機器を補助ディスプレイとして構成するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第2の電子機器を補助ディスプレイとして構成するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第2の電子機器を補助ディスプレイとして構成するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第2の電子機器を補助ディスプレイとして構成するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第2の電子機器を補助ディスプレイとして構成するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第2の電子機器を補助ディスプレイとして構成するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第2の電子機器を補助ディスプレイとして構成するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第2の電子機器を補助ディスプレイとして構成するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第2の電子機器を補助ディスプレイとして構成するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第2の電子機器を補助ディスプレイとして構成するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第2の電子機器を補助ディスプレイとして構成するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第2の電子機器を補助ディスプレイとして構成するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、第2の電子機器を補助ディスプレイとして構成するための例示的なユーザインタフェースを示す図である。 いくつかに実施形態に係る、第2の電子機器を補助ディスプレイとして構成する方法を示すフローチャートである。 いくつかに実施形態に係る、第2の電子機器を補助ディスプレイとして構成する方法を示すフローチャートである。 いくつかに実施形態に係る、第2の電子機器を補助ディスプレイとして構成する方法を示すフローチャートである。 いくつかに実施形態に係る、第2の電子機器を補助ディスプレイとして構成する方法を示すフローチャートである。 いくつかの実施形態に係る、電子機器の機能ブロック図である。 いくつかの実施形態に係る、指紋の向きに基づいてビーム形成パラメータを変更するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋の向きに基づいてビーム形成パラメータを変更するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋の向きに基づいてビーム形成パラメータを変更するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋の向きに基づいてビーム形成パラメータを変更するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋の向きに基づいてビーム形成パラメータを変更するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋の向きに基づいてビーム形成パラメータを変更するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋の向きに基づいてビーム形成パラメータを変更するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋の向きに基づいてビーム形成パラメータを変更するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋の向きに基づいてビーム形成パラメータを変更するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋の向きに基づいてビーム形成パラメータを変更するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋の向きに基づいてビーム形成パラメータを変更するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋の向きに基づいてビーム形成パラメータを変更するための例示的なユーザインタフェースを示す図である。 いくつかの実施形態に係る、指紋の向きに基づいてビーム形成パラメータを変更する方法を示すフローチャートである。 いくつかの実施形態に係る、指紋の向きに基づいてビーム形成パラメータを変更する方法を示すフローチャートである。 いくつかの実施形態に係る、電子機器の機能ブロック図である。
本明細書に記載されているこれらの方法、機器、及びGUIは、タッチ感知面又は他の入力機器上の入力の代わりに、又は、加えて、指紋センサ上の入力に応答する。いくつかの実装において、個々の指紋隆線によって形成される指紋の特徴を検出するのに十分な高さの空間解像度を有するタッチ感知面が指紋センサとして用いられる。別個のタッチ感知面がない指紋センサを使用する場合、指紋の面積が指紋センサの面積と同じか又はそれ以上の大きさである時でさえ、指紋センサは指紋センサ上の接触の移動を検出できるので、指紋センサは、はるかに小さいフォームファクタを有するタッチ感知面の機能の多くを代用品として果たし得る。指紋センサが、別個のタッチ感知面に加えて用いられる場合、指紋センサは、接触の捻り動作を正確に検出し、指紋センサ上でジェスチャを実行する時に使用する指の異なる指紋を識別し、機器の現在のユーザを識別することによって、タッチ感知面を増大し得る。加えて、指紋センサが、別個のタッチスクリーンディスプレイに加えて用いられる場合、指がディスプレイの一部分を覆い隠さない方が好都合である状況(例えば、マップ、映像又はゲームを見ている間)では、指紋センサは、タッチ入力を検出し得る。タッチ感知面が、指紋センサとして用いられている場合、タッチ感知面は、任意選択的に、タッチ感知面(又は、タッチ感知面の領域)を、ユーザの介入なしに、低解像度モードと高解像度モードとの間で自動的に切り替えるように定義し得る空間解像度設定を、任意選択的に、有する。多くの状況において、低解像度モードは、高解像度モードより電力消費が少ない。指紋検出が必要でない時にタッチ感知面を低解像度モードで動作させ、タッチ感知面又はタッチ感知面の一領域を必要に応じて高解像度モードに切り替える有益性は、電力を節約する一方で、必要に応じて高解像度で指紋の特徴を感知して、機器を使用するユーザエクスペリエンスを高めることである。タッチ感知面が指紋センサとして使用される実装において、用語「指紋センサ」は、現在高解像度モードであるタッチ感知面、又はタッチ感知面の一領域を指す。
1つ以上の指紋センサからの入力が、電子機器のユーザインタフェースを操作する時に使用される直観的なユーザインタフェースを提供する、多くの異なる方法が以下で説明されている。これらの方法(任意選択的に、それぞれの併用)のうちの1つ以上を使用することが、ユーザに追加の情報又は機能を直観的に提供するユーザインタフェースを提供することを支援し、したがって、ユーザの認知的負担を低減し、ヒューマンマシンインタフェースを高める。ヒューマンマシンインタフェースのこのような向上が、ユーザが、機器をより高速で、より効率的に使用することを可能にする。バッテリ作動機器の場合、これらの向上が、電力を節約し、バッテリ充電間の時間を長くする。説明を簡単にするために、これらの方法のうちの一部の例示的実施例を含む、システム、方法、及びユーザインタフェースが以下で説明されている。
●下記、図5A〜図5Nは、指紋センサ上の指の動きに従ってユーザインタフェースと対話するための例示的なユーザインタフェースを示す。図6A〜図6Cは、指紋センサ上の指の動きに従ってユーザインタフェースと対話する方法を示すフローチャートである。図5A〜図5Nのユーザインタフェースは、図6A〜図6Cのプロセスを説明するために使用される。
●下記、図8A〜図8Oは、ボタンが複数の目的を果たすことを可能にするための例示的なユーザインタフェースを示す。図9A〜図9Cは、ボタンが複数の目的を果たすことを可能にする方法を示すフローチャートである。図8A〜図8Oのユーザインタフェースは、図9A〜図9Cのプロセスを説明するために使用される。
●下記、図11A〜図11Fは、ユーザインタフェースの向きをロックするための例示的なユーザインタフェースを示す。図12A〜図12Bは、ユーザインタフェースの向きをロックする方法を示すフローチャートである。図11A〜図11Fのユーザインタフェースは、図12A〜図12Bのプロセスを説明するために使用される。
●下記、図14A〜図14Dは、記録された音声におけるノイズ低減を指紋センサで制御するための例示的なユーザインタフェースを示す。図15は、記録された音声におけるノイズ低減を指紋センサで制御する方法を示すフローチャートである。図14A〜図14Dのユーザインタフェースは、図15のプロセスを説明するために使用される。
●下記、図17A〜図17Kは、クラス別プロファイルに基づく動作を実行するための例示的なユーザインタフェースを示す。図18A〜図18Bは、クラス別プロファイルに基づく動作を実行する方法を示すフローチャートである。図17A〜図17Kのユーザインタフェースは、図18A〜図18Bのプロセスを説明するために使用される。
●下記、図20A〜図20Fは、指紋に基づいてロギングプリファレンスを変更する機器に実装された例示的なユーザインタフェースを示す。図21A〜図21Bは、指紋に基づいてロギングプリファレンスを変更する方法を示すフローチャートである。図20A〜図20Fのユーザインタフェースは、図21A〜図21Bのプロセスを説明するために使用される。
●下記、図23A〜図23Gは、指紋照合情報に基づいてそれぞれの制限された動作を実行するための例示的なユーザインタフェースを示す。図24A〜図24Dは、指紋照合情報に基づいてそれぞれの制限された動作を実行する方法を示すフローチャートである。図23A〜図23Gのユーザインタフェースは、図24A〜図24Dのプロセスを説明するために使用される。
●下記、図26A〜図26Gは、アイデンティティとロケーション情報を関連付けるための例示的なユーザインタフェースを示す。図27は、アイデンティティとロケーション情報を関連付ける方法を示すフローチャートである。図26A〜図26Gのユーザインタフェースは、図27のプロセスを説明するために使用される。
●下記、図29A〜図29Sは、タッチ感知面の領域を1人以上のユーザと関連付けるための例示的なユーザインタフェースを示す。図30A〜図30Bは、タッチ感知面の領域を1人以上のユーザと関連付ける方法を示すフローチャートである。図29A〜図29Sのユーザインタフェースは、図30A〜図30Bのプロセスを説明するために使用される。
●下記、図32A〜図32Sは、正しい指使い技術についてユーザを訓練するための例示的なユーザインタフェースを示す。図33A〜図33Cは、正しい指使い技術についてユーザを訓練する方法を示すフローチャートである。図32A〜図32Sのユーザインタフェースは、図33A〜図33Cのプロセスを説明するために使用される。
●下記、図35A〜図35Jは、タッチ感知面の一部分を高感度動作モードで動作させるための例示的なユーザインタフェースを示す。図36A〜図36Bは、タッチ感知面の一部分を高感度動作モードで動作させる方法を示すフローチャートである。35A〜図35Jのユーザインタフェースは、図36A〜図36Bのプロセスを説明するために使用される。
●図38A〜図38Pは、指紋ジェスチャに関連付けられた動作を実行するための例示的なユーザインタフェースを示す。図39A〜図39Eは、指紋ジェスチャに関連付けられた動作を実行する方法を示すフローチャートである。図38A〜図38Pのユーザインタフェースは、図39A〜図39Eのプロセスを説明するために使用される。
●下記、図41A〜図41Kは、それぞれのコントロールを移動することに関連付けられた第1の指紋の検出に基づきユーザインタフェースのそれぞれのコントロールを表示するための例示的なユーザインタフェースを示す。図42A〜図42Cは、それぞれのコントロールを移動することに関連付けられた第1の指紋の検出に基づきユーザインタフェースのそれぞれのコントロールを表示する方法を示すフローチャートである。図41A〜図41Kのユーザインタフェースは、図42A〜図42Cのプロセスを説明するために使用される。
●下記、図44A〜図44EEは、第2の電子機器を第1の電子機器の補助ディスプレイとして構成するための例示的なユーザインタフェースを示す。図45A〜図45Dは、第2の電子機器を第1の電子機器の補助ディスプレイとして構成する方法を示すフローチャートである。図44A〜図44EEのユーザインタフェースは、図45A〜図45Dのプロセスを説明するために使用される。
●下記、図47A〜図47Lは、指紋の向きに基づいてビーム形成パラメータを変更するための例示的なユーザインタフェースを示す。図48A〜図48Bは、指紋の向きに基づいてビーム形成パラメータを変更する方法を示すフローチャートである。図47A〜図47Lのユーザインタフェースは、図48A〜図48Bのプロセスを説明するために使用される。
例示的機器
ここで、実施例が添付の図面に示されている実施形態が、詳細に参照される。以下の詳細な説明では、説明されている様々な実施形態の完全な理解を提供するために数多くの具体的な詳細が記載されている。しかしながら、説明されている様々な実施形態は、これらの具体的な詳細を伴わずとも実践し得ることが、当業者には明らかであろう。他の例においては、周知の方法、手続き、コンポーネント、回路、及びネットワークは、実施形態の態様を不必要に不明瞭なものとしないよう、詳細には説明されていない。
いくつかの例において、第1、第2等の用語が、様々な要素を説明するために本明細書において使用されているが、これらの要素は、これらの用語によって限定されるべきではないことも理解されるであろう。これらの用語は、ある要素を別の要素と区別するためのみに使用される。例えば、説明されている様々な実施形態の範囲から逸脱することなく、第1の接触は、第2の接触と称することができ、同様に、第2の接触は、第1の接触と称し得る。第1の接触及び第2の接触は両方接触であるが、それらは同じ接触ではない。
本明細書において様々な記載の実施形態の説明で用いられている用語は、特定の実施形態のみを説明する目的のためであって、限定することを意図するものではない。様々な記載の実施形態、及び添付の特許請求の範囲で使用される時に、単数形「a」、「an」、及びthe」は、文脈が別途明確に示さない限り、複数形をも含むことが意図されている。本明細書で使用される時に、用語「及び/又は」が、関連するリスト化された項目のうちの1つ以上の任意の全ての可能な組み合わせを指し、これを含むことをも理解されるであろう。更に、用語「includes(含む)、「including(含む)」、「comprises(含む)」及び/又は「comprising(含む)」が、本明細書で使用される時に、述べられた特徴、整数、ステップ、動作、要素、及び/又はコンポーネントの存在を指定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、コンポーネント、及び/又はその群の存在又は追加を除外しないことが理解されるであろう。
本明細書で使用される時に、用語「if(〜場合に)」を、文脈に応じて「when(〜時に)」、「upon(〜時に)」、「in response to determining(〜との判定に応答して)」、又は「in response to detecting(〜の検出に応答して)」を意味すると、任意選択的に、解釈する。同様に、句「if it is determined(〜と判定される場合に)」又は「if(a stated condition or event)is detected((述べられる条件又はイベント)が検出される場合に)」を、文脈に応じて「upon determining(〜と判定される時に)」、「in response to determining(〜との判定に応答して)」、「upon detecting(the stated condition or event)((述べられる条件又はイベント)の検出時に)」、又は「in response to detecting(the stated condition or event)((述べられる条件又はイベント)の検出に応答して)」を意味すると、任意選択的に、解釈する。
電子機器、かかる機器のユーザインタフェース、及びかかる機器を使用するための関連するプロセスの実施形態を説明する。いくつかの実施形態では、この機器は、PDA機能及び/又は音楽再生機能などの、他の機能をも含むモバイル電話機などのポータブル通信機器である。ポータブル多機能機器の例示的な実施形態は、限定を伴わずに、California州CupertinoのApple Inc.のiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)機器を含む。タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を備えたラップトップ又はタブレットコンピュータなど他のポータブル電子機器も使用できる。また、いくつかの実施形態において、この機器は携帯型通信機器ではなく、タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を備えたデスクトップコンピュータであることを理解されたい。
以下の考察では、ディスプレイ及びタッチ感知面を含む電子機器を説明する。しかし、この電子機器が、物理キーボード、マウス、及び/又はジョイスティックなどの1つ以上の他の物理ユーザインタフェース機器を、任意選択的に、含むことを理解されたい。
この機器は、典型的には、描画アプリケーション、プレゼンテーションアプリケーション、文書作成アプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、スプレッドシートアプリケーション、ゲームアプリケーション、電話アプリケーション、ビデオ会議アプリケーション、電子メールアプリケーション、インスタントメッセージアプリケーション、トレーニングサポートアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、ウェブブラウジングアプリケーション、デジタル音楽再生アプリケーション、及び/又はデジタル映像再生アプリケーションのうちの1つ以上などの様々なアプリケーションをサポートする。
この機器上で実行される様々なアプリケーションは、タッチ感知面などの、少なくとも1つの共通の物理ユーザインタフェース機器を、任意選択的に、使用する。タッチ感知面の1つ以上の機能並びに機器上に表示される対応する情報は、1つのアプリケーションから次のアプリケーションへ、及び/又はそれぞれのアプリケーションの中で、任意選択的に、調整し、及び/又は変更される。このように、この機器の共通の物理アーキテクチャ(タッチ感知面など)は、任意選択的に、ユーザにとって直観的及び透過的なユーザインタフェースを有する様々なアプリケーションをサポートする。
ここで、タッチ感知ディスプレイを備えたポータブル機器の実施形態に注目を向ける。図1Aは、いくつかの実施形態に係る、タッチ感知ディスプレイ112を備えたポータブル多機能機器100を示すブロック図である。タッチ感知ディスプレイ112は、時に便宜上「タッチスクリーン」と称され、「タッチ感知ディスプレイシステム」として知られたり、称されることもある。機器100は、メモリ102(任意選択的に、1つ以上のコンピュータ可読記憶媒体を含む)、メモリコントローラ122、1つ以上の処理ユニット(CPU)120、周辺機器インタフェース118、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、入出力(I/O)サブシステム106、他の入力又は制御機器116、及び外部ポート124を含む。機器100は、1つ以上の光センサ164を、任意選択的に、含む。機器100は、機器100上の接触の強度(例えば、機器100のタッチ感知ディスプレイシステム112などのタッチ感知面)を検出するための1つ以上の強度センサ165を、任意選択的に、含む。機器100は、任意選択的に、機器100上で触覚出力を生成する(例えば、機器100のタッチ感知ディスプレイシステム112又は機器300のタッチパッド355などのタッチ感知面上での触覚出力の生成)ための1つ以上の触覚出力生成器167を、任意選択的に、含む。これらの構成要素は、1つ以上の通信バス又は信号ライン103を介して、任意選択的に、通信する。
本明細書及び特許請求の範囲で用いられている場合、用語、タッチ感知面上の接触の「強度」は、タッチ感知面上の接触(例えば、指接触)の力又は圧力(単位面積当たりの力)、又は、タッチ感知面上の接触の力若しくは圧力の代用語(プロキシ)を指す。接触の強度は、少なくとも4つの異なる数値を含み、より典型的には、数百以上の異なる数値(例えば、少なくとも256)を含む、数値の範囲を有する。接触の強度は、様々な方法及び様々なセンサ、又はセンサの組み合わせを使用して、任意選択的に、判定(又は、測定)される。例えば、タッチ感知面の下に又は隣接して配置された1つ以上のセンサは、タッチ感知面上の様々な点における力を測定するために、任意選択的に、用いられる。いくつかの実装において、複数の力センサの力測定値は、接触の推定の力を判定するために組み合わされる(例えば、加重平均される)。同様に、タッチ感知面上のスタイラスの圧力を判定するために、スタイラスの圧力感知チップが、任意選択的に、使用される。別の方法としては、タッチ感知面上で検出される接触領域のサイズ及び/若しくはその変化、接触に近接するタッチ感知面の電気容量及び/若しくはその変化、並びに/又は、接触に近接するタッチ感知面の抵抗及び/若しくはその変化が、タッチ感知面上の接触の力又は圧力の代用物として、任意選択的に、用いられる。いくつかの実装において、接触の力又は圧力の代替的測定値は、強度閾値を超えているかを判定するために直接に用いられる(例えば、強度閾値は、代替的測定値に対応する単位で記述される)。いくつかの実装において、接触の力又は圧力の代替的測定値は、推定される力又は圧力に変換され、この推定される力又は圧力を用いて、強度閾値を超えているか判定される(例えば、強度閾値は、圧力の単位で測定された圧力閾値である)。
本明細書及び特許請求の範囲で用いられる場合、用語「触覚出力」は、機器の前の位置に対する機器の物理的な変位、機器の構成要素(例えば、タッチ感知面)の機器の別の構成要素(例えば、筐体)に対する物理的変位、又は、ユーザの触感によりユーザによって検出される機器の質量中心に対する構成要素の変位を指す。例えば、機器又は機器の構成要素が、タッチに敏感なユーザの表面(例えば、ユーザの手の指、手のひら、又は他の部分)に接触している状況において、物理的変位によって生成された触覚出力は、機器又は機器の構成要素の物理的特性の認識された変化に相当する触感としてユーザによって解釈される。例えば、タッチ感知面(例えば、タッチ感知ディスプレイ又はトラックパッド)の移動は、ユーザによって、物理アクチュエータボタンの「ダウンクリック」又は「アップクリック」として、任意選択的に、解釈される。いくつかの場合、ユーザの移動により物理的に押された(例えば、変位された)タッチ感知面に関連付けられた物理アクチュエータボタンの移動がない時でさえ、ユーザは「ダウンクリック」又は「アップクリック」などの触感を感じる。別の例として、タッチ感知面の移動は、タッチ感知面の平滑度に変化がない時でさえ、タッチ感知面の「粗さ」としてユーザによって、任意選択的に、解釈又は感じられる。このようなユーザによるタッチの解釈は、ユーザの個別の感覚認知によるが、大多数のユーザに共通したタッチの感覚認知が数多くある。したがって、触覚出力が、ユーザの特定の感覚認知(例えば、「アップクリック」「ダウンクリック」、「粗さ」)に対応するものと記述される場合、別途記載のない限り、生成された触覚出力は、典型的な(又は、平均的な)ユーザの記述された感覚認知を生成する機器、又は機器の構成要素の物理的変位に対応する。
機器100は、携帯型多機能機器の一例に過ぎず、機器100は、示さているよりも多くの又は少ない構成要素を、任意選択的に、有し、2つ以上の構成要素を、任意選択的に、組み合わせ、又は、異なる構成又は配置の構成要素を、任意選択的に、有する。図1Aに示される様々な構成要素は、1つ以上の信号処理、及び/又はアプリケーション固有の集積回路を含む、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの両方の組み合わせで実現される。
メモリ102は、高速ランダムアクセスメモリを、任意選択的に、含み、1つ以上の磁気ディスク記憶機器、フラッシュメモリ機器、又は他の不揮発性固体記憶機器などの不揮発性メモリを、任意選択的に、また含む。CPU 120及び周辺機器インタフェース118などの、機器100の他の構成要素によるメモリ102へのアクセスは、メモリコントローラ122により、任意選択的に、制御される。
周辺機器インタフェース118は、機器の入力及び出力周辺機器をCPU 120及びメモリ102に連結ために使用し得る。1つ以上のプロセッサ120は、機器100のための様々な機能を実行するため並びにデータ処理を行うために、メモリ102に記憶された様々なソフトウェアプログラム及び/若しくは命令セットを走らせたり、又は実行したりする。
いくつかの実施形態において、周辺機器インタフェース118、CPU 120、及びメモリコントローラ122は、チップ104などの単一チップ上に、任意選択的に、実装される。いくつかの他の実施形態において、これらは、個別のチップ上に、任意選択的に、実装される。
RF(無線周波数)回路108は、電磁信号とも称されるRF信号を受信及び送信する。RF回路108は、電気信号を電磁信号に、又は電磁信号を電気信号に変換し、電磁信号を介して通信ネットワーク及び他の通信機器と通信する。RF回路108は、アンテナシステム、RF送受信機、1つ以上の増幅器、同調器、1つ以上の発振器、デジタル信号プロセッサ、CODECチップセット、加入者識別モジュール(SIM)カード、メモリなどを含むがこれらに限定されない、上記の機能を実行するための周知の回路を、任意選択的に、含む。RF回路108は、インターネット情報検索システム(WWW)とも呼ばれるインターネットなどのネットワーク、イントラネット及び/又はセルラー電話ネットワークなどの無線ネットワーク、ワイアレスローカルエリアネットワーク(LAN)及び/又はメトロポリタンエリアネットワーク(MAN)、及び無線通信による他の機器と、任意選択的に、通信する。無線通信は、移動通信用グローバルシステム(GSM)、エンハンストデータGSM環境(EDGE)、高速ダウンリンクパケットアクセス(HSDPA)、高速アップリンクパケットアクセス(HSUPA)、広帯域符号分割多元接続(W−CDMA)、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、Bluetooth、Wireless Fidelity(Wi−Fi)(例えば、IEEE 802.11a、IEEE 802.11b、IEEE 802.11g、及び/又はIEEE 802.11n)、ボイスオーバーインターネットプロトコル(VoIP)、Wi−MAX、電子メール用のプロトコル(例えば、インターネットメッセージアクセスプロトコル(EMAP)及び/又はポストオフィスプロトコル(POP))、インスタントメッセージング(例えば、extensible messaging and presence protocol(XMPP)、Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions(SIMPLE)、Instant Messaging and Presence Service(IMPS))、及び/又はショートメッセージサービス(SMS)、又は本願の出願日の時点で未だ開発されていない通信プロトコルを含む任意の他の好適な通信プロトコルを含むがこれらに限定されない複数の通信規格、プロトコル、及び技術のうちのいずれかを、任意選択的に、使用する。
音声回路110、スピーカ111、及びマイクロフォン113は、ユーザと機器100との間のインタフェースを提供する。音声回路110は、周辺機器インタフェース118から音声データを受け付け、音声データを電気信号に変換し、電気信号をスピーカ111に送出する。スピーカ111は、電気信号を人間の可聴音波に変換する。音声回路110は、マイクロフォン113により音波から変換された電気信号も受信する。音声回路110は、電気信号を音声データに変換し、処理するために音声データを周辺機器インタフェース118に送出する。音声データは、周辺機器インタフェース118によって任意選択的に、メモリ102及び/若しくはRF回路108から取り込まれ、並びに/又はメモリ102及び/若しくはRF回路108へ送出される。いくつかの実施形態において、オーディオ回路110は更にヘッドセットジャック(例えば、図2の212)を含む。ヘッドセットジャックは、オーディオ回路110と、出力専用ヘッドホン又は出力(例えば、片耳又は両耳用のヘッドホン)及び入力(例えば、マイクロフォン)の両方を持つヘッドセットなどの、取り外し可能なオーディオ入出力周辺機器との間のインタフェースを提供する。
I/Oサブシステム106は、タッチスクリーン112及び他の入力制御機器116などの機器100上の入出力周辺機器を周辺機器インタフェース118に連結する。I/Oサブシステム106は、ディスプレイコントローラ156、光センサコントローラ158、強度センサコントローラ159、触覚フィードバックコントローラ161、及び他の入力又は制御機器用の1つ以上の入力コントローラ160を、任意選択的に、含む。1つ以上の入力コントローラ160は、他の入力又は制御機器116から/へ電気信号を受信/送信する。他の入力制御機器116は、物理ボタン(例えば、プッシュボタン、ロッカボタンなど)、ダイアル、スライダースイッチ、ジョイスティック、クリックホイールなどを、任意選択的に、含む。いくつかの代替的実施形態において、入力コントローラ160は、キーボード、赤外線ポート、USBポート、及びマウスなどのポインタ機器のうちのいずれかに、任意選択的に、連結される(又は、いずれにも連結されない)。1つ以上のボタン(例えば、図2の208)は、スピーカ111及び/又はマイクロフォン113の音量調節のためのアップ/ダウンボタンを、任意選択的に、含む。1つ以上のボタンは、プッシュボタン(例えば、図2の206)を、任意選択的に、含む。
タッチ感知ディスプレイ112は、機器とユーザとの間の入力インタフェース及び出力インタフェースを提供する。ディスプレイコントローラ156は、タッチスクリーン112から/へ電気信号を受信及び/又は送信する。タッチスクリーン112は、ユーザへ視覚出力を表示する。視覚出力は、グラフィック、テキスト、アイコン、映像、及びこれらの任意の組み合わせ(総称して「グラフィック」と称する)を、任意選択的に、含む。いくつかの実施形態において、視覚出力の一部又は全ては、ユーザインタフェースオブジェクトに対応する。
タッチスクリーン112は、触覚及び/又は触覚接触に基づくユーザからの入力を受け付けるタッチ感知面、センサ、又はセンサのセットを有する。タッチスクリーン112及びディスプレイコントローラ156(メモリ102内の任意の関連モジュール及び/又は命令セットと共に)は、タッチスクリーン112上で接触(及び任意の動作又は接触の中断)を検出し、検出された接触をタッチスクリーン112上に表示されたユーザインタフェースオブジェクト(例えば、1つ以上のソフトキー、アイコン、ウェブページ、又は画像)との対話に変換する。ある例示的な実施形態では、タッチスクリーン112とユーザとの間の接触点は、ユーザの指に対応する。
タッチスクリーン112は、LCD(液晶ディスプレイ)技術、LPD(発光ポリマディスプレイ)技術、又はLED(発光ダイオード)技術を用いるが、他の実施形態では他のディスプレイ技術が、任意選択的に、用いられている。タッチスクリーン112及びディスプレイコントローラ156は、静電容量技術、抵抗性技術、赤外線技術、及び表面超音波技術、並びに、タッチスクリーン112との1つ以上の接触点を判定するための他の近接センサアレイ又は他の要素を含むが、これらに限定されない、現在公知の若しくは後日に開発される複数のタッチ感知技術のうちのいずれかを使用して、接触及び任意の移動又はその中断を、任意選択的に、検出する。ある例示的な実施形態では、California州CupertinoのApple Inc.からのiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)などにおいて見られるような、投影された相互キャパシタンス検知技術が使用されている。
タッチスクリーン112は、100dpi以上の映像解像度を、任意選択的に、有する。いくつかの実施形態において、タッチスクリーンは約160dpiの映像解像度を有する。ユーザは、スタイラス、指などの任意の好適なオブジェクト又は付属器を使用して、タッチスクリーン112と、任意選択的に、接触する。いくつかの実施形態において、ユーザインタフェースは、主として指を基準とした接触とジェスチャで機能するように設計され、タッチスクリーン上の指の接触面積が広いためスタイラスを基準とした入力よりも精度が低いことがある。いくつかの実施形態において、機器は、粗い指ベースの入力を正確なポインタ/カーソル位置又はユーザの望むアクションを実行するためのコマンドへ変換する。
いくつかの実施形態において、タッチスクリーンに加えて、機器100は、特定の機能をアクティブ化又はディアクティブ化するためのタッチパッド(不図示)を、任意選択的に、含む。いくつかの実施形態において、タッチパッドは、タッチスクリーンとは異なり、視覚出力を表示しない、機器のタッチ感知エリアである。タッチパッドは、任意選択的に、タッチスクリーン112とは別個のタッチ感知面、又はタッチスクリーンによって形成されたタッチ感知面の延長である。
機器100は、様々な構成要素に電力を供給するための電力システム162も含む。電力システム162は、電力管理システム、1つ以上の電源(例えば、バッテリ、交流(AC))、再充電システム、停電検出回路、電力コンバータ又はインバータ、電力状態標識(例えば、発光ダイオード(LED))、及びポータブル機器における電力の発電、管理、及び配電に関連付けられた任意の他の構成要素を、任意選択的に、含む。
機器100は、1つ以上の光センサ164も、任意選択的に、含む。
図1Aは、I/Oサブシステム106内の光センサコントローラ158に連結された光センサを示す。光センサ164は、電荷結合デ機器(CCD)又は相補的金属酸化物半導体(CMOS)フォトトランジスタを、任意選択的に、含む。光センサ164は、1つ以上のレンズを通して投影された、環境からの光を受光し、その光を画像を表すデータに変換する。撮像モジュール143(カメラモジュールとも称する)と併用して、光センサ164は、静止画像又は映像を、任意選択的に、キャプチャする。いくつかの実施形態において、タッチスクリーンディスプレイを静止画像及び/又は映像取得のためのビューファインダとして使用することができるように、光センサは、機器の前面のタッチスクリーンディスプレイ112の反対側である、機器100の背面に配置されている。いくつかの実施形態において、ユーザがタッチスクリーンディスプレイ上で他のビデオ会議参加者を見ている間に、ユーザの画像を、ビデオ会議のために、任意選択的に、得るように、別の光センサが機器の前面に配置される。
機器100は、1つ以上の接触強度センサ165も、任意選択的に、含む。図1Aは、I/Oサブシステム106内の強度センサコントローラ159に連結された接触強度センサを示す。接触強度センサ165は、1つ以上のピエゾ抵抗ひずみゲージ、電気容量式力センサ、電気力センサ、圧電力センサ、光学力センサ、容量式タッチ感知面、又は他の強度センサ(例えば、タッチ感知面上の接触の力(又は圧力)を測定するために使用するセンサ)を、任意選択的に、含む。接触強度センサ165は、環境から接触強度情報(例えば、圧力情報又は圧力情報のプロキシ)を受け付ける。いくつかの実施形態において、少なくとも1つの接触強度センサが、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)に併置されているか、又は近接している。いくつかの実施形態において、少なくとも1つの接触強度センサが、機器100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、機器100の背面に配置されている。
機器100は、1つ以上の近接センサ166も、任意選択的に、含む。
図1Aは、周辺機器インタフェース118と連結された近接センサ166を示す。あるいは、近接センサ166は、I/Oサブシステム106内の入力コントローラ160に連結される。いくつかの実施形態において、多機能機器がユーザの耳の近くに配置されている場合(例えば、ユーザが電話通話を行っている場合)、近接センサがオフになり、タッチスクリーン112が無効になる。
機器100は、1つ以上の触覚出力生成器167も、任意選択的に、含む。図1Aは、I/Oサブシステム106内の触覚フィードバックコントローラ161に連結された触覚出力生成器を示す。触覚出力生成器167は、スピーカ又は他の音声構成要素などの1つ以上の電気音響機器及び/又はモータ、ソレノイド、電気活性ポリマ、圧電アクチュエータ、静電アクチュエータ、又は他の触覚出力構成要素(例えば、機器上で電気信号を触覚出力に変換する構成要素)などの、エネルギーを直線運動に変換する電気機械機器を、任意選択的に、含む。接触強度センサ165は、触覚フィードバックモジュール133から触覚フィードバック生成命令を受け付け、機器100のユーザが感知できる触覚出力を機器100上で生成する。いくつかの実施形態において、少なくとも1つの触覚出力生成器が、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)と併置されているか、又は近接しており、タッチ感知面を垂直方向に(例えば、機器100の表面の内/外)又は横方向(例えば、機器100の表面と同じ平面の前後方向)に移動することによって触覚出力を、任意選択的に、生成する。いくつかの実施形態において、少なくとも1つの触覚出力生成器センサが、機器100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、機器100の背面に配置されている。
機器100は、1つ以上加速度計168も、任意選択的に、含む。図1Aは、周辺機器インタフェース118と結合された加速度計168を示している。あるいは、加速度計168は、I/Oサブシステム106内の入力コントローラ160に、任意選択的に、連結される。いくつかの実施形態において、情報は、1つ以上の加速度計から受け付けたデータの分析に基づいて、ポートレートビュー又はランドスケープビューでタッチスクリーンディスプレイ上に表示される。機器100は、必要に応じて、加速度計(1つ又は複数)168に加えて、磁力計(図示せず)並びに機器100の位置及び向き(例えば、ポートレート又はランドスケープ)に関する情報を取得するためのGPS(又はGLONASS又は他のグローバルナビゲーションシステム)受信部(図示せず)を、任意選択的に、含む。
いくつかの実施形態において、機器100は、1つ以上の指紋センサ169も含む(又は、連通している)。図1Aは、周辺機器インタフェース118に連結された指紋センサ169を示す。あるいは、指紋センサ169は、I/Oサブシステム106内の入力コントローラ160に、任意選択的に、連結される。しかし、1つの共通の実施形態において、指紋識別動作は、指紋センサによって判定された指紋情報のセキュリティを高めるように追加のセキュリティ機能を有する保護された専用のハードウェア(例えば、1つ以上のプロセッサ、メモリ及び/又は通信バス)を使用して実行される。本明細書で用いられる指紋センサは、人間の手の指及び足の指にあるような皮膚の隆線及び谷部分の指紋の特徴を区別できる(「ミニュシア機能」とも称する)センサである。指紋センサは、視覚指紋画像処理、超音波指紋画像処理、アクティブ電気容量指紋画像処理、及びパッシブ電気容量指紋画像処理を含むがこれらに限定されない様々な技術のうちのいずれかを用いて指紋の特徴を区別し得る。指紋における指紋の特徴を区別することに加えて、いくつかの実施形態において、指紋センサ169は、指紋の特徴の経時的な移動を追跡でき、それによって、指紋センサ上の指紋の経時的な移動を判定/特徴づけすることができる。図1Aの指紋センサ(例えば、指紋センサ169)は、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)とは別個として示されているが、いくつかの実装においては、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)は、個々の指紋隆線によって形成される指紋の特徴を検出するのに十分な高さの空間解像度を有し、別個の指紋センサ(例えば、指紋センサ169)の代わりに、又は、それに追加して、指紋センサとして使用されることが理解されよう。いくつかの実施形態において、機器100は、機器の上の又は近接した指や手の向き(例えば、指紋センサ169の上にある指の向き)を判定するために使用される1つ以上の向きセンサのセットを含む。加えて、いくつかの実施形態において、1つ以上の向きセンサのセットは、指紋センサに加えて、又はその代わりに、機器と相互作用する接触の回転を検出するために使用される(例えば、下記の方法のうちの1つ以上において、指紋/接触の回転を検出するために指紋センサを使用する代わりに、1つ以上の向きセンサのセットが、指紋の特徴の検出の有無にかかわらず、指紋を含む接触の回転を検出するために使用される)。
いくつかの実施形態において、指紋の特徴と、検出された指紋の特徴と記憶された指紋の特徴との間の比較が、指紋センサ169によって生成、記憶及び処理された指紋データのセキュリティを高めるように、プロセッサ120とは別個の、保護された専用のハードウェア(例えば、1つ以上のプロセッサ、メモリ、及び/又は通信バス)によって実行される。いくつかの実施形態において、指紋の特徴と、検出された指紋の特徴と記憶された指紋と特徴との間の比較は、指紋分析モジュール131を使用してプロセッサ120によって実行される。
いくつかの実施形態において、メモリ102に記憶されたソフトウェア構成要素は、オペレーティングシステム126と、通信モジュール(又は命令セット)128と、接触/動きモジュール(又は命令セット)130と、指紋分析モジュール131と、グラフィックモジュール(又は命令セット)132と、テキスト入力モジュール(又は命令セット)134と、全地球測位システム(GPS)モジュール(又は命令セット)135と、アプリケーション(又は命令セット)136とを含む。更に、いくつかの実施形態において、図1A及び図3に示すように、メモリ102は機器/グローバル内部状態157を記憶する。機器/包括的内部状態157は、該当があれば、現在アクティブなアプリケーションを示すアクティブなアプリケーション状態、どのアプリケーション、ビュー、又は他の情報が、タッチスクリーンディスプレイ112の様々な領域を占有しているかを示すディスプレイ状態、機器の様々なセンサ及び入力制御機器116から取得された情報を含むセンサ状態、及び機器のロケーション及び/又は姿勢に関するロケーション情報、のうちの1つ以上を含む。
オペレーティングシステム126(例えば、Darwin、RTXC、LINUX、UNIX、OS X、WINDOWS、又はVxWorksなどの組み込みオペレーティングシステム)は、全体的なシステムタスク(例えば、メモリ管理、記憶機器制御、電力管理など)を制御及び管理するための様々なソフトウェア構成要素及び/又はドライバを含み、様々なハードウェアとソフトウェア構成要素との間の通信を容易にする。
通信モジュール128は、1つ以上の外部ポート124を介して他の機器との通信を容易にし、RF回路108及び/又は外部ポート124が受信したデータを処理するための様々なソフトウェア構成要素も含む。外部ポート124(例えば、ユニバーサルシリアルバス(USB)、FIREWIREなど)は、直接的に、又はネットワーク(例えば、インターネット、無線LANなど)を介して間接的に他の機器に結合するように適合される。いくつかの実施形態において、外部ポートは、iPod(Apple Inc.の商標)機器上で使用される30ピンコネクタと同一の、又はこれに類似した及び/若しくは互換性のあるマルチピン(例えば、30ピン)コネクタである。
接触/動きモジュール130は、(ディスプレイコントローラ156と併用して)タッチスクリーン112及び他のタッチ感知機器(例えば、タッチパッド又は物理的なクリックホイール)との接触を、任意選択的に、検出する。接触/動きモジュール130は、接触が発生したかどうかの判定(例えば、フィンガダウンイベントの検出)、接触の強度(例えば、接触の力若しくは圧力、又は、接触の力若しくは圧力の代用語)の判定、接触の移動及びタッチ感知面にわたる動きの追跡(例えば、1つ以上のフィンガドラッグイベントの検出)があるかどうかの判定、及び接触が中止したかどうか(例えば、フィンガアップイベント又は接触の中断の検出)の判定などの、接触の検出に関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。接触/動きモジュール130は、タッチ感知面から接触データを受け付ける。一連の接触データにより表される接触点の移動を判定することは、接触点の速さ(大きさ)、速度(大きさ及び方向)、及び/又は加速度(大きさ及び/又は方向の変化)を判定することを、任意選択的に、含む。これらの動作は、単一の接触(例えば、1つの指接触)又は複数の同時接触(例えば、「マルチタッチ」/複数の指接触)に、任意選択的に、適用する。いくつかの実施形態において、接触/動きモジュール130及びディスプレイコントローラ156は、タッチパッド上の接触を検出する。
いくつかの実施形態において、接触/動きモジュール130は、1つ以上の強度閾値のセットを用いて、動作がユーザによって実行されたか判定する(例えば、ユーザがアイコンを「クリックしたか」を判定する)。いくつかの実施形態において、少なくとも強度閾値のサブセットが、ソフトウェアパラメータに従って判定される(例えば、強度閾値は、特定の物理アクチュエータのアクティブ化閾値によって判定されず、機器100の物理ハードウェアを変更することなく調整し得る)。例えば、トラックパッド又はタッチスクリーンディスプレイのマウス「クリック」閾値は、トラックパッド又はタッチスクリーンディスプレイハードウェアを変更することなく広範囲の既定の閾値のうちのいずれかに設定し得る。加えて、いくつかの実装において、機器のユーザには、(例えば、個々の強度閾値を調整することにより、及び/又は「強度」パラメータのシステムレベルのクリックの後すぐに複数の強度閾値を調整することによって)強度閾値のセットのうちの1つ以上を調整するためのソフトウェア設定が提供されている。
接触/動きモジュール130は、ユーザによるジェスチャ入力を、任意選択的に、検出する。タッチ感知面上の異なるジェスチャは、異なる接触パターン(例えば、異なる動き、タイミング、及び/又は検出された接触の強度)を有する。したがって、ジェスチャは、特定の接触パターンを検出することによって、任意選択的に、検出される。例えば、フィンガタップジェスチャの検出は、フィンガダウンイベントを検出し、続いてフィンガダウンイベント(例えば、アイコンの位置)と同じ位置(又は、実質的に同じ位置)でのフィンガアップ(リフトオフ)イベントを検出することを含む。別の実施例として、タッチ感知面上でのフィンガスワイプジェスチャを検出することは、フィンガダウンイベントを検出することと、それに続く1つ以上のフィンガドラッグイベントを検出することと、それに続く、フィンガアップ(リフトオフ)イベントを検出することとを含む。
グラフィックモジュール132は、表示されるグラフィックの視覚的インパクト(例えば、輝度、透明性、彩度、コントラスト、又は他の視覚的特性)を変更するための構成要素を含む、タッチスクリーン112又は他のディスプレイ上にグラフィックを表現及び表示するための様々な公知のソフトウェア構成要素を含む。本明細書で用いられる用語「グラフィック」は、テキスト、ウェブページ、アイコン(ソフトキーを含むユーザインタフェースオブジェクトなど)、デジタル画像、映像、アニメーション、及び類似物を含むがこれらに限定されない、ユーザに対して表示することができる任意のオブジェクトを含む。
いくつかの実施形態において、グラフィックモジュール132は、使用されるグラフィックを表すデータを記憶する。それぞれのグラフィックには、対応するコードが、任意選択的に、割り当てられる。グラフィクモジュール132は、アプリケーションなどから、必要に応じて、座標データ及び他のグラフィクプロパティデータと共に、表示されるグラフィクを指定する1つ以上のコードを受け付け、ディスプレイコントローラ156に出力する画面画像データを生成する。
触覚フィードバックモジュール133は、ユーザの機器100との対話に応答して機器100上の1つ以上の位置で触覚出力を発生するために触覚出力生成器167が使用する命令を生成するための様々なソフトウェア構成要素を含む。
テキスト入力モジュール134は、任意選択的に、グラフィックモジュール132の構成要素であるが、様々なアプリケーション(例えば、連絡先137、電子メール140、IM 141、ブラウザ147、及びテキスト入力を必要とする任意の他のアプリケーション)にテキストを入力するためのソフトキーボードを提供する。
GPSモジュール135は、機器のロケーションを判定し、この情報を様々なアプリケーション(例えば、ロケーション別のダイアル発呼で使用するための電話138へ、ピクチャ/映像メタデータとしてカメラ143へ、及び気象ウィジェット、地方のイエローページウィジェット、及びマップ/ナビゲーションウィジェットなどのロケーション別のサービスを提供するアプリケーションへ)で使用するために提供する。
アプリケーション136は、以下のモジュール(又は命令セット)又はこれらのサブセット若しくはスーパーセットを、任意選択的に、含む。
●連絡先モジュール137(アドレス帳又は連絡先リストとも称される)、
●電話モジュール138、
●ビデオ会議モジュール139、
●電子メールクライアントモジュール140、
●インスタントメッセージ(IM)モジュール141、
●トレーニングサポートモジュール142、
●静止画像及び/又は映像用カメラモジュール143、
●画像管理モジュール144、
●ラウザモジュール147、
●カレンダモジュール148、
●気象ウィジェット149−1、株式ウィジェット149−2、電卓ウィジェット149−3、アラーム時計ウィジェット149−4、辞書ウィジェット149−5、及びユーザが取得した他のウィジェット、並びにユーザ作成ウィジェット149−6のうちの1つ以上を任意選択的に含むウィジェットモジュール149、
●ユーザ作成ウィジェット149−6を作成するためのウィジェット作成モジュール150、
●検索モジュール151、
●任意選択的に、映像プレーヤモジュール及びミュージックプレーヤモジュールから成る、映像及びミュージックプレーヤモジュール152、
●ノートモジュール153、
●マップモジュール154、及び/又は
●オンライン映像モジュール155。
任意選択的に、メモリ102に記憶される他のアプリケーション136の例として、他の文書作成アプリケーション、他の画像編集アプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、JAVA(登録商標)対応アプリケーション、暗号化、デジタル著作権管理、音声認識、及び音声複製が挙げられる。
タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と併用する、連絡先モジュール137は、任意選択的に、アドレス帳又は連絡先リスト(例えば、メモリ102又はメモリ370内の連絡先モジュール137のアプリケーション内部状態192内に記憶される)を管理するために使用され、連絡先モジュールの管理には、アドレス帳への名前の追加、アドレス帳からの名前の削除、電話番号、電子メールアドレス、物理アドレス、又は他の情報と名前との関連付け、画像と名前との関連付け、名前の分類及び並び替え、電話138、ビデオ会議139、電子メール140、又はIM 141などによる通信を開始及び/又は容易にするための、電話番号又は電子メールアドレスの提供などを含む。
RF回路108、音声回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と併用する、電話モジュール138は、電話番号に対応する文字のシーケンスを入力し、アドレス帳137内の1つ以上の電話番号にアクセスし、入力された電話番号を修正し、それぞれの電話番号をダイアルし、会話を行い、会話が完了した時に切断し、又は電話を切るために、任意選択的に、使用する。上述のように、無線通信は、複数の通信規格、プロトコル、及び技術のうちのいずれかを、任意選択的に、使用する。
RF回路108、音声回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、光センサ164、光センサコントローラ158、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、連絡先リスト137、及び電話モジュール138と併用する、ビデオ会議モジュール139は、ユーザの命令に従って、ユーザと1人以上の他の参加者との間のビデオ会議を開始し、行い、終了するための実行可能な命令を含む。
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と併用する、電子メールクライアントモジュール140は、ユーザの命令に応答して、電子メールを作成し、送信し、受信し、管理するための実行可能な命令を含む。画像管理モジュール144と関連して、電子メールクライアントモジュール140により、カメラモジュール143で撮影した静止画像又は映像を作成し、電子メールを送信することが非常に簡単になる。
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と併用する、インスタントメッセージングモジュール141は、インスタントメッセージに対応する文字のシーケンスを入力したり、入力済みの文字を修正したり、それぞれのインスタントメッセージを(例えば、電話ベースのインスタントメッセージのためのショートメッセージサービス(SMS)若しくはマルチメディアメッセージサービス(MMS)プロトコルを使用して、又はインターネットベースのインスタントメッセージのためのXMPP、SIMPLE、又はIMPSを使用して)送信したり、インスタントメッセージを受信して、受信したインスタントメッセージを表示したりするための実行可能な命令を含む。いくつかの実施形態において、送信及び/又は受信されたインスタントメッセージは、MMS及び/又は拡張メッセージングサービス(EMS)でサポートされるように、グラフィック、写真、オーディオファイル、映像ファイル、及び/又は他の添付を、任意選択的に、含む。本明細書で用いられる「インスタントメッセージング」は、電話ベースのメッセージ(例えば、SMS又はMMSを使用して送信されたメッセージ)及びインターネットベースのメッセージ(例えば、XMPP、SIMPLE、又はIMPSを使用して送信されたメッセージ)の両方を指す。
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、マップモジュール154、及びミュージックプレーヤモジュール146と併用する、トレーニングサポートモジュール142は、トレーニングを作成したり(例えば、時間、距離、及び/又はカロリー消費目標に関して)、トレーニングセンサ(スポーツ機器)と通信したり、トレーニングセンサのデータを受信したり、トレーニングを監視するために用いられるセンサを較正したり、トレーニングのための音楽を選択して再生したり、トレーニングデータを表示、記憶、送信したりするための実行可能な命令を含む。
タッチスクリーン112、ディスプレイコントローラ156、光センサ164、光センサコントローラ158、接触モジュール130、グラフィックモジュール132、及び画像管理モジュール144と併用する、カメラモジュール143は、静止画像又は映像(ビデオストリームを含む)をキャプチャしてメモリ102にそれらを記憶したり、静止画像又は映像の特徴を変更したり、又はメモリ102から静止画像若しくは動画を削除したりするための実行可能な命令を含む。
タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びカメラモジュール143と併用する、画像管理モジュール144は、静止画像及び/又は映像を配置し、修正し(例えば、編集し)、また別の方法で操作し、ラベルを付け、削除し、提示し(例えば、デジタルスライドショー又はアルバム内で)、及び記憶するための実行可能な命令を含む。
RF回路108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と併用する、ブラウザモジュール147は、ウェブページ又はそれらの一部、並びにウェブページの添付物及びリンクされた他のファイルを検索、リンク付け、受信、表示することを含むユーザの命令に従い、インターネットをブラウズするための実行可能な命令を含む。
RF回路108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と併用する、カレンダモジュール148は、ユーザの命令に従い、カレンダ及びカレンダに関連付けられたデータ(例えば、カレンダ項目、タスク一覧など)を作成し、表示し、変更し、記憶するための実行可能な命令を含む。
RF回路108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と併用する、ウィジェットモジュール149は、任意選択的に、ユーザによりダウンロードされ、使用される(例えば、気象ウィジェット149−1、株式ウィジェット149−2、電卓ウィジェット149−3、アラーム時計ウィジェット149−4、及び辞書ウィジェット149−5)、又はユーザにより作成され得る(例えば、ユーザ作成ウィジェット149−6)ミニアプリケーションである。いくつかの実施形態において、ウィジェットは、HTML(ハイパーテキストマークアップ言語)ファイル、CSS(カスケーディングスタイルシート)ファイル、及びJavaScriptファイルを含む。いくつかの実施形態において、ウィジェットは、XML(拡張マークアップ言語)ファイル及びJavaScriptファイル(例えば、Yahoo!ウィジェット)を含む。
RF回路108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と併用する、ウィジェット作成モジュール150は、ウィジェットを作成する(例えば、ウェブページのユーザ指定の部分をウィジェットに対して回転すること)時に、任意選択的に、ユーザによって使用される。
タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134と併用する、検索モジュール151は、ユーザの命令に従って1つ以上の検索基準(例えば、1つ以上のユーザ指定の検索用語)に一致するメモリ102内のテキスト、ミュージック、音、画像、映像、及び/又は他のファイルを検索する実行可能な命令を含む。
タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、音声回路110、スピーカ111、RF回路108、ブラウザモジュール147と併用する、映像及びミュージックプレーヤモジュール152は、ユーザが、MP3又はAACファイルなどの1つ以上のファイルフォーマットで記憶されたミュージック及び他の音声ファイルをダウンロード及び再生することを可能にする実行可能な命令、及び(例えば、タッチスクリーン112上、又は外部ポート124を介して接続された外部のディスプレイ上で)映像を表示、提示又は他の方法によって再生する実行可能な命令を含む。いくつかの実施形態において、機器100は、任意選択的に、iPod(Apple Inc.の登録商標)などのMP3プレーヤの機能を含む。
タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134と併用する、ノートモジュール153は、ユーザの命令に従ってノート、タスク一覧、及び類似物を作成及び管理する実行可能な命令を含む。
RF回路108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、及びブラウザモジュール147と併用する、マップモジュール154は、ユーザの指示に従い、マップ及びマップに関連付けられたデータ(例えば、運転方向、特定の位置又はその近くの店舗及びその他の見所についてのデータ、及び他のロケーション別のデータ)を受信、表示、変更、及び記憶するために、任意選択的に、使用される。
タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、音声回路110、スピーカ111、RF回路108、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と併用する、オンライン映像モジュール155は、ユーザがH.264などの1つ以上のファイルフォーマットのオンライン映像にアクセスし、ブラウズし、受信し(例えば、ストリーミング及び/又はダウンロードにより)、再生し(例えば、タッチスクリーン上で又は外部ポート124を介して接続された外部のディスプレイ上で)、特定のオンライン映像へのリンクを含む電子メールを送信し、別の方法で管理できるようにする命令を含む。いくつかの実施形態においては、電子メールクライアントモジュール140ではなく、インスタントメッセージモジュール141が、特定のオンライン映像へのリンクを送信するために用いられる。
上記で識別されたモジュール及びアプリケーションのうちのそれぞれは、1つ以上の上記の機能を実行するための実行可能な命令セット及び本出願に記載の方法(例えば、コンピュータ実装の方法及び本明細書に記載の他の情報処理方法)に対応する。これらのモジュール(すなわち、命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実装される必要はなく、したがって、これらのモジュールの様々なサブセットは、様々な実施形態において、任意選択的に、組み合わせ、又は再配置される。いくつかの実施形態において、メモリ102は、上記の識別されたモジュール及びデータ構造のサブセットを、任意選択的に、記憶する。更に、メモリ102は、上述されていない追加のモジュール及びデータ構造を、任意選択的に、記憶する。
いくつかの実施形態において、機器100は、機器上の機能の既定のセットの動作がタッチスクリーン及び/又はタッチパッドを介して排他的に実行される機器である機器100の動作のための主要入力制御機器としてタッチスクリーン及び/又はタッチパッドを使用することにより、機器100上の物理的な入力制御機器(プッシュボタン、ダイアル、及び類似物など)の数を、任意選択的に、減らす。
タッチスクリーン及び/又はタッチパッドを介して排他的に実行される既定のセットの機能は、ユーザインタフェース間のナビゲーションを、任意選択的に、含む。いくつかの実施形態において、タッチパッドは、ユーザによってタッチされると、機器100上に表示される任意のユーザインタフェースから、メインメニュー、ホームメニュー、又はルートメニューへ機器100をナビゲートする。かかる実施形態において、「メニューボタン」はタッチパッドを使って実装される。いくつかの他の実施形態におい、メニューボタンは、タッチパッドの代わりに、物理的なプッシュボタン又は他の物理的な入力制御機器である。
図1Bは、いくつかの実施形態に係る、イベント処理のための例示的な構成要素を示すブロック図である。いくつかの実施形態において、メモリ102(図1A内)又は370(図3)は、イベントソータ170(例えば、オペレーティングシステム126内)及びそれぞれのアプリケーション136−1(例えば、上述のアプリケーション137〜13、155、及び380〜390のうちのいずれか)を含む。
イベントソータ170は、イベント情報を受け付け、イベント情報を配布するアプリケーション136−1及びアプリケーション136−1のアプリケーションビュー191を決定する。イベントソータ170は、イベントモニタ171及びイベントディスパッチャモジュール174を含む。いくつかの実施形態において、アプリケーション136−1は、アプリケーションがアクティブ又は実行中の時、タッチ感知ディスプレイ112上に表示される現在のアプリケーションビュー(1つ又は複数)を示す、アプリケーション内部状態192を含む。いくつかの実施形態において、イベントソータ170が、機器/包括的内部状態157を使用して、現在アクティブなアプリケーション(1つ又は複数)を判定し、イベントソータ170が、アプリケーション内部状態192を使用して、イベント情報を配布するアプリケーションビュー191を決定する。
いくつかの実施形態において、アプリケーション内部状態192は、追加情報として、例えば、アプリケーション136−1が実行を再開する際に用いられる再開情報、アプリケーション136−1により表示されている又は表示の準備ができている情報を示すユーザインタフェース状態情報、ユーザがアプリケーション136−1の以前の状態又はビューに戻ることを可能にするための状態の待ち行列、及びユーザが以前に取ったアクションの再実行/アンドゥの待ち行列のうちの1つ以上を含む。
イベントモニタ171は、周辺機器インーフェース118よりイベント情報を受け付ける。イベント情報は、サブイベント(例えば、マルチタッチジェスチャの一部としての、タッチ感知ディスプレイ112上のユーザタッチ)の情報を含む。周辺機器インタフェース118は、入出力サブシステム106又は(オーディオ回路110を介して)近接センサ166、加速度計(1つ又は複数)168、及び/若しくはマイクロフォン113などのセンサから受け付ける情報を送出する。周辺機器インタフェース118がI/Oサブシステム106から受け付ける情報は、タッチ感知ディスプレイ112又はタッチ感知面からの情報を含む。
いくつかの実施形態において、イベントモニタ171は、所定の間隔で周辺機器インタフェース118に要求を送る。これに応じて、周辺機器インタフェース118は、イベント情報を送出する。他の実施形態において、周辺機器ンタフェース118は、重要なイベント(例えば、所定のノイズ閾値を超える、及び/又は所定時間より長い入力を受け付けること)がある場合にのみイベント情報を送出する。
いくつかの実施形態において、イベントソータ170は、ヒットビュー判定モジュール172及び/又はアクティブイベント認識部判定モジュール173も含む。
ヒットビュー判定モジュール172は、タッチ感知ディスプレイ112が1つ以上のビューを表示した際に、1つ以上のビュー内のサブイベントが発生した場所を判定するためのソフトウェア手順を提供する。ビューは、ユーザがディスプレイ上で見ることができる制御及びその他の要素で構成されている。
アプリケーションに関連付けられたユーザインタフェースの別の態様は、本明細書中では、情報が表示されタッチベースのジェスチャが発生する、アプリケーションビュー又はユーザインタフェースウィンドウと呼ばれることもあるビューのセットである。タッチが検出される(それぞれのアプリケーションの)アプリケーションビューは、アプリケーションのプログラム階層又はビュー階層内のプログラムレベルに、任意選択的に、対応する。例えば、タッチが検出される最低レベルのビューは、任意選択的に、ヒットビューと呼ばれ、適切な入力として認識されるイベントのセットは、少なくとも部分的に、タッチベースのジェスチャを開始する最初のタッチのヒットビューに基づいて、任意選択的に、判定される。
ヒットビュー判定モジュール172は、タッチベースのジェスチャのサブイベントに関連した情報を受け付ける。階層として編成された複数のビューがアプリケーションにある場合は、ヒットビュー判定モジュール172は、ヒットビューを、サブイベントを処理すべき階層の中の最低のビューとして識別する。ほとんどの状況では、ヒットビューは、最初のサブイベント(すなわち、イベント又は潜在的なイベントを形成するサブイベントのシーケンスにおける最初のサブイベント)が発生する最低レベルのビューである。ヒットビューがヒットビュー判定モジュールによって識別されると、ヒットビューは、典型的には、それがヒットビューとして識別された、同じタッチ又は入力ソースに関連する全てのサブイベントを受け付ける。
アクティブイベント認識部判定モジュール173は、ビュー階層内のどのビュー(1つ又は複数)がサブイベントの特定のシーケンスを受け付けるべきかを判定する。いくつかの実施形態において、アクティブイベント認識部判定モジュール173は、ヒットビューのみがサブイベントの特定のシーケンスを受け付けるべきであると判定する。他の実施形態において、アクティブイベント認識部判定モジュール173は、サブイベントの物理的な位置を含む全てのビューはアクティブに関わっているビューであると判定し、したがって、全てのアクティブに関わっているビューは、サブイベントの特定のシーケンスを受け付けるべきであると判定する。他の実施形態において、タッチサブイベントがある特定のビューに関連付けられた領域に完全に限定されたとしても、階層の上位のビューはアクティブに関わっているビューのままであるであろう。
イベントディスパッチャモジュール174は、イベント情報をイベント認識部(例えば、イベント識別部180)に送信する。アクティブイベント識別部判定モジュール173を含む実施形態において、イベントディスパッチャモジュール174は、アクティブイベント認識部判定モジュール173により判定されたイベント認識部にイベント情報を配布する。いくつかの実施形態において、イベントディスパッチャモジュール174は、それぞれのイベントレシーバーモジュール182により取得されるイベント情報をイベント待ち行列内に記憶する。
いくつかの実施形態において、オペレーティングシステム126は、イベントソータ170を含む。あるいは、アプリケーション136−1がイベントソータ170を含む。更に他の実施形態において、イベントソータ170は、スタンドアロンモジュール、又は接触/動きモジュール130などのメモリ102に記憶された他のモジュールの一部である。
いくつかの実施形態において、アプリケーション136−1は、それぞれがアプリケーションのユーザインタフェースのそれぞれのビュー内で発生するタッチイベントを処理するための命令を含む、複数のイベントハンドラ190及び1つ以上のアプリケーションビュー191を含む。アプリケーション136−1のそれぞれのアプリケーションビュー191は、イベント認識部180のうちの1つ以上を含む。典型的に、それぞれのアプリケーョンビュー191は、複数のイベント認識部180を含む。他の実施形態において、イベント認識部180のうちの1つ以上は、ユーザインタフェースキット(図示せず)又はアプリケーション136−1が方法及び他の性質を継承する上位レベルのオブジェクトなど、別個のモジュールの一部である。いくつかの実施形態において、それぞれのイベントハンドラ190は、データアップデーター176、オブジェクトアップデーター177、GUIアップデーター178、及び/又はイベントソータ170から受け付けたイベントデータ179のうちの1つ以上を含む。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデーター176、オブジェクトアップデーター177、又はGUIアップデーター178を、任意選択的に、利用若しくは呼び出す。あるいは、アプリケーションビュー191のうちの1つ以上は、1つ以上のそれぞれのイベントハンドラ190を含む。また、いくつかの実施形態において、データアップデーター176、オブジェクトアップデーター177、及びGUIアップデーター178のうちの1つ以上がそれぞれのアプリケーションビュー191内に含まれている。
それぞれのイベント認識部180は、イベントソータ170からイベント情報(例えば、イベントデータ179)を受け付け、イベント情報からイベントを識別する。イベント認識部180は、イベントレシーバー182及びイベント比較部184を含む。いくつかの実施形態において、イベント認識部180は更に、メタデータ183及びイベント配布命令188(任意選択的に、サブイベント配布命令を含む)の少なくともサブセットを含む。
イベントレシーバー182は、イベントソータ170よりイベント情報を受け付ける。イベント情報は、例えば、タッチ又はタッチの動きなどのサブイベントの情報を含む。サブイベントによっては、イベント情報は、サブイベントの位置などの追加情報を更に含む。サブイベントが、タッチの動きに関わる時、イベント情報は、サブイベントの速度及び方向を、任意選択的に、更に含む。いくつかの実施形態において、イベントは、ある方向から別の方向へ(例えば、ポートレートの向きからランドスケープの向きへ、又はその逆)の機器の回転を含み、イベント情報は、機器の現在の向き(機器の姿勢とも呼ばれる)についての対応する情報を含む。
イベント比較部184は、イベント情報を既定のイベント又はサブイベントの定義と比較し、その比較により、イベント又はサブイベントを判定、又はイベント若しくはサブイベントの状態を判定又は更新する。いくつかの実施形態において、イベント比較部184は、イベント定義186を含む。イベント定義186は、イベントの定義(例えば、サブイベントの既定のシーケンス)、例えば、イベント1(187−1)、イベント2(187−2)、及びその他を含有する。いくつかの実施形態において、イベント187内のサブイベントは、例えば、タッチ開始、タッチ終了、タッチの動き、タッチの中止、及び複数のタッチを含む。ある実施例において、イベント1(187−1)の定義は、表示されたオブジェクト上の2回のタップである。2回のタップは、例えば、表示されたオブジェクト上の所定の段階についての第1のタッチ(タッチ開始)、所定の段階についての第1のリフトオフ(タッチ終了)、表示されたオブジェクト上の所定の段階についての第2のタッチ(タッチ開始)、及び所定の段階についての第2のリフトオフ(タッチ終了)を含む。別の実施形態において、イベント2(187−2)の定義は、表示されたオブジェクト上のドラッグである。ドラッグは、例えば、表示されたオブジェクト上の所定の段階についてのタッチ(又は接触)、タッチ感知ディスプレイ112にわたるタッチの動き、及びタッチのリフトオフ(タッチ終了)を含む。いくつかの実施形態において、イベントは、1つ以上の関連付けられたイベントハンドラ190についての情報も含む。
いくつかの実施形態において、イベント定義187は、それぞれのユーザインタフェースオブジェクト用のイベントの定義を含む。いくつかの実施形態において、イベント比較部184は、サブイベントに関連付けられたユーザインタフェースオブジェクトを判定するヒットテストを実行する。例えば、3つのユーザインタフェースオブジェクトがタッチ感知ディスプレイ112に表示されるアプリケーションビューにおいて、タッチ感知ディスプレイ112上でタッチが検出されると、イベント比較部184は、3つのユーザインタフェースオブジェクトのうちのどれがタッチ(サブイベント)に関連付けられているかを判定するためのヒットテストを行う。表示されたそれぞれのオブジェクトが、それぞれのイベントハンドラ190に関連付けられている場合、イベント比較部はヒットテストの結果を用いて、アクティブ化する必要のあるイベントハンドラ190を判定する。例えば、イベント比較部184は、サブイベント及びヒットテストのトリガーとなるオブジェクトに関連付けられたイベントハンドラを選択する。
いくつかの実施形態において、それぞれのイベント187の定義は、サブイベントのシーケンスが、イベント認識部のイベントタイプに対応するか対応しないかが判定されるまで、イベント情報の配布を遅延させる遅延動作も含む。
それぞれのイベント識別部180は、一連のサブイベントがイベント定義186のイベントのうちのいずれとも一致しないと判断した場合、それぞれのイベント識別部180は、イベント不可能、イベント失敗、又はイベント終了の状態に入り、その後は、タッチベースのジェスチャの次のサブイベントを無視する。この状況では、もしあれば、ヒットビューについてアクティブのままである他のイベント認識部は、進行中のタッチベースのジェスチャのサブイベントの追跡及び処理を続行する。
いくつかの実施形態において、それぞれのイベント認識部180は、イベント配布システムが、アクティブに関わっているイベント認識部へのサブイベント配布を実行する方法を示す、構成可能なプロパティ、フラグ、及び/又はリストを有するメタリスト183を含む。いくつかの実施形態において、メタデータ183は、イベント認識部が互いにどのように対話し得るかについて示す構成可能なプロパティ、フラグ、及び/又はリストを含む。いくつかの実施形態において、メタデータ183は、構成可能なプロパティ、フラグ、及び/又はサブイベントがビュー階層又はプログラム階層内の様々なレベルに配布されるかどうかを示すリストを含む。
いくつかの実施形態において、それぞれのイベント認識部180は、イベントの1つ以上の特定のサブイベントが認識された時に、イベントに関連付けられたイベントハンドラ190をアクティブ化する。いくつかの実施形態において、それぞれのイベント認識部180は、イベントハンドラ190に、イベントに関連付けられたイベント情報を配布する。イベントハンドラ190をアクティブ化することと、それぞれのヒットビューにサブイベントを送る(及び送ることを延期する)こととは、区別される。いくつかの実施形態において、イベント識別部180は、認識されたイベントに関連付けられたフラグをスローし、フラグに関連付けられたイベントハンドラ190はフラグをキャッチし、既定の処理を実行する。
いくつかの実施形態において、イベント配布命令188は、イベントハンドラをアクティブ化せずにサブイベントに関するイベント情報を配布するサブイベント配布命令を含む。その代わりに、サブイベント配布命令は、一連のサブイベントに関連付けられたイベントハンドラ又はアクティブに関わっているビューにイベント情報を配布する。一連のサブイベント又はアクティブに関わっているビューに関連付けられているイベントハンドラは、イベント情報を受け付け、所定の処理を実行する。
いくつかの実施形態において、データアップデーター176は、アプリケーション136−1で使用されるデータを作成及び更新する。例えば、データアップデーター176は、連絡先モジュール137で使用される電話番号を更新したり、映像再生モジュール145で使用される映像ファイルを記憶したりする。いくつかの実施形態において、オブジェクトアップデーター177は、アプリケーション136−1で使用されるオブジェクトを作成及び更新する。例えば、オブジェクトアップデーター176は、新たなユーザインタフェースオブジェクトを作成したり、ユーザインタフェースオブジェクトの位置を更新したりする。GUIアップデーター178は、GUIを更新する。例えば、GUIアップデーター178は、表示情報を準備し、タッチ感知ディスプレイ上に表示するために表示情報をグラフィックモジュール132に送る。
いくつかの実施形態において、イベントハンドラ190(1つ又は複数)は、データアップデーター176と、オブジェクトアップデーター177と、GUIアップデーター178とを含む、又はこれらにアクセスする。いくつかの実施形態において、データアップデーター176、オブジェクトアップデーター177、及びGUIアップデーター178は、それぞれのアプリケーション136−1又はアプリケーションビュー191の1つのモジュールに含まれる。他の実施形態において、それらは、2つ以上のソフトウェアモジュールに含まれる。
タッチ感知ディスプレイ上のユーザタッチのイベント処理に関する上記の考察は、入力機器を有する多機能機器100であって、必ずしもその全てがタッチスクリーン上で起動されない,多機能機器を動作させる他の形のユーザ入力にも適用されることが理解されるであろう。例えば、単一又は複数のキーボードの押下げ又は保持に、任意選択的に、合わせたマウスの移動及びマウスボタンの押下げ、タッチパッド上でのタップ、ドラッグ、スクロール等の接触移動、ペンスタイラス入力、機器の移動、口伝え、検出された眼球運動、バイオメトリック入力、及び/又はこれらの任意の組み合わせが、認識対象のイベントを画成するサブイベントに対応する入力として、任意選択的に、利用される。
図2は、いくつかの実施形態に係る、タッチスクリーン112を有する携帯型多機能機器100を示す。タッチスクリーンは、ユーザインタフェース(UI)200内に1つ以上のグラフィックを、任意選択的に、表示する。後述する実施形態並びに本実施形態において、ユーザは、例えば、1本以上の指202(図には、正確な縮尺率では描かれていない)又は1つ以上のスタイラス203(図には、正確な縮尺率では描かれていない)を用いてグラフィック上でジェスチャを行うことにより、グラフィックのうちの1つ以上を選択できる。いくつかの実施形態において、ユーザが1つ以上のグラフィクとの接触を断った際に、1つ以上のグラフィクの選択が生じる。いくつかの実施形態において、ジェスチャは、1回以上のタップ、1回以上のスワイプ(左から右へ、右から左へ、上方向へ、及び/又は下方向へ)、及び/又は機器100と接触した指のローリング(右から左へ、左から右へ、上方向へ、及び/又は下方向へ)を、任意選択的に、含む。いくつかの実装又は状況において、グラフィックとの偶発的な接触は、グラフィックを選択しない例えば、選択に対応するジェスチャがタップである場合、アプリケーションアイコンの上をスワイプするスワイプジェスチャは、対応するアプリケーションを、任意選択的に、選択しない。
機器100は、「ホーム」又はメニューボタン204などの1つ以上の物理ボタンも、任意選択的に、含む。前述のように、メニューボタン204は、機器100上で、任意選択的に、実行するアプリケーションのセット内の任意のアプリケーション136へのナビゲーションに、任意選択的に、使用される。あるいは、いくつかの実施形態において、メニューボタンは、タッチスクリーン112に表示されたGUIにおけるソフトキーとして実装されている。いくつかの実施形態において、ボタン204は、ボタン204と対話する指紋を識別するため、及び/又はボタン204上の指紋の移動を検出するための統合指紋センサ169−1を含む。また、機器は、ボタン204とは別個であって、機器と対話するユーザを識別し及び/又は指紋の動きを検出するためにボタン204に組込まれた指紋センサ169−1の代わりに、又は併用して用いられる、1つ以上の他の指紋センサ169−2を、任意選択的に、含む。加えて、他の指紋センサ169−2のうちの1つ以上は、ボタンと、任意選択的に、関連付けられる(例えば、アクティブ化強度閾値を超える強度を有する入力を検出することによってアクティブ化される感圧領域、又はユーザによって加えられた力に応答して移動する物理アクチュエータ)。タッチ感知面(例えば、タッチスクリーン112)が、個々の指紋隆線によって形成された指紋の特徴を検出するのに十分な高さの空間解像度を有する実装において、タッチ感知面(例えば、タッチスクリーン112)は、別個の指紋センサ(例えば、指紋センサ169−1又は169−2)の代わりの、又は追加の指紋センサとして、任意選択的に、使用される。いくつかの実施形態において、機器100は、機器100上の手の向きを判定するために用いられる1つ以上の向きセンサのセットを含む。
一実施形態において、機器100は、タッチスクリーン112、メニューボタン204、機器の電源をオン/オフし及び機器をロックするためのプッシュボタン206、音量調整ボタン(1つ又は複数)208、受信者識別モジュール(SIM)カードスロット210、ヘッドセットジャック212、及びドッキング/充電用外部ポート124を含む。プッシュボタン206は、ボタンを押して押された状態を既定の時間保ち続けることで、機器上の電源をオン/オフし、ボタンを押して既定の時間間隔が経過する前にボタンを解放することにより機器をロックし、及び/又は機器をロック解除若しくはロック解除処理を開始するために、任意選択的に、用いる。代替的実施形態において、機器100はまた、マイクロフォン113を通して、一部の機能をアクティブ化し、又はディアクティブ化するための口頭入力を受け付ける。また、機器100は、タッチスクリーン112への接触の強度を検出するための1つ以上の接触強度センサ165及び/又は機器100のユーザの触覚出力を生成するための1つ以上の触覚出力生成器167を、任意選択的に、含む。
図3は、いくつかの実施形態に係る、ディスプレイ及びタッチ感知面を備える例示的な多機能機器のブロック図である。機器300は、ポータブルでなくてもよい。いくつかの実施形態において、機器300は、ラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、マルチメディアプレーヤ機器、ナビゲーション機器、教育的機器(子供の学習玩具など)、ゲームシステム、又は制御機器(例えば、ホーム又は業務用コントローラ)である。機器300は、典型的には、1つ以上の処理ユニット(CPU)310と、1つ以上のネットワーク又は他の通信インタフェース360と、メモリ370と、及びこれらの構成要素を相互接続するための1つ以上の通信バス320とを含む。通信バス320は、システム構成要素間の通信を相互接続及び制御する回路(チップセットと称することがある)を、任意選択的に含む。機器300は、典型的にはタッチスクリーンディスプレイである、ディスプレイ340を備える入出力(I/O)インタフェース330を含む。また、I/Oインタフェース330は、キーボード及び/又はマウス(又は、他のポインティング機器)350及びタッチパッド355、(例えば、図1Aに関連して上述されている触覚出力生成器(1つ又は複数)167に類似した)機器300上で触覚出力を生成するための触覚出力生成器357、センサ359(例えば、光センサ、加速度センサ、近接センサ、タッチ感知センサ、及び/又は図1Aに関連して上述されている接触強度センサ(1つ又は複数)165と類似の接触強度センサ、及び/又は図1Aに関連して上述されている指紋センサ(1つ又は複数)169に類似した指紋センサ)を、任意選択的に含む。加えて、タッチ感知面(例えば、タッチパッド355)が、個々の指紋隆線によって形成された指紋の特徴を検出するのに十分な高さの空間解像度を有する実装において、タッチ感知面(例えば、タッチパッド355)は、別個の指紋センサ(例えば、センサ359のうちの1つ)の代わりの、又は追加の指紋センサとして使用され得る。いくつかの実施形態において、機器300は、機器の上の又は機器に近接した指や手の向き(例えば、指紋センサ169の上にある指の向き)を判定するために使用される1つ以上の向きセンサのセットを含む。加えて、いくつかの実施形態において、1つ以上の向きセンサのセットは、機器と対話する接触の回転を検出する指紋センサに追加して又は代わりに使用される。例えば、上述の方法のうちの1つ以上において、指紋センサを使用して指紋/接触の回転を検出する代わりに、指紋の特徴の検出の有無にかかわらず、指紋を含む接触の回転を検出するために1つ以上の向きセンサのセットが使用される。
メモリ370は、DRAM、SRAM、DDR RAM、又は他のランダムアクセス固体メモリ機器などの高速ランダムアクセスメモリを含み、また、1つ以上の磁気ディスク記憶機器、光学ディスク記憶機器、フラッシュメモリ機器、又は他の不揮発性固体記憶機器などの不揮発性メモリを、任意選択的に、含む。メモリ370は、CPU(1つ又は複数)310からは離れて位置する1つ以上の記憶機器を、任意選択的に、含む。いくつかの実施形態において、メモリ370は、ポータブル多機能機器100(図1A)のメモリ102に記憶されたプログラム、モジュール、及びデータ構造、プログラム、モジュール、及びデータ構造、又はそれらのサブセットを記憶する。更に、メモリ370は、携帯型多機能機器100のメモリ102内に存在しない追加プログラム、モジュール、及びデータ構造を記憶し得る。例えば、機器300のメモリ370は、描画モジュール380、プレゼンテーションモジュール382、文書作成モジュール384、ウェブサイト作成モジュール386、ディスクオーサリングモジュール388、及び/又はスプレッドシートモジュール390を、任意選択的に記憶するが、携帯型多機能機器100(図1)のメモリ102は、これらのモジュールを、任意選択的に記憶しない。
図3の上述の識別された要素うちのそれぞれは、前述のメモリ機器のうちの1つ以上に、任意選択的に記憶される。上記で識別されたモジュールうちのそれぞれは、上述した機能を実行するための命令セットに対応する。上述の識別されたモジュール又はプログラム(すなわち、命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実施される必要はなく、したがって、様々な実施形態において、これらのモジュールの様々なサブセットを、任意選択的に、組み合わされるか、又は別の方法で再配置される。いくつかの実施形態において、メモリ370は、上述の識別されたモジュール及びデータ構造のサブセットを、任意選択的に記憶する。更に、メモリ370は、上述されていない追加のモジュール及びデータ構造を、任意選択的に記憶する。
携帯型多機能機器100上に、任意選択的に実装するユーザインタフェース(「UI」)の実施形態に注目を向ける。
図4Aは、いくつかの実施形態に係る、携帯型多機能機器100におけるアプリケーションのメニューのための例示的なユーザインタフェースを示す。同様のユーザインタフェースが機器300上に。任意選択的に、実装され得る。いくつかの実施形態において、ユーザインタフェース400は、以下の要素、又はそれらのサブセット若しくはスーパーセットを含む。
●セルラー及びWi−Fi信号などの無線通信(1つ又は複数)のための信号強度標識(1つ又は複数)402、
●時間404、
●Bluetooth標識405、
●バッテリ状態標識406、
●下記などの、頻繁に使用されるアプリケーション用のアイコンを含むトレイ408、
○不在着信又はボイスメールメッセージの数のインジケータ414を、任意選択的に含む、「電話」とラベル付けされた電話モジュール138のアイコン416、
○未読電子メールの数のインジケータ410を、任意選択的に含む「メール」とラベル付けされた電子メールクライアントモジュール140のアイコン418、
○「ブラウザ」とラベル付けされたブラウザモジュール147のアイコン420、及び
○「iPod」とラベル付けされた、iPod(Apple Inc.の登録商標)モジュール152とも称される映像及びミュージックプレーヤモジュール152のアイコン422、並びに
●下記などの、その他のアプリケーション用のアイコン、
○「テキスト」とラベル付けされたIMモジュール141のアイコン424、
○「カレンダ」とラベル付けされたカレンダモジュール148のアイコン426、
○「写真」とラベル付けされた画像管理モジュール144のアイコン428、
○「カメラ」とラベル付けされたカメラモジュール143のアイコン430、
○「オンライン映像」とラベル付けされたオンライン映像モジュール155のアイコン432、
○「株式」とラベル付けされた株式ウィジェット149−2のアイコン434、
○「マップ」とラベル付けされたマップモジュール154のアイコン436、
○「気象」とラベル付けされた気象ウィジェット149−1のアイコン438、
○「クリック」とラベル付けされた目覚まし時計ウィジェット149−4のアイコン440、
○「トレーニングサポート」とラベル付けされたトレーニングサポートモジュール142のアイコン442、
○「ノート」とラベル付けされたノートモジュール153のアイコン444、及び
○機器100及びその様々なアプリケーション136の設定へのアクセスを提供する、設定アプリケーション又はモジュールのアイコン446。
図4Aに示されているアイコンのラベルは、単に例示的であることが理解されよう。例えば、映像及びミュージックプレーヤモジュール152のアイコン422は、「ミュージック」又は「ミュージックプレーヤ」としてラベル付けされている。他のラベルは、様々なアプリケーション用に用いられ得る。いくつかの実施形態において、それぞれのアプリケーションアイコンのラベルは、それぞれのアプリケーションアイコンに対応するアプリケーションの名前を含む。いくつかの実施形態において、特定のアプリケーションアイコンのラベルは、特定のアプリケーションアイコンに対応するアプリケーションの名前とは異なる。
図4Bは、統合359−1(又は別個の359−2)指紋センサ(例えば、図1Aの指紋センサ169と類似した方法で動作するセンサ359のうちの1つ以上)を有するディスプレイ450(例えば、タッチスクリーン112)とは別個のタッチ感知面451(例えば、図3のタブレット又はタッチパッド355)を有する機器(例えば、図3の機器300)上の例示的なユーザインタフェースを示す。加えて、タッチ感知面451が、個々の指紋隆線によって形成された指紋の特徴を検出するのに十分な高さの空間解像度を有する実装において、タッチ感知面451は、異なる指紋センサ(例えば、統合指紋センサ359−1、又は別個の指紋センサ359−2)の代わりに、又は追加して、指紋センサとして、任意選択的に、使用される。また、機器300は、タッチス感知面451への接触の強度を検出するための1つ以上の接触強度センサ(例えば、センサ359−3のうちの1つ以上)及び/又は機器300のユーザの触覚出力を生成するための1つ以上の触覚出力生成器357を、任意選択的に、含む。
以下の実施例のうちの一部は、タッチスクリーンディスプレイ112上の入力(タッチ感知面及びディスプレイが組み合わさっている場合)を参照しながら説明されるが、いくつかの実施形態においては、機器は、図4Bに示されるように、ディスプレイとは別個のタッチ感知面上の入力を検出する。いくつかの実施形態において、タッチ感知面(例えば、図4Bの451)は、ディスプレイ(例えば、450)上の主軸(例えば、図4Bの453)に対応する主軸(例えば、図4Bの452)を有する。これらの実施形態によれば、機器は、ディスプレイ上のそれぞれの位置に対応する位置(例えば、図4Bにおいて、460は468と対応し、462は470と対応する)でのタッチ感知面451との接触(例えば、図4Bの460及び462)を検出する。このように、タッチ感知面がディスプレイとは別個である時、タッチ感知面(例えば、図4Bの451)上で機器によって検出されるユーザ入力(例えば、接触460及び462、及びそれらの動き)は、多機能機器のディスプレイ(例えば、図4Bの450)上のユーザインタフェースを操作するために機器によって使用される。同様の方法が、本明細書に記載の他のユーザインタフェースに、任意選択的に使用されることを理解されたい。
加えて、以下の実施例が主として指入力(例えば、指接触、指タップジェスチャ、指スワイプジェスチャ)を参照して示されているが、いくつかの実施形態において、これらの指入力のうちの1つ以上は、別の入力機器(例えば、マウスに基づく入力、又はスタイラス入力)に由来する入力に取って代わられることが理解されよう。例えば、スワイプジェスチャは、任意選択的に、(例えば、接触の代わりに)マウスクリックと置換され、その後、(例えば、接触の移動の代わりに)スワイプの経路に沿ってカーソルの移動が行われる。別の実施例として、タップジェスチャは、(例えば、接触の検出に続いて接触の検出を停止する代わりに)カーソルがタップジェスチャの位置上に配置される間、任意選択的に、マウスクリックと置換される。同様に、複数のユーザ入力が同時に検出される時、複数のコンピュータマウスが同時に、任意選択的に用いられ、又はマウスと指接触が同時に用いられることが理解されよう。
本明細書で用いられている用語「フォーカスセレクタ」は、ユーザが対話しているユーザインタフェースの現在の部分を指示する入力要素を指す。カーソル又は他のロケーションマーカを含む実装において、カーソルは、タッチ感知面(例えば、図3のタッチパッド355、又は図4Bのタッチ感知面451)上で入力(例えば、押下げ入力)が検出された時に、カーソルが特定のユーザインタフェース要素(例えば、ボタン、ウインドウ、スライダ、又は他のユーザインタフェース要素)の上にある時、「フォーカスセレクタ」として機能し、特定のユーザインタフェース要素が、検出された入力に従って調整される。タッチスクリーン上でのユーザインタフェースとの直接的な対話を有効にするタッチスクリーンディスプレイ(例えば、図1Aのタッチ感知ディスプレイシステム112、又は図4Aのタッチスクリーン112)を含むいくつかの実装において、タッチスクリーン上の検出された接触は、入力(例えば、接触による押下げ入力)が特定のユーザインタフェース要素(例えば、ボタン、ウインドウ、又は他のユーザインタフェース要素)の位置にあるタッチスクリーン上で検出された時に、「フォーカスセレクタ」として機能し、特定のユーザインタフェース要素が、検出された入力に従って調整される。いくつかの実装において、(例えば、タブキー又は矢印キーを使ったフォーカスの1つのボタンから別のボタンへの移動により)タッチスクリーン上の対応するカーソルの移動又は接触の移動なしに、フォーカスが、ユーザインタフェースの1つの領域からユーザインタフェースの別の領域に移動される。これらの実装において、フォーカスセレクタは、ユーザインタフェースの異なる領域間でのフォーカスの移動に従って移動する。フォーカスセレクタが取る特定のフォームに関係なく、フォーカスセレクタは、全体的に、ユーザのユーザインタフェースとの意図した(例えば、ユーザが対話したいと思っているユーザインタフェースの要素を機器に指示することによる)対話を伝達するように、ユーザによって制御されたユーザインタフェース要素(又は、タッチスクリーンディスプレイ上の接触)である。例えば、押下げ入力がタッチ感知面(例えば、タッチパッド又はタッチスクリーン)上で検出された時にそれぞれのボタンの上にあるフォーカスセレクタ(例えば、カーソル、接触又は選択ボックス)の位置は、(機器のディスプレイ上に示されている他のユーザインタフェース要素とは反対に)ユーザが、それぞれのボタンをアクティブ化しようとしていることを指示する。
図4Cは、関連付けられた指紋LP(「左小指」指紋)、LR(「左薬指」指紋)、LM(「左中指」指紋)、LI(「左人差し指」指紋)、LT(「左親指」指紋)、RT(「右親指」指紋)、RI(「右人差し指」指紋)、RM(「右中指」指紋)、RR(「右薬指」指紋)RP(「右小指」指紋)を有する2つの手の略図を示す。これらの略語は、指紋センサとの対話の例を示す他の指を参照して使用される。本明細書に記述されている方法のうちの一部については、ユーザの1つ以上の指紋は、指紋の識別を可能にする指紋についての情報を収集することによって登録される。これらの登録された指紋、又は登録済みの指紋は、既登録指紋と称されることもある。以下で説明されている多くの状況において、指紋センサ上で検出される指紋は、登録済みの指紋(例えば、既登録指紋)と比較される。
図4Dは、指紋センサ(例えば、ボタン204に組込まれた指紋センサ169)上の指紋の2つの異なるタイプの回転を示す。図4Dの左側は、指紋センサ周りを「旋回する」指紋の例であり、指紋の重心は、指紋センサの中心周りを旋回動作(例えば、円形状動作)で移動する。図4Dの右側は、指紋センサ上の指紋の「捩じり」の例であり、指紋の主軸は、指紋センサに対する方向を変える。これらの用語(例えば、「旋回する」及び「捩じる」)は、指紋センサとの対話の例を示す他の指を参照して指紋センサ上の指紋の異なる回転方向を説明する時に使用される。
図4Dに示されるように、いくつかの実施形態において、指紋センサは、平均的な指紋より小さいか、ほぼ同じサイズである。したがって、いくつかの実施形態において、指紋センサは、指紋の縁部の移動を検出する代わりに、又はそれに加えて、指紋の指紋の特徴の移動を検出することによって指紋の移動(例えば、指紋のジェスチャ)を検出する。換言すれば、いくつかの実装において、指紋センサは、指紋の輪郭の移動(例えば、接触)を判定することによってではなく、指紋センサ上の指紋の隆線の移動(例えば、隆線の特定の特徴点)を検出することによって指紋の移動を検出する。指紋センサが指紋より大きいか小さいかに関係なく、指紋の端部又は輪郭の移動に基づく指紋の検出に代わって、又はそれに追加して、指紋の特徴の移動に基づいて指紋の移動(例えば、指紋のジェスチャ)を検出することによって、指紋の移動をはるかに詳細に追跡でき、指紋が、指紋センサの全体又は大部分を覆っていても、指紋の移動を追跡することができる。
ユーザインタフェース及び関連処理
ユーザインタフェースとの対話
多くの電子機器が、ユーザにそれぞれのユーザインタフェースに関連付けられた様々な機能及び動作を実行することを可能にするグラフィカルユーザインタフェースを有する(例えば、起動するアプリケーションを選択するためのユーザ選択可能なアイコンを有するホームスクリーン又はアプリケーション起動インタフェース、ナビゲーション動作を実行するためのマップ、計算を実行するための計算機、デジタル写真を見るためのフォトビューア、検索アプリケーション、カメラアプリケーションなどのアプリケーションに関連付けられたアプリケーションインタフェース、様々なシステムレベルの機能に関連付けられたシステムユーザインタフェース)。このようなインタフェースと対話している間、ユーザは、多くの場合、所与のユーザインタフェースをナビゲートしたり、あるいは、1つのユーザインタフェースから別のユーザインタフェースへ切り替えたり(例えば、計算機アプリケーションインタフェースからフォトビューアプリケーションインタフェースへ、又はホームスクリーンインタフェースからカメラアプリケーションインタフェースへなど)、又はアプリケーションユーザインタフェースからシステムユーザインタフェースへ切り換えたい(例えば、マルチタスキングユーザインタフェースへ)ことがある。ユーザインタフェースをナビゲートする方法の中には、(タッチスクリーンディスプレイなどの)タッチ感知面の相当な部分を横断する長くて持続したスワイプジェスチャを伴うものがある。アプリケーションユーザインタフェース間を切り替える(例えば、アプリケーション間の切り替え)方法の中には、ホームスクリーンに戻り、ホームスクリーンのページをトグルして、希望するアプリケーションに対応するアイコンを見て、希望するアプリケーションに対応するアイコンを選択して、希望するアプリケーションを起動するという動作を伴う。同様に、マルチタスキングユーザインタフェースを切り替える方法の中には、システムユーザインタフェースを表示するために、ホームボタン又はメニューボタンに複数回同時に接触するという動作を伴う。これらの方法は、厄介であり、ユーザは1つ以上の指をタッチ感知面と接触させて持続的に移動したり、機器と複数回連続して接触させる必要があり、時間がかかり、又はユーザには覚えにくい場合がある。
開示されている実施形態は、(例えば、機器の上に配置された指紋センサ上で検出される)指紋を2つの方向のうちの1つの方向に1回短い距離移動することによってユーザインタフェースと対話する(例えば、現在のユーザインタフェースをナビゲートするか、又は異なるユーザインタフェースを表示する)便利で効率的な方法を提供する。(アプリケーションユーザインタフェースなどの)第1のユーザインタフェースを表示している間に、指紋センサ上の指紋の第1の方向(例えば、横方向、右から左、又は、左から右)の移動を検出すると、機器は、第1のユーザインタフェースをナビゲートし(例えば、第1のユーザインタフェース内のコンテンツの少なくとも一部を移動又はスクロールし)、指紋センサ状の指紋の第2の方向(例えば、縦方向、上向き)の移動を検出すると、機器は、第2のユーザインタフェース(例えば、マルチタスキングユーザインタフェース、又は直近に使用したアプリケーションに対応するユーザインタフェース)を表示する。その結果、指紋センサ上で2つの方向のうちの1つの方向に指紋を移動することを伴うジェスチャを単に実行することによって、2つの異なる方法(例えば、第1の(又は現在の)ユーザインタフェースをナビゲートすること、又は第2のユーザインタフェースを表示すること)で1つ以上のユーザインタフェースと対話するという改善された便利性を有する。
いくつかの実施形態において、機器は、別個のディスプレイ(例えば、ディスプレイ450)と、別個のタッチ感知面(例えば、タッチ感知面451)とを有する電子機器である。いくつかの実施形態において、機器は、携帯型多機能機器100であり、ディスプレイは、タッチスクリーン112であり、タッチ感知面は、ディスプレイ上に触覚出力生成器167を含む(図1A)。図5A〜図5N及び図6A〜図6Cを参照して以下で説明されている機器は、1つ以上の指紋センサ169を含む。いくつかの実施形態において、1つ以上の指紋センサは、タッチ感知面(例えば、別個のタッチ感知面451又はタッチ感知ディスプレイシステム112)に組込まれた1つ以上の統合指紋センサ359−1(図4B)を含む。いくつかの実施形態において、1つ以上の指紋センサは、タッチ感知面(例えば、別個のタッチ感知面451又はタッチ感知ディスプレイシステム112)から分離している別個の指紋センサ359−2(図4B)を含む。特に記載のない限り、下記の指紋センサ169は、任意選択的に、指紋センサ169を含む機器のハードウェア及びソフトウェアの構成によって、統合指紋センサ359−1か、又は別個の指紋センサ359−2である。説明の便宜上、図5A〜図5N及び図6A〜図6Cを参照して説明されている実施形態は、ディスプレイ450と、別個のタッチ感知面451と、別個の指紋センサ359−2を参照して考察されるが、図5A〜図5Nに示されているユーザインタフェースをディスプレイ450上に表示している間に、統合指紋センサ359−1上で図5A〜図5Nで説明されている入力を検出すると、統合指紋センサ359−1を有する機器上で類似の動作が実行され得る。加えて、類似の動作は、図5A〜図5Nに示されるユーザインタフェースをタッチスクリーン112上で表示している間に、指紋センサ169(例えば、統合指紋センサ359−1又は別個の指紋センサ359−2)上で図5A〜図5Nで説明されている接触を検出すると、タッチスクリーン112を有する機器上で、任意選択的に、実行される。このような実施形態において、フォーカスセレクタは、それぞれの接触、接触に対応する代表的な位置(例えば、それぞれの接触又はそれぞれの接触に関連付けられた位置の重心)、又はカーソル5Nに代わって、任意選択的に、タッチスクリーン112上で検出される2つ以上の接触の重心である。
図5Aは、携帯型多機能機器100のディスプレイ502上に表示されるコンテンツ(例えば、マップ及びナビゲーション指示)を有する第1のユーザインタフェース(例えば、マップアプリケーションユーザインタフェースなどのアプリケーションユーザインタフェース)を示す。いくつかの実施形態において、ディスプレイ502は、タッチに反応するタッチセンサのアレイを有するタッチ感知ディスプレイである。図5Aに示されるように、機器100は、指紋センサ169を含む。いくつかの実施形態において、指紋センサ169は、ディスプレイ502とは別個である。更に、図5Aに示されるように、いくつかの実施形態において、指紋センサ169は、物理ボタン(例えば、ホームボタン又はメニューボタン204)に組込まれている。いくつかの実施形態において、機器は、タッチ感知面(例えば、タッチ感知ディスプレイ502、及び/又は機器上のディスプレイとは別個のタッチ感知面などの、タッチ感知ディスプレイの形のディスプレイと併置されたタッチ感知面)とタッチ感知面とは別個の指紋センサとを含む。いくつかの実施形態において、指紋センサは、指接触(例えば、指紋の形)の位置、近接及び/タッチに反応し、及び(例えば、指紋の移動の形の)指接触の移動に、任意選択的に、反応するが、指紋センサの(例えば、指の空間位置及び/又は移動を検出する)空間解像度は、従来のタッチ感知面の解像度より大きく(例えば、より感度が高く)、それによって、指の小さな空間的動きに対する指紋センサの感度が従来のタッチ感知面より優れさせている。
図5B〜図5Cは、第1のユーザインタフェースを表示している間に、指紋センサ169上の指紋の第1の方向(例えば、多目的機器の短軸に沿った右から左への横方向又は、水平方向)の移動を検出する動作と、その動作に応答して、第1のユーザインタフェースをナビゲートする動作とを示す。いくつかの実施形態において、図5Bで示されるように、第1のユーザインタフェース(例えば、マップユーザインタフェース)がディスプレイ502上に表示されている間に、指紋の移動(例えば、指紋510と、関連付けられた移動512)が指紋センサ169上で検出される。指紋センサ169上の指紋510の(例えば、図5Bで示される指紋510の位置から図5Cで示される指紋510までの)移動512を検出すると、機器は、第1のユーザインタフェースをナビゲートする。例えば、機器は、第1のユーザインタフェースの少なくとも一部を指紋510の移動の方向に(例えば、右から左に)移動し、図5Cに示されるように、図5Bでは表示されなかった第1のユーザインタフェースの別の部分を表示する。このように、いくつかの実施形態において、(例えば、第1のアプリケーション、又はアプリケーション起動ユーザインタフェースに対応する)第1のユーザインタフェースを表示している間に、指紋センサ上の指紋の第1の方向(例えば、横方向又は水平方向、又は多目的機器の短軸に沿って、右から左へ)の移動を検出すると、機器は第1のユーザインタフェースをナビゲートする(例えば、第1のユーザインタフェース上に表示されたコンテンツの少なくとも一部を移動する)。
図5D〜図5Eは、第1のユーザインタフェースを表示している間に、指紋センサ169上の指紋の第2の方向(例えば、垂直方向、又は多目的機器の長軸に沿った上向きの方向)の移動を検出する動作と、その動作に応答して、第1のユーザインタフェースとは異なる第2のユーザインタフェースをナビゲートする動作とを示す。図5Dに示されるように、いくつかの実施形態において、第1のユーザインタフェース(例えば、マップアプリケーション)を表示している間に、指紋の移動(例えば、指紋514と、関連付けられた移動516)が、機器100の指紋センサ169上で検出される。対応する移動516は、第2の方向(例えば、垂直方向、又は多目的機器の長軸に沿った、図5Dに示される機器100の向きに対して上向き方向)である。指紋514の移動516が第2の方向(例えば、図5Dに示される指紋514の位置から図5Eに示される指紋514の位置までの垂直、上向き方向)であると判定されると、第2のユーザインタフェース(例えば、ノートアプリケーション、カメラアプリケーション、フォトビューアアプリケーション、及び音声メモ記録アプリケーションなどの直近に使用されたアプリケーションのセットに対応する、ユーザが選択可能なアイコンを含むマルチタスキングユーザインタフェース517であって、マルチタスキングユーザインタフェース517のアイコンのうちの1つを選択すると、機器が、選択されたアイコンに対応するアプリケーションを、フォアグランドアプリケーションとも称される、現在アクティブなアプリケーションとして走らせる)が、図5Eに示されるように表示される。例えば、「ノート」アイコンが選択されると、機器は、現在アクティブなアプリケーションとしてノートアプリケーションを走らせ、「カメラ」アイコンが選択されると、機器は、カメラアプリケーションを現在アクティブなアプリケーションとして走らせる。
したがって、いくつかの実施形態において、アプリケーションユーザインタフェース(例えば、図5D〜図5Eで示されるマップアプリケーションユーザインタフェース)は、第2のユーザインタフェースによって少なくとも部分的に取って代られる(例えば、マップアプリケーションは、図5Eに示されるマルチタスキングユーザインタフェース517によって部分的に上方に変位され、及び/又は少なくとも部分的に隠される)。いくつかの実施形態において、第2のユーザインタフェース(例えば、マルチタスキングユーザインタフェース517、図5E)を表示すると、アプリケーションユーザインタフェースにおける1つ以上の対話要素が、ユーザインタラクションできなくなる(例えば、マルチタスキングユーザインタフェース517が表示されている間、マップアプリケーションは、ユーザインタラクションができなくなり、ユーザは、マップアプリケーションをスクロール若しくはナビゲートできず、又はマップアプリケーションと対話できない)。このように、いくつかの実施形態において、(例えば、第1のアプリケーションに対応する)第1のユーザインタフェースを表示している間、指紋の第2の方向(例えば、多目的機器の垂直方向、又は長軸に沿った方向、上向き)の移動を検出すると、機器は、第2のシステムユーザインタフェース(例えば、マルチタスキングユーザインタフェース)を表示する。
図5F〜図5Gは、第2のユーザインタフェースを表示している間に、指紋センサ169上の指紋の第1の方向(例えば、多目的機器の横方向又は水平方向、又は短軸に沿った方向、右から左)の移動を検出する動作と、その動作に応答して、第2のユーザインタフェースをナビゲートする動作とを示す。いくつかの実施形態において、第2のユーザインタフェース(例えば、マルチタスキングユーザインタフェース517、図5F)を表示している間に、指紋の移動(例えば、指紋518と、関連付けられた移動520)が、機器100の指紋センサ169上で検出される。対応する移動は、第1の方向(例えば、多目的機器の横方向若しくは水平方向、又は短軸に沿った方向、図5Fに示される機器100の向きに対して右から左)である。指紋518の移動520を検出すると、機器は、第2のユーザインタフェース(例えば、マルチタスキングユーザインタフェース517、図5F〜図5G)をナビゲートする。例えば、機器は、第2のユーザインタフェースの少なくとも一部を指紋518の移動520の方向に移動して、第2のユーザインタフェースの追加の部分(例えば、図5Fでは表示されておらず、図5Gで示されているメッセージアプリケーション、カレンダアプリケーション及びクロックアプリケーションのための追加アイコン、及び、図5Fでは表示されていたが、図5Gでは表示されていないノートアプリケーション、カメラアプリケーション、写真アプリケーション、及び音声メモ記録アプリケーションのためのアイコン)を表示する。いくつかの実施形態において、指紋センサ上で指紋の左から右への移動を検出すると、第2のユーザインタフェースのナビゲーションの方向が逆になり、図5Fで前に表示されていたノートアプリケーション、カメラアプリケーション、写真アプリケーション及び音声メモ記録アプリケーションのためのアイコンが再表示される。
更に、図5H〜図5Iは、第2のユーザインタフェースを表示している間に、指紋センサ169上の指紋の第3の方向(例えば、多目的機器の垂直方向又は長軸に沿った方向、下向きの方向、第2の方向とは実質的に反対の方向)の移動を検出する動作と、その動作に応答して、第2のユーザインタフェースの表示を中止する動作を示す。いくつかの実施形態において、図5H〜図5Iに示されるように、第2のユーザインタフェースを表示している間に、指紋の移動(例えば、指紋522と、関連付けられた移動524)が、機器100の指紋センサ169上で検出される。移動524は、第3の方向(例えば、図5Hで示される機器100の向きに対する多目的機器の長軸に沿って下向きの垂直方向、図5D〜図5Eを参照して説明されている第2の方向と実質的に反対の方向)である。指紋522の第3の方向の移動524を検出すると、機器は、第2のユーザインタフェース(例えば、図5Hで前に示されていたマルチタスキングユーザインタフェース517)の表示を中止し、図5Iに示されるように、第1のユーザインタフェース又はマップアプリケーションインタフェース(例えば、その全体)を再表示する。
図5J〜図5Kは、第1のユーザインタフェースを表示している間に、(例えば、指紋センサ169を、任意選択的に、組込む)物理ホームボタン又はメニューボタン204の二重アクティブ化を検出する動作と、その動作に応答して、第2のユーザインタフェースを表示する動作とを示す。いくつかの実施形態において、図5J〜図5Kで示されるように、(例えば、2回の連続したタップ、又は、2回の連続したタップ間の既定の時間以内に連続して発生する押下入力を介して(例えば、時間間隔が、500ミリ秒以下、300ミリ秒、150ミリ秒、50ミリ秒、又はその他の妥当な時間間隔の2回の連続したタップで、タップ間に指のリフトオフがあるなしを問わない))物理ホームボタン又はメニューボタン204の二重アクティブ化530を検出すると、第2のインタフェース(例えば、ノートパッドアプリケーション、カメラアプリケーション、フォトビューアアプリケーション、及び音声メモ記録アプリケーションなどの直近に使用した又はアクティブなアプリケーションに対応するユーが選択可能なアイコンを有する、図5Eで前に示されたマルチタスキングユーザインタフェース)が、図5Kで示されるようにディスプレイ502上に表示され、第1のユーザアプリケーション(例えば、マップアプリケーションユーザインタフェース)が少なくとも部分的に隠され又はディスプレイ502から消え、ユーザインタラクションが無効にすることもできる。
図5K〜図5Lは、第2のユーザインタフェースを表示している間に、(例えば、指紋センサ169が組込まれている)物理ホームボタン又はメニューボタン204のアクティブ化の検出と、その検出に応答して、第2のユーザインタフェースの表示を中止する動作(例えば、第1のユーザインタフェースを再表示及び再アクティブ化する動作)とを示す。いくつかの実施形態において、図5K〜図5Lに示されるように、(例えば、物理ボタン204上のタップ又は押下げ入力を介して)物理ホームボタン又はメニューボタン204のアクティブ化532を検出すると、図5Lで示されるように、第2のユーザインタフェース(例えば、ノートパッドアプリケーション、カメラアプリケーション、フォトビューアアプリケーション、及び音声メモ記録アプリケーションなどの最近使用されたか又はアクティブなアプリケーションに対応する、ユーザが選択可能なアイコンを有する図5Kで示されるマルチタスキングユーザインタフェース)は、最早ディスプレイ502上に表示されない。いくつかの実施形態において、第1のユーザインタフェース(例えば、マップアプリケーションユーザインタフェース)が(例えば、その全体が)再表示され、(例えば、以前の非アクティブ化状態から)ユーザ入力のために再アクティブ化される。
図5M〜図5Nは、第1のユーザインタフェースを表示している間に、(例えば、指紋センサ169が組込まれている)物理ホームボタン又はメニューボタン204のアクティブ化を検出する動作と、その動作に応答して、第1のユーザインタフェースを既定のユーザインタフェース(例えば、物理ホームボタン又はメニューボタン204と関連付けられたホームスクリーン又はアプリケーション起動インタフェース)と交換する(例えば、第1のユーザインタフェースの表示を中止する)動作とを示す。いくつかの実施形態において、図5M〜図5Nに示されるように、(例えば、物理ボタン204上のタップ又は押下げ入力を介して)物理ホームボタン又はメニューボタン204のアクティブ化534を検出すると、図5Nで示されるように、第1のユーザインタフェース(例えば、図5Mで示されるマルチタスキングユーザインタフェース)は、最早ディスプレイ502上に表示されない。いくつかの実施形態において、第1のユーザインタフェース(例えば、マップアプリケーションユーザインタフェース)は、(例えば、その全体が)既定のユーザインタフェース(例えば、図5Nに示されるホームスクリーン又はアプリケーション起動ユーザインタフェース)に取って代えられる。いくつかの実施形態において、ホームスクリーンが表示されている間にボタン204がアクティブ化されると、機器は、既定の検索ユーザインタフェースを表示する。
図6A〜図6Cは、いくつかの実施形態に係る、指紋センサ上の指の移動に従ってユーザインタフェースと対話する方法600を示すフローチャートである。この方法600は、ディスプレイ及びタッチ感知面を備えた電子機器(例えば、図3の機器300、又は図1Aの携帯型多機能機器100)で実行される。いくつかの実施形態において、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面は、ディスプレイ上にある。いくつかの実施形態において、ディスプレイはタッチ感知面から分離している。この方法600における一部の動作は、任意選択的に、組み合わされ、及び/又は一部の動作の順序は、変更される。
以下で説明されているように、方法600は、ユーザインタフェースと対話する直観的な方法を提供する。この方法は、ユーザインタフェースと対話する時のユーザの認識的負担を軽減し、それによって、より効率的なヒューマンマシンインタフェースを作成する。バッテリ動作電子機器の場合、ユーザがユーザインタフェースとより高速でかつ効率的に対話することを可能にすることにより、電力を節約し、バッテリ充電間の時間を延ばす。
機器は、第1のユーザインタフェース(例えば、図5Aで示される、マップアプリケーション又はナビゲーションアプリケーションユーザインタフェースなどのアプリケーションユーザインタフェース)をディスプレイ上に表示する(602)。第1のユーザインタフェースをディスプレイ上に表示している間、機器は、指紋センサ上で指紋の移動(例えば、図5Bの指紋510の移動512、図5Dの指紋514の移動516)を検出する(604)。
いくつかの実施形態において、指紋センサは、ディスプレイとは別個(例えば、同時に作動しない)である(606)(例えば、指紋センサ169は、図5Aのディスプレイ502とは別個である)。機器は、タッチ感知面を含み(608)、指紋センサは、タッチ感知面とは別個(同時に作動しない)である。
指紋センサ上で指紋の移動を検出すると(610)、指紋の移動が、第1の方向(例えば、指紋の移動の一次成分が、図5Bの指紋510の移動512に関連して上述されている水平方向に右向き又は水平方向に左向き)であるとの判定に従って、機器は、(例えば、図5B〜図5Cに示されるマップインタフェースのナビゲートに関連して上述されているように)第1のユーザインタフェースをナビゲートする。いくつかの実施形態において、機器は、(例えば、指紋の右方向の移動を検出すると)前の状態、前のページ、前のウェブページ又は前の写真に戻ったり、又は(指紋の左方向の移動を検出して)次の状態、次のページ、次のウェブページ又は次の写真に進む。いくつかの実施形態において、機器は、指紋センサ上の指紋の移動の方向に従って第1のユーザインタフェースを水平方向にスクロールする(例えば、機器は、指紋の移動の方向に従って、マップアプリケーションユーザインタフェースなどの第1のユーザインタフェース上のコンテンツの少なくとも一部を、図5B〜図5Cの指紋510の移動を参照して上述されているように、水平方向に右から左に移動する)。
指紋の移動が、第1の方向とは異なる第2の方向であると判定されると(例えば、図5Dの指紋514の移動516を参照して上述されているように、指紋の垂直方向下向き又は垂直方向上向きの移動の一次成分)、機器は、(例えば、図5D〜図5Eのマルチタスキングユーザインタフェース517を参照して上述されているように)第1のユーザインタフェースとは異なる第2のユーザインタフェースをディスプレイ上に表示する。いくつかの実施形態において、機器は、マルチタスキングユーザインタフェース(例えば、図5Eのマルチタスキングユーザインタフェース517、又は直近に使用されたアプリケーション)を表示する。いくつかの実施形態において、第2のユーザインタフェースを表示することは、第1のユーザインタフェースを第2のユーザインタフェースと取り替えることを含む。いくつかの実施形態において、第2のユーザインタフェースを表示することは、第1のユーザインタフェースの少なくとも一部の表示を中止することを含む(例えば、第1のユーザインタフェースが、少なくとも部分的に第2のユーザインタフェースによって覆われるか、又は、第2のユーザインタフェースを表示するように、第1のユーザインタフェースが少なくとも部分的にディスプレイから消えるか、図5Eに示されるように、マルチタスキングユーザインタフェース517を表示するために、マップアプリケーションインタフェースが、部分的にディスプレイ502から消える)。
いくつかの実施形態において、第1の方向は、第2の方向に対して垂直(612)(又は、実質的に垂直)である。例えば、図5B〜図5Cの指紋510の移動512を参照して上述されているように、第1の方向は、多目的機器の横方向若しくは水平方向、又は短軸に沿った方向、右から左であり、図5D〜図5Eの指紋514の移動516を参照して上述されているように、第2の方向は、多目的機器の垂直方向又は長軸に沿った方向、上向き(例えば、第1の方向に対して垂直、又は実質的に垂直)である。
いくつかの実施形態において、第1のユーザインタフェースは、第1のアプリケーションのユーザインタフェース(例えば、図5A〜図5Dのマップアプリケーションユーザインタフェース)であり(614)、第2のユーザインタフェースは、複数の同時に開かれているアプリケーション(例えば、図5Eに示されるような、ノートパッドアプリケーションに対応する「ノート」アイコン、カメラアプリケーションに対応する「カメラ」アイコン、フォトビューアアプリケーションに対応する「写真」アイコン、及び音声メモ記録アプリケーションに対応する「音声メモ」アイコン)の描像(例えば、選択可能なアイコン)を含むマルチタスキングユーザインタフェース(例えば、図5Eのマルチタスキングユーザインタフェース517)である。いくつかの実施形態において、同時に開いているアプリケーションのうちの1つのそれぞれの描像が選択されたことを検出すると、機器は、それぞれの描像に対応する開かれたアプリケーションを表示する。いくつかの実施形態において、マルチタスキングユーザインタフェースは、1つ以上の直近に使用されたアプリケーション(例えば、機器上で最近開かれたアプリケーションで、保持された状態情報が現在記憶されていないアプリケーション)の描像(例えば、選択可能なアイコン)を含む。本明細書及び特許請求の範囲で用いられている用語「開かれたアプリケーション」は、状態情報が保持された(例えば、機器/包括的内部状態157及び/又はアプリケーション内部状態192の一部として)ソフトウェアアプリケーションを指す。開かれたアプリケーションは、次のタイプのアプリケーションのいずれか1つである。
●現在ディスプレイ112上に表示されている(又は、対応するアプリケーションビューが現在ディスプレイ上に表示されている)アクティブなアプリケーション、
●現在ディスプレイ112上には表示されていないが、対応するアプリケーションの1つ以上のアプリケーションプロセス(例えば、命令)が、1つ以上のプロセッサ120によって処理されている(例えば、走らせている)バックグラウンドアプリケーション(又は、バックグラウンドプロセス)、
●現在走らせておらず、アプリケーションが揮発性メモリ(例えば、メモリ102のDRAM、SRAM、DDR、RAM又は他の揮発性ランダムアクセス固体メモリ機器)に記憶されている中断されたアプリケーション、及び
●走らせておらず、アプリケーションが不揮発性メモリ(例えば、メモリ102の1つ以上の磁気ディスク記憶機器、光学ディスク記憶機器、フラッシュメモリ機器、又は他の不揮発性固体記憶機器)に記憶されている休止状態のアプリケーション。
本明細書で用いられている用語「閉じられたアプリケーション」は、状態情報が保持されていない(例えば、閉じられたアプリケーションの状態情報が機器のメモリ内に記憶されていない)ソフトウェアアプリケーションを指す。したがって、アプリケーションを閉じることは、アプリケーションのアプリケーションプロセスを停止すること及び/又は機器のメモリから除去すること、並びにアプリケーション状態情報を機器のメモリから除去することを含む。全体的に、第1のアプリケーションにある間に第2のアプリケーションを開くこと(例えば、第1のアプリケーションから第2のアプリケーションに切り替えること)は、第1のアプリケーションを閉じない。第2のアプリケーションが表示されており、第1のアプリケーションの表示が中止されている時、表示されている時はアクティブなアプリケーションであった第1のアプリケーションは、バックグラウンドアプリケーション、中断されたアプリケーション、又は休止されたアプリケーションになり得るが、第1のアプリケーションは、その状態情報が機器によって保持されている間、開かれたアプリケーションのままである。
いくつかの実施形態において、第1のユーザインタフェースをナビゲートすることは、指紋センサ上の指紋の変位に従って決定された速さで第1のユーザインタフェースをナビゲートすることを含む(616)。例えば、機器は、指紋センサ上の指紋の開始位置からの指紋センサ上の指紋の1ミリメートルごとの移動を5ミリメートル/秒の速度で、第1のユーザインタフェースに表示されるコンテンツの少なくとも一部をスクロール又は移動する。いくつかの実施形態において、第1のユーザインタフェースをナビゲートすることは、指紋センサ上の指紋の変位に従って決定された量だけ第1のユーザインタフェースをナビゲートすることを含む(618)。例えば、機器は、指紋センサ上の指紋の移動の1ミリメートルごとに5ミリメートルで第1のユーザインタフェースに表示されるコンテンツの少なくとも一部をスクロール又は移動する。いくつかの実施形態において、第1のユーザインタフェースをナビゲートすることは、指紋センサ上の指紋の移動の方向に従って決定された方向に第1のユーザインタフェースをナビゲートすることを含む(620)。例えば、機器は、指紋が指紋センサ上を右に移動する時、第1のユーザインタフェースに表示されたコンテンツの少なくとも一部を右にスクロール又は移動し、指紋が指紋センサ上を左に移動する時(例えば、図5B〜図5Cを参照して上述されているように)、第1のユーザインタフェースに表示されたコンテンツの少なくとも一部をスクロール又は移動する。
いくつかの実施形態において、第2のユーザインタフェースを表示することは、ディスプレイ上に現れる第2のユーザインタフェースのアニメーション化された遷移を表示することを含み(622)、アニメーション化された遷移の速度は、指紋センサ上の指紋の変位に基づく。例えば、機器は、ディスプレイ上を上向きにスライドする第1のユーザインタフェースを表示して、ディスプレイの底部からディスプレイにスライドする第2のユーザインタフェースのためのスペースをあける。
いくつかの実施形態において、機器は、ボタン(例えば、図5Aのホームボタン又はメニューボタン204などの物理ボタン)を含み(624)、指紋センサは、ボタンに組込まれる(例えば、指紋センサ169は、図5Aのホームボタン204に組込まれる)。いくつかの実施形態において、物理ボタンは、ボタン上で検出された強度がアクティブ化強度閾値を超えて増加した時に機器によってアクティブ化されたと判定される、機器の筐体の強度感知領域である。いくつかの実施形態において、物理ボタンは、物理ボタンの第1の軸に沿った移動(例えば、上下又は左から右)がスイッチを閉じ、物理ボタンをアクティブ化する(その結果、可聴又は触覚「クリック」になることがある)電子スイッチに連結される。
いくつかの実施形態において、第1のユーザディスプレイ(例えば、図5Mのマップアプリケーションユーザインタフェース)が表示されている間、機器は、物理ボタンのアクティブ化(例えば、図5の物理ボタン204上のタップ入力、又は押下入力などの物理ホームボタン又はメニューボタン204のアクティブ化534)を検出する(626)。例えば、機器は、ユーザがボタンをクリックするか、又は強度がアクティブ化強度閾値を超えるボタンに対応する強度感知領域を押下げすることを検出する。ボタンのアクティブ化を検出すると、機器は、第1のユーザインタフェース(例えば、図5Mのマップアプリケーションユーザインタフェース)をボタンをアクティブ化することに関連付けられた既定のユーザインタフェース(例えば、図5Nに表示されるホームスクリーン若しくはアプリケーション起動インタフェース、又は検索アプリケーションユーザインタフェース)に取り替える(628)。
いくつかの実施形態において、第2のユーザディスプレイ(例えば、図5Kのマルチタスキングユーザインタフェース517)が表示されている間、機器は、ボタンのアクティブ化(例えば、図5Kの物理ボタン204上のタップ、又は押下入力などの物理ホームボタン又はメニューボタン204のアクティブ化532)を検出する(630)。例えば、機器は、ユーザがボタンをクリックするか、又は強度がアクティブ化強度閾値を超えるボタンに対応する強度感知領域を押下げすることを検出する。ボタンのアクティブ化を検出すると、機器は、第2のユーザインタフェースの表示を中止する(632)(及び、図5K〜図5Lを参照して上述されているように、マップアプリケーションユーザインタフェースなどの第1のユーザインタフェースを再表示又は再アクティブ化する)。
いくつかの実施形態において、第1のユーザインタフェース(例えば、図5Jのマップアプリケーションユーザインタフェース)が表示されている間、機器は、ボタンの二重アクティブ化(例えば、2回の連続したタップ、又は2回の連続したタップの間の既定の時間間隔以内、例えば、500ミリ秒以内、300ミリ秒、150ミリ秒、50ミリ秒、又は他の妥当な時間間隔に素早く連続して発生する押下げ入力を介した、図5Jを参照して上述されているように、2回の連続したタップの間に指のリフトオフの有無に関係しない、物理ホームボタン又はメニューボタン204の二重アクティブ化530)を検出する(634)。例えば、機器は、ユーザが、ボタンをダブルクリックするか、又は強度がアクティブ化強度閾値を超えるボタンに対応する強度感知領域を押下げ、強度をアクティブ化強度閾値以下に低減し、アクティブ化閾値を超える強度で強度感知領域を押下げすることを検出する。ボタンの二重アクティブ化を検出すると、機器は、第2のユーザインタフェースをディスプレイ上に表示する(636)(例えば、図5J〜図5Kを参照して上述されているマルチタスキングユーザインタフェース517、又は直近に使用されたアプリケーションを表示する)。
いくつかの実施形態において、指紋の移動が第2の方向であるとの判定に従って、第2のユーザインタフェース(例えば、図5Fのマルチタスキングユーザインタフェース517)を表示している間に、機器は、指紋センサ上の指紋の第1の方向の移動(例えば、図5Fの、指紋518と、多目的機器の横方向又は水平方向若しくは短軸に沿った方向、右から左への関連付けられた移動520)を検出する(638)。指紋センサ上の指紋の第1の方向の移動を検出すると、機器は、第2のユーザインタフェースをナビゲートする(640)(例えば、機器は、指紋センサ上の指紋の移動に従って複数の最近使用された又は現在開かれているアプリケーションの描像をスクロールする)。例えば、図5F〜図5Gに示されるように、機器は、指紋518の移動520の方向に第2のユーザインタフェース(例えば、マルチタスキングユーザインタフェース517)の少なくとも一部を移動し、第2のユーザインタフェースの追加の部分(例えば、図5Fにおいて以前に表示されなかった、図5Gで示されるような、メッセージアプリケーションに対応する「メッセージ」アイコン、カレンダアプリケーションに対応する「カレンダ」アイコン、及び時計アプリケーションに対応する「時計」アイコンを含む追加のアイコン)を表示する。
いくつかの実施形態において、第2のユーザインタフェースをナビゲートすることは、指紋センサ上の指紋の変位に従って決定された速さで第2のユーザインタフェースをナビゲートすることを含む。例えば、機器は、指紋センサ上の指紋の開始位置から指紋センサ上の指紋による1ミリメートルの移動毎に毎秒5つのアイコンの速さで複数の最近使用した又は現在開かれているアプリケーションに対応するアイコンをスクロールする。いくつかの実施形態において、第2のユーザインタフェースをナビゲートすることは、指紋センサ上の指紋の変位に従って決定された量で第2のユーザインタフェースをナビゲートすることを含む。例えば、機器は、指紋センサ上の指紋による1ミリメートルの移動毎に1つのアイコンの単位で複数の最近使用した又は現在開かれているアプリケーションに対応するアイコンをスクロールする。いくつかの実施形態において、第2のユーザインタフェースをナビゲートすることは、指紋センサ上の指紋の移動の方向に従って決定された方向に第2のユーザインタフェースをナビゲートすることを含む。例えば、機器は、指紋が指紋センサ上を右に移動する時、複数の最近使用されたか又は現在開かれているアプリケーションの描像を右にスクロールし、指紋が指紋センサ上を左に移動する時、複数の最近使用されたアプリケーションの描像を左にスクロールする。
いくつかの実施形態において、指紋の移動が第2の方向であるとの判定に従って、第2のユーザインタフェース(例えば、図5Hのマルチタスキングユーザインタフェース517)を表示している間に、機器は、指紋センサ上の指紋の第3の方向の移動(例えば、多目的機器の垂直方向又は長軸に沿った方向、つまり下向きなどの、第2の方向とは実質的に反対の方向)を検出する(642)。例えば、図5D〜図5Eにおける指紋514の移動516(例えば、第1の方向の移動)は、多目的機器の長軸に沿った垂直方向の上向きの移動であり、図5H〜図5Iにおける指紋522の移動524(例えば、第3の方向の移動)は、多目的機器の長軸に沿った垂直方向(例えば、第2の方向とは実質的に反対)の下向きの移動である。指紋センサ上の指紋の第3の方向の移動を検出すると、機器は、第2のユーザインタフェースの表示を中止する(644)。例えば、図5Iに示されるように、機器は、図5Hにおいて以前表示されたマルチタスキングユーザインタフェース517の表示を中止し、第2のユーザインタフェースが表示されていた時に表示が中止された第1のユーザインタフェースの一部を含む第1のユーザインタフェース(例えば、マップアプリケーションユーザインタフェース)を再表示する。
図6A〜図6Cにおける動作について記載された特定の順序は単なる例示であり、記載された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書で説明される動作の再順序付けをする様々な方法を認識するであろう。加えて、本明細書に記載の他の方法に関して本明細書で記載されている他のプロセスの詳細(例えば、段落番号[00123]で一覧化されているプロセス)は、また、図6A〜図6Cに関連して上述されている方法600に類似の方法で適用可能であることを留意されたい。例えば、方法600を参照して上述されている指紋、ユーザインタフェース、アニメーション化された遷移は、本明細書に記載されている他の方法(例えば、段落番号[00123]に記載されている方法)を参照して本明細書で説明されている指紋、ユーザインタフェース、アニメーション化された遷移の特徴のうちの1つ以上を、任意選択的に、有する。簡潔にするため、これらの詳細はここでは繰り返さない。
図7は、様々な記載された実施形態に従って構成されたいくつかの実施形態に係る、電子機器700の機能ブロック図を示す。この機器の機能ブロックは、様々な記載された実施形態の原理を実行するようにハードウェア、ソフトウェア、又はハードウェアとソフトウェアの組み合わせによって、任意選択的に、実装される。図7で説明されている機能ブロックが、様々な説明されている実施形態の原理を実装するように組み合わされ、又はサブブロックに分離され得ることが当業者には理解されよう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に、支持する。
図7で示されるように、電子機器700は、第1のユーザインタフェースを表示するように構成されたディスプレイユニット702、任意選択的に、タッチ感知面ユニット704、指紋センサユニット706、並びにディスプレイユニット702及び指紋センサユニット706に連結された処理ユニット708を含む。いくつかの実施形態において、処理ユニット708は、検出ユニット710と、ナビゲーティングユニット712と、表示有効化ユニット714と、リプレーシングユニット716と、中止ユニット718とを含む。
処理ユニット708は、第1のユーザインタフェースをディスプレイ上に表示している間に、指紋センサ706上の指紋の移動を(例えば、検出ユニット710で)検出し、指紋センサ上の指紋の移動を検出すると、指紋の移動が第1の方向であるとの判定に従って、第1のユーザインタフェースを(例えば、ナビゲーティングユニット712で)ナビゲートし、指紋の移動が第1の方向とは異なる第2の方向であるとの判定に従って、ディスプレイユニット702上の第1のユーザインタフェースとは異なる第2のユーザインタフェースの表示を有効に(表示有効化ユニット714で)するように構成されている。
いくつかの実施形態において、第1の方向は、第2の方向に対して垂直である。
いくつかの実施形態において、第1のユーザインタフェースは、第1のアプリケーションのユーザインタフェースであり、第2のユーザインタフェースは、複数の同時に開かれているアプリケーションの描像を含むマルチタスキングユーザインタフェースである。
いくつかの実施形態において、指紋の移動が第2の方向であるとの判定に従って、処理ユニット708は、第2のユーザインタフェースの表示を有効にしている間に、指紋センサ706上の指紋の第1の方向の移動を(例えば、検出ユニット710で)検出し、指紋センサ706上の指紋の第1の方向の移動を検出すると、第2のユーザインタフェースを(例えば、ナビゲーティングユニット712で)ナビゲートするように、更に構成されている。
いくつかの実施形態において、指紋の移動が第2の方向であるとの判定に従って、処理ユニットは、第2のユーザインタフェースの表示を有効にしている間に、指紋センサ706上の指紋の第3の方向の移動を(例えば、検出ユニット710で)検出し、指紋センサ706上の指紋の第3の方向の移動を検出すると、第2のユーザインタフェースの表示を有効にすることを(例えば、有効化中止ユニット718で)中止するように、更に構成されている。
いくつかの実施形態において、第1のユーザインタフェースをナビゲートすることは、指紋センサ706上の指紋の変位に従って決定された速さで第1のユーザインタフェースをナビゲートすることを含む。
いくつかの実施形態において、第1のユーザインタフェースをナビゲートすることは、指紋センサ706上の指紋の変位に従って決定された量だけ第1のユーザインタフェースをナビゲートすることを含む。
いくつかの実施形態において、第1のユーザインタフェースをナビゲートすることは、指紋センサ706上の指紋の移動の方向に従って決定された方向に第1のユーザインタフェースをナビゲートすることを含む。
いくつかの実施形態において、第2のユーザインタフェースの表示を有効にすることは、ディスプレイユニット702上に現れる第2のユーザインタフェースのアニメーション化された遷移の表示を(例えば、表示有効化ユニット714で)有効にすることを含み、アニメーション化された遷移の速度は、指紋センサ706上の指紋の変位に基づく。
いくつかの実施形態において、指紋センサ706は、ディスプレイユニット702とは別個である。
いくつかの実施形態において、機器は、タッチ感知面ユニット704を含み、指紋センサ706は、タッチ感知面ユニット704とは別個である。
いくつかの実施形態において、機器は、ボタンを含み、指紋センサ706は、ボタンに組込まれている。
いくつかの実施形態において、処理ユニット708は、第1のユーザインタフェースが表示されている間に、ボタンのアクティブ化を(例えば、検出ユニット710で)検出し、ボタンのアクティブ化を検出すると、第1のユーザインタフェースを、ボタンをアクティブ化することに関連付けられた既定のユーザインタフェースと(例えば、リプレーシングユニット716で)取り替えるように、更に構成されている。
いくつかの実施形態において、処理ユニット708は、第2のユーザインタフェースが表示されている間に、ボタンのアクティブ化を(例えば、検出ユニット710で)検出し、ボタンのアクティブ化を検出すると、第2のユーザインタフェースの表示を(例えば、中止ユニット718で)で中止するように、更に構成されている。
いくつかの実施形態において、処理ユニット708は、第1のユーザインタフェースが表示されている間に、ボタンの二重アクティブ化を(例えば、検出ユニット710で)検出し、ボタンの二重アクティブ化を検出すると、(例えば、表示有効化ユニット714で)第2のユーザインタフェースのディスプレイユニット702上での表示を有効にするように、更に構成されている。
上述の情報処理方法における動作は、汎用プロセッサ(例えば、図1A及び図3に関連して上述されているようなプロセッサ)又はアプリケーション固有のチップなどの情報処理装置における1つ以上の機能モジュールを実行することによって、任意選択的に、実施する。
図6A〜図6Cを参照して上述されている動作は、図1A〜図1B又は図7で図示されている構成要素によって、任意選択的に、実施される。例えば、表示動作602、検出動作604、ナビゲーション又は表示動作610、及びリプレース動作628は、イベントソータ170、イベント認識部180、及びイベントハンドラ190によって、任意選択的に、実施される。イベントソータ170のイベントモニタ171は、タッチ感知ディスプレイ112上の接触を検出し、イベントディスパッチャモジュール174は、イベント情報をアプリケーション136−1に配布する。アプリケーション136−1のそれぞれのイベント認識部180は、イベント情報をそれぞれのイベント定義186と比較し、タッチ感知面上の第1の位置の第1の接触がユーザインタフェース上のオブジェクトの選択などの、既定のイベント又はサブイベントに対応するかどうかを判定する。それぞれの既定のイベント又はサブイベントが検出されると、イベント認識部180は、イベント又はサブイベントの検出に関連付けられたイベントハンドラ190をアクティブ化させる。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデーター176若しくはオブジェクトアップデーター177を、任意選択的に利用するか又は呼び出す。いくつかの実施形態において、イベントハンドラ190は、アプリケーションにより表示されるものを更新するためのそれぞれのGUIアップデーター178にアクセスする。同様に、当業者にとって、他の処理が図1A〜図1Bに示されるコンポーネントに基づいてどのように実施されるかは明らかであるだろう。
ボタンの多目的機能化
多くの電子機器が、様々なユーザインタフェースを表示するように構成されている。これらのユーザインタフェースには、例えば、ホームスクリーン、検索スクリーン、及び/又は機器に記憶されたアプリケーション(「apps」)に関連付けられたユーザインタフェースが挙げられる。ホームスクリーンは、多くの場合、最も頻繁に使用されるユーザインタフェースであるため、このような機器には、ホームスクリーンに素早くナビゲートできる便利な方法をユーザに提供することが望ましい。例えば、既存の方法及び機器に、専用の「ホーム」ボタンがしばしば備えられている。しかし、一部の機器(例えば、スマートフォンなどの携帯型多機能機器)のサイズに制限があるため、専用のホームボタンを設けるためには、このような機器に筐体に望ましくない量のスペースを必要とする。したがって、2つの目的のうちのどちらをユーザがアクティブ化することを望むかを区別する便利な方法を提供することによって、このような機器上のボタンに多目的の機能(例えば、ホーミング機能及びアプリケーション依存機能)を果たすことを可能にすることが望ましい。
下記の実施形態において、ボタンに多目的の機能を果たすことを可能にする改善された方法が提供されている。下記の実施形態におけるボタンは、統合指紋センサを備える。統合指紋センサ上で指紋を既定の時間未満の間(例えば、ボタンの早押し)連続して検出した後でこのようなボタンがアクティブ化されると(例えば、押されると)、ボタンが第1の動作(例えば、ホーム動作)を実行する。一方、指紋を既定の時間より長い間(例えば、指紋センサ上でホバーした後で)連続して検出した後でボタンがアクティブ化されると、機器は、第2のユーザ動作(例えば、アプリケーション固有の動作)を実行する。
いくつかの実施形態において、機器は、別個のディスプレイ(例えば、ディスプレイ450)と、別個のタッチ感知面(例えば、タッチ感知面451)とを有する電子機器である。いくつかの実施形態において、機器は、携帯型多機能機器100であり、ディスプレイは、タッチスクリーン112であり、タッチ感知面は、ディスプレイ上に触覚出力生成器167を含む(図1A)。図8A〜図8O及び図9A〜図9Cを参照して以下で説明されている機器は、1つ以上の指紋センサ169を含む。いくつかの実施形態において、1つ以上の指紋センサは、タッチ感知面(例えば、別個のタッチ感知面451又はタッチ感知ディスプレイシステム112)に組込まれた1つ以上の統合指紋センサ359−1(図4B)を備える。いくつかの実施形態において、1つ以上の指紋センサは、タッチ感知面(例えば、別個のタッチ感知面451又はタッチ感知ディスプレイシステム112)から分離している別個の指紋センサ359−2(図4B)を備える。特に記載のない限り、下記の指紋センサ169は、任意選択的に、指紋センサ169を含む機器のハードウェア及びソフトウェアの構成によって、統合指紋センサ359−1か、又は別個の指紋センサ359−2である。説明の便宜上、図8A〜図8O及び図9A〜図9Cを参照して説明されている実施形態は、図8A〜図8Oで示されるユーザインタフェースをタッチスクリーン112上に表示している間、図8A〜図8Oで説明されている入力を指紋センサ169(例えば、統合指紋センサ359−1又は別個の指紋センサ359−2)上で検出すると実行される機器動作に関連して考察されている。しかし、図8A〜図8Oで示されるユーザインタフェースをディスプレイ450上で表示している間に、図8A〜図8Oで説明されている入力を統合指紋センサ359−1上で検出すると、ディスプレイ450と、別個のタッチ感知面451と、統合指紋センサ359−1を有する別個の指紋センサ359−2とを有する機器上で類似の動作が、任意選択的に、実行される。いくつかの実施形態において、フォーカスセレクタは、任意選択的に、それぞれの接触、接触に対応する代表的なポイント(例えば、それぞれの接触の重心、又はそれぞれの接触に関連付けられたポイント)、又はカーソルに代わって、タッチスクリーン112上で検出される1つ以上の接触の重心である。いくつかの実施形態において、フォーカスセレクタは、複数のユーザインタフェースオブジェクトにおけるそれぞれのユーザインタフェースオブジェクト(例えば、図8K〜図8Oを参照して説明されている「スクロールホイール」によって選択されたオブジェクト)を指し示すために使用し得るユーザコントロール型のポインタである。いくつかの実施形態において、フォーカスセレクタの視覚表現が表示される(例えば、フォーカスセレクタが指し示すユーザインタフェースは、他のユーザインタフェースオブジェクトと視覚により区別される)。
図8A〜図8Dは、いくつかの実施形態に係る、多目的ボタンと併用される例示的なユーザインタフェースを示す。特に、図8A〜図8Dは、本明細書に記載されている特定の条件下において、「ホームボタン」(例えば、ボタン204)をアクティブ化すると、機器に「ホーム」動作(例えば、第1の動作)を実行させ、それによって、機器が、ホームスクリーンに戻る(例えば、ユーザが選択し得るアプリケーションを表す複数のアイコンを含むアプリケーション起動インタフェースを表示する)実施例を示す。この実施例において、ボタン204は、統合指紋センサ169を含む。他の条件下において、図8G〜図8Hを参照して説明されているように、ホームボタンがアクティブ化すると、機器に第2の、異なる動作を実行させる。
図8Aは、携帯型多機能機器100上でアーチェリービデオゲームを実行する機器の一実施例を示す。
図8Bは、統合指紋センサ169上の指紋806(この実施例では、ユーザの右手親指に相当する)の検出を示す。図8Bは、指紋806が指紋センサ上で連続して検出される時間の長さと、指紋806のボタン上の力の指示をそれぞれ示す。時間の長さと、ボタン上の指紋806の力のそれぞれの指示は、典型的には、機器上には示されないが、本明細書では、説明の便宜上示されている。この実施例において、ボタン204は、指紋806の力がアクティブ化閾値(AT)を超える時にアクティブ化される。いくつかの実施形態において、例えば、ボタン204が、物理的又は機械的なボタンである時、アクティブ化閾値ATは、ボタン204の特定の機械的機能のばね特性及び/又はボタン204の機械的特徴間の摩擦の関数である。つまり、いくつかの実施形態において、ボタンをアクティブ化させるボタンに対する最小限の力がある。いくつかの実施形態において、ボタン204のアクティブ化は、「ダウンストローク」で(例えば、指紋806に対する力が、AT未満からATを超えるまで連続して検出される時)発生する。いくつかの実施形態において、ボタン204のアクティブ化は、「アップストローク」で(例えば、指紋806に対する力が、ATを超えるからAT未満まで連続して検出される時)発生する。いくつかの他の実施形態において、例えば、ボタン204が仮想のボタンである時、指紋センサ169により特定のジェスチャが検出されるとボタンのアクティブ化が発生する。
図8C〜図8Dに示されるように、機器が、既定の時間より長い時間量の間、指紋806を連続して検出する前に(図8Cで示される)ボタン204のアクティブ化を検出すると、機器は第1の動作を実行する。この実施例において、第1の動作は、(図8Dで示される)「ホーム動作」である。いくつかの実施形態において、機器が、既定の時間PT以上の時間量の間、指紋806を連続して検出する前にボタン204のアクティブ化を検出すると、機器は第1の動作を実行する。
いくつかの実施形態において、図8D〜図8Fを参照して以下で説明されているように、第1の動作は、コンテンツに依存する。例えば、いくつかの実施形態において第1の動作は、現在表示されているユーザインタフェースに依存する(例えば、関連付けられる)。現在表示されているユーザインタフェースが表示されているアーチェリービデオゲームを含んだ前の実施例において、アーチェリービデオゲームに関連付けられた第1の動作は、機器をホームスクリーンに戻す。図8D〜図8Fは、ホームスクリーンが現在表示されているユーザインタフェースである時の第1の動作の実施例を示す。
ホームスクリーンの実施例の例示に加えて、図8Dは、第2の指紋808の検出の一実施例も示す。指紋808の検出は、図8Bを参照して説明されている指紋806の検出に類似している。いくつかの実施形態において、指紋808は、指紋806の連続である(例えば、いくつかの実施形態において、図8Dで示されるホームスクリーンにナビゲートした後で、ユーザは、実施例で説明されている機能を利用するために、中断することなく、指紋センサ169に接触できる)。
図8Eは、図8C〜図8Dを参照して既に説明されているように、既定の時間PTが経過する前のボタン204のアクティブ化を示す。この実施例において、既定の時間PTが経過していないので、機器は、ホームスクリーンに関連付けられた第1の動作(例えば、アプリケーション起動インタフェース)を実行する。この実施帝において、第1の動作は、図8Fに示されるように、機器を検索スクリーンにナビゲートする。いくつかの実施形態において、ホームスクリーンに関連付けられた第1の動作は、ユーザを代替のホームスクリーンに導く(例えば、機器は、機器上のアプリケーションの数が多いために必要とされる複数のホームスクリーンページをナビゲートする)。
図8G〜図8Jは、いくつかの実施形態に係る、多目的ボタンと併用される例示的なユーザインタフェースを示す。特に、図8G〜図8Jは、指紋810を既定の時間より長い間連続して検出した後に続くボタン204のアクティブ化に伴い第2の異なる動作を実行する機器の実施例を示す。図8Gにおいて、指紋810が最初に検出される。したがって、連続して検出される指紋810の長さを示すインジケータは、最初に、時間の経過がないことを示す。図8Hは、指紋センサ169上の指紋810の移動及び射手802の対応する移動を示す(例えば、この実施例において、指紋センサ169は、ボタン204のアクティブ化前の射手802の位置又は位置の変化を制御する「ジョイスティック」として機能する)。いくつかの実施形態において、このような機能(例えば、ジョイスティック機能)は、既定の時間の経過後に動作可能になり、ボタン204がアクティブ化するまで動作可能な状態であり続ける。いくつかの実施形態において、このような機能は、ボタン204が繰り返しアクティブ化になっても、指紋が指紋センサ169上で検出されるたびにアプリケーションにおいて動作可能になる(例えば、指紋センサ169がプレーヤの向きを変えるジョイスティックとして機能する第1射手ビデオゲームと、ボタンのアクティブ化がプレーヤが兵器を発射することを可能にする)。図8I〜図8Jは、(図8Iに示される)ボタン204のアクティブ化と、それに伴う、第1の動作(例えば、ホーム動作)とは異なる第2の動作の実行(例えば、図8I及び8Iに示されるように、弓を射ること)を示す。
図8K〜図8Oは、いくつかの実施形態に係る、多目的ボタンと併用される例示的なユーザインタフェースを示す。特に、図8K〜図8Oは、ユーザインタフェースが、複数のアフォーダンス、例えば、ホームスクリーン上のアプリケーション(例えば、電話app、ブラウザapp等)に対応するユーザが選択可能なアイコンを含む、実施例を示す。また、図8K〜図8Oは、現在選択されているアフォーダンスに対応するフォーカスセレクタ(例えば、電話アプリケーションを表すアイコンが強調され、機器は、未だ電話アプリケーションを実行する命令を受け付けていないが、フォーカスセレクタが電話アプリケーションの「上」にあること、及び電話アプリケーションが現在選択されているという視覚的な合図を提供する)を示す。更に、図8K〜図8Oは、第2の動作が、複数のアフォーダンスのうちの現在選択されているアフォーダンスに対応するアプリケーションに関連付けられた動作を実行することを含む、実施形態の実施例を示す。
図8Kは、フォーカスセレクタの位置が、指紋センサ169の周方向の移動によって制御される(例えば、指紋センサが、以下で説明されている例示的な特性を有する「スクロールホイール」として機能する)実施例を示す。この実施例において、図示のように、時計方向の周方向移動は、図8L(フォーカスセレクタのブラウザapp上の移動)及び図8M(フォーカスセレクタのメールapp上の移動)に示されるように、フォーカスセレクタを右に移動する。同様に、図示されていないが、指紋センサ169の反時計方向の周方向移動は、フォーカスセレクタを反対の方向(例えば、左方向)に移動する。いくつかの実施形態において、複数のアフォーダンスが順序付けられ、指紋812の周方向の移動が、フォーカスセレクタを上下に順番にインクリメントする(例えば、90度などの既定の角度の弧を囲む指紋の移動が、フォーカスセレクタをインクリメントする)。いくつかの実施形態において、フォーカスセレクタが序列の最後のアフォーダンスに到達した時、フォーカスセレクタを同じ方向に更にインクリメントすると、フォーカスセレクタを序列の最初のアフォーダンスに戻す。いくつかの実施形態において、スクロールホイール機能は、機器の通常のモードとは異なる機器のアクセシビリティモードで利用可能である。
図8Nは、指紋812の力が上述のようにアクティブ化閾値を超えている時のボタン204のアクティブ化の実施例を示す。この実施例において、指紋812は既定の時間PTの間連続して検出されているため、機器は、第2の動作を実行する。この実施例において、第2の動作は、現在選択されているアフォーダンスに依存する。例えば、図8Oは、機器が、現在、電子メールメッセージに対応するユーザインタフェースオブジェクト814−1〜814−3を含む電子メールを表示しているので、第2の動作がメールappを起動したことを示している。
図9A〜図9Cは、いくつかの実施形態に係る、ボタンが多目的に機能することを可能にする方法900を示すフローチャートである。この方法900は、ディスプレイ及びタッチ感知面を備えた電子機器(例えば、図3の機器300、又は図1Aの携帯型多機能機器100)で実行される。いくつかの実施形態において、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面がディスプレイ上にある。いくつかの実施形態において、ディスプレイはタッチ感知面から分離している。方法900における一部の動作は、任意選択的に、組み合わされ、及び/又は一部の動作の順序は、変更される。
以下で説明されているように、方法900は、ボタンが多目的に機能することを可能にする直観的な方法を提供する。この方法は、ボタンを使用する時のユーザの認識的負担を軽減し、それによって、より効率的なヒューマンマシンインタフェースを作成する。バッテリ動作電子機器の場合、ユーザが様々な機器動作をより高速で、より効率的に実行することによって、電力を節約し、バッテリ充電間の時間を延ばす。
機器は、統合指紋センサを含むボタンを有する電子機器で、統合指紋センサ上の指紋を検出する(902)。いくつかの実施形態において、電子機器は、ディスプレイを含む(904)。いくつかの実施形態において、統合指紋センサ上で指紋を検出する前に、機器は、ディスプレイに第1のインタフェース(例えば、図8Aに示されるユーザインタフェース)を表示する(906)。
いくつかの実施形態において、ボタンのアクティブ化(908)を検出する前に、機器は、既定の時間より長い間、統合指紋センサ上で指紋を検出する(910)。既定の時間より長い間、統合指紋センサ上で指紋を検出すると、機器は、ディスプレイ上にフォーカスセレクタの描像(例えば、図8Kにおける電話appのハイライトなどの、指紋を検出する前に表示されなかったフォーカスセレクタの描像)を表示する(912)。
統合指紋センサ上で指紋を検出し続けながら、機器は、ボタンの(例えば、図8Cに示されるような)アクティブ化を検出する(914)。いくつかの実施形態において、物理ボタンは、ボタン上で検出された強度がアクティブ化強度閾値を超えて増加した時に機器によってアクティブ化されたと判定される、機器の筐体の強度感知領域である。いくつかの実施形態において、物理ボタンは、物理ボタンの第1の軸に沿った移動(例えば、上下又は左から右)がスイッチを閉じ、物理ボタンをアクティブ化する(その結果、可聴又は触覚「クリック」になることがある)電子スイッチに連結される。ボタンのアクティブ化が検出され、指紋が、ボタンのアクティブ化を検出する前の既定の時間より長い間、統合指紋センサ上で連続して検出されなかったとの判定に従って(例えば、ボタンのアクティブ化を検出する直前の少なくとも0.3秒、0.5秒、1秒、又は2秒の間に、指紋が指紋センサ上で連続して検出されなかった場合)、機器は、ボタンのアクティブ化に関連付けられた既定の動作である第1の動作(例えば、図8B〜図8Dを参照して説明されているホーム動作、あるいは、図8D〜図8Fを参照して説明されている検索スクリーン動作)を実行する(916)。
いくつかの実施形態において、第1のユーザインタフェースは、第1のアプリケーションのユーザインタフェースであり、第1の動作は、第1のユーザインタフェースの表示を中止することと、アプリケーション起動インタフェースを起動すること(例えば、図8B〜図8Dのアーチェリービデオゲームの表示を中止すること)を含む(918)。いくつかの実施形態において、第1のユーザインタフェースは、アプリケーション起動インタフェースであり、第1の動作は、アプリケーション起動インタフェース(図8E)の表示を中止することと、ボタンのアクティブ化に関連付けられた既定のアプリケーション(例えば、図8Fの検索ユーザインタフェース)を表示することを含む(920)。
ボタンのアクティブ化が検出され、指紋が、ボタンのアクティブ化を検出する前の既定の時間より長い間、統合指紋センサ上で連続して検出されたとの判定に従って(例えば、ボタンのアクティブ化を検出する直前の少なくとも0.3秒、0.5秒、1秒、又は2秒の間に、指紋が指紋センサ上で連続して検出された場合)、機器は、ボタンのアクティブ化を検出する直前に表示されたユーザインタフェースに関連付けられた動作で、第1の動作とは異なる第2の動作(例えば、アーチェリーが図8G〜図8Jを示されるように弓を射る)実行する(922)。
いくつかの実施形態において、第1のアプリケーションのユーザインタフェースは、第1のアプリケーションに関連付けられたそれぞれの動作に対応する複数のアフォーダンス(例えば、メニュー、コントロール、ハイパーリンクなど)を含み(924)、第2の動作は、複数のアフォーダンスのうちの現在選択されているアフォーダンスに対応する第1のアプリケーションに関連付けられた動作を実行することを含む(例えば、機器は、現在フォーカスセレクタに近接しているか、又は併置されているアプリケーション内で表示されているアフォーダンスに対応する動作を実行する)。
いくつかの実施形態において、第1のユーザインタフェースは、アプリケーション起動インタフェースであり(920を参照)、アプリケーション起動インタフェースは、複数のアプリケーションにおけるそれぞれのアプリケーションに対応する複数のアプリケーション起動アフォーダンス(例えば、図8Kのアプリケーションアイコン)を含み(926)、第2の動作は、複数のアプリケーション起動アフォーダンスのうちの現在選択されているアプリケーション起動アフォーダンスに対応するそれぞれのアプリケーションを起動することを含む(例えば、機器は、現在フォーカスセレクタに近接しているか、又は併置されているアプリケーションアイコンに対応するアプリケーションを起動する)。
いくつかの実施形態において、第2の動作は、第1のユーザインタフェースにおけるフォーカスセレクタの位置に依存し(928)(例えば、第2の動作は、ウェブページにおけるハイパーリンクのアクティブ化、又はアプリケーション起動インタフェースにおけるアプリケーションアイコンに対応するアプリケーションの起動などの、第1のユーザインタフェースにおける特定のユーザインタフェースオブジェクトのアクティブ化に対応する動作である)、第1の動作は、第1のユーザインタフェースにおけるフォーカスセレクタの位置とは無関係である。例えば、第1の動作は、ホームスクリーン又はアプリケーション起動スクリーンを表示すること、既定のアプリケーションを表示すること、及び/又は現在表示されているアプリケーションに対応するユーザインタフェースの表示を中止することを含む。いくつかの実施形態において、フォーカスセレクタの描像は、第1のユーザインタフェースで表示され、第1の動作を実行している時は無視される。いくつかの実施形態において、フォーカスセレクタの描像は、第1のユーザインタフェースで表示されない。
いくつかの実施形態において、ボタンのアクティブ化を検出(930)する前に、機器は、フォーカスセレクタの描像をディスプレイ上に表示する(932)。機器は、ボタン上の指紋センサを横断する指紋の移動を検出する(934)。いくつかの実施形態において、指紋センサを横断する指紋の移動全体を通じて、指紋は指紋センサ上で連続して検出される。いくつかの実施形態において、指紋センサ上の指紋の移動を検出すると(942)、機器は、指紋の移動に従ってフォーカスセレクタの描像を移動する(例えば、機器は、ボタンをアクティブ化することなく、指紋で実行されるスワイプ又は円形のジェスチャに従ってフォーカスセレクタを選択可能なユーザインタフェースオブジェクトを通じてスクロールする)。一方、いくつかの実施形態において、指紋の移動を検出すると(936)、機器は、指紋の移動に従って第3の動作(例えば、オプション切り換え動作)を実行する(936)。いくつかの実施形態において、第3の動作は、現在選択されているオプションとして、複数のオプションからそれぞれのオプションを選択すること(例えば、ドロップダウンメニューからオプションを選択すること、又はアイテムのセットから一つのアイテムを選択すること)を含み(938)、第2の動作は、現在選択されているオプションに関連付けられたアクションを実行することを含む。いくつかの実施形態において、第1の動作は、現在選択されているオプションとは関係がない(940)(例えば、コンテンツフィールドの選択として現在選択されているオプションをコミットすること、又はアイテムを使用/アクティブ化すること)。1つの例として、オプションの切り替えは、ゲーム中のアイテム又は武器の切り替えであり、第2の動作は、ゲーム中でアイテムを使用すること、又は武器を発射することを含む。この実施例において、第1の動作は、任意選択的に、ゲームを終了すること、又は機器のホームスクリーン又はアプリケーション起動スクリーンに戻ることである。
図9A〜図9Cにおける動作について記載された特定の順序は単なる例示であり、記載された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書で説明される動作の再順序付けをする様々な方法を認識するであろう。加えて、本明細書に記載の他の方法に関して本明細書で記載されている他のプロセスの詳細(例えば、段落番号[00123]で一覧化されているプロセス)は、また、図9A〜図9Cに関連して上述されている方法900に類似の方法で適用可能であることを留意されたい。例えば、方法900に関連して上述されている指紋、ジェスチャ、ユーザインタフェースオブジェクト、フォーカスセレクタは、本明細書で説明されている他の方法に関連して本明細書で説明されている指紋、接触、ユーザインタフェースオブジェクト、フォーカスセレクタ(例えば、段落番号[00123]に記載されているもの)の特性のうちの1つ以上を、任意選択的に、有する。簡潔にするため、これらの詳細はここでは繰り返さない。
図10は、様々な記載された実施形態に従って構成されたいくつかの実施形態に係る、電子機器1000の機能ブロック図を示す。この機器の機能ブロックは、様々な記載された実施形態の原理を実行するようにハードウェア、ソフトウェア、又はハードウェアとソフトウェアの組み合わせによって、任意選択的に、実装される。図10で説明されている機能ブロックが、様々な説明されている実施形態の原理を実装するように組み合わされ、又はサブブロックに分離され得ることが当業者には理解されよう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に、支持する。
図10に示されるように、電子機器1000は、統合指紋センサユニット1002を有するボタンユニット1001と、ボタンユニット1001に連結された処理ユニット1008とを含む。電子機器1000は、1つ以上のユーザインタフェースの表示を有効にするように構成されたディスプレイユニット1006と、接触を受け付けるように構成されたタッチ感知面ユニット1004とを、任意選択的に、含む。いくつかの実施形態において、ディスプレイユニット1006及びタッチ感知面ユニット1004は、ボタンユニット1001及び/又は処理ユニット1008と連結されている。いくつかの実施形態において、処理ユニット1008は、検出ユニット1010と、第1の動作実行ユニット1012と、第2の動作実行ユニット1014と、表示有効化ユニット1016とを含む。
処理ユニット1008は、統合指紋センサユニット1002上の指紋を(例えば、検出ユニット1010で)検出するように構成されている。処理ユニット1008は、統合指紋センサユニット1002上で指紋を検出し続けながら、ボタンユニット1001のアクティブ化を検出するように、更に構成されている。処理ユニット1008は、ボタンユニット1001のアクティブ化を検出すると、ボタンユニット1001のアクティブ化を検出化する前の所定の時間より長い間に指紋が統合指紋センサユニット1002上で連続して検出されなかったとの判定に従って、ボタンユニット1001のアクティブ化に関連付けられた既定の動作である第1の動作を(例えば、第1の動作実行ユニット1012で)実行するように構成されている。処理ユニット1008は、ボタンユニット1001のアクティブ化を検出し、ボタンユニット1001のアクティブ化を検出する前の所定の時間より長い間に指紋が統合指紋センサユニット1002上で連続して検出されたと判定すると、ボタンユニット1001のアクティブ化を検出する直前にディスプレイユニット1006上に表示されたユーザインタフェースに関連付けられた動作であって、第1の動作とは異なる、第2の動作を(例えば、第2の動作実行ユニット1014で)実行するように構成されている。
いくつかの実施形態において、ディスプレイユニット1006は、統合指紋センサユニット1002上で指紋を検出する前に、第1のユーザインタフェースの表示を(例えば、表示有効化ユニット1016で)有効化するように構成されている。
いくつかの実施形態において、第1のユーザインタフェースは、第1のアプリケーションのユーザインタフェースであり、第1の動作は、第1のユーザインタフェースの表示の有効化を中止することと、ディスプレイユニット1006上のアプリケーション起動インタフェースの表示を有効化することを含む。
いくつかの実施形態において、第1のアプリケーションのユーザインタフェースは、第1のアプリケーションに関連付けられたそれぞれの動作に対応する複数のアフォーダンスを含み、第2の動作は、複数のアフォーダンスのうちの現在選択されているアフォーダンスに対応する第1のアプリケーションに関連付けられた動作を実行することを含む。
いくつかの実施形態において、第1のユーザインタフェースは、アプリケーション起動インタフェースであり、第1の動作は、アプリケーション起動インタフェースの表示の有効化を中止することと、ボタンユニット1001のアクティブ化に関連付けられた既定のアプリケーションの表示を有効化することを含む。
いくつかの実施形態において、アプリケーション起動インタフェースは、複数のアプリケーションにおけるそれぞれのアプリケーションに対応する複数のアプリケーション起動アフォーダンスを含み、第2の動作は、複数のアプリケーション起動アフォーダンスのうちの現在選択されているアプリケーション起動アフォーダンスに対応するそれぞれのアプリケーションを起動することを含む。
いくつかの実施形態において、処理ユニット1008は、ボタンユニット1001のアクティブ化を検出する前に、所定の時間より長い間に統合指紋センサユニット1002上の指紋を検出し、所定の時間より長い間に統合指紋センサユニット1002上に指紋を検出すると、ディスプレイユニット1006上のフォーカスセレクタの描像を有効化するように、更に構成されている。
いくつかの実施形態において、処理ユニット1008は、ボタンユニット1001のアクティブ化を検出する前に、ディスプレイユニット1006上でフォーカスセレクタの描像を検出し、指紋センサユニット1008上の指紋の移動を検出し、指紋センサユニット1002上の指紋の移動を検出すると、指紋の移動に従って、ディスプレイユニット1006上のフォーカスセレクタの描像を移動するように、更に構成されている。
いくつかの実施形態において、第2の動作は、第1のユーザインタフェースにおけるフォーカスセレクタのロケーションに依存し、第1の動作は、第1のユーザインタフェースにおけるフォーカスセレクタの位置とは無関係である。
いくつかの実施形態において、処理ユニット1008は、ボタンユニット1001のアクティブ化を検出する前に、ボタンユニット1001上の指紋センサユニット1002を横断する指紋の移動を検出し、指紋の移動を検出すると、指紋の移動に従って第3の動作を実行するように、更に構成されている。
いくつかの実施形態において、第3の動作は、現在選択されているオプションとして、複数のオプションからそれぞれのオプションを選択することを含み、第2の動作は、現在選択されているオプションに関連付けられたアクションを実行することを含む。
いくつかの実施形態において、第1の動作は、現在選択されているオプションとは無関係である。
上述の情報処理方法における動作は、汎用プロセッサ(例えば、図1A及び3に関連して上述されているようなプロセッサ)又はアプリケーション固有のチップなどの情報処理装置における1つ以上の機能モジュールを実行することによって、任意選択的に、実施する。
図9A〜図9Cを参照して上述されている動作は、図1A〜図1B又は図10で図示されている構成要素によって、任意選択的に、実施される。例えば、動作を検出すること901、動作を表示すること906、及び動作を実行すること916は、イベントソータ170、イベント認識部180、及びイベントハンドラ190によって、任意選択的に、実施される。イベントソータ170のイベントモニタ171は、タッチ感知ディスプレイ112上の接触を検出し、イベントディスパッチャモジュール174は、イベント情報をアプリケーション136−1に配布する。アプリケーション136−1のそれぞれのイベント認識部180は、イベント情報をそれぞれのイベント定義186と比較し、タッチ感知面上の第1の位置の第1の接触がユーザインタフェース上のオブジェクトの選択などの、既定のイベント又はサブイベントに対応するかどうかを判定する。それぞれの既定のイベント又はサブイベントが検出されると、イベント認識部180は、イベント又はサブイベントの検出に関連付けられたイベントハンドラ190をアクティブ化させる。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデーター176又はオブジェクトアップデーター177を、任意選択的に、利用又は呼び出す。いくつかの実施形態において、イベントハンドラ190は、アプリケーションにより表示されるものを更新するためのそれぞれのGUIアップデーター178にアクセスする。同様に、当業者にとって、他の処理が図1A〜図1Bに示されるコンポーネントに基づいてどのように実施されるかは明らかであるだろう。
ユーザインタフェースの向きのロック
多くの電子機器は、縦向き及び横向きなどの異なる向きを有する。これらの機器がユーザインタフェース及びコンテンツを表示する時、ユーザインタフェース及びコンテンツは、典型的には、機器の向きと同じ方向に表示される。時には、ユーザは、ユーザインタフェース及びコンテンツを機器の向きとは異なる向きに表示したいことがある。ユーザは、オプションをアクティブ化させてユーザインタフェース及びコンテンツの向きをロックさせることによって、機器に対してユーザインタフェース及びコンテンツを特定の向きに表示させ得る。いくつかの方法において、向きロックオプションをアクティブ化するためには、メニュー及びサブメニューを開くこと並びに/又は複数のジェスチャ及びボタンを押すことを必要とする。下記で説明されている実施形態は、ユーザが簡単な入力で向きをロックできることによってこれらの方法を改善している。指紋センサを有する機器上で、ユーザは、ユーザインタフェース又はコンテンツが好ましい向きで表示されている間、指紋を指紋センサ上の1つの方向に回転するとによってユーザインタフェース及びコンテンツの向きをロックし、指紋を指紋センサ上で反対方向に回転することによって向きをロック解除する。これによってユーザにとって向きのロックプロセスがより効率的で、容易になる。
いくつかの実施形態において、機器は、別個のディスプレイ(例えば、ディスプレイ450)と、別個のタッチ感知面(例えば、タッチ感知面451)とを有する電子機器である。いくつかの実施形態において、機器は、携帯型多機能機器100であり、ディスプレイは、タッチスクリーン112であり、タッチ感知面は、ディスプレイ上に触覚出力生成器167を含む(図1A)。図11A〜図11F及び図12A〜図12Bを参照して以下で説明されている機器は、1つ以上の指紋センサ169を含む。いくつかの実施形態において、1つ以上の指紋センサは、タッチ感知面(例えば、別個のタッチ感知面451又はタッチ感知ディスプレイシステム112)に組込まれた1つ以上の統合指紋センサ359−1(図4B)を含む。いくつかの実施形態において、1つ以上の指紋センサは、タッチ感知面(例えば、別個のタッチ感知面451又はタッチ感知ディスプレイシステム112)から分離している別個の指紋センサ359−2(図4B)を備える。特に記載のない限り、下記の指紋センサ169は、任意選択的に、指紋センサ169を含む機器のハードウェア及びソフトウェアの構成によって、統合指紋センサ359−1か、又は別個の指紋センサ359−2である。説明の便宜上、図11A〜図11F及び図12A〜図12Bを参照して説明されている実施形態は、タッチスクリーン112及び指紋センサ169を参照して考察されており、このような実施形態において、フォーカスセレクタは、任意選択的に、カーソルに代わって、それぞれの接触、接触に対応するそれぞれのポイント(例えば、それぞれの接触又はそれぞれの接触に関連付けられたポイントの重心)、又は、タッチスクリーン112上で検出される2つ以上の接触の重心である。しかし、図11A〜図11Fで示されるユーザインタフェースをディスプレイ450上で表示している間に、図11A〜図11Fで説明されている入力を統合指紋センサ359−1又は別個の指紋センサ359−2上で検出すると、ディスプレイ450と、別個のタッチ感知面451と、統合指紋センサ359−1又は別個の指紋センサ359−2とを有する機器上で類似の動作が、任意選択的に、実行される。
図11Aは、機器(例えば機器100)のタッチスクリーン112上に表示されたユーザインタフェース1102を示す。ユーザインタフェース1102は、例えば、アプリケーション、又は機器100上で走るオペレーティングシステムのユーザインタフェースである。例えば、図11Aに示されるユーザインタフェース1102は、ノートアプリケーションのユーザインタフェースである。図11Aにおいて、機器100は、タッチスクリーン112の垂直高さ(つまり、矢印1100で指示される寸法)が水平幅(つまり、矢印1101で指示される寸法)より長く、タッチスクリーン112が縦向き(例えば、タッチスクリーン112の長軸が矢印1100で指示される上下軸に平行である)になるように配向されている。図11Aにおいて、ユーザインタフェース1102は、タッチスクリーン112の縦向きに従って縦向きモードで表示されている。例えば、縦向きモードにおいて、右側が上がっているユーザインタフェース1102は、寸法1100が寸法1101より長い。
図11Bにおいて、機器100は、タッチスクリーン112の垂直高さ(つまり、寸法1100)が水平幅(つまり、寸法1101)より短く、タッチスクリーン112が横向き(例えば、タッチスクリーン112の長軸が矢印1101で指示される右/左軸に平行である)になるように配向されている。図11Bにおいて、ユーザインタフェース1102は、タッチスクリーン112の横向きに従って横向きモードで表示されている。例えば、横向きモードにおいて、右側が上がっているユーザインタフェース1102は、寸法1101が寸法1100より長い。
図11A〜図11Fにおいて、機器100のより長い寸法と、タッチスクリーン112のより長い寸法が平行であることが理解されよう。従って、機器100が縦向きである時、タッチスクリーン112は、縦向きである(つまり、垂直高さが水平幅より長い)。同様に、機器100が横向きの時に、タッチスクリーン112は横向きである。いくつかの実施形態において、機器100の長い寸法は、タッチスクリーン112の長い寸法に対して垂直であり、機器100が横向きの時は、タッチスクリーン112は縦向きであり、逆の場合も同様である。
図11A〜図11Bに示されるように、ユーザインタフェース1102は、タッチスクリーン112の向きに従って縦向き又は横向きモードで表示される。タッチスクリーン112が(例えば、ユーザが機器100をタッチスクリーン112の表面に垂直な軸を中心にして回転することによって)向きを変え、ユーザインタフェース1102が特定の向き固有モードにロックされていない時、ユーザインタフェース1102は、(例えば、機器に組み込まれた加速度計から重力の感知された方向に基づいて)新しい向きに従ったモードで表示される。例えば、機器100が、図11Aに示される縦向きから図11Bに示される横向きに回転された時、機器100は、表示されたユーザインタフェース1102を図11Aに示される縦向きモードから図11Bに示される横向きモードに変更する。同様に、機器100が、図11Bに示される横向きから図11Aに示される縦向きに回転された時、機器100は、表示されたユーザインタフェース1102を図11Bに示される横向きモードから図11Aに示される縦向きモードに変更する。
図11Cは、指紋センサ169上で指紋1104を検出する機器100を示す。指紋1104は、例えば、指で指紋センサ169に接触するユーザによって、指紋センサ169上に置かれる。図11C〜図11Dは、指紋1104の指紋センサ169周りの時計方向の回転を検出する機器100を示す。指紋1104の回転は、ユーザインタフェース1102が縦向きモードで表示されている間に検出される。いくつかの実施形態において、指紋1104の回転は、指紋センサ169上の指紋1104のねじりである。いくつかの他の実施形態において、指紋1104の回転は、指紋センサ169周りの指紋1104の旋回である。
ユーザインタフェース1102が縦向きモードで表示されている間に、指紋1104の指紋センサ169周りの時計方向の回転を検出すると、機器100は、ユーザインタフェース1102を縦向きモードにロックする。いくつかの実施形態において、ユーザインタフェース1102が縦向きモードでロックされているという視覚的な指示(例えば、図11Dのアイコン1106)が表示される。ユーザインタフェース1102が縦向きモードでロックされている間に、タッチスクリーン112が縦向き又は横向きであるかに係らず、ユーザインタフェース1102が縦向きモードで表示される。縦向きモードでロックされているユーザインタフェース1102が表示され、機器100が横向き方向に回転された時、ユーザインタフェース1102は縦向きモードのままであり、ユーザインタフェース1102は、90度回転されたかのように表示される。例えば、図11Eは、ユーザインタフェース1102が縦向きモードでロックされている間の横向きの機器100を示す。機器100が横向きであるにもかかわらず、ユーザインタフェース1102は、縦向きモードで表示される。
ユーザインタフェース1102が縦向きモードでロックされている間、機器100は、図11E〜図11Fに示されるように、指紋1108と、指紋1108の指紋センサ169周りの反時計方向の回転を検出する。ユーザインタフェース1102が縦向きモードでロックされている間に、指紋1108の指紋センサ169周りの反時計方向の回転を検出すると、ユーザインタフェース1102は縦向きモードからロック解除される。ユーザインタフェース1102がロックされている間に、ユーザインタフェース1102が縦向きモードでロックされているという視覚的な指示(例えば、図11Dのアイコン1106)が表示されると、視覚的な指示の表示が中止される。例えば、図11Fは、機器100が、指紋1108の指紋センサ169周りの反時計方向の回転を検出すると、表示が中止されるアイコン1106を示す。ユーザインタフェース1102が縦向きモードからロック解除された後、ユーザインタフェース1102の表示モードは、図11A〜図11Bに示されるように、再び機器100の向きに従う(例えば、加速度計又は他のセンサを使用して機器が検出した重力の方向に従う)。例えば、図11Fにおいて、ユーザインタフェース1102が縦向きモードからロック解除された後、ユーザインタフェース1102は、機器100の横向き方向に従って、図11Bに示されるように、横向きモードに戻る。
いくつかの実施形態において、上述の動作に類似した動作が実行されユーザインタフェース1102を横向きモードにロックする。例えば、ユーザインタフェース1102が(例えば、横向きの機器100に従って)横向きモードで表示されている間に指紋1104の回転(図11C〜図11D)に類似した指紋の回転は、ユーザインタフェース1102を横向きモードにロックする。ユーザインタフェース1102が横向きモードでロックされている間、指紋1108の回転(図11E〜図11F)に類似した指紋の回転は、ユーザインタフェース1102を横向きモードからロック解除する。
いくつかの実施形態において、上述とは逆に、ユーザインタフェース1102を特定の向きモード(つまり、縦向きモード又は横向きモード)にロックする指紋の回転は、反時計方向であり、ロック解除する回転は、時計方向である。
図12A〜図12Bは、いくつかの実施形態に係る、ユーザインタフェースの向きをロックする方法1200を示すフローチャートである。方法1200は、ディスプレイ及びタッチ感知面を備えた電子機器(例えば、図3の機器300、又は図1Aの携帯型多機能機器100)で実行される。いくつかの実施形態において、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面がディスプレイ上にある。いくつかの実施形態において、ディスプレイはタッチ感知面から分離している。方法1200における一部の動作は、任意選択的に、組み合わされ、及び/又は一部の動作の順序は、変更される。
以下で説明されているように、方法1200は、ユーザインタフェースの向きを変更する直観的な方法を提供する。この方法により、ユーザインタフェースの向きをロックする時のユーザの認識的負担が軽減され、より効率的なヒューマンマシンインタフェースが作成される。バッテリ動作電子機器では、ユーザがユーザインタフェースの向きをより高速で、より効率的にロックすることを可能にするので、電力を節約し、バッテリの充電間の時間を延ばす。
機器は、ユーザインタフェースをディスプレイに表示する(1202)。ユーザインタフェースは、機器の第1の方向に関連付けられた第1の向き固有の動作モード(例えば、縦向きモード)と、機器の第1の方向とは異なる、機器の第2の方向に関連付けられた第2の向き固有の動作モード(例えば、横向きモード)を有する。図11A〜図11Bは、例えば、タッチスクリーン112上に表示されたユーザインタフェース1102を示す。ユーザインタフェース1102は、機器100が縦向き(図11A)の時、縦向きモードで表示され、機器100が横向き(図11B)の時、横向きモードで表示される。
いくつかの実施形態において、第1の向き固有の動作モードは、縦向き動作モードであり、第2の向き固有の動作モードは、横向き動作モードである(1204)。図11A〜図11Bに示されるように、ユーザインタフェース1102は、縦向きモードか、又は横向きモードで表示される。
ユーザインタフェースの向きがロックされていない間(1206)、機器は、機器が第1の向きにある時、第1の向き固有の動作モードのユーザインタフェースを表示し(1208)、機器が第2の向きにある時、第2の向き固有の動作モードのユーザインタフェースを表示する(1210)。図11A〜図11Bは、特定の向きモードにロックされていないユーザインタフェース1102を示す。ユーザインタフェース1102は、機器100が縦向き(図11A)の時、縦向きモードで表示され、機器100が横向き(図11B)の時、横向きモードで表示される。
機器は、指紋センサ上で指紋を検出する(1212)。図11Cは、例えば、指紋センサ169上で検出される指紋1104を示す。別の実施例として、図11Eは、指紋センサ169上で検出される指紋1108を示す。いくつかの実施形態において、指紋センサは、ディスプレイとは別個である(1214)。例えば、指紋センサ169は、タッチスクリーン112とは別個である。
ユーザインタフェースが第1の向き固有の動作モードにある間、機器は、指紋センサ上の指紋の第1の方向(例えば、時計方向)の回転を検出する(1216)(例えば、この場合、指紋の向きが指紋センサの向きに対して変わる)。例えば、図11Dは、指紋センサ169上の指紋1104の時計方向の回転(例えば、捩じり)を検出する機器100を示す。指紋センサ上の指紋の第1の方向の回転を検出すると(1218)、機器は、第1の向き固有の動作モードのユーザインタフェースをロックする(1220)。図11Dにおいて、例えば、ユーザインタフェース1102が縦向きモードで表示されている間に指紋1104の時計方向の回転を検出すると、機器100は、(例えば、図11Eで示されるように)ユーザインタフェース1102を縦向きモードにロックする。
いくつかの実施形態において、指紋センサ上の指紋の第1の方向の回転を検出すると(1218)、機器は、ユーザインタフェースの向きが第1の向き固有の動作モードでロックされているという視覚的な指示を表示する(1222)。図11Dにおいて、例えば、指紋1104の時計方向の回転を検出すると、ユーザインタフェース1102を縦向きモードにロックすることに加えて、機器100は、ユーザインタフェース1102が縦向きモードでロックされていることを指示するアイコン1106を表示する。
ユーザインタフェースが第1の向き固有の動作モードでロックされている間(1224)、機器は、機器が第2の向きにあることを検出し、ユーザインタフェースを第1の向き固有の動作モードに保持する(1226)。例えば、図11Dは、縦向きにある機器100と、縦向きモードでロックされたユーザインタフェース1102を示す。機器100が横向き方向に(例えば、ユーザによって)回転される時、機器100は、機器が横向き方向にあることを検出し、縦向きモードでロックされたユーザインタフェース1102を、図11Eで示されるように、縦向きモードで保持する。
いくつかの実施形態において、ユーザインタフェースが第2の向き固有の動作モードにある間、機器は、指紋センサ上の指紋の第1の方向(例えば、時計方向)の回転を検出し(例えば、この場合、指紋の向きは、指紋センサの向きに対して変化する)、指紋センサ上の指紋の第1の方向の回転を検出すると、機器は、ユーザインタフェースを第2の向き固有の動作モードにロックし、ユーザインタフェースが第2の向き固有の動作モードでロックされている間、機器は、機器が第1の向きにあることを検出し、ユーザインタフェースを第2の向き固有の動作モードに保持する。従って、同様に、ユーザインタフェース1102は、任意選択的に、横向きモードでロックされ、機器100が縦向きである時に横向きモードで表示される。
いくつかの実施形態において、ユーザインタフェースが第1の向き固有の動作モードでロックされている間(1224)、機器は、指紋センサ上の指紋の第1の方向とは異なる第2の方向(例えば、反時計方向)の回転を検出する(1228)。指紋の第2の方向の回転を検出すると、機器は、ユーザインタフェースを第1の向き固有の動作モードからロック解除する(1230)。例えば、図11Fは、ユーザインタフェース1102が縦向きモードでロックされている間に指紋1108の反時計方向の回転(例えば、捩じり)を検出する機器100を示す。ユーザインタフェース1102が縦向きモードでロックされている間に、指紋1108の反時計方向の回転を検出すると、ユーザインタフェース1102が、縦向きモードからロック解除される。
図12A〜図12Bにおける動作について記載された特定の順序は単なる例示であり、記載された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書で説明される動作の再順序付けをするさまざまな方法を認識するであろう。加えて、本明細書に記載の他の方法に関して本明細書で記載されている他のプロセスの詳細(例えば、段落番号[00123]で一覧化されているプロセス)は、また、図12A〜図12Bに関連して上述されている方法1200に類似の方法でも適用可能であることを留意されたい。例えば、方法1200を参照して上述されている指紋及びユーザインタフェースは、本明細書に記載されている他の方法(例えば、段落番号[00123]に記載されている方法)を参照して本明細書で説明されている指紋及びユーザインタフェースの特徴のうちの1つ以上を、任意選択的に、有する。簡潔にするため、これらの詳細はここでは繰り返さない。
図13は、様々な記載された実施形態の原理に従って構成されたいくつかの実施形態に係る、電子機器1300の機能ブロック図を示す。この機器の機能ブロックは、様々な記載された実施形態の原理を実行するようにハードウェア、ソフトウェア、又はハードウェアとソフトウェアの組み合わせによって、任意選択的に、実装される。図13で説明されている機能ブロックが、様々な説明されている実施形態の原理を実装するように組み合わされ、又はサブブロックに分離され得ることが当業者には理解されよう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に、支持する。
図13に示されるように、電子機器1300は、機器1300の第1の方向に関連付けられた第1の向き固有の動作モードと、機器1300の第1の向きとは異なる、機器1300の第2の向きに関連付けられた第2の向き固有の動作モードとを有するユーザインタフェースを表示するように構成されたディスプレイユニット1302、任意選択的に、タッチ感知面ユニット1304、指紋センサユニット1306、並びにディスプレイユニット1302、タッチ感知面ユニット1304、及び指紋センサユニット1306に連結された処理ユニット1308を含む。いくつかの実施形態において、処理ユニット1308は、表示有効化ユニット1310と、検出ユニット1312と、ロックユニット1314と、保持ユニット1316と、ロック解除ユニット1318とを備える。
処理ユニット1308は、ユーザインタフェースの向きがロックされていない間、機器1300が第1の向きである時、ユーザインタフェースの第1の向き固有の動作モードでの表示を(例えば、表示有効化ユニット1310により)有効化にし、機器1300が第2の向きである時に、ユーザインタフェースの第2の向き固有の動作モードにおける表示を(例えば、表示有効化ユニット1310で)有効化にし、指紋センサユニット1306上の指紋を(例えば、検出ユニット1312で)検出し、ユーザインタフェースが第1の向き固有の動作モードである間、指紋センサユニット1306上の指紋の第1の方向の回転を(例えば、検出ユニット1312で)検出し、指紋センサユニット1306上の指紋の第1の方向の回転を検出すると、ユーザインタフェースを第1の向き固有の動作モードで(例えば、ロックユニット1314で)ロックし、ユーザインタフェースが第1の向き固有の動作モードでロックされている間に、機器1300が第2の方向にあることを(例えば、検出ユニット1312で)検出し、ユーザインタフェースを第1の向き固有の動作モードで(例えば、保持ユニット1316で)保持するように構成されている。
いくつかの実施形態において、処理ユニット1308は、ユーザインタフェースが第1の向き固有の動作モードにロックされている間、指紋センサユニット1306上の指紋の第1の方向とは異なる第2の方向の回転を(例えば、検出ユニット1312で)検出し、指紋の第2の方向の回転を検出すると、ユーザインタフェースを第1の向き固有の動作モードから(例えば、ロック解除ユニット1318で)ロック解除するように構成されている。
いくつかの実施形態において、処理ユニット1308は、指紋センサユニット1306上の指紋の第1の方向の回転を検出すると、ユーザインタフェースの向きが第1の向き固有の動作モードにロックされているという視覚的な指示の表示を(例えば、表示有効化ユニット1310で)有効化にするように構成されている。
いくつかの実施形態において、第1の向き固有の動作モードは、縦向き動作モードであり、第2の向き固有の動作モードは、横向き動作モードである。
いくつかの実施形態において、指紋センサユニット1306は、ディスプレイユニット1302とは別個である。
上述の情報処理方法における動作は、汎用プロセッサ(例えば、図1A及び3に関連して上述されているようなプロセッサ)又はアプリケーション固有のチップなどの情報処理装置における1つ以上の機能モジュールを実行することによって、任意選択的に、実施する。
図12A〜図12Bを参照して上述されている動作は、図1A〜図1B又は図13で図示されている構成要素によって、任意選択的に、実施される。例えば、検出動作1212及び1216と、ロック動作1220と、検出及び保持動作1226は、イベントソータ170、イベント認識部180、及びイベントハンドラ190によって、任意選択的に、実施される。イベントソータ170のイベントモニタ171は、タッチ感知ディスプレイ112上の接触を検出し、イベントディスパッチャモジュール174は、イベント情報をアプリケーション136−1に配布する。アプリケーション136−1のそれぞれのイベント認識部180は、イベント情報をそれぞれのイベント定義186と比較し、タッチ感知面上の第1の位置の第1の接触がユーザインタフェース上のオブジェクトの選択などの、既定のイベント又はサブイベントに対応するかどうかを判定する。それぞれの既定のイベント又はサブイベントが検出されると、イベント認識部180は、イベント又はサブイベントの検出に関連付けられたイベントハンドラ190をアクティブ化させる。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデーター176又はオブジェクトアップデーター177を、任意選択的に、利用又は呼び出す。いくつかの実施形態において、イベントハンドラ190は、アプリケーションにより表示されるものを更新するためのそれぞれのGUIアップデーター178にアクセスする。同様に、当業者にとって、他の処理が図1A〜図1Bに示されるコンポーネントに基づいてどのように実施されるかは明らかであるだろう。
指紋センサを使用した記録された音声におけるノイズ低減の制御
多くの電子機器が、ユーザが、音声の記録を含む、メディアを記録することを可能にしている。記録する際、ユーザは、典型的には、記録された音声における意図されたソース以外のソースから発生するノイズを低減/解除したいと思っている。例えば、ユーザは、記録された音声における自分の呼吸音を低減したい場合がある。しかし、ユーザは、ノイズの低減を思うように停止又はトグルすることを望む場合がある。例えば、ユーザは、記録されたメディアの特定の部分の間でコメントを入れ、他の部分の間での偶発的なユーザ音を取り消したい場合がある。既存の機器は、ユーザにこの機能を提供しておらず、又はユーザに対して様々なメニューやユーザインタフェースをナビゲートすることを要求する。下記で説明されている実施形態において、記録された音声におけるノイズ低減を制御するための改善された方法が、指紋センサを使用してユーザによるノイズ低減のオン・オフのトグルを可能にすることによって実現されている。この方法は、電子機器上の指紋センサに応答して制御することによって、記録された音声におけるノイズ低減の制御プロセスを効率化する。
いくつかの実施形態において、機器は、別個のディスプレイ(例えば、ディスプレイ450)と、別個のタッチ感知面(例えば、タッチ感知面451)とを有する電子機器である。いくつかの実施形態において、機器は、携帯型多機能機器100であり、ディスプレイは、タッチスクリーン112であり、タッチ感知面は、ディスプレイ上に触覚出力生成器167を含む(図1A)。図14A〜図14D及び図15を参照して以下で説明されている機器は、1つ以上の指紋センサ169を含む。いくつかの実施形態において、1つ以上の指紋センサは、タッチ感知面(例えば、別個のタッチ感知面451又はタッチ感知ディスプレイシステム112)に組込まれた1つ以上の統合指紋センサ359−1(図4B)を含む。いくつかの実施形態において、1つ以上の指紋センサは、タッチ感知面(例えば、別個のタッチ感知面451又はタッチ感知ディスプレイシステム112)とは分離している別個の指紋センサ359−2(図4B)を含む。特に記載のない限り、下記の指紋センサ169は、指紋センサ169を含む機器のハードウェア及びソフトウェアの構成によって、任意選択的に統合指紋センサ359−1か、又は別個の指紋センサ359−2である。説明の便宜上、図14A〜図14D及び図15を参照して説明されている実施形態は、ディスプレイ450と、タッチ感知面451と、統合指紋センサ359−1を参照して考察されるが、図14A〜図14Dに示されているユーザインタフェースをディスプレイ450上に表示している間に、統合指紋センサ359−2上で図14A〜図14Dで説明されている入力を検出すると、別個のタッチ感知面451と別個の指紋センサ359−2を有する機器上で類似の動作が、任意選択的に、実行される。加えて、類似の動作は、図14A〜図14Dに示されるユーザインタフェースをタッチスクリーン112上で表示している間に、指紋センサ169(例えば、統合指紋センサ359−1又は別個の指紋センサ359−2)上で図14A〜図14Dで説明されている接触を検出すると、タッチスクリーン112を有する機器上で、任意選択的に、実行される。このような実施形態において、フォーカスセレクタは、任意選択的に、それぞれの接触、接触に対応する代表的なポイント(例えば、それぞれの接触又はそれぞれの接触に関連付けられたポイントの重心)、タッチスクリーン112上で検出される2つ以上の接触の重心である。
図14A〜図14Cは、記録された音声におけるノイズ低減を指紋センサで制御する実施例を示す。図14Aは、機器(例えば、携帯型多機能機器100)のディスプレイ450上に表示された、ノイズ低減状態1408と映像プレビュー1410とを有するメディア記録インタフェース1406を備えるユーザインタフェース1402を示す。図14Aは、更に、統合指紋センサ359−1を有するタッチ感知面451を示す。図14Aは、また、統合指紋センサ359−1から離れているタッチ感知面451上で指紋1404(例えば、右手親指の接触)を検出している機器、及び記録された音声内でノイズ低減がオン(例えば、有効)であることを指示するノイズ低減状態1408を示す。図14Bは、統合指紋センサ359−1の上のタッチ感知面451上で指紋1404を検出している機器、及び記録された音声内でノイズ低減がオフ(例えば、無効)であることを指示するノイズ低減状態1408を示す。図14Cは、指紋1404が、統合指紋センサ359−1の上に最早ないことを検出している機器、及び記録された音声内でノイズ低減がオンであることを指示するノイズ低減状態1408を示す。
図14Dは、記録された音声においてノイズ低減を制御する時に使用する、ディスプレイと、指紋センサと、カメラセンサとを有する機器の実施例を示す。図14Dは、指紋センサ1418と、第1の側1414上のディスプレイ1422と、第2の側1416上のカメラセンサ1420とを有する機器1412を示す。
図15は、いくつかの実施形態に係る、記録された音声におけるノイズ低減を指紋センサで制御する方法1500を示すフローチャートである。方法1500は、ディスプレイ及びタッチ感知面を備えた電子機器(例えば、図3の機器300、又は図1Aの携帯型多機能機器100)で実行される。いくつかの実施形態において、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面がディスプレイ上にある。いくつかの実施形態において、ディスプレイはタッチ感知面から分離している。方法1500における一部の動作は、任意選択的に、組み合わされ、及び/又は一部の動作の順序は、任意選択的に、変更される。
以下で説明されているように、方法1500は、記録された音声におけるノイズ低減を指紋センサで制御する直観的な方法を提供する。この方法により、記録された音声におけるノイズ低減を制御する時のユーザの認識的負担が軽減され、より効率的なヒューマンマシンインタフェースが作成される。バッテリ動作電子機器では、ユーザが記録された音声におけるノイズ低減を高速で、より効率的に制御することを可能にするので、電力を節約し、バッテリの充電間の時間を延ばす。
機器は、音声の記録を含む、メディアを記録する(1502)。例えば、図14Aは、メディア記録インタフェース1406によって指示されたメディアを記録する機器を示す。
メディアを記録する時(1504)、機器は、記録された音声において機器の第1の側で発生するノイズを低減する(1506)。例えば、図14Aにおいて、ノイズ低減状態1408は、機器が記録された音声におけるノイズを低減していることを指示する。
メディアを記録し続けている間(1504)、機器は、指紋センサ上で指紋を検出する(1508)。例えば、図14Bは、統合指紋センサ359−1上で指紋1404(例えば、右手親指の接触)を検出する機器を示す。
いくつかの実施形態において、指紋センサは、機器の第1の側に配置されている(1510)。例えば、図14Dは、機器1412の第1の側1414上の指紋センサ1418を示す。
メディアを記録し続けている間(1504)、指紋センサ上で指紋を検出すると、機器は、機器の第1の側で発生するノイズの低減を中止する(1512)。例えば、図14Bは、統合指紋センサ359−1上で指紋1404(例えば、右手親指の接触)を検出する機器、及び機器が、記録された音声におけるノイズの低減を中止したことを指示するノイズ低減状態1408を示す。
いくつかの実施形態において、機器の第1の側で発生するノイズの低減を中止した後、機器は、指紋が最早指紋センサ上にないことを検出し(1514)、指紋が最早指紋センサ上にないことを検出すると、機器は、記録された音声における機器の第1の側で発生するノイズの低減を再開する(1516)。例えば、機器は、最初に、機器の一つの側で発生するノイズを(例えば、映像撮影者が記録することを意図していない映像撮影者の呼吸又はその他のノイズの記録を避けるように)解除し、機器が指紋センサ上で指紋を検出すると、機器は、(映像撮影者が映像についてコメントできるように)カメラの第1の側のノイズの低減/解除を一時的に中止し、指紋センサ上の指紋の検出を中止すると、又は中止した後(例えば、映像撮影者が映像についてのコメントを終了した時)、機器は、機器の第1の側のノイズのノイズ解除を再開する。図14Cは、例えば、統合指紋センサ359−1上で最早指紋1404を検出しない(例えば、指紋1404が持ち上げられたり、又は統合指紋センサ359−1から離された時の)機器を示す。図14Cは、更に、機器が、記録された音声におけるノイズ低減を再開したことを指示するノイズ低減状態1408を示す。
いくつかの実施形態において、メディアを記録することは、機器の第1の側とは異なる(例えば、対向する)機器の第2の側のカメラセンサから映像を記録すること(1518)を含む。例えば、映像は、フロントカメラを使用して記録され、ノイズは、機器の背後から音声入力を解除する音響ビームフォーミングを使用して低減/解除される。例えば、図14Dは、機器1412の第2の側1416上のカメラセンサ1420を示す。
いくつかの実施形態において、メディアを記録することは、機器の第1の側(例えば、ユーザがいる側)に配置されたディスプレイ上の映像のプレビューを表示すること(1520)を含む。別の観点から、方法は、機器の第1の側に配置されたディスプレイ上の映像のプレビューを表示することを含む。例えば、図14Aは、機器のディスプレイ450上の映像プレビュー1410を示す。
いくつかの実施形態において、メディアを記録することは、機器の第1の側とは異なる機器の第2の側で発生する音を記録することを含み、指紋センサ上で指紋を検出すると、機器は、記録された音声における、機器の第2の側で発生するノイズを低減する(1522)。例えば、図14Bは、統合指紋センサ359−1上で指紋1404(例えば、右手親指の接触)を検出する機器を示す。この実施例において、これらの実施形態に係る機器は、機器の第1の側で発生するノイズの低減を(ノイズ低減状態1408で指示されるように)中止し、機器の第2の側で発生するノイズを低減している(機器の第2の側のノイズ低減の指示は図14Bに図示されていない)。
図15における動作について記載された特定の順序は単なる例示であり、記載された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書で説明される動作の再順序付けをするさまざまな方法を認識するであろう。加えて、本明細書に記載の他の方法に関して本明細書で記載されている他のプロセスの詳細(例えば、段落番号[00123]で一覧化されているプロセス)は、また、図15に関連して上述されている方法1500に類似の方法で適用可能であることを留意されたい。例えば、方法1500を参照して上述されている指紋及び接触は、本明細書に記載されている他の方法(例えば、段落番号[00123]に記載されている方法)を参照して本明細書で説明されている指紋及びユーザインタフェースの特徴のうちの1つ以上を、任意選択的に、有する。簡潔にするため、これらの詳細はここでは繰り返さない。
図16は、様々な記載された実施形態に従って構成されたいくつかの実施形態に係る、電子機器1600の機能ブロック図を示す。この機器の機能ブロックは、様々な記載された実施形態の原理を実行するようにハードウェア、ソフトウェア、又はハードウェアとソフトウェアの組み合わせによって、任意選択的に、実装される。図16で説明されている機能ブロックが、様々な説明されている実施形態の原理を実装するように、任意選択的に、組み合わされ、又はサブブロックに分離されることが当業者には理解されよう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に、支持する。
図16に示されるように、電子機器1600は、指紋センサユニット1606と、指紋センサユニット1606に連結された処理ユニット1608とを含む。いくつかの実施形態において、電子機器1600は、ディスプレイユニット1602と、処理ユニット1608に連結されたカメラセンサユニット1604とを、更に含む。いくつかの実施形態において、処理ユニット1608は、記録ユニット1610と、ノイズ低減ユニット1612と、検出ユニット1614と、表示有効化ユニット1616とを含む。
処理ユニット1608は、機器で(例えば、記録ユニット1610で)メディアを記録するように構成されており、メディアを記録することは、音声を記録することを含む。処理ユニット1608は、メディアを記録する間、記録された音声における、機器の第1の側で発生するノイズを(例えば、ノイズ低減ユニット1612で)低減し、指紋センサユニット上で(例えば、検出ユニット1614で)指紋を検出し、指紋センサユニット上で指紋を検出すると、機器の第1の側で発生するノイズを(例えば、ノイズ低減ユニット1612で)低減することを中止するように、更に構成されている。
いくつかの実施形態において、指紋センサユニット1606は、機器の第1の側に配置されている。
いくつかの実施形態において、処理ユニット1608は、機器の第1の側で発生するノイズを(例えば、ノイズ低減ユニット1612で)低減することを中止した後、指紋が最早指紋センサ上にないことを(例えば、検出ユニット1614で)検出し、指紋が最早指紋センサユニット上にないことを(例えば、検出ユニット1614で)検出すると、記録された音声における機器の第1の側で発生するノイズの(例えば、ノイズ低減ユニット1612を使用した)低減を再開するように、更に構成されている。
いくつかの実施形態において、電子機器1600は、機器の第1の側とは異なる機器の第2の側にカメラセンサユニットを更に備え、処理ユニット1608は、カメラセンサユニットから映像を(例えば、記録ユニット1610で)記録するように、更に構成されている。
いくつかの実施形態において、電子機器は、機器の第1の側に配置されたディスプレイユニット1602を備え、メディアを(例えば、記録ユニット1610で)記録することは、ディスプレイユニット上での映像のプレビューの(表示有効化ユニット1616を使用した)表示を有効化することを、更に含む。
いくつかの実施形態において、メディアを記録することは、機器の第1の側とは異なる機器の第2の側で発生する音を(例えば、記録ユニット1610で)記録することを含み、処理ユニット1608は、指紋センサユニット上で指紋を検出すると、記録された音声における、機器の第2の側で発生するノイズを(例えば、ノイズ低減ユニット1612で)低減するように、更に構成されている。
上述の情報処理方法における動作は、汎用プロセッサ(例えば、図1A及び図3に関連して上述されているようなプロセッサ)又はアプリケーション固有のチップなどの情報処理装置における1つ以上の機能モジュールを実行することによって、任意選択的に、実施する。
図15を参照して上述されている動作は、図1A〜図1B又は図16で図示されている構成要素によって、任意選択的に、実施される。例えば、動作を記録すること1402、動作を記録すること1506、及び検出動作1508は、イベントソータ170、イベント認識部180、及びイベントハンドラ190によって、任意選択的に、実装される。イベントソータ170のイベントモニタ171は、タッチ感知ディスプレイ112上の接触を検出し、イベントディスパッチャモジュール174は、イベント情報をアプリケーション136−1に配布する。アプリケーション136−1のそれぞれのイベント認識部180は、イベント情報をそれぞれのイベント定義186と比較し、タッチ感知面上の第1の位置の第1の接触がユーザインタフェース上のオブジェクトの選択などの、既定のイベント又はサブイベントに対応するかどうかを判定する。それぞれの既定のイベント又はサブイベントが検出されると、イベント認識部180は、イベント又はサブイベントの検出に関連付けられたイベントハンドラ190をアクティブ化させる。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデーター176又はオブジェクトアップデーター177を、任意選択的に、利用又は呼び出す。いくつかの実施形態において、イベントハンドラ190は、アプリケーションにより表示されるものを更新するためのそれぞれのGUIアップデーター178にアクセスする。同様に、当業者にとって、他の処理が図1A〜図1Bに示されるコンポーネントに基づいてどのように実施されるかは明らかであるだろう。
クラス別プロファイルに基づく動作の実行
多くの電子機器が、複数の機能及び複数のユーザを有する。全てのユーザに対して全ての機能が好適ではなく、したがって、一部のユーザに対しては特定の機能制限が実施される。いくつかの状況において、機器でのユーザ識別は、ログインプロセスを通じて行われ、具体的には、ユーザはユーザ名とパスワードで自分を識別する。しかし、ログインプロセスを介したユーザ間の切り替えは、時間がかかり、非効率的である。また、具体的なユーザのアイデンティティは、全ての機能制限に必要不可欠ではない。下記の実施形態は、指紋によって識別されるユーザクラスに基づいて機能を制限又は変更することによってこれらの方法を改善している。機器がユーザの指紋を検出すると、機器は、検出された指紋に基づいて1つ以上のユーザクラスを識別し、ユーザに対して一意でない少なくとも1つのクラスを含む、識別されたユーザクラスに関連付けられたプロファイルを有効として選択する。機器が1つ以上の動作を実行する要求を受け付けると、機器は、その要求及び有効なプロファイルに基づいてそれぞれの動作を実行する。それぞれの動作は、要求された動作(1つ又は複数)に対する追加でも、又は代わりであってもよい。特定のユーザアイデンティティに対して一意(例えば、あいまい)でないユーザクラスに基づいて機器の動作及び機能をカスタマイズすることによって、頻繁なユーザログイン及びログオフが非効率的(例えば、親が機器を子供と共有する)又は実現不能(例えば、閉鎖されたサークルのユーザよりも、広範な集団用の公共又は準公共機器)である状況で機能制限を機器で実施し得る。
いくつかの実施形態において、機器は、別個のディスプレイ(例えば、ディスプレイ450)と、別個のタッチ感知面(例えば、タッチ感知面451)とを有する電子機器である。いくつかの実施形態において、機器は、携帯型多機能機器100であり、ディスプレイは、タッチスクリーン112であり、タッチ感知面は、ディスプレイ上に触覚出力生成器167を含む(図1A)。図17A〜図17K及び図18A〜図18Bを参照して以下で説明されている機器は、1つ以上の指紋センサ169を含む。いくつかの実施形態において、1つ以上の指紋センサは、タッチ感知面(例えば、別個のタッチ感知面451又はタッチ感知ディスプレイシステム112)に組込まれた1つ以上の統合指紋センサ359−1(図4B)を含む。いくつかの実施形態において、1つ以上の指紋センサは、タッチ感知面(例えば、別個のタッチ感知面451又はタッチ感知ディスプレイシステム112)から分離している別個の指紋センサ359−2(図4B)を含む。特に記載のない限り、下記の指紋センサ169は、指紋センサ169を含む機器のハードウェア及びソフトウェアの構成によって、任意選択的に、統合指紋センサ359−1か、又は別個の指紋センサ359−2である。説明の便宜上、図17A〜図17K及び図18A〜図18Bを参照して説明されている実施形態は、ディスプレイ450と、別個のタッチ感知面451と、別個の指紋センサ359−2を参照して考察されるが、図17A〜図17Kに示されているユーザインタフェースをディスプレイ450上に表示している間に、統合指紋センサ359−1上で図17A〜図17Kで説明されている入力を検出すると、統合指紋センサ359−1を有する機器上で類似の動作が、任意選択的に、実行される。加えて、類似の動作は、図17A〜図17Kに示されるユーザインタフェースをタッチスクリーン112上で表示している間に、指紋センサ169(例えば、統合指紋センサ359−1又は別個の指紋センサ359−2)上で図17A〜図17Kで説明されている接触を検出すると、タッチスクリーン112を有する機器上で、任意選択的に、実行される。このような実施形態において、フォーカスセレクタは、任意選択的に、それぞれの接触、接触に対応する代表的なポイント(例えば、それぞれの接触又はそれぞれの接触に関連付けられたポイントの重心)、又はカーソルに代わって、タッチスクリーン112上で検出される2つ以上の接触の重心である。
図17Aは、ディスプレイ450と、タッチ感知面451と、統合指紋センサ359−1とを有する機器を示す。ユーザインタフェース1700は、ディスプレイ450上に表示される。図17Aに示されるように、ユーザインタフェース1700は、例えば、デスクトップグラフィカルユーザインタフェース、ホームスクリーン若しくはメニュー、又は類似物である。ユーザインタフェース1700は、任意選択的に、アプリケーション用のユーザインタフェースなどの別のタイプのユーザインタフェースである。ユーザインタフェース1700は、「設定」アイコン1704、及びユーザインタフェース400(図4A)で表示されるアプリケーションに類似したアプリケーションアイコンなどの1つ以上のアプリケーションアイコンを、任意選択的に、含む。ユーザは、ユーザインタフェース1700と対話し、タッチ感知面451、ボタン、マウス、又はキーボードなどのそれぞれの入力要素を使用して、機器によって実行される1つ以上の動作を要求できる。例えば、ユーザは、例えば、タッチ感知面451を使用して「設定」アイコン1704をアクティブ化することによって(例えば、「設定」アイコン1704に対応するディスプレイ上にあるカーソル1705などのフォーカスセレクタに関連付けられたタッチ感知面451上でタップジェスチャを実行することによって)機器設定(例えば、図17Cのユーザインタフェース1708の設定)を調整するためのユーザインタフェースをアクティブ化し得る。
いくつかの実施形態において、機器は、複数のプロファイルに関連付けられる。複数のプロファイルは、1つ以上のユーザ固有プロファイルと1つ以上のクラス別プロファイルとを含む。いくつかの実施形態において、それぞれのユーザ固有プロファイルは、それぞれのユーザに対応する。いくつかの実施形態において、ユーザ固有プロファイルとは異なる、クラス別プロファイルのうちのそれぞれは、それぞれのユーザクラスに対応する。いくつかの実施形態において、クラス別プロファイルのうちの1つ以上は、年齢別ユーザクラスに対応する。年齢別、クラス別プロファイルの例には、成人(例えば、18歳以上のユーザ)に対応するクラス別プロファイル、未成年又は子供(例えば、18歳未満のユーザ)に対応するクラス別プロファイル、及び高齢者(例えば、65歳より大きいユーザ)に対応するクラス別プロファイルが含まれる。いくつかの実施形態において、プロファイルは、機器のメモリ(例えば、メモリ102又は370)から取り込まれる。いくつかの他の実施形態において、プロファイルは、リモートコンピュータシステムから受信される。プロファイルは、1つ以上の特定の動作(例えば、指紋センサ359上の指紋の検出)に応答して、又は既定のルーチンの一部として取り込まれるか、又は受信される。
また、機器は、以前に機器で登録された1つ以上の指紋に関するデータも有する。それぞれの登録された指紋は、それぞれのユーザ固有プロファイルに対応する。いくつかの実施形態において、登録された指紋は、機器のメモリ(例えば、メモリ102又は370)に記憶され、機器のメモリから取り込まれる。
ユーザインタフェース(例えば、ユーザインタフェース1700)がディスプレイ450上に表示されている間、指紋が、統合指紋センサ359−1上で検出される。図17A〜図17Bは、統合指紋センサ359−1上で検出された異なるサイズの指紋を示す。図17Aは、統合指紋センサ359−1上で検出されている指紋1702を示し、図17Bは、統合指紋センサ359−1上で、指紋1702に代わって、検出されている指紋1706を示す。指紋1702及び指紋1706は、それぞれ異なるユーザクラスに属する2つの異なるユーザの指紋である。例えば、指紋1702は、成人ユーザのユーザクラスに属すると判定され、指紋1702より小さく、機器によって子供の指紋とほぼ同じくらいのサイズと判定される指紋1706は、子供ユーザのユーザクラスに属すると判定される。
検出された指紋に基づき、機器は、機器に関連付けられたクラス別プロファイルから、検出された指紋に対応するアクティブなプロファイルとして、1つ以上のクラス別プロファイルを選択する。例えば、指紋1702の場合、機器は、アクティブなプロファイルとして、「成人」プロファイル、並びに機器が、指紋1702が属するユーザに合うと判定する任意の他のクラス別プロファイルを選択する。指紋1706の場合、機器は、「子供」のプロファイル、並びに機器が、指紋1706が属するユーザに合うと判定する任意の他のクラス別プロファイルを選択する。ユーザは、複数のクラスに関連付け得ることが理解されよう。したがって、所与の検出された指紋について、複数のクラス別プロファイルが、アクティブとして選択され得る(例えば、指紋は、「成人」ユーザクラスと「男性」ユーザクラス、又は「子供」ユーザクラスと「女性」ユーザクラスに関連付けることができる)。
いくつかの実施形態において、クラス別プロファイルは、検出された指紋の認証に関係なしに選択される。例えば、クラス別プロファイルの選択には、検出された指紋と、機器に関連付けられた、登録済みの指紋との比較を必要としない。いくつかの実施形態において、クラス別プロファイルの選択は、検出された指紋の特性及び特徴に基づく。例えば、「成人」プロファイルは指紋1702について、「子供」プロファイルは指紋1706について、それぞれの指紋のサイズに基づいて選択される。指紋1706は、そのサイズに基づいて、子供の指紋であると判定され、指紋1702は、そのサイズに基づいて、成人の指紋であると判定される。
いくつかの実施形態において、クラス別プロファイルは、検出された指紋と機器にある登録済みの指紋との比較に基づく、ユーザ固有プロファイルの選択に加えて選択される。いくつかの実施形態において、ユーザ固有プロファイルの識別又は選択は、クラス別プロファイルの選択に役立つ。例えば、1つ以上のクラス別プロファイルは、ユーザ固有プロファイルと、それぞれのクラス別プロファイルの定義の基準であるクラスの特性との比較に基づいて、任意選択的に、選択される。
1つ以上のクラス別プロファイルを機器のアクティブなプロファイルとして選択した後、機器は、機器で1つ以上の動作を実行する要求に対応する、それぞれの入力要素で入力を受け付ける。例えば、機器は、ユーザインタフェース1708の設定(図17C)を表示する要求に対応する「設定」アイコン1704(又は、「設定」アイコン446)をアクティブ化する入力(例えば、カーソル1705などのフォーカスセレクタが「設定」アイコン1704の上にある間のタッチ感知面451上のジェスチャ)を受け付ける。アクティブなクラス別プロファイルによって、ユーザインタフェースの設定1708が表示されるか、又はエラーメッセージが、代わりに、表示される。例えば、図17A〜図17Bで示される機器上で、ユーザインタフェース設定1708は、「子供」プロファイルがアクティブな場合、表示されない。したがって、例えば、検出された指紋が指紋1702(図17A)であり、したがって「子供」プロファイルでなく、「成人」プロファイルがアクティブとして選択される場合、図17Cに示されるように、ユーザインタフェース設定1708が表示される。ユーザインタフェース設定1708を表示する動作は、その要求及びアクティブな「成人」プロファイルに基づいて実行される。
一方、検出された指紋が指紋1706(図17B)である場合、したがって、「成人」プロファイルではなくて、「子供」プロファイルがアクティブとして選択されている場合、ユーザインタフェース設定1708は表示されない。代わりに、ユーザインタフェース設定1708にアクセスできないことを指示するエラーメッセージ又は類似のもの(例えば、エラーメッセージ1710)が、図17Dに示されるように表示される。エラーメッセージ1710を表示する動作は、その要求とアクティブな「子供」プロファイルとに基づいて実行される。
機器での1つ以上の動作を実行する要求に対応する入力の別の例は、映像アプリケーションを開く要求である。例えば、オンライン映像アプリケーション(例えば、図1Aのオンライン映像モジュール155)を開くために、フォーカスセレクタが、オンライン映像アイコン432(図4A)上にある間に、ユーザがタッチ感知面451上でジェスチャ(例えば、タップ又はダブルタップジェスチャ)を実行する。別の例として、機器に記憶された映像を見るためのアプリケーション(例えば、図1Aの映像及びミュージックプレーヤモジュール152)を開くために、フォーカスセレクタ(例えば、タッチスクリーン112上で検出される接触、又はディスプレイ450上で表示されるカーソル)が、メディア又は映像アプリケーションアイコン(例えば、図4Aのアイコン422)の上にある間に、ユーザはタッチ感知面451上でジェスチャ(例えば、タップ又はダブルタップジェスチャ)を実行する。便宜上、オンライン映像を見るためのアプリケーションと、機器に記憶された映像を見るためのアプリケーションは、両方とも、以降、映像アプリケーション(1つ又は複数)と称する。
映像アプリケーションが開かれると、映像アプリケーションに対応する、ユーザインタフェース1712などのユーザインタフェースが表示される。ユーザインタフェース1712は、機器に記憶されており、再生のために選択できる映像のリスト1714を示す。図17E〜図17Fは、映像アプリケーションが起動された時に機器でアクティブな、クラス別プロファイルによってユーザインタフェース1712に表示される映像のリスト1714における違いを示す。図17Eは、「成人」プロファイルが機器でアクティブな時に表示される映像のリスト1714を示す。「成人」プロファイルがアクティブな時、ユーザインタフェース1712に表示される映像のリスト1714には、全ての年齢及び/又は子供に好適な映像(例えば、「全ての年齢」と格付けされた映像1714−1及び1714−2)と、子供に好適でない映像(例えば、「17+」と格付けされた映像1714−3と1714−4)が含まれる。図17Eは、「子供」プロファイルが機器でアクティブな時に表示される映像のリスト1714を示す。「子供」プロファイルがアクティブな時、ユーザインタフェース1712に表示される映像のリスト1714には、全ての年齢及び/又は子供に好適な映像(例えば、映像1714−1及び1714−2)を含み、子供に好適でない可能性がある映像(例えば、映像1714−3と1714−4)が除外される。
機器での1つ以上の動作を実行する要求に対応する入力の別の例は、映像を再生する要求である。例えば、フォーカスセレクタ(例えば、タッチスクリーン112上で検出される接触、又はディスプレイ450上で表示されるカーソル)が、映像1714を選択するためのユーザインタフェース1712(図17E又は17F)における映像のリストの映像1714の上にある間、ユーザはタッチ感知面451上でジェスチャ(例えば、タップ又はダブルタップジェスチャ)を実行する。ジェスチャを検出すると、映像再生インタフェース1716が表示され、再生が開始する(あるいは、ユーザが再生ボタンをアクティブ化すると映像再生が開始する)。映像再生インタフェース1716は、映像フレーム1718、再生コントロール1720(例えば、再生/休止ボタン、スクラバー)、映像中の音声コンテンツの音量レベルを制御するための音量コントロール1722を含む。音量コントロール1722は、ボリュームスライダーバー1726及びサム1724を含み、ボリュームスライダーバー1726におけるサム1724の位置は、現在の音量レベルを指示する。いくつかの実施形態において、再生するために映像1714が選択された時に特定のクラス別プロファイルが、機器でアクティブである場合、最大の音量レベル制限が課される。例えば、再生のために映像1714が選択された時に「子供」プロファイルがアクティブである場合、ボリュームサム1724は、ボリュームスライダーバー1726の特定のレベルを超えて移動しないように制限される。例えば、図17Gにおいて、ボリュームサム1724は、ボリュームスライダーバー1726における領域1728の中に移動しないように制限される。これによって100%以下のレベルで最大音量が制限されるので、聴覚的損傷の防止に役立つ。「成人」プロファイルがアクティブである場合、最大音量レベル制限が課されないので、ユーザは、ボリュームスライダーバー1726の全長に沿ってボリュームサム1724を移動できる。
機器での1つ以上の動作を実行する要求に対応する入力の別の例は、ドキュメントを表示する要求である。例えば、ユーザは、ドキュメントを開く要求をする(例えば、アプリケーションでドキュメントを選択するか、又はウェブブラウザでハイパーリンクを選択する)。要求に応えて、機器は、ユーザインタフェース(例えば、ユーザインタフェース1730)にドキュメントを表示する。ユーザインタフェース1730は、文書作成アプリケーション、ウェブブラウザ、電子ブックアプリケーションなどの、ドキュメント又はテキストを表示できる任意のアプリケーション用のユーザインタフェースである。いくつかの実施形態において、機器は、アクティブなクラス別プロファイルに基づいて、表示されるドキュメントのズーム倍率、又は表示されるドキュメント中のテキストのフォントサイズを自動的に調整する。例えば、図17H及び図17Iは、ユーザインタフェース1730に表示されるドキュメント1732を示す。アクティブなクラス別プロファイルが「成人」である場合、ズームレベルは、図17Hのドキュメント1732−1で示されるように、デフォルト又は正常なレベル(例えば、100%)に設定される。アクティブなクラス別プロファイルが「子供」、又は高齢者に対応するクラス別プロファイルである場合、ズームレベルは、図17Iのドキュメント1732−2で示されるように、より高いレベル(例えば、200%)に設定される。ズームレベルがより高いレベルである時、ドキュメント1732内のテキストがディスプレイ450上で大きくなり、子供や高齢者には読みやすくなる。
いくつかの実施形態において、指紋(例えば、指紋1702又は1706)が指紋センサ359−1上で検出された時、ユーザ固有プロファイルが識別され、並びに1つ以上のクラス別プロファイルが選択される。例えば、指紋1702が指紋センサ359−1(図17A)上で検出された時、機器は、機器上の登録済みの指紋から一致指紋を識別し、指紋1702に一致する識別された指紋に関連付けられたユーザ固有プロファイルを機器上のアクティブなユーザ固有プロファイルとして選択し、上述のように、1つ以上のクラス別プロファイルを機器上でアクティブなプロファイルとして識別及び選択する。同様に、指紋1706が指紋センサ359−1(図17B)上で検出された時、機器は、機器上の登録済みの指紋から一致指紋を識別し、指紋1706に一致する識別された指紋に関連付けられたユーザ固有プロファイルを機器上のアクティブなユーザ固有プロファイルとして選択し、上述のように、1つ以上のクラス別プロファイルを機器上でアクティブなプロファイルとして識別及び選択する。
いくつかの実施形態において、機器が、1つ以上の動作を実行する要求に対応する入力を受け付けた時、機器は、アクティブなユーザ固有プロファイルに基づいて、その要求に応えて、それぞれの動作を実行する。例えば、図17Jは、アプリケーション(例えば、ウェブブラウザ)にウェブフォーム1734を表示する要求に対応するユーザ入力に応えてディスプレイ450に表示される個人情報を入力するためのウェブフォーム1734(例えば、入力可能フォーム欄を有するウェブページ)を示す。入力は、例えば、ウェブフォーム1734へのハイパーリンクを(例えば、タップジェスチャにより、フォーカスセレクタが上にある間にマウスクリックにより)ユーザが選択することを含む。ウェブフォーム1734は、名前、1つ以上の住所に関連した欄(例えば、通り、市など)及び電話番号などの個人情報欄1736を含む。ウェブフォーム1734を表示する要求を受け付けると、機器は、ウェブフォーム1734を表示し、アクティブなユーザ固有プロファイルに基づいて個人情報1738−1から1738−6まで(例えば、「John Doe」の名前、住所及び電話番号)をウェブフォーム1734の欄1736に追加する。欄1736に追加するために使用する個人情報1738は、アクティブなユーザ固有プロファイルに関連付けられた連絡先情報などの、アクティブなユーザ固有プロファイルに関連付けられた情報から引き出される。
別の実施例として、図17Kは、アプリケーション(例えば、ウェブブラウザ)にウェブページ1740をロードする要求に対応するユーザ入力に応えてディスプレイ450上に表示される個人別ウェブページ1740を示す。入力は、例えば、ユーザが、ウェブページ1740へのハイパーリンクを(例えば、タップジェスチャにより、フォーカスセレクタが上にある間にマウスクリックにより)選択することか、又はウェブページ1740をロードするためのログイン手順を完了することを含む。ウェブページ1740は、アクティブなユーザ固有プロファイルに関連付けられたユーザに個人化されたコンテンツを含む。個人別コンテンツは、例えば、提示されるショートカット1742のセットは、ユーザの好み又はウェブ使用の履歴パターンに合わせて個人化された、ウェブアプリケーション及び他のウェブサイト機能へのショートカット又はリンク1742と、ニュースカテゴリ及び/又はニュースソースがユーザの好みに合わせて個人化されたニュースフィード1744と、ユーザに関連付けられた位置(例えば、自宅の住所、職場の住所、現在の位置)に個人化された気象1746とを含む。
個人化されたコンテンツ1742,1744及び1746を有するウェブページ1740は、アクティブなユーザ固有プロファイルに関連付けられたcookieに従ってロードされ、ウェブページ1740のホストが、cookieに基づいて、ウェブページ1740が個人化されたユーザを識別する。cookieは、例えば、メモリ(例えば、メモリ102又は370)に記憶される。
図18A〜図18Bは、いくつかに実施形態に係る、クラス別プロファイルに基づく動作を実行する方法1800を示すフローチャートである。方法1800は、ディスプレイと、指紋センサと、それぞれの入力要素(例えば、タッチ感知面、ボタン又はキーボード)とを有する電子機器(例えば、図3の機器300、図1Aの携帯型多機能機器100)で実行される。いくつかの実施形態において、入力要素は、指紋センサである。いくつかの実施形態において、入力要素は、指紋センサとは異なる。いくつかの実施形態において、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面がディスプレイ上にある。いくつかの実施形態において、ディスプレイはタッチ感知面から分離している。方法1800における一部の動作は、任意選択的に、組み合わされて、及び/又は一部の動作の順序は、任意選択的に、変更される。
以下で説明されているように、方法1800は、クラス別プロファイルに基づき動作を実行する直観的な方法を提供する。この方法は、クラス別プロファイルに基づいて動作をカスタマイズすることによって動作を実行する時のユーザの認知的負担を軽減し、それによって、より効率的なヒューマンマシンインタフェースを作成する。バッテリ動作電子機器の場合、ユーザがクラス別プロファイルに基づいて動作をより高速で、より効率的に実行することを可能にすることによって、電力を節約し、バッテリ充電間の時間を延ばす。
機器は、1つ以上のユーザ固有プロファイルと、ユーザ固有プロファイルとは異なる1つ以上のクラス別プロファイルとを含む複数のプロファイルを取得する(1802)(例えば、メモリから取り込むか、リモートコンピュータシステムから受信する)。これら複数のプロファイルのそれぞれは、それぞれのユーザクラスに対応する。プロファイルは、例えば、機器のメモリ(例えば、メモリ102又は370)、又はクラウドに記憶される。
機器は、指紋センサ上で第1の指紋を検出する(1804)。図17Aは、例えば、指紋1702を検出する機器を示す。図17Bは、例えば、指紋1706を検出する機器を示す。
機器は、機器に関連付けられた1つ以上のクラス別プロファイルを、第1の指紋が登録済みの指紋として認証されているかどうかに関係なく(例えば、第1の指紋が第1のクラスにおけるユーザの指紋に対応すると判定することが、第1の指紋を登録済みの指紋と直接に比較することを含まない)、第1の指紋に対応するアクティブなファイルとして選択する(1806)。この選択には、第1の指紋が第1のクラス別プロファイルに関連付けられた第1のユーザクラスにおけるユーザの指紋に対応するとの判定に従って、第1のクラス別プロファイルをアクティブなプロファイルとして選択することを含む。いくつかの実施形態において、第1のクラス別プロファイルは、指紋が登録済みの指紋として認証されているかどうかに関係なく選択される。例えば、認証が要求されない場合、又は指紋が登録済みの指紋のうちのいずれとも一致しない場合、機器は、一般化された指紋の特徴に基づいて判定され、したがって、指紋に関連付けられたユーザの明確な識別を要求としない1つ以上のアクティブなクラス別プロファイルに従って機器の機能を調整し得る。
例えば、指紋1702が検出された場合(図17A)、機器は、指紋1702が登録済みの指紋と一致するかどうかに関係なく「成人」クラス別プロファイルを選択する(例えば、「成人」クラス別プロファイルは、指紋の模様がユーザに関連付けられた既知の指紋模様と一致することによってユーザを識別する必要なく、指紋のサイズに基づいて選択される)。例えば、指紋1706が検出された場合(図17B)、機器は、指紋1706が登録済みの指紋と一致するかどうかに関係なく「子供」クラス別プロファイルを選択する(例えば、「子供」クラス別プロファイルは、指紋の模様がユーザに関連付けられた既知の指紋模様と一致することによってユーザを識別する必要なく、指紋のサイズに基づいて選択される)。
いくつかの実施形態において、第1のクラス別プロファイルは、第1の指紋の検出されたサイズに従って選択される(1808)。例えば、検出された第1の指紋が、既定の閾値サイズ以下である場合(例えば、平均的な特徴のサイズ、最大径等)、第1の指紋は、子供指紋として分類され、一般的な子供プロファイルが機器のアクティブなプロファイルとして選択される。従って、いくつかの実施形態において、第1の指紋は、仮に指紋が特定の子供に属するものとして登録済みでなくても、第1の指紋が、既定の、又はユーザ固有の年齢(例えば、12歳)未満であるユーザに属するものとして識別されることに基づくか、又は第1の指紋が、子供の指紋に点検的に特徴である指紋の特性を有し、従って、子供の指紋である可能性が高いと判定されることに基づいて、子供の指紋であると判定される。例えば、「成人」プロファイルは、指紋1702に対して選択され、「子供」プロファイルは、指紋1702より小さい、指紋1706に対して選択される。
いくつかの実施形態において、第1のクラス別プロファイルは、第1のクラスのメンバーに対する機器の動作を制限する(1810)。例えば、子供固有プロファイルがアクティブなプロファイルである場合、機器は、不適切(例えば、暴力的、又は、その他の理由で、制限的な)又は注意を要する(例えば、パスワード、財務情報、アカウント設定、及び又はドキュメント及びアプリケーションの削除などの破壊的行動の実行)特定の設定、アプリケーション、情報へのアクセスを制限する。例えば、「子供」プロファイルがアクティブな時、ユーザインタフェースの設定1708へのアクセスが制限される。従って、「設定」アイコン1704が、「子供」プロファイルがアクティブな時にアクティブ化されると、ユーザインタフェース設定1708(図17C)が表示されない。[00405]代わりに、エラーメッセージ1710が、例えば、図17Dに示されるように表示される。
いくつかの実施形態において、第1のクラス別プロファイルは、機能を第1のクラスのメンバーに対してより適切にするように機器の機能を変更する(1812)。例えば、子供固有プロファイルがアクティブなプロファイルである場合、機器はプログラムを子供との対話に適合させる(例えば、トレーニングアプリケーションにおいて、成人固有トレーニングプロファイルの代わりに子供固有トレーニングプロファイルの使用、又は電子ブックアプリケーションにおいて、成人向け書籍ではなく児童向け書籍を表示する)。例えば、「子供」プロファイルがアクティブである間、子供にふさわしくない映像へのアクセスが制限される。したがって、「子供」プロファイルが、図17Fで示されるように、アクティブである間、映像1714を表示するユーザインタフェース1712における映像1714のリストは、子供にふさわしくないと思われる映像(例えば、映像1714−3と1714−4)を除外する。
いくつかの実施形態において、指紋センサ上で第1の指紋を検出した後(1814)、機器は、第1の指紋の指紋の特徴を判定し(1816)、第1の指紋の指紋の特徴と一致する登録済みの指紋を識別し(1818)、登録済みの指紋に関連付けられた第1のユーザ固有プロファイルをアクティブなプロファイルとして(例えば、第1のクラス別ユーザプロファイルをアクティブなプロファイルとして選択することに加えて)選択する(1820)。これらの指紋分析/比較動作は、機器の中央演算処理装置、又は指紋センサに関連付けられた保護された処理機器で、任意選択的に、実行される。いくつかの実施形態において、機器は、1つ以上のユーザ固有プロファイルのセットのうちのいずれかをアクティブなプロファイルとして選択するかどうかを判定し、ユーザ固有プロファイルのうちのいずれもが第1の指紋に関連付けられていないと判定される場合(例えば、ユーザ固有プロファイルのいずれもが第1の指紋と一致する登録済みの指紋と関連付けられていない場合)、複数のプロファイルのうちのいずれをもアクティブなプロファイルとして、任意選択的に、選択しない。いくつかの実施形態において、ユーザ固有プロファイルが選択されない場合、代わりにデフォルトプロファイルが使用される。例えば、指紋1702又は1706を検出した後、機器は、検出された指紋が登録済みの指紋と一致するかも判定する。登録済みの指紋が、検出された指紋と一致すると識別された場合、識別された登録済みの指紋に関連付けられたユーザ固有プロファイルが、アクティブとして選択されたクラス別プロファイルに加えて、機器上でアクティブとして選択される(例えば、図17J及び17Kで示されるように、検出された指紋に基づいて選択されたユーザ固有プロファイルに関連付けられたユーザ固有情報に従って、ウェブフォーム1734及びウェブページ1740がロードされる)。
機器は、それぞれの入力要素で、機器で1つ以上の動作を実行する要求に対応する入力を受け付ける(1822)。いくつかの実施形態において、機器に関連付けられた1つ以上のプロファイルがアクティブなプロファイルである間(例えば、1つ以上のプロファイルがアクティブなプロファイルとして選択された後で)、入力が受け付けられる。いくつかの実施形態において、1つ以上のプロファイルは、入力が受け付けられると、アクティブなプロファイルとして選択される。いくつかの実施形態において、入力は、機器のタッチ感知面上のジェスチャを含む。いくつかの実施形態において、入力は、機器を近距離通信機器の範囲内で移動することと、近距離通信機器から信号を受信することを含む。入力は、例えば、カーソル1705が「設定」アイコン1704の上にある間の「設定」アイコン1704をアクティブ化するタッチ感知面451上のジェスチャ又はマウスクリック、ユーザインタフェース1712の表示をアクティブ化するタッチ感知面451上のジェスチャ又はマウスクリック、再生するために映像1714を選択するタッチ感知面451上のジェスチャ又はマウスクリック等であり得る。いくつかの実施形態において、入力は、選択可能なアイコンを含むタッチスクリーンディスプレイの一部の上でのタップジェスチャであり、この場合、指紋センサがタッチスクリーンに組込まれ、指紋の特性は、タップジェスチャに基づいて判定される。いくつかの実施形態において、入力は、カーソルがディスプレイ上の選択可能なアイコンの上にある間の、トラックパッド上の押下げ入力である(例えば、強度がアクティブ化強度閾値を超える接触、トラックパッド又は別個のアクチュエータボタンの下の物理アクチュエータの接触又はアクティブ化)。
第1のクラス別プロファイルがアクティブなプロファイルとして選択されている間にそれぞれの入力要素で入力を受け付けると、機器は、その要求と第1のクラス別プロファイルに基づき(及び、任意選択的に、1つ以上の他のアクティブなプロファイルに基づき)それぞれの動作を実行する(1824)。例えば、ユーザインタフェース設定1708を表示する入力(例えば、「設定」アイコン1704をアクティブ化するタッチ感知面上のジェスチャ)を受け付けると、機器は、現在アクティブなクラス別プロファイルに基づき、ユーザインタフェース設定1708(図17C)又はエラーメッセージ1710(図17D)を表示する(例えば、「成人」プロファイルがアクティブであれば、ユーザインタフェース設定が表示され、「子供」プロファイルがアクティブであれば、エラーメッセージが表示される)。別の実施例として、入力を受け付けると、現在アクティブなクラス別プロファイルに基づいて、映像1714の完全なリスト(図17E)、又は映像1714の限定されたリスト(図17F)を表示する(例えば、「成人」プロファイルがアクティブである場合、映像の完全なリストが表示され、「子供」プロファイルがアクティブである場合、映像の限定されたリストが表示される)。
いくつかの実施形態において、第1のクラス別ユーザプロファイルは、少なくとも部分的にユーザの年齢に基づき(1826)、要求は、音声を含むコンテンツを提示する要求を含み、それぞれの動作は、ユーザの年齢に対して調整された音声を出力すること(例えば、最大音量を子供に合わせて低減し、及び/又は音声周波数を高齢者に合わせてシフトすること)を含む。例えば、図17Gにおいて、映像1714を再生する時、「子供」プロファイルがアクティブな時に映像1714を再生する要求を受け付けると、機器は、聴覚損傷を防止するように映像1714における音声コンテンツの最大音量レベルを(例えば、音量スライドバー1726の領域1728で表示されるレベルに)制限する。
いくつかの実施形態において、第1のクラス別プロファイルは、少なくとも部分的にユーザの年齢に基づき(1828)、要求は、視覚構成要素を含むコンテンツを提示する要求を含み、それぞれの動作は、ユーザが視覚構成要素を見やすくなるようにメディアの視覚構成要素を調整すること(例えば、ディスプレイの輝度又はコントラストを上げること、及び/又は高齢者のために文字のフォントサイズを大きくすること)を含む。例えば、図17Iにおいて、ドキュメント1732を表示する時に、「子供」プロファイル、又は高齢者に対応するプロファイルがアクティブな間にドキュメントを表示する要求を受け付けると、機器は、ドキュメントをより大きなズーム倍率、又はより大きなフォントサイズで表示する(例えば、標準的なサイズのドキュメントが、「成人」プロファイルがアクティブである場合、図17Hに示されるように表示され、「子供」プロファイルがアクティブである場合は、図17Iに示されるように、より大きなテキストのドキュメントが表示される)。
いくつかの実施形態において、機器が、要求に関連付けられた1つ以上の動作を実行する権限が付与されているアクティブなプロファイルを有さない時(1830)、それぞれの動作はエラーメッセージである(例えば、アクティブなプロファイルが、個人情報へのアクセスなどの要求された動作、又はバンクアプリケーションなどの保護されたアプリケーションを実行する許可を有さないことを指示するメッセージ)。例えば、機器が、「子供」プロファイルがアクティブで、「成人」プロファイルがアクティブでない間にユーザインタフェース設定1708を表示する要求を受け付けると、エラーメッセージ1710が表示される(図17D)。
いくつかの実施形態において、第1のクラス別プロファイルがアクティブなプロファイルとして選択されている間に、それぞれの入力要素で入力を受け付けると、機器は、それぞれの動作を実行することに加えて、1つ以上の動作を実行する(1832)(例えば、機器は、要求された動作を実行し、機器の出力をユーザのおよその年齢によりふさわしくなるように変更するなどによって、アクティブなプロファイルに基づいて動作をカスタマイズする)。例えば、「子供」プロファイルがアクティブである間に、機器が、映像1714を再生する要求を受け付けると、映像が再生され、図17Gを参照して上述されているように、最大音量が制限される。
いくつかの実施形態において、1つ以上の動作を実行する要求は、個人情報を入力するためのフォームを表示する要求(例えば、ユーザ名、住所、電話番号、パスワード、又は第1のユーザ固有プロファイルに関連付けられた決済情報などの個人情報を入力するためのフォーム欄を含むアプリケーション又はウェブページのロード)を含み(1834)、それぞれの動作は、第1のユーザ固有プロファイルにおける情報に基づいて個人情報をフォームに自動的に追加することを含む。例えば、図17Jにおいて、ウェブフォーム1734を表示する要求を受け付けると、機器は、ウェブフォーム1734を表示し、現在アクティブなユーザ固有プロファイルに基づいて個人情報1738をそれぞれの欄1736に自動的に追加する。
いくつかの実施形態において、1つ以上の動作を実行する要求は、ウェブページをロードする要求を含み(1836)、それぞれの動作は、第1のユーザ固有プロファイルに関連付けられたcookieに従ってウェブページをロードすることを含む。例えば、図17Kにおいて、ウェブページ1740を表示する要求を受け付けると、機器は、現在アクティブなユーザ固有プロファイルに対応するユーザの個人用のウェブページ1740を、アクティブなユーザ固有プロファイルに関連付けられたcookieに基づいて表示する。対照的に、第2のユーザ固有プロファイルが、第1のユーザ固有プロファイルに代わって、アクティブなプロファイルである場合、ウェブページは、第2のユーザ固有プロファイルに関連付けられたcookieに従ってロードされる。
図18A〜図18Bにおける動作について記載された特定の順序は単なる例示であり、記載された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書で説明される動作の再順序付けをするさまざまな方法を認識するであろう。加えて、本明細書に記載の他の方法に関して本明細書で記載されている他のプロセスの詳細(例えば、段落番号[00123]で一覧化されているプロセス)は、また、図18A〜図18Bに関連して上述されている方法1800に類似の方法で適用可能であることを留意されたい。例えば、方法1800に関連して上述されている指紋、ジェスチャ、及びフォーカスセレクタは、本明細書で説明されている他の方法に関連して本明細書で説明されている指紋、ジェスチャ、及びフォーカスセレクタ(例えば、段落番号[00123]に記載されているもの)の特性のうちの1つ以上を、任意選択的に、有する。簡潔にするため、これらの詳細はここでは繰り返さない。
図19は、様々な記載された実施形態に従って構成されたいくつかの実施形態に係る、電子機器1900の機能ブロック図を示す。この機器の機能ブロックは、様々な記載された実施形態の原理を実行するようにハードウェア、ソフトウェア、又はハードウェアとソフトウェアの組み合わせによって、任意選択的に、実装される。図19で説明されている機能ブロックが、様々な説明されている実施形態の原理を実施するように、任意選択的に、組み合わされ、又はサブブロックに分離されることが当業者には理解されよう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に、支持する。
図19に示されるように、電子機器1900は、ディスプレイユニット1902、それぞれの入力要素ユニット1904(例えば、タッチ感知面、タッチスクリーンディスプレイ、マウス、又は他の入力要素)、指紋センサユニット1906、並びにディスプレイユニット1902、それぞれの入力要素ユニット1904、及び指紋センサユニット1906に連結された処理ユニット1908を備える。いくつかの実施形態において、処理ユニット1908は、取得ユニット1910と、検出ユニット1912と、選択ユニット1914と、実行ユニット1916と、判定ユニット1918と、識別ユニット1920と、表示有効化ユニット1922とを含む。
処理ユニット1908は、1つ以上のユーザ固有プロファイルと、ユーザ固有プロファイルとは異なり、それぞれがユーザのそれぞれのクラスに対応する、1つ以上のクラス別プロファイルとを含む複数のプロファイルを(例えば、取得ユニット1910で)取得し、指紋センサユニット1906上で第1の指紋を(例えば、検出ユニット1912で)検出し、第1の指紋が、第1の指紋が登録済みの指紋として認証されているか否かに関係なく、第1の指紋に対応するアクティブなプロファイルとして機器に関連付けられた1つ以上のクラス別プロファイルを(例えば、選択ユニット1914で)選択し、第1の指紋が、第1のクラス別プロファイルと関連付けられた第1のユーザクラスにおけるユーザの指紋に対応するとの判定に従って、第1のクラス別プロファイルをアクティブなプロファイルとして選択し、それぞれの入力要素ユニット1904を有し、機器で1つ以上の動作を実行する要求に対応する入力を受け付け、第1のクラス別プロファイルがアクティブなプロファイルとして選択されている間に、それぞれの入力要素ユニット1904で入力を受け付けると、その要求と第1のクラス別プロファイルとに基づくそれぞれの動作を(例えば、実行ユニット1916で)実行するように構成されている。
いくつかの実施形態において、第1のクラス別プロファイルは、第1の指紋の検出されたサイズに従って選択される。
いくつかの実施形態において、クラス別プロファイルは、クラスのメンバーに対する機器の動作を制限する。
いくつかの実施形態において、クラス別プロファイルは、機能をクラスのメンバーに対してより適切にするように、機器の機能を変更する。
いくつかの実施形態において、クラス別プロファイルは、少なくとも部分的にユーザの年齢に基づき、要求は、音声を含むコンテンツを提示する要求を含み、それぞれの動作は、ユーザの年齢に対して調整された音声を出力することを含む。
いくつかの実施形態において、クラス別プロファイルは、少なくとも部分的にユーザの年齢に基づき、要求は、視覚的構成要素を含むコンテンツを提示する要求を含み、それぞれの動作は、ユーザが視覚的構成要素をより容易に見ることができるようにメディアの視覚的構成要素を調整することを含む。
いくつかの実施形態において、機器が、要求に関連付けられた1つ以上の動作を実行する権限を付与されたアクティブなプロファイルを有さない場合、それぞれの動作はエラーメッセージである。
いくつかの実施形態において、処理ユニット1908は、第1のクラス別プロファイルがアクティブなプロファイルとして選択されている間に、それぞれの入力要素ユニット1904で入力を受け付けると、(例えば、実行ユニット1916で)それぞれの動作を実行することに加えて、1つ以上の動作を実行するように構成されている。
いくつかの実施形態において、処理ユニット1908は、指紋センサユニット1906上で第1の指紋を検出した後、(例えば、判定ユニット1918で)第1の指紋の指紋の特徴を判定し、(例えば、識別ユニット1920で)第1の指紋の指紋の特徴と一致する登録済みの指紋を識別し、(例えば、選択ユニット1914で)登録済みの指紋に関連付けられた第1のユーザ固有プロファイルをアクティブなファイルとして選択するように構成されている。
いくつかの実施形態において、1つ以上の動作を実行する要求は、(例えば、表示有効化ユニット1922で)個人情報を入力するためのフォームの表示を有効にする要求を含み、それぞれの動作は、第1のユーザ固有プロファイルにおける情報に基づいてフォームに個人情報を自動的に追加することを含む。
いくつかの実施形態において、1つ以上の動作を実行する要求は、ウェブページをロードする要求を含み、それぞれの動作は、第1のユーザ固有プロファイルに関連付けられたcookieに従ってウェブページをロードすることを含む。
上述の情報処理方法における動作は、汎用プロセッサ(例えば、図1A及び3に関連して上述されているようなプロセッサ)又はアプリケーション固有のチップなどの情報処理装置における1つ以上の機能モジュールを実行することによって、任意選択的に、実装する。
図18A〜図18Bを参照して上述されている動作は、図1A〜図1B又は図19で図示されている構成要素によって、任意選択的に、実施される。例えば、検出動作1804、選択動作1806、受付動作1822、実行動作1824は、イベントソータ170、イベント認識部180、イベントハンドラ190によって、任意選択的に、実施される。イベントソータ170のイベントモニタ171は、タッチ感知ディスプレイ112上の接触を検出し、イベントディスパッチャモジュール174は、イベント情報をアプリケーション136−1に配布する。アプリケーション136−1のそれぞれのイベント認識部180は、イベント情報をそれぞれのイベント定義186と比較し、タッチ感知面上の第1の位置の第1の接触がユーザインタフェース上のオブジェクトの選択などの、既定のイベント又はサブイベントに対応するかどうかを判定する。それぞれの既定のイベント又はサブイベントが検出されると、イベント認識部180は、イベント又はサブイベントの検出に関連付けられたイベントハンドラ190をアクティブ化する。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデーター176又はオブジェクトアップデーター177を、任意選択的に、利用又は呼び出す。いくつかの実施形態において、イベントハンドラ190は、アプリケーションにより表示されるものを更新するためのそれぞれのGUIアップデーター178にアクセスする。同様に、当業者にとって、他の処理が図1A〜図1Bに示されるコンポーネントに基づいてどのように実施されるかは明らかであるだろう。
指紋に基づくロギングプリファレンスの変更
多くの電子機器は、様々な方法でユーザアクティビティをログする。例えば、一部の機器は、インターネットブラウジング履歴及び/又は電話履歴などのアクティビティをログする。別の実施例として、一部の機器は、デフォルトの辞書における単語に対応しないにもかかわらずユーザが頻繁に使用する単語をログする(例えば、単語「ウラジオストック」は、標準的な機器の辞書には現れないかもしれないが、ロシアのウラジオストック出身のユーザが「ウラジオストック」という文字をテキストメッセージに特定の回数タイプすれば自動的に追加される)。更に別の実施例として、一部の機器は、機器が失われたか又は盗まれたと判定された時に(例えば、復元アプリケーションを通じたユーザの要求で)アクティビティ(例えば、全地球測位システム、即ち「GPS」のアクティビティ)のログを開始する。しかし、多くに機器(例えば、携帯型多機能機器)は、ロギングプリファレンスを変更する便利な方法を提供していない。例えば、ユーザが自分の機器を別のユーザに貸す時、他のユーザがその機器を使用する前に対処(例えば、設定メニューの設定を変更する)しなければ、機器は、不要なブラウザ履歴、電話履歴、及びオートコレクト入力をログし続ける。別の実施例として、このような機器は、ユーザが、(例えば、「私の電話を見つけて」というテキストを含めることによって、ロギング動作をアクティブ化する機器に対して適切なショートメッセージサービス、即ち「SMS」メッセージを送信することによって)ログ機能をリモートでアクティブ化しなければ、復元データ(例えば、GPSデータ)のログを取り止めることが多い。
以下で説明されている実施形態において、ロギングプリファレンスを変更するための改善された方法は、指紋を検出し、指紋が既知のユーザプロファイルに対応しているか判定することによって実現される。この時、ユーザのプロファイルはアクティブなプロファイルとして設定され、(例えば、ロギング動作を含む)動作のセットが、アクティブなプロファイルに従って実行される。指紋が既知のユーザに対応しない時は、アクティブなプロファイルがデフォルトプロファイル(例えば、ゲストプロファイル)に設定され、異なる動作のセットが実行される。この方法は、ロギングプリファレンスを変更するプロセスを効率化する。
いくつかの実施形態において、機器は、別個のディスプレイ(例えば、ディスプレイ450)と別個のタッチ感知面(例えば、タッチ感知面451)とを有する電子機器である。いくつかの実施形態において、機器は、携帯型多機能機器100であり、ディスプレイは、タッチスクリーン112であり、タッチ感知面は、ディスプレイ上に触覚出力生成器167を含む(図1A)。図20A〜図20F及び図21A〜図21Bを参照して以下で説明されている機器は、1つ以上の指紋センサ169を含む。いくつかの実施形態において、1つ以上の指紋センサは、タッチ感知面(例えば、別個のタッチ感知面451又はタッチ感知ディスプレイシステム112)に組込まれた1つ以上の統合指紋センサ359−1(図4B)を含む。いくつかの実施形態において、1つ以上の指紋センサは、タッチ感知面(例えば、別個のタッチ感知面451又はタッチ感知ディスプレイシステム112)から分離した別個の指紋センサ359−2(図4B)を含む。特に記載のない限り、下記の指紋センサ169は、指紋センサ169を含む機器のハードウェア及びソフトウェアの構成によって、任意選択的に、統合指紋センサ359−1か、又は別個の指紋センサ359−2である。説明の便宜上、図20A〜図20F及び図21A〜図21Bを参照して説明されている実施形態は、図20A〜図20Fで示されるユーザインタフェースをタッチスクリーン112上に表示している間、図20A〜図20Fで説明されている入力をタッチスクリーン112及び/又は指紋センサ169(例えば、統合指紋センサ359−1又は別個の指紋センサ359−2)上で検出すると実行される機器動作に関連して考察されている。しかし、図20A〜図20Fで示されるユーザインタフェースをディスプレイ450上で表示している間に、図20A〜図20Fで説明されている入力を統合指紋センサ359−1上で検出すると、ディスプレイ450と、別個のタッチ感知面451と、統合指紋センサ359−1を有する別個の指紋センサ359−2とを有する機器上で類似の動作が、任意選択的に、実行される。いくつかの実施形態において、フォーカスセレクタは、任意選択的に、それぞれの接触、接触に対応する代表的なポイント(例えば、それぞれの接触の重心、又はそれぞれの接触に関連付けられたポイント)、又はカーソルに代わって、タッチスクリーン112上で検出される1つ以上の接触の重心である。いくつかの実施形態において、フォーカスセレクタの視覚表現が表示される(例えば、フォーカスセレクタが指し示すユーザインタフェースは、他のユーザインタフェースオブジェクトと視覚により区別される)。
図20A〜図20Dは、機器が、スキャンされた指紋がユーザのプロファイルに関連付けられていると判定するいくつかの実施形態における実施例を示す。
図20Aは、指紋に基づいてロギングプリファレンスを変更する機器上に実装される例示的なユーザインタフェースを示す。図20Aにおいて、機器は、ロックされている。これは、機器がユーザによってロック解除されるまで、機器の少なくとも一部の機能(例えば、電話機能、アプリケーション、写真等)が利用できないことを意味する。この実施例において、機器は、統合指紋センサ169を含むホームボタン204を特徴とする。
図20Bは、指紋2006が指紋センサ169上で検出される。この実施例において、機器によって認識される指紋の検出機器をロック解除する。いくつかの実施形態において、以下で説明されているように、認識されない指紋が検出されると、機器は、デフォルトのプロファイル又はゲストプロファイルに対してロック解除する。この実施例において、機器が指紋をスキャンし、機器をロック解除していることを指示する視覚的な合図2004が提供される。しかし、いくつかの実施形態において、機器は別途(例えば、スワイプ・ツー・アンロックなどのジェスチャを通じて、パスワードの入力によって、これらのいくつかの組み合わせ、又は異なるロック解除機能を通じて)ロック解除される必要がある。いくつかの実施形態において、機器は、それぞれ一意のユーザプロファイルを有する数名のユーザによってロック解除され得る。指紋が、一意のユーザプロファイルに関連付けられた、それぞれの一意のユーザに属すると認識されたために、機器がロック解除されている時、ユーザのプロファイルは、以下で説明されているように、アクティブなプロファイルとして設定される。
図20Cで例示されている実施例で示されるように、機器は、指紋がユーザJohnに関連付けられていると判定し、Johnのプロファイルをアクティブなプロファイルとして設定する。いくつかの実施形態において、ユーザプロファイルは、ユーザの好み、設定、ブラウザ履歴、電話履歴などに関する情報を(例えば、1つ以上のデータベースに)記憶する。いくつかの実施形態において、機器が、スキャンされた指紋2006はJohnのものであると判定すると、機器は、Johnの好み、設定、履歴などをメモリのデータベースから取り込み、それに従って機器の動作を変更する。例として、図20Cは、電話をかけるための電話プリケーションの選択に対応する入力(例えば、接触2008)を示す。機器は、図20Dに示されるように、電話アプリケーションをロードすることによって応答する。Johnのプロファイルは、アクティブなプロファイルであるため、コールバックの便利性と、通話頻度の多い電話番号を容易にダイアルできるように、最近の通話リスト(例えば、通話を表示するユーザインタフェースオブジェクト2009)が表示される。
いくつかの実施形態において、機器は、複数のユーザプロファイルを記憶する。例えば、機器が指紋をスキャンし、指紋が、機器上にユーザプロファイルを持つユーザJaneに関連付けられていると判定すると、機器は、Janeのプロファイルをロードする。例として、電話アプリケーションが選択されると、Janeは、Johnの通話に代わって、Janeの最近の通話を利用できる。
いくつかの実施形態において、図20A〜図20B及び図20E〜図20Fに示されるように、指紋がスキャンされ、指紋が、ユーザプロファイルを有するユーザに対応しないと判定すると、機器はその動作を変更する。図20A〜図20Bは、既に、前の実施例を参照して説明されているが、この実施例では、指紋2006がユーザのプロファイルに関連付けられていないという点で異なる。したがって、図20Eに示されるように、機器は、ユーザを、デフォルトプロファイルのユーザがアクティブなプロファイルとして設定されたことを指示する「ゲストユーザ」として歓迎する。図20E〜図20Fは、いくつかの実施形態において、機器が、アクティブなプロファイルとして設定されたデフォルトプロファイル又はゲストプロファイルに従ってその機能を変更するプロセスの実施例を示す。図20Eは、電話アプリケーションの選択に対応する入力(例えば、接触2010)の検出を示す。アクティブなユーザの最近の通話が示された図20Dとは対照的に、図20Fの機器は、最近の通話が表示されていない電話のキーパッドインタフェースを表示する。従って、権限を付与されていないユーザは、ユーザの頻度の高い連絡先を閲覧すること、又は通話することが禁じられている。本開示が、識別されたユーザのプロファイルとデフォルトのユーザのプロファイルとの間の機能の広範な差異をサポートすることを意図していることが理解されよう。機器機能のいくつかのこのような任意の差異は、図21A〜図21Bを参照して説明されている方法2100を参照して説明されている。
図21A〜図21Bは、いくつかの実施形態に係る、ロギングプリファレンスを変更する方法2100を示すフローチャートである。方法2100は、指紋センサと、それぞれの入力要素を含む1つ以上の入力要素を有する電子機器(例えば、図3の機器300、図1Aの携帯型多機能機器100)で実行される。いくつかの実施形態において、機器は、ディスプレイ及びタッチ感知面を備える。いくつかの実施形態において、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面がディスプレイ上にある。いくつかの実施形態において、ディスプレイはタッチ感知面から分離している。いくつかの実施形態において、タッチ感知面は、それぞれの入力要素及び/又は指紋センサである。方法2100における一部の動作は、任意選択的に、組み合わされ、及び/又は一部の動作の順序は、任意選択的に、変更される。
以下で説明されているように、方法2100は、ロギングプリファレンスを変更する直観的な方法を提供する。この方法は、ロギングプリファレンスを変更する時のユーザの認識的負担を軽減し、それによって、より効率的なヒューマンマシンインタフェースを作成する。バッテリ動作電子機器では、ロギングプリファレンスをユーザがより高速かつ効率的に変更できるようにすることにより、電力を節約し、バッテリの充電間の時間を延ばす。
それぞれの入力要素(例えば、タッチ感知面、ボタン、又はキーボード)と指紋センサとを有する機器は、指紋センサ上の第1の指紋を検出する(2102)。
機器は、第1の指紋が、機器に関連付けられたユーザプロファイルと関連付けられているか判定する(2104)。いくつかの実施形態において、ユーザプロファイルは、デフォルトのプロファイルではない、機器に関連付けられた1つ以上のユーザ固有プロファイルのセット、一般的なプロファイル、又はその他のデフォルトでないプロファイルに由来するプロファイルである。いくつかの実施形態において、第1の指紋を指紋センサ上で検出した後で、第1の指紋が機器に関連付けられたユーザプロファイルに関連付けられているか判定する前に、機器は、第1の指紋の指紋の特徴を判定し、第1の指紋の指紋の特徴と一致するか、又は関連付けられている登録済みの指紋を識別する。第1の指紋が、デフォルトでないプロファイルに関連付けられたそれぞれの登録済みの指紋と対応する場合、機器は、指紋がそれぞれのデフォルトでないプロファイルに関連付けられていると判定する。対照的に、第1の指紋が、デフォルトでないプロファイルに関連付けられた登録済みの指紋に対応しない場合、機器は、指紋がデフォルトでないプロファイルのうちのいずれにも関連付けられていないと判定する。これらの指紋分析/比較動作は、機器の中央演算処理装置で、任意選択的に、実行され、他の実装においては、指紋分析/総合動作は、指紋センサに関連付けられた保護された処理機器で実行される。これらの指紋分析/比較動作は、(例えば、図20A〜図20Cを参照して説明されているように、機器をロック解除している時に)特定の時間に、任意選択的に、実行される。いくつかの実施形態において、指紋分析及び比較は、指紋が検出され、指紋上のプロファイルと比較されるたびに(例えば、機器が、ほぼ常にユーザの判定を試みている時)実行される。
第1の指紋が機器に関連付けられたユーザプロファイルに関連付けられているか判定した後で、第1の指紋が機器に関連付けられたそれぞれのユーザプロファイルに関連付けられていると判定されると、機器は、それぞれのユーザプロファイルをアクティブなプロファイルとして設定する(2106)。いくつかの実施形態において、1つのユーザプロファイルだけが1回のアクティブなプロファイルであり得る。いくつかの実施形態において、複数のユーザプロファイルが、同時に、アクティブなプロファイルであり得る。例えば、ユーザ固有プロファイル及び1つ以上の一般的なプロファイルが、同時に、有効なプロファイルとして、任意選択的に、選択され、機器は、複数のアクティブなプロファイルに関連付けられた設定及び他の特性を用いて、機器が受け付けた入力を解釈する。上記で考察されているように、図20C〜図20Dは、機器が単一のユーザプロファイル(例えば、Johnのユーザプロファイル)に設定されている実施例を示す。
また、第1の指紋が機器に関連付けられたユーザプロファイルに関連付けられているか判定した後で、第1の指紋が機器に関連付けられた任意のユーザプロファイルに関連付けられていないとの判定に従って、機器は、デフォルトプロファイルをアクティブなプロファイルとして設定する。いくつかの実施形態において、デフォルトプロファイルがアクティブなプロファイルである場合、デフォルトプロファイルは唯一のアクティブなプロファイルである(例えば、任意の他のプロファイルがデフォルトプロファイルを無効にする)。上記で考察されているように、図20E〜図20Fは、機器がデフォルトプロファイル又はゲストプロファイルに設定されている実施例を示す。
機器は、それぞれの入力要素で、要求された動作を実行する要求に対応する入力を受け付ける(2108)。いくつかの実施形態において、それぞれのユーザプロファイル又はデフォルトプロファイルがアクティブなプロファイルである間に(例えば、それぞれのユーザプロファイル又はデフォルトプロファイルがアクティブなプロファイルとして選択された後)、入力が受け付けられる。いくつかの実施形態において、機器は、入力を受け付けると、それぞれのユーザプロファイル又はデフォルトプロファイルをアクティブなプロファイルとして選択すべきか判定する。
それぞれの入力要素で入力を受け付けると、それぞれのユーザプロファイルがアクティブなプロファイルであるとの判定に従って、機器は、それぞれのユーザプロファイルのロギングプリファレンスに従って要求された動作に関連付けられた1つ以上の動作の第1のセットを実行する(2110)。それぞれの入力要素で入力を受け付けると、デフォルトプロファイルがアクティブなプロファイルであるとの判定に従って、機器は、デフォルトプロファイルのロギングプリファレンスに従って要求された動作に関連付けられた動作の第2のセットを実行する。いくつかの実施形態において、プロファイルのロギングプリファレンスは、機器によってログが取られるか、又は記録される機器上で実行される動作を指示する命令に対応する。例えば、第1のユーザのロギングプリファレンスは、ブラウザ履歴が追跡され、アプリケーション状態情報(例えば、開かれたウェブブラウザタブ)を保存することを指示し、デフォルトのロギングプリファレンスは、ブラウザ履歴が追跡されず、アプリケーション状態情報が保存されない(例えば、ウェブブラウザがアクティブなアプリケーションであることを中止する時に、開かれたウェブブラウザタブが閉じられる)ことを指示する。
いくつかの実施形態において、動作の第1のセットを実行することは、機器上で実行される第1のタイプの動作のロギング動作を実行することを含み(2112)、動作の第2のセットを実行することは、それぞれのユーザプロファイルに従ってログされた、機器上で実行される第1のタイプの動作のロギング動作を取り止めることを含む。したがって、いくつかの実施形態において、機器は、一時的な/権限を付与されていないユーザの特定の行動を(例えば、機器の一時的な/権限を付与されていないユーザの行動による、ブラウザ履歴又はユーザの最近の通話ログを混乱させることを避けるために)ログしない。
いくつかの実施形態において、第1のタイプの動作は、(例えば、主なユーザによる)機器の使用履歴パターンに基づいて機器の動作をカスタマイズするために機器が使用する動作を含む(2114)。例えば、機器が、一時的な/権限を付与されていないユーザが機器を使用しているとの判定に従って、権限を付与されたユーザが機器の使用を再開するまで、次の情報のうちの1つ以上のカスタマイズを停止する。自動修正の示唆、検索履歴、検索示唆、ブラウザ履歴、ユーザ名/パスワードログイン情報、最近使用したアプリケーション、最近通話した電話番号、電子メールの既読/未読マーカ、及び/又は既読/未読の機器についての通知。いくつかの実施形態において、権限を付与されたユーザが機器の使用を再化した後、機器は、第1のタイプの動作のログを再開する。したがって、いくつかの実施形態において、単一の主要な権限を付与されたユーザが使用する機器の場合、ユーザが、権限付与されたユーザの友達又は家族などの一時的な/権限を付与されていないユーザに機器を渡した場合、権限付与されたユーザの使用パターンに基づいて判定される機器の「学習された」カスタマイズは妨害されない。逆に、機器が、一時的な/権限を付与されていないユーザによって要求された動作を実行する時、機器は、使用履歴パターンに従って、機器の動作をカスタマイズする目的の入力を無視する。
いくつかの実施形態において、動作の第2のセットを実行することは、機器上で実行される第2のタイプの動作のロギング動作を含み(2116)、動作の第2のセットを実行することは、デフォルトのユーザプロファイルのロギングプリファレンスに従ってログされるであろう、機器上で実行される第2のタイプの動作のロギング動作を取り止めることを含む。したがって、いくつかの実施形態において、権限を付与されていないユーザが機器を使用している時、権限を付与されていないユーザの行動は機器によって厳しく監視される。しかし、権限を付与されたユーザが、機器を使用している時(例えば、指紋センサ上で検出された権限を付与されたユーザの指紋によって判定された時)、権限を付与されたユーザの行動を不必要に邪魔しないように、このデータは記憶されない。
いくつかの実施形態において、第2のタイプの動作は、失われた、又は盗まれた機器に関連付けられたフォレンジック動作を実行する際に支援する動作(例えば、ロケーション情報、ネットワーク活動、ブラウズ履歴、アプリケーションの使用、銀行口座情報、電子メール、ボイスメールなどの個人情報へのアクセスなどのログ)を含む(2118)。したがって、いくつかの実施形態において、機器が、権限を付与されていないユーザが機器を使用していると判定すると、権限を付与されたユーザが、財務明細、個人の電子メールなどの機密情報を暴露する可能性がある、権限を付与されていないユーザの行動を後刻知ることができるように、機器は、権限を付与されていないユーザによって実行される動作の追跡を、任意選択的に、開始する。
いくつかの実施形態において、第2のタイプの動作は、機器を探し出す際に支援する動作(例えば、GPS、WiFi、又は他のソースから識別されるロケーション情報のログ)を含む(2120)。したがって、いくつかの実施形態において、機器が、権限を付与されていないユーザが機器を使用しているとの判定に従って、機器は、機器の復元を支援するために機器の追跡を、任意選択的に、開始する。
いくつかの実施形態において、機器は、第2のタイプの動作のロギング動作の描像を含むログ記録を(例えば、定期的に)リモートサーバに送信する。いくつかの実施形態において、ログ記録は機器の所有者によって(のみ)アクセス可能であり、機器の復旧を支援するために機器の位置の特定に役立てるために機器の所有者が使用できる。加えて、いくつかの実施形態において、ログ記録は、通話履歴、ウェブブラウザ履歴、位置データ及び/又は指紋センサ上で検出された指紋の記録などの、機器の権限を付与されていないユーザのアイデンティティを判定する際に役立つ情報を提供する。
図21A〜図21Bにおける動作について記載された特定の順序は単なる例示であり、記載された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書で説明される動作の再順序付けをするさまざまな方法を認識するであろう。加えて、本明細書に記載の他の方法に関して本明細書で記載されている他のプロセスの詳細(例えば、段落番号[00123]で一覧化されているプロセス)は、また、図21A〜図21Bに関連して上述されている方法2100に類似の方法で適用可能であることを留意されたい。例えば、方法2100に関連して上述されている指紋、接触、ジェスチャ、及びユーザインタフェースオブジェクトは、本明細書で説明されている他の方法に関連して本明細書で説明されている指紋、接触、ジェスチャ、及びユーザインタフェースオブジェクト(例えば、段落番号[00123]に記載されているもの)の特性のうちの1つ以上を、任意選択的に、有する。簡潔にするため、これらの詳細はここでは繰り返さない。
図22は、様々な記載された実施形態の原理に従って構成されたいくつかの実施形態に係る、電子機器2200の機能ブロック図を示す。この機器の機能ブロックは、様々な記載された実施形態の原理を実行するようにハードウェア、ソフトウェア、又はハードウェアとソフトウェアの組み合わせによって、任意選択的に、実装される。図22で説明されている機能ブロックが、様々な説明されている実施形態の原理を実装するように、任意選択的に、組み合わされ、又はサブブロックに分離されることが当業者には理解されよう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に、支持する。
図22に示されるように、電子機器2200は、指紋センサユニット2202、入力ユニット2204、並びに指紋センサユニット2202及び入力ユニット2204に連結された処理ユニット2208を含む。電子機器2200は、1つ以上のユーザインタフェース、及び/又は1つ以上のユーザインタフェースオブジェクトの表示を有効化するように構成されたディスプレイユニット2206を、任意選択的に、含む。いくつかの実施形態において、処理ユニット2208は、検出ユニット2210と、指紋判定ユニット2212と、1つ以上のそれぞれの動作実行ユニット2214とを備える。いくつかの実施形態において、それぞれの動作実行ユニット2214のうちの1つ以上は、1つ以上のロギング動作ユニット2216(例えば、GPSログユニット、ブラウザ履歴ログユニットなど)を備える。
処理ユニット2208は、指紋センサユニット2212上で第1の指紋を検出し、第1の指紋が機器に関連付けられたユーザプロファイルと関連付けられているか判定するように構成されている。第1の指紋が機器に関連付けられたユーザプロファイルに関連付けられているか判定した後で、第1の指紋が機器に関連付けられたそれぞれのユーザプロファイルに関連付けられているとの判定に従って、処理ユニット2208は、それぞれのユーザプロファイルをアクティブなプロファイルとして設定するように構成され、第1の指紋が、機器に関連付けられた任意のユーザプロファイルに関連付けられていないとの判定に従って、処理ユニット2208は、デフォルトプロファイルをアクティブなプロファイルとして設定するように構成されている。それぞれの入力ユニット2204で入力を受け付けると、それぞれのユーザプロファイルが、アクティブなプロファイルであるとの判定に従って、処理ユニット2208は、それぞれのユーザプロファイルのロギングプリファレンスに従って要求された動作に関連付けられた1つ以上の動作の第1のセットを実行するように構成され、デフォルトプロファイルがアクティブなプロファイルであるとの判定に従って、処理ユニット2208は、デフォルトプロファイルのロギングプリファレンスに従って要求された動作に関連付けられた動作の第2のセットを実行するように構成されている。
いくつかの実施形態において、動作の第1のセットを実行することは、機器上で実行される第1のタイプの動作のロギング動作(例えば、ロギング動作ユニット2216を使用して実行)を含み、動作の第2のセットを実行することは、それぞれのユーザプロファイルのロギングプリファレンスに従ってログされるであろう、機器上で実行される第1のタイプの動作のロギング動作を取り止めることを含む。
いくつかの実施形態において、第1のタイプの動作は、機器の使用履歴パターンに基づく機器の動作をカスタマイズするために機器が使用する動作を含む。
いくつかの実施形態において、動作の第2のセットを実行することは、機器上で実行される第2のタイプの動作のロギング動作を含み(例えば、同じロギング動作ユニット2216で、又は、あるいは、動作の第1のセットのロギング動作に使用されるロギング動作ユニット2216以外の、異なるロギング動作ユニット2216で実行される動作)、動作の第1のセットを実行することは、デフォルトのユーザプロファイルのロギングプリファレンスに従ってログされた機器上で実行される第2のタイプの動作のロギング動作を取り止めることを含む。
いくつかの実施形態において、第2のタイプの動作は、失われた、又は盗まれた機器に関連付けられたフォレンジック動作を実行する際に(例えば、GPSログユニットを使用して)支援する動作を含む。
いくつかの実施形態において、第2のタイプの動作は、機器を探し出す際に(例えば、GPSログユニットを使用して)支援する動作を含む。
いくつかの実施形態において、処理ユニット2208は、更に、第2のタイプの動作のロギング動作の描像を含むログ記録をリモートサーバに送信するように構成されている。
上述の情報処理方法における動作は、汎用プロセッサ(例えば、図1A及び3に関連して上述されているようなプロセッサ)又はアプリケーション固有のチップなどの情報処理装置における1つ以上の機能モジュールを実行することによって、任意選択的に、実施する。
図21A〜図21Bを参照して上述されている動作は、図1A〜図1B又は図22で図示されている構成要素によって、任意選択的に、実施される。例えば、検出動作2102、編集判定動作2104、及び設定動作2106は、イベントソータ170、イベント認識部180、及びイベントハンドラ190によって、任意選択的に、実施される。イベントソータ170のイベントモニタ171は、タッチ感知ディスプレイ112上の接触を検出し、イベントディスパッチャモジュール174は、イベント情報をアプリケーション136−1に配布する。アプリケーション136−1のそれぞれのイベント認識部180は、イベント情報をそれぞれのイベント定義186と比較し、タッチ感知面上の第1の位置の第1の接触がユーザインタフェース上のオブジェクトの選択などの、既定のイベント又はサブイベントに対応するかどうかを判定する。それぞれの既定のイベント又はサブイベントが検出されると、イベント認識部180は、イベント又はサブイベントの検出に関連付けられたイベントハンドラ190をアクティブ化させる。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデーター176又はオブジェクトアップデーター177を、任意選択的に、利用又は呼び出す。いくつかの実施形態において、イベントハンドラ190は、アプリケーションにより表示されるものを更新するためのそれぞれのGUIアップデーター178にアクセスする。同様に、当業者にとって、他の処理が図1A〜図1Bに示されるコンポーネントに基づいてどのように実施されるかは明らかであるだろう。
指紋照合情報に基づくそれぞれの制限された動作の実行
多くの電子機器は、ユーザが、有効な許可クレデンシャル(例えば、パスワード又はスワイプパターン)を入力すると、制限された動作を実行することが可能になる。しかし、このような機器は、入力された許可クレデンシャルを有効にするために、記憶済みの許可クレデンシャルを入力された許可クレデンシャルと比較する制限された動作に依存する。以下で説明されている機器は、システムレベルの指紋照合基準に従ってそれぞれの指紋について指紋照合情報(例えば、「不一致」、「弱一致」又は「強一致」)を生成することによって終了する既存の方法を改善する一方、機器は、予め計算された指紋照合情報を利用して、制限された動作を実行するか判定する。
機器は、指紋の照合を制御するための(例えば、それぞれの信頼性レベルで指紋に割り当てられる必要がある特徴点の数を指示する)指紋照合基準を取得する。次に、機器は、少なくとも部分的に、それぞれの入力の特定された指紋の特徴と1つ以上の登録済み指紋の指紋の特徴との間の比較と、指紋照合基準とに基づいて、それぞれの制限された動作に対応するそれぞれの入力の指紋照合情報を判定する。機器は、指紋照合情報が、それぞれの制限された動作についての動作固有の(又は、アプリケーション固有の)権限付与基準を満たしているとの判定に従ってのみ、それぞれの制限された動作を実行する。
いくつかの実施形態において、機器は、別個のディスプレイ(例えば、ディスプレイ450)と、別個のタッチ感知面(例えば、タッチ感知面451)とを有する電子機器である。いくつかの実施形態において、機器は、携帯型多機能機器100であり、ディスプレイは、タッチスクリーン112であり、タッチ感知面は、ディスプレイ上に触覚出力生成器167を備える(図1A)。図23A〜図23G及び図24A〜図24Dを参照して以下で説明されている機器は、1つ以上の指紋センサ169を含む。いくつかの実施形態において、1つ以上の指紋センサは、タッチ感知面(例えば、別個のタッチ感知面451又はタッチ感知ディスプレイシステム112)に組込まれた1つ以上の統合指紋センサ359−1(図4B)を備える。いくつかの実施形態において、1つ以上の指紋センサは、タッチ感知面(例えば、別個のタッチ感知面451又はタッチ感知ディスプレイシステム112)から分離している別個の指紋センサ359−2(図4B)を備える。特に記載のない限り、下記の指紋センサ169は、任意選択的に、指紋センサ169を含む機器のハードウェア及びソフトウェアの構成によって、統合指紋センサ359−1か、又は別個の指紋センサ359−2である。説明の便宜上、図23A〜図23G及び24A〜図24Dを参照して説明されている実施形態は、タッチスクリーン112及び指紋センサ169(例えば、統合指紋センサ359−1、又は別個の指紋センサ359−2)を参照して考察されており、このような実施形態において、フォーカスセレクタは、カーソルに代わって、任意選択的に、それぞれの接触、接触に対応するそれぞれのポイント(例えば、それぞれの接触又はそれぞれの接触に関連付けられたポイントの重心)、又は、タッチスクリーン112上で検出される2つ以上の接触の重心である。しかし、図23A〜図23Gで示されるユーザインタフェースをディスプレイ450上で表示している間に、図23A〜図23Gで説明されている入力を統合指紋センサ359−1又は別個の指紋センサ359−2上で検出すると、ディスプレイ450と、別個のタッチ感知面451と、統合指紋センサ359−1又は別個の指紋センサ359−2とを有する機器上で類似の動作が、任意選択的に、実行される。
図23Aは、ゲームアプリケーション2310とバンクアプリケーション2312とを含む、複数のアプリケーションを有するユーザインタフェース400をタッチスクリーン112上で表示する携帯型多機能機器100を示す。図23Aは、更に、ホームボタン204に組込まれた指紋センサ169(例えば、別個の指紋センサ359−2)を有するホームボタン204を示す。代わりに、又は追加として、いくつかの実施形態において、指紋センサは、タッチスクリーン112(例えば、統合指紋センサ359−1)の少なくとも一部分に組込まれている。
図23Bは、タッチスクリーン112上のユーザインタフェース400のバンクアプリケーション2312の上のユーザ入力2302を検出する携帯型多機能機器100を示す。ユーザ入力2302は、例えば、ユーザの右手人差し指である。バンクアプリケーション2312へのアクセスは、例えば、制限された動作である。
いくつかの実施形態において、携帯型多機能機器100は、ユーザ入力2302が、タッチスクリーン112の少なくとも一部分に組込まれている指紋センサ(例えば、統合指紋センサ359−1)を介してタッチスクリーン112上のバンクアプリケーション2312の上にある間、ユーザ入力2302の指紋の特徴を識別する。携帯型多機能機器100は、例えば、指紋末尾、指紋隆線分岐点、及び短い指紋隆線を含むユーザ入力2302の特徴点を識別する。更に、携帯型多機能機器100は、少なくとも部分的にユーザ入力2302の指紋の特徴と1つ以上の登録済み指紋の指紋の特徴との比較と、指紋照合基準とに基づいて、それぞれのユーザ入力2302の指紋照合情報を判定する。
いくつかの実施形態において、指紋照合基準は、1つ以上の登録済みの指紋に対する特徴点の一致率に基づいて検出された指紋について複数の分類(又は、信頼値)を指定する。例えば、ユーザ入力2302は、指紋照合基準に従って3つの分類(又は、信頼値)のうちの1つに分類される。この実施例において、指紋照合情報は、ユーザ入力2302は、検出された指紋の特徴点の一致率が30%以下である場合は、「不一致」、検出された指紋の特徴点が30%より高く、70%未満である場合は、「弱一致」、検出された指紋の特徴点が70%より高い場合は、「強一致」であることを指示する。いくつかの実施形態において、ユーザは、例えば、3つの分類のそれぞれの1つに関する上記パーセント値のうちの1つ以上を変更することによって指紋照合基準を変更できる。
いくつかの実施形態において、携帯型多機能機器100は、ユーザ入力2302がタッチスクリーン112上にある間は、ユーザ入力2302の指紋の特徴を識別するように構成されていない。換言すれば、携帯型多機能機器100は、タッチスクリーン112に組込まれた指紋センサ(例えば、統合指紋センサ359−1)を有さない。タッチスクリーン112上のバンクアプリケーション2312(例えば、制限された動作)の上でユーザ入力2302を検出すると、携帯型多機能機器100は、ホームボタン204に組込まれた専用の指紋センサ169(例えば、別個の指紋センサ359−2)の上に指紋をつけるようにユーザに催促する。
図23Cは、図23Bのタッチスクリーン112上のバンクアプリケーション2312(例えば、制限された動作)の上で入力2302を検出すると、ホームボタン204に組込まれた専用の指紋センサ169の上に指紋をつけるようにユーザに催促する携帯型多機能機器100を示す。図23Cは、バンクアプリケーション2312にアクセスするためには指紋の識別が要求されることを指示する、タッチスクリーン112上のユーザインタフェース400に表示されるテキストボックス2304を示す。
図23Dは、図23Cの催促に応えて、ホームボタン204に組込まれた指紋センサ169上でユーザ入力2306を検出する携帯型多機能機器100を示す。ユーザ入力2306は、例えば、ユーザの右手人差し指である。指紋センサ169は、ユーザ入力2306の指紋の特徴を識別し、少なくとも部分的にそれぞれの入力2306の指紋の特徴と1つ以上の登録済み指紋の指紋の特徴との比較と、指紋照合基準とに基づいて、それぞれの入力の指紋照合情報を判定する。
図23Eは、図23Bのユーザ入力2302又は図23Dのユーザ入力2306を検出し、それぞれの指紋照合情報が、それぞれの制限された動作に対するそれぞれの権限付与基準を満たさないとの判定に従って(例えば、バンクアプリケーション2312によって設定された動作固有の基準)、機器がそれぞれの制限された動作の実行を取り止める(例えば、バンクアプリケーション2312へのアクセスを拒否する)ことを指示するタッチスクリーン112のユーザインタフェース400上に表示されるテキストボックス2308を示す。例えば、バンクアプリケーション2312の権限付与基準は、バンクアプリケーション2312(例えば、保護されたアプリケーション)にアクセスするために「強一致」を要求し、図23Bのユーザ入力2302又は図23Dのユーザ入力2306に対応する指紋照合情報は、「弱一致」を指示する。対照的に、ゲームアプリケーション2310の権限付与基準はゲームアプリケーション2310(例えば、保護されていないアプリケーション)にアクセスするために「弱一致」しか要求しない。この例において、それぞれの指紋照合情報が、バンクアプリケーション2312の権限付与基準を満たさないため、バンクアプリケーション2312へのアクセスは拒否される。
図23Fは、図23Bのユーザ入力2302又は図23Dのユーザ入力2306を検出して、それぞれの指紋照合情報がそれぞれの制限された動作に対するそれぞれの権限付与基準を満たしているとの判定に従って、それぞれの制限された動作(例えば、バンクアプリケーション2312へのアクセスを許可し、表示する動作)の実行を示す。例えば、バンクアプリケーション2312の権限付与基準は、バンクアプリケーション2312にアクセスするために「強一致」を要求し、図23Bのユーザ入力2302又は図23Dのユーザ入力2306に対応する指紋照合情報は、「強一致」を指示する。この例において、それぞれの指紋照合情報がバンクアプリケーション2312の権限付与基準を満たしているので、バンクアプリケーション2312へのアクセスが許可され、バンクアプリケーション2312がタッチスクリーン112のユーザインタフェース400上に表示される。
図23Gは、いくつかの実施形態における、指紋照合情報に基づいてそれぞれの制限された動作を実行するプロセス2320の概略図を示す。いくつかの実施形態において、プロセス2320は、携帯型多機能機器100又は携帯型多機能機器100の構成要素で実行される。いくつかの実施形態において、プロセス2320の少なくとも一部は、携帯型多機能機器100の構成要素で実行される。例えば、指紋モジュール2322は、携帯型多機能機器100の構成要素であり、指紋モジュール2322は、1つ以上の指紋センサ2324(例えば、統合指紋センサ359−1及び/又は別個の指紋センサ359−2を含む)、指紋メモリ2326、並びにライン2323を介して1つ以上の指紋センサ2324と、ライン2325及び2327を介して指紋メモリ2326とに連結された指紋処理ロジック2328を備える。
1つ以上の指紋センサ2324は、それぞれの入力の指紋の特徴を識別するように構成されている。指紋メモリ2326は、1つ以上の登録済みの指紋の指紋の特徴を記憶するように構成されている。いくつかの実施形態において、指紋メモリ2326は、指紋照合基準も記憶するように、更に構成されている。指紋処理ロジック2328は、少なくとも部分的に、ライン2325を介して指紋メモリ2326から取得された指紋照合基準、並びにライン2323を介して1つ以上の指紋センサ2324から取得されたそれぞれの入力の指紋の特徴及びライン2327を介して指紋メモリ2326から取得された1つ以上の登録済みの指紋の指紋の特徴との比較に基づいて指紋照合情報を判定するように構成されている。指紋処理ロジック2328は、指紋照合情報をライン2337を介してそれぞれの制限された動作モジュール2337に提供するように、更に構成されている。いくつかの実施形態において、指紋モジュール2322は、指紋照合情報のセキュリティを高めるように追加のセキュリティ機能を有する保護された専用の計算ハードウェアからなる。
いくつかの実施形態において、指紋処理ロジック2328の一致指紋識別モジュール2332は、指紋照合基準に従って一致指紋を識別する。いくつかの実施形態において、指紋処理ロジック2328の最善の一致指紋識別モジュール2332が、指紋照合基準に基づいて最善の一致指紋を識別する。更に、いくつかの実施形態において、信頼値割当モジュール2336が一致信頼値を最善の一致指紋に割り当てる。
それぞれの制限された動作モジュール2338(例えば、バンクアプリケーション)は、ライン2337を介して指紋処理ロジック2328から指紋照合情報を取得し、判定モジュール2340を介して、指紋照合情報が、それぞれの制限された動作に対するそれぞれの権限付与基準を満たしているか判定する。実行モジュール2342は、指紋処理ロジック2328から取得された指紋照合情報が制限された動作に対するそれぞれの権限付与基準を満たしている場合、制限された動作を実行する(例えば、バンクアプリケーションへのアクセスを許可する)。取り止めモジュール2344は、指紋処理ロジック2328から取得された指紋照合情報が制限された動作に対するそれぞれの権限付与基準を満たしていない場合、制限された動作の実行を取り止める(例えば、バンクアプリケーションへのアクセスを拒否する)。
図24A〜図24Dは、いくつかの実施形態に係る、指紋照合情報に基づいてそれぞれの制限された動作を実行する方法2400を示すフローチャートである。方法2400は、ディスプレイ及びタッチ感知面を備えた電子機器(例えば、図3の機器300、又は図1Aの携帯型多機能機器100)で実行される。いくつかの実施形態において、ディスプレイはタッチスクリーンディスプレイであり、指紋センサがディスプレイ上にある。いくつかの実施形態において、ディスプレイは、指紋センサとは別個である。方法2400における一部の動作は、任意選択的に、組み合わされ、及び/又は一部の動作の順序は、任意選択的に、変更される。
以下で説明されているように、方法2400は、指紋照合情報に基づいてそれぞれの制限された動作を実行する直観的な方法を提供する。この方法は、指紋照合情報に基づいてそれぞれの制限された動作を実行する時のユーザの認知的負担を軽減し、それによってより効率的なヒューマンマシンインタフェースを生み出す。バッテリ動作電子機器の場合、ユーザが指紋照合情報に基づいてそれぞれの制限された動作をより高速で、より効率的に実行することを可能にし、それによって、電力を節約し、バッテリ充電間の時間を延ばす。
機器は、指紋の照合を制御する(例えば、判定又は生成する)ための指紋照合基準を取得する(2402)(例えば、メモリから取り込むか、又はリモートコンピュータシステムから受信する)か、又は(例えば、メモリに、又は指紋モジュール2322の1つ以上の命令に)アクセスする。例えば、指紋照合基準は、検出された指紋が登録済みの指紋であることを判定するために照合される必要がある指紋の特徴点の数を設定するか、及び/又は指紋照合基準は、検出された指紋と登録済みの指紋との間の一致の信頼性を指示する、異なる信頼レベルに割り当てられる指紋について照合される必要がある指紋の照合済み特徴点の数を設定する。図23Gは、例えば、指紋照合情報を判定するために指紋メモリ2326からライン2325を介して指紋照合基準を取得する指紋処理ロジック2328を示す。
いくつかの実施形態において、指紋照合基準は、デフォルトの基準のセットを含み、指紋照合基準を取得することは、ユーザから、指紋照合基準の修正を指示する基準調整入力を受け付けることと、基準調整入力を受け付けると、指紋照合基準において、1つ以上のデフォルトの基準を、対応する修正された基準と置換することを含む(2404)。例えば、ユーザ可調設定モードにある時、機器は、システムレベル照合基準を指定するユーザ入力を受け付ける。いくつかの実施形態において、指紋照合基準を変更することは、入力と一致指紋、及び/又は一致の信頼性を変更する。したがって、いくつかの実施形態において、デフォルトの指紋照合基準を使って第1の信頼性レベルで第1の指紋と一致した入力は、代わりに、修正された指紋照合基準を使って(第1の信頼性レベルとは異なる)第2の信頼性レベルで第1の指紋と一致する。
いくつかの実施形態において、それぞれの入力を登録済みの指紋と一致するとして識別し、又はそれぞれの入力が登録済みの指紋と一致するという特定の信頼性レベルに到達するために、それぞれの入力と登録済みの入力との間のより近い一致が要求されるように、指紋照合基準が調整される。例えば、ユーザは、対応する偽陰性一致の可能性を高めることと引き換えに、偽陽性一致の可能性を減少することによって機器のセキュリティを高める。いくつかの状況において、それぞれの入力と登録済みの指紋との間のより遠い一致が受け付けられるように、指紋照合基準が、それぞれの入力を登録済みの信号と一致するとして識別するように(例えば、指紋一致の信頼レベルを下げることによって)調整される。例えば、ユーザは、対応する偽陰性一致の可能性を減らすことと引き換えに、偽陽性一致の可能性を高めることによって機器のセキュリティを下げる。
それぞれの制限された動作に対応する(2406)複数のそれぞれの入力のうちのそれぞれについて、機器は、それぞれの入力の指紋の特徴を識別する(2408)。図23Dは、例えば、ユーザ入力2306の指紋の特徴を識別する携帯型多機能機器100のホームボタン204に組込まれた指紋センサ169を示す。
更に、それぞれの制限された動作に対応する(2406)複数のそれぞれの入力のうちのそれぞれについて、機器は、少なくとも部分的に、それぞれの入力の指紋の特徴と1つ以上の登録済みの指紋の指紋の特徴との比較(2412)と、指紋照合基準(2414)とに基づいて、それぞれの入力の指紋照合情報を判定する(2410)。1つ実施例として、携帯型多機能機器100は、指紋センサ(例えば、図23Dのホームボタン204に組込まれた指紋センサ169)上の指紋(例えば、図23Dの)ユーザ入力2306を検出し、指紋の特徴を識別し、指紋の特徴を登録済みの指紋の特徴と比較する。多くの状況において、検出された指紋(例えば、図23Dのユーザ入力2306)の特徴と登録済みの指紋の特徴との間の一致は完全な一致ではなく(例えば、検出された指紋は10の特徴点のうちの5に一致する)、したがって、検出された指紋が登録済みの指紋と一致するかどうかは不明瞭である。この不明瞭性を解決するため、機器は、指紋照合基準を検出された指紋の形状と登録済みの指紋の形状との比較に、任意選択的に、適用する。例えば、指紋照合基準は、3つ以下の特徴点(30%以下)と一致する検出された指紋は「不一致」として分類され、4〜6の特徴点(30%より大きく、70%未満)に一致する検出された指紋を「弱一致」として分類され、7以上の特徴点(70%以上)と一致する検出された指紋を「強一致」として分類されると規定する。
いくつかの実施形態において、機器は同じ指紋照合基準を使って(2416)、複数の異なる(例えば、連続した)それぞれの入力についての指紋を処理する。例えば、指紋照合基準は、システムレベルの基準、又は動作に依存しない基準であり、指紋照合情報が用いられる動作に関係なく指紋照合情報を生成するために、検出された指紋と登録済みの指紋との比較に適用される。
いくつかの実施形態において、機器は、それぞれの入力における特徴点を識別し、それぞれの入力において識別された特徴点を複数の候補指紋における特徴点と比較し、最も大きい数の一致特徴点を有するそれぞれの候補指紋を一致指紋として選択することによって、指紋照合情報を判定する(2418)。いくつかの実施形態において、指紋の特徴点は、指紋隆線末尾、指紋隆線分岐点、及び短い指紋隆線(ドットと称することもある)のうちの1つ以上を含む。指紋隆線末尾は、指紋隆線が終了するポイントである。指紋隆線分岐点は、単一の指紋隆線が2つの指紋隆線に分割するポイントである。短い指紋隆線は、指紋における指紋隆線の平均的な隆線の長さよりかなり短い隆線である。図23Gは、例えば、最も大きい数の一致特徴点を有するそれぞれの候補指紋を一致指紋として選択するように構成された一致指紋識別モジュール2332を示す。
いくつかの実施形態において、機器は、それぞれの入力における特徴点を識別し、それぞれの入力において識別された特徴点を複数の候補指紋における特徴点と比較し、最も大きい数の特徴点を有するそれぞれの候補指紋を最善の一致指紋として選択することによって、指紋照合情報を判定する(2420)。図23Gは、例えば、最も大きい数の一致特徴点を有するそれぞれの候補指紋を最善の一致指紋として選択するように構成された最善の一致指紋識別モジュール2334を示す。
いくつかの実施形態において、機器は、それぞれの入力における第1の数の特徴点が、最善の一致指紋における対応する特徴点と一致するとの判定に従って、第1の信頼値を最善の一致指紋に割り当てる(2422)。機器は、それぞれの入力における第2の数の特徴点が、最善の一致指紋における対応する特徴点と一致するとの判定に従って、第2の信頼値を最善の一致指紋に割り当てる(2424)。特徴点の第2の数は、特徴点の第1の数より大きく(2426)、第2の信頼値は、それぞれの入力と最善の一致指紋との間の一致が、第1の信頼値で指示される一致よりも近いことを指示する(2428)。図23Gは、例えば、それぞれの信頼値を最善の一致指紋に割り当てるように構成された信頼値割当モジュール2336を示す。いくつかの実施形態において、それぞれの入力における第2の数の特徴点が、最善の一致指紋における対応する特徴点と一致する時、第2の信頼値のみが最善の一致指紋に割り当てられる。
いくつかの実施形態において、指紋照合情報は、指紋照合基準に従って判定された一致指紋を識別する(2432)情報を含む(2430)。図23Gは、例えば、指紋照合情報に一致指紋を識別する情報を含むように構成された一致指紋識別モジュール2332を示す。
いくつかの実施形態において、指紋照合情報は、複数の登録済みの指紋のうちの指紋照合情報に従って識別される最善の一致指紋と、第1の入力と最善の一致指紋との間の一致の信頼性を示し、指紋照合基準に従って判定される指紋一致信頼値を識別する(2434)情報を含む(2430)。図23Gは、例えば、最善の一致指紋と一致信頼値を識別する情報を指紋照合情報に含めるように構成された最善の一致指紋識別モジュール2334を示す。
それぞれの入力を検出すると(2436)、指紋照合情報が、制限された動作のそれぞれの権限付与基準(例えば、動作固有の権限付与基準)を満たしていないとの判定に従って、機器は、それぞれの制限された動作の実行を取り止める(2438)。例えば、それぞれの権限付与基準は、それぞれの制限された動作を実行できる権限を付与された登録済みの指紋を指示し、それぞれの制限された動作が実行されるために満たされるべき最低の信頼性レベルを、任意選択的に、指示することもできる。図23Eは、図23Bのタッチスクリーン112上でユーザ入力2302、又は図23Dの指紋センサ169上でユーザ入力2306を検出すると、(例えば、図23Bのユーザ入力2302又は図23Dのユーザ入力2306を検出すると生成される)指紋照合情報が、バンクアプリケーション2312のそれぞれの権限付与基準を満たしていないとの判定に従って、バンクアプリケーション2312へのアクセスを拒否する携帯型多機能機器を示す。
それぞれの入力を検出すると(2436)、指紋照合情報が、それぞれの制限された動作のそれぞれの権限付与基準を満たしているとの判定に従って、機器は、それぞれの制限された動作を実行する(2440)。図23Fは、図23Bのタッチスクリーン112上でユーザ入力2302、又は図23Dの指紋センサ169上でユーザ入力2306を検出すると、(例えば、図23Bのユーザ入力2302、又は図23Dのユーザ入力2306を検出すると生成される)指紋照合情報が、バンクアプリケーション2312のそれぞれの権限付与基準を満たしているとの判定に従って、バンクアプリケーション2312(例えば、それぞれの制限された動作)へのアクセスを許可し及び表示する携帯型多機能機器100を示す。
例えば、検出された指紋が、指紋照合基準にしたがって分類された後、この指紋照合情報(例えば、「不一致」、「弱一致」、「強一致」)が個々のアプリケーションに渡され、アプリケーション固有の、又は動作固有の権限付与基準に従って処理される。例えば、いくつかの状況において、ゲームアプリケーション2310などの保護されていないアプリケーション(例えば、ユーザ識別についてたけ指紋照合情報に依存するアプリケーション)は、弱一致しか要求しない権限付与基準を用いるので、検出された指紋が、第1の指紋に対して(例えば、指紋照合基準に従って)「弱一致」か「強一致」のいずれかに分類される場合、ゲームアプリケーション2310は、検出された指紋を第1の指紋として受け入れる。対照的に、いくつかの状況において、バンクアプリケーション2312などの保護されたアプリケーション(例えば、機密情報へのアクセスを許可するか判定するために指紋照合情報に依存するアプリケーション)は、強一致を要求する権限付与基準を用いるので、バンクアプリケーション2312は、検出された指紋が(例えば、指紋照合基準に従って)第1の指紋に対して「強一致」として分類される場合にのみ、検出された指紋を第1の指紋として受け入れる。
上述の実施例において、ゲームアプリケーション2310及びバンクアプリケーション2312のいずれもが、検出された指紋と登録済みの指紋との直接的な比較ではなく指紋照合基準に従って生成された、予め計算された指紋照合情報(例えば、「不一致」、「弱一致」、又は「強一致」)に依存する。予備的な事柄として、比較プロセスを実行した上で、予め計算された指紋照合情報を複数のアプリケーション又はプロセスに提供することで、機器100が用いるコンピューティングリソースを実質的に減らし、それによって、エネルギー効率、バッテリ寿命、機器100の応答性を高めることができる。加えて、異なるアプリケーション及びプロセスが予め計算された指紋照合情報を使用するので、機器100又はユーザが、指紋照合基準を速やか且つ効率的に調整することによって複数の指紋感知動作又はアプリケーションのセキュリティを容易に変更することを可能にする。
例えば、機器100は、保護されていないアプリケーション(例えば、ゲームアプリケーション2310)の使い勝手の良さを損なうことなく、保護されたアプリケーション(例えば、バンクアプリケーション2312)のセキュリティを強化するように、検出された指紋の登録済みの指紋との「強一致」に必要な特徴点一致の数(又は、パーセンテージ)を増やすことによって指紋照合基準を(例えば、1つ以上の動作又はアプリケーションについての権限付与情報を変更することなく)調整することができる。同様に、機器100は、偽陰性一致の発生を減少するように(例えば、機器が、繰返し、ユーザの指紋を正確に識別できない場合、ユーザがより弱いセキュリティを受け入れることを選択し得る)、「強一致」及び/又は「弱一致」に必要な特徴点一致の数(又は、パーセンテージ)を減らすことによって(1つ以上の動作又はアプリケーションの権限付与情報を変更することなく)指紋照合基準を変更することができる。
いくつかの実施形態において、一致指紋が、制限された動作を実行する権限を付与されたユーザに関連付けられた指紋である(2444)時、動作固有基準は満たされる(2442)。例えば、一致指紋は、携帯型多機能機器100にログインした(又はロック解除された)ユーザのユーザプロファイルに関連付けられる。いくつかの実施形態において、最善の一致指紋が、それぞれの制限された動作を実行する権限を付与されたユーザに関連付けられている(2446)時に、動作固有基準が満たされ(2442)、信頼値は、それぞれの制限された動作に関連付けられた信頼閾値以上である。
いくつかの実施形態において、複数の制限された動作は、第1の信頼値閾値に関連付けられた第1の制限された動作と、第1の信頼閾値とは異なる、第2の信頼閾値に関連付けられた第2の制限された動作とを含む(2448)。したがって、いくつかの実施形態において、第1の入力が、第1の信頼閾値を超え、第2の信頼閾値未満である信頼値を有する最善の一致指紋と一致指紋の特徴を含む場合、第1の入力は、ユーザが第1の制限された動作を実行することを可能にするが、ユーザが第2の制限された動作を実行することは可能にしない。例えば、バンクプリケーション2312を介して電子決済をするユーザを識別するための信頼閾値は、ゲームアプリケーション2310のユーザを識別するための信頼閾値より大きい。したがって、ユーザの指紋の高速で低解像度のスキャンは、ゲームアプリケーション2310のユーザの識別には十分であるが、ユーザの指紋のより慎重で高解像度のスキャンが、バンクアプリケーション2312を介した電子決済のユーザに対する権限付与に、任意選択的に、要求される。
いくつかの実施形態において、指紋センサが、物理ボタンに組込まれており(2450)、指紋センサ上で指紋を検出すると、機器は、指紋照合情報を判定し、ボタンのアクティブ化を検出すると、機器は、それぞれの制限された動作を実行する。いくつかの実施形態において、物理ボタンは、ボタン上で検出された強度がアクティブ化強度閾値を超えて増加した時に機器によってアクティブ化されたと判定される、機器の筐体の強度感知領域である。いくつかの実施形態において、物理ボタンは、物理ボタンの第1の軸に沿った移動(例えば、上下又は左から右)がスイッチを閉じ、物理ボタンをアクティブ化する(その結果、可聴又は触覚「クリック」になることがある)電子スイッチに連結される。図23Dは、例えば、ホームボタン204に組込まれた指紋センサ169を示す。例えば、図23Dの指紋センサ169上で入力2306を検出すると、携帯型多機能機器100は、入力2306に対応する指紋照合情報を判定する。更に、ホームボタン204のアクティブ化(例えば、図23Dのボタン204の下向きの移動)を検出すると、携帯型多機能機器100は、バンクアプリケーション2312へのアクセスを許可し、図23Fのバンクアプリケーション2312を表示する。
図24A〜図24Dにおける動作について記載された特定の順序は単なる例示であり、記載された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書で説明される動作の再順序付けをするさまざまな方法を認識するであろう。加えて、本明細書に記載の他の方法に関して本明細書で記載されている他のプロセスの詳細(例えば、段落番号[00123]で一覧化されているプロセス)は、また、図24A〜図24Dに関連して上述されている方法2400に類似の方法で適用可能であることを留意されたい。例えば、方法2400を参照して上述されている指紋及び接触は、本明細書に記載されている他の方法(例えば、段落番号[00123]に記載されている方法)を参照して本明細書で説明されている指紋及びユーザインタフェースの特徴のうちの1つ以上を、任意選択的に、有する。簡潔にするため、これらの詳細はここでは繰り返さない。
図25は、様々な記載された実施形態に従って構成されたいくつかの実施形態に係る、電子機器2500の機能ブロック図を示す。この機器の機能ブロックは、様々な記載された実施形態の原理を実行するようにハードウェア、ソフトウェア、又はハードウェアとソフトウェアの組み合わせによって、任意選択的に、実装される。図25で説明されている機能ブロックが、様々な説明されている実施形態の原理を実装するように、任意選択的に、組み合わされ、又はサブブロックに分離されることが当業者には理解されよう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に、支持する。
図25で示されるように、電子機器2500は、1つ以上のユーザインタフェースオブジェクトを表示するように構成されたディスプレイユニット2502、指紋センサユニット2504、並びにディスプレイユニット2502及び指紋センサユニット2504に連結された処理ユニット2506を含む。いくつかの実施形態において、処理ユニット2506は、取得ユニット2508と、識別ユニット2510と、判定ユニット2512と、権限付与ユニット2514と、実行ユニット2516と、割当ユニット2518と、リプレーシングユニット2520とを含む。
処理ユニット2506は、指紋の照合を制御するための指紋照合基準を(例えば、取得ユニット2508で)取得し、又はアクセスするように構成されている。それぞれの制限された動作に対応する複数のそれぞれの入力のうちのそれぞれについて、処理ユニット2506は、それぞれの入力の指紋の特徴を(例えば、識別ユニット2510で)識別し、少なくとも部分的にそれぞれの入力の指紋の特徴と1つ以上の登録済みの指紋の指紋の特徴との比較と、指紋照合基準とに基づいてそれぞれの入力の指紋照合情報を(多追えば、判定ユニット2512で)判定するように、更に構成されている。処理ユニット2506は、それぞれの入力を検出すると、指紋照合情報が、それぞれの制限された動作に対するそれぞれの権限付与基準を満たしていると(例えば、権限付与ユニット2514で)の判定に従って、それぞれの制限された動作を(例えば、実行ユニット2516で)実行し、指紋照合情報が制限された動作に対するそれぞれの権限付与基準を満たしていないと(例えば、権限付与ユニット2514で)の判定に従って、それぞれの制限された動作の実行を取り止めるように構成されている。
いくつかの実施形態において、同じ指紋照合基準を使って複数の異なるそれぞれの入力についての指紋が処理される。
いくつかの実施形態において、指紋照合情報は、指紋照合基準に従って判定された一致指紋を識別する情報を含む。
いくつかの実施形態において、一致指紋が、制限された動作を実行する権限を付与されたユーザに関連付けられた指紋である時、動作固有権限付与基準は満たされる。
いくつかの実施形態において、処理ユニットは、それぞれの入力における特徴点を(例えば、識別ユニット2510で)識別し、それぞれの入力において識別された特徴点を複数の候補指紋における特徴点と(例えば、判定ユニット2512で)比較し、最も大きい数の一致特徴点を有するそれぞれの候補指紋を一致指紋として(例えば、判定ユニット2512で)選択することによって指紋照合情報を判定するように構成されている。
いくつかの実施形態において、指紋照合情報は、複数の登録済みの指紋のうちの、指紋照合基準に従って識別される最善の一致指紋、及び第1の入力と最善の一致指紋との間の一致の信頼性を示し、指紋照合基準に従って判定される指紋一致信頼値を含む。
いくつかの実施形態において、最善の一致指紋が、それぞれの制限された動作を実行する権限を付与されたユーザに関連付けられ、信頼値は、それぞれの制限された動作に関連付けられた信頼閾値を超えている時に、動作固有権限付与基準が満たされる。
いくつかの実施形態において、複数の制限された動作は、第1の信頼値閾値に関連付けられた第1の制限された動作と、第1の信頼閾値とは異なる、第2の信頼閾値に関連付けられた第2の制限された動作とを含む。
いくつかの実施形態において、処理ユニットは、それぞれの入力における特徴点を(例えば、識別ユニット2510で)識別し、それぞれの入力において識別された特徴点を複数の候補指紋における特徴点と(例えば、判定ユニット2512で)比較し、最も大きい数の一致特徴点を有するそれぞれの候補指紋を最善の一致指紋として(例えば、判定ユニット2512で)選択することによって指紋照合情報を判定するように構成されている。
いくつかの実施形態において、処理ユニットは、それぞれの入力における第1の数の特徴点が、最善の一致指紋における対応する特徴点と一致すると判定すると、第1の信頼値を(例えば、割当ユニット2518で)最善の一致指紋に割り当て、それぞれの入力における第2の数の特徴点が最善の一致指紋における対応する特徴点と一致すると判定すると、第2の信頼値を(例えば、割当ユニット2518で)最善の一致指紋に割り当てるように構成されている。特徴点の第2の数は、特徴点の第1の数より大きく、第1の信頼値は、それぞれの入力と最善の一致指紋との一致が、第1の信頼値で示される一致よりもより近いことを示す。
いくつかの実施形態において、指紋照合基準は、デフォルト基準のセットを含み、処理ユニット2506は、指紋照合基準の変更を示すユーザからの基準調整入力を(例えば、取得ユニット2508で)受け付け、基準調整入力を受け付けると、1つ以上のデフォルト基準を指紋照合基準における対応する変更された基準と(例えば、リプレーシングユニット2520で)取り替えることによって指紋照合基準を(例えば、取得ユニット2508で)取得するように構成されている。
いくつかの実施形態において、指紋センサユニット2504は、物理ボタンに組込まれており、処理ユニット2506は、指紋センサユニット2504上で指紋を検出すると、指紋照合情報を(例えば、判定ユニット2512で)判定するように構成されており、処理ユニット2506は、ボタンのアクティブ化を検出すると、それぞれの制限された動作を(例えば、実行ユニット2516で)実行するように構成されている。
上述の情報処理方法における動作は、汎用プロセッサ(例えば、図1A及び3に関連して上述されているようなプロセッサ)又はアプリケーション固有のチップなどの情報処理装置における1つ以上の機能モジュールを実行することによって、任意選択的に、実施される。
図24A〜図24Dを参照して上述されている動作は、図1A〜図1B又は図25で図示されている構成要素によって、任意選択的に、実施される。例えば、取得動作2402、識別動作2408、判定動作2410、実行動作2440はイベントソータ170、イベント認識部180、イベントハンドラ190によって、任意選択的に、実施される。イベントソータ170のイベントモニタ171は、タッチ感知ディスプレイ112上の接触を検出し、イベントディスパッチャモジュール174は、イベント情報をアプリケーション136−1に配布する。アプリケーション136−1のそれぞれのイベント認識部180は、イベント情報をそれぞれのイベント定義186と比較し、タッチ感知面上の第1の位置の第1の接触がユーザインタフェース上のオブジェクトの選択などの、既定のイベント又はサブイベントに対応するかどうかを判定する。それぞれの既定のイベント又はサブイベントが検出されると、イベント認識部180は、イベント又はサブイベントの検出に関連付けられたイベントハンドラ190をアクティブ化させる。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデーター176又はオブジェクトアップデーター177を、任意選択的に、利用又は呼び出す。いくつかの実施形態において、イベントハンドラ190は、アプリケーションにより表示されるものを更新するためのそれぞれのGUIアップデーター178にアクセスする。同様に、当業者にとって、他の処理が図1A〜図1Bに示されるコンポーネントに基づいてどのように実施されるかは明らかであるだろう。
アイデンティティ及び位置情報の関連づけ
多くの電子機器により、ユーザは、ディスプレイ上で表示された対話型マップを介して自分の環境と対話することができる。例えば、そのような電子品機器(例えば、携帯型多機能機器)により、ユーザは、ソーシャルメディアサイト上で特定の事業所又はよく知られた陸標にて自分の存在を示すことができることが多い。そのような状況では、そのような電子機器は、多くの場合、マップをタッチスクリーンディスプレイ上で表示し、ユーザは、例えば、事業所又はよく知られた陸標の位置を軽くたたくことによってマップと、対話することができる。別の実施例として、そのような電子機器は、多くの場合、カメラを含み、アイデンティティ及び位置メタデータを機器を使用して撮られた写真と関連づける簡便な方法をユーザに与えることが望ましい。例えば、いくつかの実施形態では、ユーザは、タッチスクリーンディスプレイ上に表示されたマップ上の対応する位置を軽くたたくことにより、及び、別個の入力を介してアイデンティティ作成者及び/又は写真の被写体を更に示すことにより写真の位置を示すことができる。例えば、ソーシャルメディアポストと、又は、写真に関連したメタデータとしてアイデンティティ及び位置情報を関連づける既存の方法では、典型的には、アイデンティティ及び位置の各々を示す別個の入力が必要である。
以下で説明する実施形態では、アイデンティティ及び位置情報を関連づける改良型の方法は、マップ上の表示された位置(例えば、地理的ロケーションに対応する位置)及び指紋センサ上で検出された指紋に関連する入力を検出することによって達成される。この方法では、指紋に対応するユーザを識別し、位置及びユーザに関連した動作(位置にてユーザの存在の表示をソーシャルメディアに掲示するか、又は、写真の位置、及び、ユーザが写真の被写体及び/又は作成者であることを示すメタデータを追加することなど)を実行する。
いくつかの実施形態では、機器は、別個のディスプレイ(例えば、ディスプレイ450)と、別個のタッチ感知面(例えば、タッチ感知面451)とを有する電子機器である。いくつかの実施形態では、機器は、携帯型多機能機器100であり、ディスプレイは、タッチスクリーン112であり、タッチ感知面は、ディスプレイ(図1A)上の触覚出力発生器167を含む26A〜26G及び27を参照して以下で説明する機器は、1つ以上の指紋センサ169を含む。いくつかの実施形態では、1つ以上の指紋センサは、タッチ感知面(例えば、別個のタッチ感知面451又はタッチ感応表示システム112)に一体化される1つ以上の統合指紋センサ359−1(図4B)を含むいくつかの実施形態では、1つ以上の指紋センサは、タッチ感知面(例えば、別個のタッチ感知面451又はタッチ感応表示システム112)とは別個である別個の指紋センサ359−2(図4B)を含む。特に指定がない限り、以下で説明する指紋センサ169は、指紋センサ169を含む機器のハードウェア及びソフトウェアの構成に応じて、任意選択的に、統合指紋センサ359−1又は別個の指紋センサ359−2である。説明の便宜上、図26A〜26G及び27を参照して説明する実施形態は、タッチスクリーン112で図26A〜26Gに示すユーザインタフェースを表示している間に、指紋センサ169(例えば、統合指紋センサ359−1又は別個の指紋センサ359−2)で図26A〜26Gで説明する入力を検出することに応答して実行される機器動作を参照して論じる。しかしながら、類似した動作が、任意選択的に、図26A〜26Gに示すユーザインタフェースをディスプレイ450上で表示している間に図26A〜26Gで説明する入力を統合指紋センサ359−1上で検出することに応答して、統合指紋センサ359−1と共に、ディスプレイ450と、別個のタッチ感知面451と、別個の指紋センサ359−2とを有する機器上で実行される。いくつかの実施形態では、フォーカスセレクタは、任意選択的に、それぞれの接触、接触に対応する代表的な点(例えば、それぞれの接触の面心又はそれぞれの接触に関連した点)、又は、カーソルの代わりにタッチスクリーン112上で検出された2つ以上の接触の面心である。
図26Aは、機器はマップのディスプレイを含むユーザインタフェース2601を表示するのを示す。この実施例では、ユーザインタフェースは、ユーザが場所の事業所及び陸標にナビゲートするのを支援するアプリケーションの一部として表示される。例えば、ユーザが検索バー2602において用語「Gala Coffee」で検索するとき、機器は、いくつかの結果を戻して、ユーザインタフェース2601上にピンドロップ2604として位置を表示する。
図26Bは、タッチスクリーン112上の接触2606の検出及び別個の指紋センサ169上の指紋2608の検出を示す。接触2606は、マップ上の接触2606の位置(例えば、接触2606が受信されるマップ上で表示された位置に対応する物理位置)ならびに識別された指紋の両方に関連する機器の動作をトリガするアクティブ化入力の実施例である。いくつかの実施形態では(例えば、タッチスクリーン112が指紋を識別するように構成されるとき)、単一の接触は、アクティブ化入力として、及び、指紋が識別される(例えば、指紋は接触2606に対応すると検出される)入力としての役割を果たす。いくつかの実施形態では、指紋は、別個の指紋センサ169上で検出され、音声入力など、別の形式のアクティブ化入力が、図27に関して更に詳細に説明するように、機器により検出されてマップ上の特定の位置に関連づけられる。
図26C〜26Gは、いくつかの実施形態に係る、機器が実行する様々な動作の実施例を示す。上述したように、これらの動作は、マップ上の接触2606の位置、並びに、識別された指紋に関連している。本開示が位置及びアイデンティティに関連する動作の広義の範囲をサポートすることを目的とし、かつ、図26C〜26Gに示す動作は単に例示的であることを理解されたい。
図26Cは、動作が特定の「Gala Coffee」店にてユーザ(例えば、指紋が識別されたユーザ)の存在を示すステップを含む実施例を示す。この実施例では、ユーザは、特定のGala Coffee店2604−2に対応する特定のピンドロップを選択済みである。いくつかの実施形態では、機器は、ユーザに特定の「Gala Coffee」にて「チェックイン」したいことを確認するように求め、かつ、チェックインの位置のアドレスを識別する確認メッセージ2605を表示する。例えば、確認メッセージ2605において「CHECK IN」アフォーダンスをアクティブ化させると、機器は、ソーシャルメディアウェブサイト上でユーザの存在を掲示することになる。
図26Dは、いくつかの実施形態に係る、機器が接触2606に応答して実行する動作の代替(又は状況によっては更なる)実施例を示す。図26Cの場合のように、ユーザは、「Gala Coffee」2604〜2店に対応するピンドロップを選択済みである。しかしながら、この実施例では、機器は、ユーザに支払いプロンプト2610を介して支払い金額を提出することを促すことにより応答する。ユーザは、プロンプト2610内のキーパッド2612を使用して金額を正確に入力し、その後、支払いを提出するために「CONFIRM」ボタン2614を選択することができる。いくつかの実施形態では、ユーザは、異なるアカウントを異なる指に結びつけることができる。例えば、右の親指指紋により、支払い額がユーザの引き落としアコードを介して提出され、一方、左の人差指指紋により、支払い額がユーザのクレジット口座を介して提出されることになる。
図26E〜26Gは、いくつかの実施形態に係る、接触2616に応答して実行される機器動作の代替実施例を示す。図26Eは、CaliforniaのSanFranciscoの位置から撮られたGolden Gate Bridgeの写真2615のディスプレイを示す。状況によっては、写真2615は、機器によって以前に(例えば、機器にカメラ付き携帯電話が装備されているときに)撮られた写真である。状況によっては、写真2615は、以前に異なる機器によって撮られて、機器に(例えば、ネットワークで、電子メールにより、インターネットからダウンロードされて)送信された写真である。図26Eに示すように、機器は、任意選択的に、ユーザが写真にメタデータ(この実施例では、位置及び作成者データ)を追加したいかどうかユーザに尋ねるプロンプトを表示する。図26Eは、ユーザが位置及び作成者メタデータを写真2615と関連づけることを肯定的に示す接触2616の検出も示す。
図26Fは、図26Eに示す実施例の続きである。接触2616を介して図26E内で「YES」アフォーダンスが選択されると、機器は、位置情報(例えば、ジオタギング)を含むメタデータを写真2615と関連づけるマップ2618を表示する。機器は、写真の特別な重要性(例えば、どこで写真は取られたか)を有する接触2620をマップ上の位置にて検出する。機器は、ユーザに対応する指紋2622を指紋センサ169上で検出して、該指紋が属するユーザを識別する。図26Gに示すように、機器は、接触2620のマップ2618上の位置(この場合、San Francisco、CAのGolden Gate Bridgeの座標位置),並びに、指紋2622が属するユーザのアイデンティティ(例えば、図26Gに示すように、Joseph Strauss)に関連したデータを関連づける。
図27は、いくつかの実施形態に係るアイデンティティ及び位置情報を関連づける方法270示す流れ図である。方法2700は、ディスプレイ及びタッチ感知面を備えた電子機器(例えば、図3の機器300、又は図1Aのポータブル多機能機器)で行われる。いくつかの実施形態において、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面がディスプレイ上にある。いくつかの実施形態において、ディスプレイはタッチ感知面から分離している。方法2700の一部の動作が、任意選択的に、組み合わされ、及び/又は、一部の動作の順序が、任意選択的に変えられる。
以下で説明するように、方法2700は、アイデンティティ及び位置情報を関連づける直観的方法を提供する。この方法により、アイデンティティ及び位置情報を関連づけるとき、ユーザの認識的負担が軽減され、より効率的なヒューマン−マシンインタフェースが作成される。バッテリ動作電子機器では、ユーザがアイデンティティ及び位置情報を編集することを可能にすることにより、より高速かつ効率的に電力を保存し、バッテリの充電の間の時間を増やす。
機器は、指紋センサ(2702)を有する電子機器のディスプレイ上のマップを表示する(2702)。例えば、図26Aは、マップを表示する指紋センサ169を有する機器を示す。
機器は、アクティブ化入力を検出し(2704)、アクティブ化入力は、それぞれの地理的ロケーション及び指紋センサ上で検出された指紋に対応するマップ上の表示された位置に関連している。例えば、アクティブ化入力は、アクティブ化入力をマップ上の表示された位置及び対応する地理的ロケーション(例えば、図26Bの接触2606)と関連づけるためにフォーカスセレクタがマップ上の表示された位置にある間に実行される。いくつかの実施形態では、アクティブ化入力は、指紋が指紋センサ上で検出される間にアクティブ化入力が実行されるとの決定に従って指紋センサ上で検出された指紋に関連づけられる。
いくつかの実施形態では、アクティブ化入力は、音声入力である。例えば、図26Aに示すマップを表示し、かつ、指紋センサで指紋を検出している間に、ユーザが、「1st及びCedarのGala Coffeeにいる」と言うと、機器は、これをEast 1st StreetとEast Cedar Streetの交差点の特定のGala Coffee(ピンドロップ2604−1により表される)のアクティブ化入力と解釈することになる。いくつかの実施形態では、アクティブ化入力は、ユーザの位置を決定するために機器が機器の位置決定機能性を使用する要求に対応する音声入力である。例えば、指紋2608が検出される間(又は、後に、又は、前に)、ユーザは、「現在の位置を使用する」と言えば、機器は、ユーザの現在の位置を(例えば、全地球測位システムソフトウェア及び/又はハードウェアを使用して)決定することになる。あるいは、ユーザが、「Gala Coffeeにいる」、又は、「Gala Coffeeでチェックインする」と言えば、機器が、最も近いGala Coffee(例えば、機器がユーザはEast 1st Street及びEast Cedar Streetの交差点にいると決定したときに、ピンドロップ2604−1により表されるGala Coffee)にて識別されたユーザをチェックインする要求として入力を認識することになる。
いくつかの実施形態では、アクティブ化入力は、指紋センサと異なるタッチ感知面上で検出される(2706)(例えば、アクティブ化入力は、統合指紋センサを含まないタッチパッド又はタッチスクリーンディスプレイの部分で検出され、アクティブ化入力は、図26A〜26Gに示すように、統合指紋センサ上に置かれつつある指紋と同時に、又は、実質的に同時に発生する)。
いくつかの実施形態では、アクティブ化入力は、指紋センサ上で検出される(2708)(例えば、アクティブ化入力は、統合指紋センサを含むタッチパッド又はタッチスクリーンディスプレイの部分で検出され、統合指紋センサは、指紋に対応するユーザを識別するために使用される)。
アクティブ化入力(2710)を検出することに応答して、機器は指紋に対応するユーザを識別する(2712)(例えば、指紋センサ上で検出された指紋と一致する以前に登録済みの指紋を含むユーザプロファイルを識別する)。機器は、その後、それぞれの地理的ロケーション及びユーザに関連した動作を実行する(2714)。
いくつかの実施形態では、それぞれの地理的ロケーション及びユーザに関連した動作は、それぞれの地理的ロケーションにてユーザの(仮想又は物理的)存在を示すメッセージを生成するステップを含む(2716)(例えば、ユーザは、図26A〜26Cに示すように、同時に指紋センサで指紋を有すると同時に事業所の場所に対応するマップ上の位置を選択することにより、レストラン、店、公園、又は他の事業所の場所などの地理的ロケーションに「チェックインする」ことができる)。
いくつかの実施形態では、生成されたメッセージは、ユーザがそれぞれの地理的ロケーションにて目下物理的に存在することを示す。いくつかの実施形態では、生成されたメッセージは、ユーザが以前に物理的に存在したか、又は、将来はそれぞれの地理的ロケーションにて物理的に存在することになることを示す。いくつかの実施形態では、ユーザの存在を示すメッセージは、その位置でのユーザの実際の物理存在を示す(例えば、ユーザがレストランにて食事中である間、ユーザはレストランにて食事中であることを示すたメニューザはレストランにチェックインする)。いくつかの実施形態では、ユーザの存在を示すメッセージは、ユーザの仮想実在を示す(例えば、ユーザは、レストランにて予約を要求するか、又は、ユーザがレストランにて予約をしたことを示すためにレストランにチェックインするか、又は、ユーザは、たとえユーザが電話又はテレビ会議を介して遠隔操作にて会議に参加しているとしても会議が行われている位置にチェックインする)。
いくつかの実施形態では、地理的ロケーション及びユーザに関連した動作は、それぞれの地理的ロケーションにてユーザから事業所への支払いを許可する(2718)ステップを含む。(例えば、店への支払い額を許可するステップは、図26Dに示すように、指紋が指紋センサ上にある間に店の位置に対応するマップ上の位置を選択することである)。
いくつかの実施形態では、地理的ロケーション及びユーザに関連した動作は、媒体にメタデータを追加する(2720)ステップを含み、メタデータは、媒体がそれぞれの地理的ロケーション及びユーザに関連していることを示す(例えば、図26E〜26Gに示すように、写真が取られた位置も、ユーザが写真を取った、又は、ユーザが写真に写っていることも示すメタデータを写真に追加することにより、ユーザが取った又は、ユーザが写っている写真にジオタグする)。
図27における動作について記載された特定の順序は単なる例示であり、記載された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書で説明される動作の再順序付けをするさまざまな方法を認識するであろう。加えて、本記載の方法に関して本明細書に記載の他の処理の詳細(例えば、パラグラフ[00123]に記載のものはまた、図27に関連して上述した方法と類似の様式で適用可能であることに留意されたい。例えば、方法2700を参照して先述した指紋、入力、マップ及びフォーカスセレクタは、任意選択的に、本明細書で説明する他の方法(例えば、パラグラフ[00123]に記載したもの)を参照して本記載の指紋、入力、マップ及びフォーカスセレクタの特性の1つ以上を有する。簡潔にするため、これらの詳細はここでは繰り返さない。
いくつかの実施形態によれば、図28は、様々な記述する実施形態の原理に従って構成された電子機器2800の機能ブロック図を示す。機器の機能ブロックは、任意選択的に、様々な説明する実施形態の原理を実行するためにハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせにより実行される。図28に記述された機能ブロックが、任意選択的に、様々な記述する本発明の原理を実施するために、合成され、又はサブブロックに分離されることが、当業者により理解される。したがって、本明細書における説明は、あらゆる可能な組み合わせ若しくは分割、又は本明細書に述べられる更なる機能ブロックの定義を任意選択的に支持する。
図28に示すように、電子機器2800は、マップを含むユーザインタフェースを表示するように構成されたディスプレイユニット2802と、指紋センサユニット2806と、ディスプレイユニット2802及び指紋センサユニット2806に結合された処理ユニット2808とを含む。いくつかの実施形態では、機器は、組み込まれた指紋センサユニット2806−1を有するタッチ感知面ユニット2804を含む。そのような実施形態では、処理ユニットは、指紋センサユニット2804−1とともにタッチ感知面ユニット2804に結合される。いくつかの実施形態では、機器は、別個の指紋センサユニット2806−2を含む。いくつかの実施形態では、処理ユニット2808は、検出ユニット2810と、実行ユニット2812と、実行ユニット2814とを含む。
処理ユニット2808は、アクティブ化入力を検出するように構成され、アクティブ化入力は、それぞれの地理的ロケーション、及び、指紋センサユニット2806上で検出された指紋に対応するマップ上の表示された位置に関連している。アクティブ化入力を検出することに応答して、処理ユニット2808は、指紋に対応するユーザを識別して、それぞれの地理的ロケーション及びユーザに関連した動作を実行するように構成される。
いくつかの実施形態では、アクティブ化入力は、指紋センサユニット2804と異なるタッチ感知面ユニット2804上で検出される。
いくつかの実施形態では、アクティブ化入力は、指紋センサユニット2804上で検出される。
いくつかの実施形態では、それぞれの地理的ロケーション及びユーザに関連した動作は、先に更に詳細に論したように、それぞれの地理的ロケーションでのユーザの存在を示すメッセージを生成するステップを含む。
いくつかの実施形態では、地理的ロケーション及びユーザに関連した動作は、先に更に詳細に論したように、それぞれの地理的ロケーションにてユーザから事業所への支払いを許可するステップを含む。
いくつかの実施形態では、地理的ロケーション及びユーザに関連した動作は、メタデータを媒体に追加するステップを含み、メタデータは、先に更に詳細に論したように、媒体がそれぞれの地理的ロケーション及びユーザに関連していることを示す。
先述した情報処理方法の動作は、(例えば、図1A及び3に関して先に説明したように)汎用プロセッサ又は特定用途向けチップなどの情報処理装置において1つ以上の機能モジュールを実行することにより任意選択的に実行される。
図27を参照して先述した動作は、任意選択的に、図1A〜1B又は図28に示す構成要素により実行される。例えば、表示動作2702、検出動作2704、及び、識別動作2712は、イベントソータ170、イベント認識部180及びイベントハンドラ190により任意選択的に実行される。イベントソータ170のイベントモニタ171は、タッチ感知ディスプレイ112上の接触を検出し、イベントディスパッチャモジュール174は、イベント情報をアプリケーション136−1に渡す。アプリケーション136−1のそれぞれのイベント認識部180は、イベント情報をそれぞれのイベント定義186と照会し、タッチ感知面上の第1の位置の第1の接触がユーザインタフェース上のオブジェクトの選択などの、既定のイベント又はサブイベントに対応するかどうかを判定する。それぞれの既定のイベント又はサブイベントが検出されると、イベント認識部180は、イベント又はサブイベントの検出に関連するイベントハンドラ190をアクティブ化する。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデーター176若しくはオブジェクトアップデーター177を任意選択的に利用するか又は呼び出す。いくつかの実施形態において、イベントハンドラ190は、アプリケーションにより表示されるものを更新するためのそれぞれのGUIアップデーター178にアクセスする。同様に、当業者にとって、他の処理が図1A〜1Bに示される構成要素に基づいてどのように実施されるかは明らかであるだろう。
ユーザへの作業空間の割り当て
多くの電子機器は、ユーザがそれぞれのユーザインタフェースに関連した様々な機能及び動作を実行することを可能にするグラフィカルユーザインタフェース(例えば、データ記憶オプション、テキスト編集アプリケーション、描画アプリケーションなど)を有する。更に、多くの電子機器は、2人以上のユーザの間で共有される。そのような共有機器と対話すると同時に、ユーザは、ユーザの自身のプリフェランスに基づいて特殊定義の機能及び動作(例えば、アプリケーションの特注リスト、個人データ記憶空間、ユーザ指定のテキストフォントなどの特注データフォーマット化オプション、線幅、描画オプションなど)で個人作業空間又は仕事領域を作り出して定義することを望むことが多い。
ユーザが共有機器上で自分自身の個人作業空間を作り出す一部の方法は、(例えば、自分のそれぞれのアカウントにユーザを関連づける別個のユーザ名及びパスワードでの)別個のユーザアカウントの作成を含む。ユーザは、その後、それぞれのユーザ名及びパスワードを使用してそれぞれのアカウントにログインすることができる。これらの方法は、1人のユーザのみが共有機器上で任意の特定の時間にて自分のそれぞれのアカウントにログインすることができるという点で限られたものであり、その結果、複数のユーザが同じ共有された機器上で同時に自分のアカウントにアクセスすることが難しくなる。更に、これらの方法は、ユーザに向けて紛らわしく、かつ、時間が掛かるものになり兼ねない、作業空間の間で切り替えるためのメニュー及び設定の階層を介したナビゲーションが必要である。
開示する実施形態は、領域の外周部又は境界線を定義するために1つ以上の接触を使用することにより、ユーザが多機能機器のディスプレイ上の領域を定義することを可能にすることにより多機能機器上の共有作業空間を仕切る簡便かつ効率的な方法を提供する。領域を定義するたメニューザにより使用される1つ以上の接触において少なくとも検出された指紋に基づいて、機器は、領域をそれぞれのユーザと関連づけて、領域をユーザの個人的なプリフェランス及び設定と関連づける。その結果、1人以上のユーザは、素早くかつ効率的に同じ物理機器上でそれぞれの作業空間又は仕事領域を定義して、ユーザの指紋識別表示に基づいてそれぞれの作業空間に関連した特殊設定を有することができる。
いくつかの実施形態では、機器は、別個のディスプレイ(例えば、ディスプレイ450)及び別個のタッチ感知面(例えば、タッチ感知面451)を有する電子機器である。いくつかの実施形態では、機器は、携帯型多機能機器100であり、ディスプレイは、タッチスクリーン112であり、タッチ感知面は、ディスプレイ(図1A)上の触覚出力発生器167を含む29A〜29S及び30A〜30Bを参照して以下で説明する機器は、1つ以上の指紋センサ169を含む。いくつかの実施形態では、1つ以上の指紋センサは、タッチ感知面(例えば、別個のタッチ感知面451又はタッチ感応表示システム112)に一体化される1つ以上の統合指紋センサ359−1(図4B)を含むいくつかの実施形態では、1つ以上の指紋センサは、タッチ感知面(例えば、別個のタッチ感知面451又はタッチ感応表示システム112)とは別個である別個の指紋センサ359−2(図4B)を含む。特に指定がない限り、以下で説明する指紋センサ169は、指紋センサ169を含む機器のハードウェア及びソフトウェアの構成に応じて、任意選択的に、統合指紋センサ359−1又は別個の指紋センサ359−2である。説明の便宜上、図29A〜29S及び30A〜30Bを参照して説明する実施形態は、ディスプレイ450、別個のタッチ感知面451、及び別個の指紋センサ359−2を参照して論じる。類似した動作が、図29A〜29Sに示すユーザインタフェースをディスプレイ450上で表示している間に、図29A〜29Sで説明する入力を統合指紋センサ359−1上で検出することに応答して、統合指紋センサ359−1で任意選択的に機器上で実行される。更に、類似した動作が、タッチスクリーン112上で図29A〜29Sに示すユーザインタフェースを表示している間に、指紋センサ169(例えば、統合指紋センサ359−1又は別個の指紋センサ359−2)で図29A〜29Sで説明する接触を検出することに応答して、タッチスクリーン112を有する機器上で任意選択的に実行される。そのような実施形態では、フォーカスセレクタは、任意選択的に、それぞれの接触、接触に対応する代表的な点(例えば、それぞれの接触の面心又はそれぞれの接触に関連した点)、又は、カーソルの代わりにタッチスクリーン112上で検出された2つ以上の接触の面心である。
図29Aは、携帯型多機能機器100のディスプレイ2900上で表示される、ユーザ選択可能なアイコン(例えば、複数の立ち上げ可能なアプリケーションに対応するユーザ選択可能なアイコン424−446)を有する第1のユーザインタフェース(例えば、アプリケーション起動ユーザインタフェース又はホーム画面インタフェース)を示す。いくつかの実施形態では、ディスプレイ2900はタッチに応答するタッチセンサのアレイを有するタッチ感知ディスプレイである。いくつかの実施形態では、タッチセンサのアレイは、ディスプレイを形成する表示要素を画定する平面と一致する(例えば、共起された、又は、同一平面上)平面にある。結合されたディスプレイ2900及びタッチ感知面は、タッチスクリーン112と本明細書でいうことがある。いくつかの実施形態では、機器はタッチに応答するタッチセンサのアレイを有するタッチ感応表面を(例えば、ディスプレイで同時に起こる、共起されたか、又は、同一平面上平面において)含み、タッチ感応表面は、指紋感知能力を含む(例えば、タッチ感応表面は、高い空間精度で指紋を検出することができる指紋センサのアレイを含む)。したがって、いくつかの実施形態では、機器は、タッチ感応表面上で1つ以上の指紋を検出して、1つ以上の指紋を機器の1つ以上の対応するユーザと任意選択的に関連づけることができる。
図29A〜29Bは、タッチスクリーン112上で第1の領域を画定する(例えば、第1の領域を取り囲む第1の外周部の輪郭を描く)第1の1つ以上の入力のセット(例えば、1つ以上の対応する指紋を有する1つ以上の接触を含む)をタッチスクリーン112上で検出することを示す。図29A〜29Bは、更に、1つ以上の接触内の第1の接触が第1のユーザに関連した第1の指紋を含むと決定することを示す。したがって、図29A〜29Bは、機器が第1の領域を第1のユーザと(例えば、第1のユーザ固有の特殊作業設定を有する第1のユーザの作業空間として)関連づけることを示す。
図29Aに示すように、機器は、機器100のタッチスクリーン112上で対応する指紋2902−a、2902−b、2902−c及び2902d)を有する接触を含む第1の1つ以上の入力のセットを検出する。第1の入力のセット(例えば、対応する指紋2902−a、2902−b、2902−c及び2902dを含む)は、機器のタッチスクリーン表面上で第1の(例えば、実質的に矩形の)領域の境界又は境界線を形成する(例えば、実質的に矩形の)外周部を画定する。図29Bに示すように、機器は、指紋2902−a、2902−b、2902−c、及び2902dの1つ以上が第1のユーザ(例えば、Jim)に関連していると決定する。したがって、機器は、(例えば、検出された指紋がユーザの指紋に一致すると決定するユーザの指紋の指紋特徴部を有する検出された指紋との比較に基づいて)タッチスクリーン112の第1の領域を第1のユーザと関連づける(例えば、指定する)。例えば、第1の領域は、Jimに指定される作業空間であり、かつ、Jimの好適な(例えば、特殊定義の)アプリケーション(例えば、及び、対応するアプリケーション起動アイコン)を含む。図29Bに示すように、ユーザは、単に個人作業空間の領域の境界線又は外周部を画定するために1つ以上の入力を使用することにより(例えば、1つ以上の対応する指紋を有する1つ以上の接触で)、好適な特殊設定で、多機能機器上で、個人作業空間を(例えば、共有された作業空間から)切り開き、その輪郭を描く、又は、指定する改良された便利さを有する。
類似の線に沿って、図29Cは、携帯型多機能機器100のタッチスクリーン112上で表示される、共通作業空間におけるメモ(例えば、1つ以上のユーザによりごく最近作成又は編集されたメモ)のリストを有する第2のユーザインタフェース(例えば、ノートパッド又はテキスト編集アプリケーションユーザインタフェース)を示す。図29C〜29Dは、タッチスクリーン112上で第1のユーザ(例えば、Mark)に関連した第1の1つ以上の入力のセット(例えば、1つ以上の指紋2906−a、2906−b、2906−c及び2906dを含む)を検出することを示し、第1の1つ以上の入力のセットは、第1の領域を画定する。
図29Dに示すように、第1の1つ以上の入力のセットは、入力の第1のセットが第1のユーザに対応する1つ以上の指紋を含むと決定することに少なくとも基づいて、第1のユーザに(例えば、Markに)関連した第1の領域(例えば、矩形テキスト編集作業空間2908)に関連している(例えば、その境界線又は外周部を画定する)。図29Dに示すように、第1の領域(例えば、第2の1つ以上の入力のセットを手段として入力されたるMarkによる新しいメモ)において第1のユーザにより入力されたテキストは、第1のユーザ(例えば、Mark)のプリフェランスに基づいて、第1の動作に関連している(例えば、第1の領域において入力されたテキストは、フォントなどの特殊設定、テキストサイズ、フォーマット化に従って表示及びフォーマットされる)。29E〜29F図に示すように、機器は第1の領域の外側で(例えば、矩形テキスト編集作業空間2908の外側で)タッチスクリーン112上で1つ以上の入力の第3の1つ以上の入力のセット(例えば、接触2910)を検出する。機器が表示の領域に関連していなかった新しいメモの作成に対応する入力を検出した場合、新しいメモは、デフォルトプリフェランス(例えば、異なるフォント、テキストサイズ及びフォーマット化プリフェランス)を使用して生成されることになる。29E〜29F図に示すように、第3の1つ以上の入力のセット(例えば、接触2910)が第1の領域の外側にあるという決定に従って、機器は、第2の動作を実行する(例えば、最近作成又は編集されたメモのリストを再表示するためにMarkによる新しいメモを最小化する)。
したがって、いくつかの実施形態では、個人作業空間を(例えば、共有作業空間から)切り開くか、輪郭を描くか、画定するか、又は、指定した後に、多機能機器上で、ユーザは、単に(例えば、個人作業空間に対応する)第1の領域における1つ以上の接触を置くことにより、(例えば好適な特殊設定に従った又は関連した)第1の動作を実行し、かつ、第1の領域の外側に1つ以上の接触を置くことにより第2の動作を実行する(例えば、個人向けの作業空間を捨てているか、又は、デフォルトプリフェランスに従って新しいメモを生成する改善された便利さを有する。
更に別の例として、図29Gは、携帯型多機能機器100のタッチスクリーン112上で表示される、図を作成する(例えば、1人以上のユーザ間の)共通の共有された作業空間を有する第3のユーザインタフェース(例えば、描画アプリケーションユーザインタフェース)を示す。図29Hは、タッチスクリーン112上で第1のユーザ(例えば、Mark)に関連した第1の1つ以上の入力のセット(例えば、1つ以上の指紋2912−a、2912−b、2912−c、及び2912dを含む)を検出することを示す。図29Iに示すように、第1の1つ以上の入力のセットは、入力の第1のセットが第1のユーザに対応する(例えば、Markに対応する)1つ以上の指紋を含むと決定することに少なくとも基づいて、第1のユーザに(例えば、Markに)関連した第1の領域(例えば、矩形テキスト編集作業空間2913)を画定する。
図29J〜29Kは、更に、第1の領域内で(例えば、Markの矩形スケッチ作業空間2913内で)タッチスクリーン112上で第2の1つ以上の入力のセット(例えば、接触2914)を検出して接触を第1のユーザのものと考えることを示す。例えば、Markの描画作業空間2913内で接触2914を検出すると、機器は、第1のユーザに関連した特殊設定に従って第1の動作を実行する(例えば、機器は、色プリフェランス、境界線設定などのMarkのプリフェランス又は特殊設定に基づいて、接触2914の動きにより、第1の領域において描かれた形状を塗りつぶして形状の輪郭を描く)。他方、図29K〜29Lに示すように、機器は、第1の領域の外側で(例えば、矩形テキスト描画作業空間2913の外側で)タッチスクリーン112上で第3の1つ以上の入力のセット(例えば、接触2916)を検出して、第2の動作を(例えば、図29Lに示すように、Markの特殊設定と異なる、デフォルト色又は塗りつぶし及び境界線設定など、デフォルト設定に従って又は関連して)実行する。
図29M〜29Qに示すように、第1の領域は第1のユーザに関連しているが、第2のユーザ(例えば、Jane)に関連した第4の1つ以上の入力のセット(例えば、移動する指紋2918の1つ以上の実例を含む)が、タッチスクリーン112上で検出される。図29M〜29Qに示すように、第4の1つ以上の入力のセットは、第4の入力のセットが第2のユーザに対応する(例えば、Janeに対応する)1つ以上の指紋を含むと決定することに少なくとも基づいて、第2のユーザに(例えば、Janeに)関連した第2の領域(例えば、矩形描画作業空間2919)を画定する。図29Qに示すように、第2の領域(例えば、矩形描画作業空間2919)は、ディスプレイの(例えば、図29Qに示す機器の向きを基準にして)垂直右縁部に近接している。したがって、(第2の領域内の1つ以上のユーザインタフェースオブジェクトを含む)第2の領域は、第2の領域ディスプレイの底部としてディスプレイの垂直右縁部を使用して向きが定められる。
29R〜29S図に示すように、機器は、第2の領域内で(例えば、Janeの矩形描画作業空間2919内で)タッチスクリーン112上で第2の1つ以上の入力のセット(例えば、接触2920)を検出して、接触2920を第2のユーザの(例えば、Janeの)ものと考える。例えば、Janeの描画作業空間2919内で接触2919を検出すると、機器は、第2のユーザに関連した特殊設定に従って第2の動作を実行する(例えば、機器は、色プリフェランス、境界線設定などのJaneのプリフェランス又は特殊設定に基づいて、接触2919の動きにより、第2の領域において描かれた形状を塗りつぶして形状の輪郭を描く)。図29Sに示すように、Janeのプリフェランス項目では、Markのプリフェランスにより指定された線幅及び塗りつぶしよりも細い線幅及び薄いオブジェクトの塗りつぶしを指定する。
したがって、いくつかの実施形態では、第1のユーザが多機能機器上で個人作業空間を(例えば、共有された作業空間から)画定した後、第2のユーザは、(例えば、第1のユーザの作業空間と異なる)自分の作業空間を同時に画定することができる。その結果、2人以上のユーザが、同時に、指接触により画定された外周部を使用して作業空間をそれぞれの仕事領域に仕切ることにより、多機能機器上で作業空間を共有することができ、機器は、その後、それぞれの指紋に基づいて個々のユーザのそれぞれの仕事領域をそれぞれのユーザと関連づける。いくつかの実施形態では、別個の作業空間は、異なる文書に対応する(例えば、Markの描画文書及びJaneの別個の描画文書に対応し、そして、領域2913及び2919が捨てられれるとき、Mark及びJaneにより描かれたオブジェクトはオブジェクトを描いたそれぞれのユーザに関連した別個の文書内に保存されることになる)。いくつかの実施形態では、別個の作業空間は、同じ文書において異なる作業空間に対応する(例えば、Mark及びJaneは、同じ文書の異なる部分に貢献しており、領域2913及び2919が捨てられたとき、Mark及びJaneにより描かれたオブジェクトは、同じ文書において示され続けることになる)。
図30A〜30Bは、いくつかの実施形態に従って1つ以上のユーザでタッチ感知面の関連している領域を割り当てる方法3000を示す流れ図である。方法3000は、ディスプレイと、タッチ感知面とを有する電子機器(例えば、図3の機器300、又は、図1A携帯型多機能機器100)にて実行される。いくつかの実施形態において、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面がディスプレイ上にある。いくつかの実施形態において、ディスプレイはタッチ感知面から分離している。方法3000の一部の動作が、任意選択的に、組み合わされ、及び/又は、一部の動作の順序が、任意選択的に変えられる。
以下で説明するように、方法3000は、タッチ感知面の領域を1人以上のユーザと関連づける直観的方法を提供する。この方法により、作業空間を選択した時にユーザの認識的負担が軽減され、より効率的なヒューマン−マシンインタフェースが作成される。バッテリ動作電子機器では、ユーザが作業空間を選択又は自己指定することを可能にすることにより、より高速かつ効率的に電力を保存し、バッテリの充電の間の時間を増やす。
機器は、タッチ感知面の第1の領域を画定する第1の1つ以上の入力のセットをタッチ感知面上で検出する(3002)。例えば、機器は、ユーザが指で(例えば、図29M〜29Pを参照して説明するように)タッチ感知面の領域の輪郭を描いているのを検出するか、又は、ユーザが作業域の隅部を識別するために同時に2本、3本又は4本の指を(例えば、図29A、29C及び29Hを参照して説明するように)作業空間ディスプレイの上に置くのを検出する。いくつかの実施形態では、タッチ感知面の第1の領域は、タッチスクリーンディスプレイの領域(例えば、図29Bの第1の領域2904、図29Dの第1の領域2908、図51の第1の領域2913)である(3004)。
(例えば、第1の1つ以上の入力のセットを検出することに応答して)第1の1つ以上の入力のセットを検出した(3006)後、機器は、第1の1つ以上の入力のセットが第1のユーザに関連した第1の指紋(例えば、図29A〜29BのJimに関連した指紋2902−a、2902−b、2902−c及び2902d、図29C〜29DのMarkに関連した指紋2906−a、2906−b、2906−c及び2906d、図29H〜29IのMarkに関連した指紋2912−a、2912−b、2912−c、及び2912d)を含む第1の接触を含む(3008)と決定する。機器は、第1の1つ以上の入力のセットが第1のユーザに関連した第1の指紋を含む第1の接触を含むという決定に少なくともある程度基づいて、タッチ感知面の第1の領域(例えば、図29BのJimに関連した第1の領域2904、図29DのMarkに関連した第1の領域2908、図291のMarkに関連した第1の領域2913)を第1のユーザと関連づける(3010)。したがって、いくつかの実施形態では、ユーザは、ユーザに関連した指紋を含む1つ以上の接触を使用する共有作業空間において領域の輪郭を追跡することによりタッチ感知面上で共有された作業空間の一部をユーザの作業空間として選択することができる。ユーザは、その後、ユーザに関連するユーザ固有の動作を実行するためにこの個々の作業空間を使用する(例えば、図29Bを参照して説明するように特殊アプリケーションを使用する、図29Dを参照して説明するように特殊フォント及び文字サイズを使用する、図29Kを参照して説明するように特殊線幅及び境界線設定並びに形状色又は塗りつぶしを使用する)ことができる。
いくつかの実施形態では、タッチ感知面の第1の領域を第1のユーザと関連づけた後、機器は、第1の領域の範囲の視覚的合図を表示する(3012)。例えば、機器は、第1の領域の周りの境界(例えば、図29BのJimに関連した第1の領域2904の周り、又は、図29DのMarkに関連した第1の領域2908の周り、又は、図291のMarkに関連した第1の領域2913の周りの境界)を表示する。
いくつかの実施形態では、タッチ感知面の第1の領域が第1のユーザと関連づけられている(3014)間に、機器は、動作3016〜3034を参照して説明した1つ以上のステップを実行する。機器は、第1の領域内で1つ以上の入力の第2のセットを検出する(3016)。機器は、1つ以上の入力の第2のセットを第1のユーザのものと考える(3018)。例えば、機器は第1の領域内で第2の1つ以上の入力のセットを検出することに応答して、1つ以上の動作を実行して、第2の1つ以上の入力のセットに従って生成されたデータを第1のユーザに関連した記憶場所に記憶するか、又は、その他の方法で、第1のユーザからの入力であるかのように第2の1つ以上の入力のセットを処理する。いくつかの実施形態では、第2の1つ以上の入力のセットは、他の第2の1つ以上の入力のセットがユーザに対応するという表示を必要とすることなく第1の領域内の入力の位置に基づいて第1のユーザのものと考えられる。例えば、機器は、第2の1つ以上の入力のセット内の接触の指紋を識別しない。その代わりに、第1の領域に発生するジェスチャが、第1のユーザによる入力であると想定される。
いくつかの実施形態では、機器は、第3の1つ以上の入力のセットを検出する(3020)。第3の1つ以上の入力のセットを検出する(3022)ことに応答して、第3の1つ以上の入力のセットが第1の領域内で検出されるという決定に従って、機器は、第1の動作を実行し(例えば、機器は、図29Dを参照して説明するように第1のユーザのフォントプリフェランスに従ってテキスト編集動作を実行するか、又は、第1の領域2913内の接触2914を検出すると、機器は、図29J〜29Kを参照して説明するように、図のために第1のユーザの特殊線幅及び形状塗りつぶしを使用し)、第3の1つ以上の入力のセットが第1の領域の外側で検出されるという決定に従って、機器は、第1の動作と異なる第2の動作を実行する(例えば、第1の領域2908の外側で接触2910を検出すると、機器は、第1のユーザにより作り出された新しいメモを最小化して、図29Eを参照して説明した最近作成又は編集されたメモのリストを再表示する、第1の領域2913の外側で接触2916を検出すると、機器は、図29K〜29Lを参照して説明するように、図に向けてデフォルト線幅及び形状塗りつぶしを使用する)。例えば、第1の領域内の入力は、第1のユーザのユーザプリフェランス(例えば、テキストフォントプリフェランス、テキスト色プリフェランス、線色/幅プリフェランス、特殊辞書又はオートコレクトオプション、又は、第1のユーザに関連した特殊アプリケーションツールバー設定)に従って視覚的要素に変換され、一方、第1の領域の外側の入力は、デフォルトユーザプリフェランス(例えば、デフォルトテキストフォントプリフェランス、デフォルトテキスト色プリフェランス、デフォルト線色/幅プリフェランス、デフォルト辞書、又はオートコレクトオプション、又は、デフォルトアプリケーションツールバー設定)に従って視覚的要素に変換される。
機器は、タッチ感知面の第2の領域を画定する第4の1つ以上の入力のセットをタッチ感知面上で検出する(3024)(例えば、図29Qの、第2の領域2919を画定する指紋2918を含む接触の動き)。例えば、機器は、第2のユーザが、指で(例えば、図29M〜29Qを参照して説明するように)、又は、第2のユーザの作業空間の隅部を識別するためにディスプレイ上で2本、3本、又は、4本の指を同時に置くことにより、タッチ感知面の領域の輪郭を描くのを検出する。機器は、第4の1つ以上の入力のセットが第2のユーザ(例えば、Jane(図29Q)に関連した指紋2918)に関連した第2の指紋を含む第2の接触を含む(3026)と決定する。機器は、第4の1つ以上の入力のセットが第2のユーザに関連した第2の指紋を含む第2の接触を含むという決定に少なくともある程度基づいて、タッチ感知面の第2の領域を第2のユーザと関連づける(3028)(例えば、機器は、指紋2918がJaneに関連していると決定することに少なくとも基づいて、第2の領域2919をJaneと関連づけた)。いくつかの実施形態では、タッチ感知面の第2の領域は、タッチ感知面の第1の領域と異なる(例えば、重なりなし)。
いくつかの実施形態では、タッチ感知面の第1の領域が第1のユーザに関連しており、タッチ感知面の第2の領域が第2のユーザに関連している間に、機器は、第5の1つ以上の入力のセットを検出する(3030)。第5の1つ以上の入力のセットを検出することに応答して、第5の1つ以上の1セットの入力が第1の領域内に検出されるという決定(3032)に従って、機器は、第1の動作を実行(例えば、第1の領域2913内の接触2914を検出すると、機器は、図29J〜29Kを参照して説明するように、Markのプリフェランスに基づいて線幅又は形状塗りつぶしの特殊設定を使用する)し、第5の1つ以上の入力のセットが第2の領域内で検出されるという決定に従って、機器は、第1の動作と異なる第2の動作を実行する(例えば、第2の領域2919内で接触2920を検出すると、機器は、図29R〜29Sを参照して説明するように、Janeのプリフェランスに基づいて線幅又は形状塗りつぶしの特殊設定を使用する)。例えば、第1の領域内の入力は、第1のユーザのユーザプリフェランスに従って視覚的要素(例えば、テキストマークアップ色、テキストフォントプリフェランス、テキスト色プリフェランス、線色/幅プリフェランス、特殊辞書又はオートコレクトオプション、及び/又は、第1のユーザに関連した特殊アプリケーションツールバー設定)に変換され、一方、第2の領域内の入力は、第2のユーザのユーザプリフェランスに従って視覚的要素(例えば、テキストマークアップ色、テキストフォントプリフェランス、テキスト色プリフェランス、線色/幅プリフェランス、特殊辞書又はオートコレクトオプション、及び/又は第2のユーザに関連した特殊アプリケーションツールバー設定)に変換される。
いくつかの実施形態では、第1の領域は、ディスプレイの第1の縁部に近接しており(例えば、第1の領域2913は、図29G〜29Sに示す機器の向きを基準にしてディスプレイの水平下縁部に近接しており)、第1の領域内で表示された1つ以上の第1のユーザインタフェースオブジェクトは、ディスプレイの底部として第1の縁部を使用して向きが定められ(例えば、Markの描画作業空間は、図29I〜29Lを参照して説明するように底部として水平下縁部を使用して向きが定められ)、第2の領域は、(ディスプレイの第1の縁部と異なる)ディスプレイの第2の縁部に近接しており(例えば、第2の領域2919は、図29G〜29Sに示す機器の向きを基準にしてディスプレイの垂直右縁部に近接しており)、第2の領域内で表示された1つ以上の第2のユーザインタフェースオブジェクトは、ディスプレイの底部として第2の縁部を使用して向きが定められる(例えば、Janeの描画作業空間は、図29Q〜29Sを参照して説明するように、底部として垂直右縁部を使用して向きが定められる)。例えば、機器は、オブジェクト/テキストの「底部」が第1の領域に最も近いディスプレイの縁部の方へあるように第1の領域内のテキスト/グラフィカルオブジェクトの向きを定める。同様に、機器は、オブジェクト/テキストの「底部」が第2の領域に最も近いディスプレイの縁部の方へあるように第2の領域内のテキスト/グラフィカルオブジェクトの向きを定める。
図30A〜30Dにおける動作について記載された特定の順序は単なる例示であり、記載された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書で説明される動作の再順序付けをするさまざまな方法を認識するであろう。加えて、本記載の方法及びに関して本明細書に記載の他の処理の詳細(例えば、パラグラフ[00123]に記載したものは、図30A〜30Bに関連して上述した方法3000と類似の様式で適用可能であることに留意されたい。例えば、方法3000を参照して先述した指紋、接触、ユーザインタフェースオブジェクト、入力、視覚的合図は、任意選択的に、本明細書で説明する他の方法(例えば、パラグラフ[00123]内に記載されたもの)を参照して本記載の指紋、接触、ユーザインタフェースオブジェクト、入力、視覚的合図の特性の1つ以上を有する。簡潔にするため、これらの詳細はここでは繰り返さない。
いくつかの実施形態によれば、図31は、様々な説明する実施形態の原理に従って構成された電子機器3100の機能ブロック図を示す。機器の機能ブロックは、任意選択的に、様々な説明する実施形態の原理を実行するためにハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせにより実行される。図31に記述された機能ブロックが、様々な記述する実施形態の原理を実施するために、任意選択的に合成され、又はサブブロックに分離されることは、当業者により理解される。したがって、本明細書における説明は、あらゆる可能な組み合わせ若しくは分割、又は本明細書に述べられる更なる機能ブロックの定義を任意選択的に支持する。
図31に示すように、電子機器3100は、1つ以上のユーザインタフェースオブジェクトを表示するように構成されたディスプレイユニット3102と、タッチ感知面ユニット3104上で接触を受け取るように構成されたタッチ感知面ユニット3104と、指紋センサユニット3106と、ディスプレイユニット3102、タッチ感知面ユニット3104及び指紋センサユニット3106に結合された処理ユニット3108とを含む。いくつかの実施形態では、処理ユニット3108は、検出ユニット3110と、決定ユニット3112と、関連づけユニット3114と、表示有効化ユニット3116と、帰属化ユニット3118及び実行ユニット3120とを含む。
処理ユニット3108は、(例えば、検出ユニット3110で)タッチ感知面ユニット3104の第1の領域を画定するタッチ感知面ユニット3104上で第1の1つ以上の入力のセットを検出し、第1の1つ以上の入力のセットを検出した後に(例えば、決定ユニット3112で)第1の1つ以上の入力のセットが第1のユーザに関連した第1の指紋を含む第1の接触を含むと決定して、第1の1つ以上の入力のセットが第1のユーザに(例えば、関連づけユニット3114に)関連した第1の指紋を含む第1の接触を含むという決定に少なくともある程度基づいて、タッチ感知面ユニット3104の第1の領域を第1のユーザと関連づけるように構成される。
いくつかの実施形態では、タッチ感知面ユニット3104の第1の領域は、タッチスクリーンディスプレイの領域である。
いくつかの実施形態では、処理ユニット3108は、タッチ感知面ユニット3104の第1の領域を第1のユーザと関連づけた後、(例えば、表示有効化ユニット3116で)第1の領域の範囲の視覚的合図の表示を有効化するように構成される。
いくつかの実施形態では、処理ユニット3108は、タッチ感知面ユニット3104の第1の領域が第1のユーザに関連している間に、第1の領域(例えば、検出ユニット3110で)以内で第2の1つ以上の入力のセットを検出して、(例えば、帰属化ユニット3118で)第2の1つ以上の入力のセットを第1のユーザのものと考えるように構成される。
いくつかの実施形態では、処理ユニット3108は、タッチ感知面ユニット3104の第1の領域が第1のユーザに関連している間に、(例えば、検出ユニット3110で)第3の1つ以上の入力のセットを検出し、第3の1つ以上の入力のセットを検出することに応答して、第3の1つ以上の入力のセットが第1の領域内で検出されるという決定に従って、(例えば、実行ユニット3120で)第1の動作を実行して、第3の1つ以上の入力のセットが第1の領域の外側で検出されるという決定に従って、(例えば、実行ユニット3120で)第1の動作と異なる第2の動作を実行するように構成される。
処理ユニット3108は、タッチ感知面ユニット3104の第1の領域が第1のユーザに関連している間に、(例えば、検出ユニット3110で)タッチ感知面ユニット3104の第2の領域を画定するタッチ感知面ユニット上で第4の1つ以上の入力のセットを検出し、(例えば、決定ユニット3112で)第4の1つ以上の入力のセットが第2のユーザに関連した第2の指紋を含む第2の接触を含むと決定して、第4の1つ以上の入力のセットが第2のユーザに(例えば、関連づけユニット3114に)関連した第2の指紋を含む第2の接触を含むという決定に少なくともある程度基づいて、タッチ感知面ユニット3104の第2の領域を第2のユーザと関連づけるように構成される。
いくつかの実施形態では、処理ユニット3108は、タッチ感知面ユニット3104の第1の領域が第1のユーザに関連して、タッチ感知面ユニット3104の第2の領域が第2のユーザに関連している間に、(例えば、検出ユニット3110で)第5の1つ以上の入力のセットを検出し、第5の1つ以上の入力のセットを検出することに応答して、第1の1つ以上の入力のセットが第1の領域内で検出されるという決定に従って、(例えば、実行ユニット3120で)第1の動作を実行して、1つ以上の入力の第1のセットが第1の領域の外側で検出されるという決定に従って、(例えば、実行ユニット3120で)第1の動作と異なる第2の動作を実行するように構成される。
いくつかの実施形態では、第1の領域は、ディスプレイの第1の縁部に近接しており、第1の領域内で表示された1つ以上の第1のユーザインタフェースオブジェクトは、ディスプレイの底部として第1の縁部を使用して向きが定められ、第2の領域は、ディスプレイユニット3102の第1の縁部と異なるディスプレイユニット3102の第2の縁部に近接しており、及び、かつ、第2の領域内で表示された1つ以上の第2のユーザインタフェースオブジェクトは、ディスプレイの底部として第2の縁部を使用して向きが定められる。
先述した情報処理方法の動作は、(例えば、図1A及び3に関して先に説明したように)汎用プロセッサ又は特定用途向けチップなどの情報処理装置において1つ以上の機能モジュールを実行することにより任意選択的に実行される。
図30A〜30Bを参照して先述した動作は、任意選択的に、図1A〜1B又は図31に示す構成要素により実行される。例えば、検出する動作3002、決定する動作3008及び関連づける動作3010は、任意選択的に、イベントソータ170、イベント認識部180、及びイベントハンドラ190により実行される。イベントソータ170のイベントモニタ171は、タッチ感知ディスプレイ112上の接触を検出し、イベントディスパッチャモジュール174は、イベント情報をアプリケーション136−1に渡す。アプリケーション136−1のそれぞれのイベント認識部180は、イベント情報をそれぞれのイベント定義186と照会し、タッチ感知面上の第1の位置の第1の接触がユーザインタフェース上のオブジェクトの選択などの、既定のイベント又はサブイベントに対応するかどうかを判定する。それぞれの既定のイベント又はサブイベントが検出されると、イベント認識部180は、イベント又はサブイベントの検出に関連するイベントハンドラ190をアクティブ化する。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデーター176若しくはオブジェクトアップデーター177を任意選択的に利用するか又は呼び出す。いくつかの実施形態において、イベントハンドラ190は、アプリケーションにより表示されるものを更新するためのそれぞれのGUIアップデーター178にアクセスする。同様に、当業者にとって、他の処理が図1A〜1Bに示される構成要素に基づいてどのように実施されるかは明らかであるだろう。
ユーザに対する適切な指使い技術のトレーニング
電子機器上でのタイピング及びピアノ又は電気キーボードを弾くなどのタスクを効果的に実行するには、ユーザは、適切な指使い技術を使用する必要がある。例えば、キーボード(例えば、電子機器又はタイプライターに関連したQWERTYキーボード)でタイプするときにユーザの速度及び精度を向上させるために、「タッチタイピング」として知られている技術が開発された。この技術では、ユーザは、8本の指(左右の親指を除く)をQWERTYキーボード上で文字の中央列に沿って軽く置く(例えば、ユーザの左の小指、薬指、中指及び人差指は、それぞれ、「A」、「S」、「D」及び「F」キー上に場所、ユーザの右の人差指、中指、薬指及び小指は、それぞれ、「J」、「K」、「L」及び「.」キー上に置かれる)。基本の手の位置としてこの配置を使用して、キーボードのそれぞれのキーには、キーを押すために使用されるべきである指が割り当てられ、押し下げられたキーに関連した文字が、接続された機器(例えば、コンピュータなどの電子機器又はタイプライター)上でタイプされる。タッチタイピングに熟達すると、ユーザは、視覚的識別ではなく、筋肉メモリに頼って、文字列をタイプすることができ、効率が上がる。ユーザの適切なタイピング技術のトレーニングを行う従来の方法は、ユーザが対応する指で特定のキーを押し、及び/又は、一連の練習を行う実施方法の運動を実行する指示を含む。しかしながら、コンピュータがタイプされる文字の精度に関するフィードバックを供給することができるが、コンピュータは、ユーザがキーボードでそれぞれのキーを押すために正しい指を使用したかどうかに関するフィードバックをユーザに供給することはできない。
同様に、高い熟達度で音楽的なキーボードを弾くには、(例えば、適切な技術でキーを押すことにより)一貫した音質を生成して、(例えば、コードでキーの組み合わせを同時に押すか、又は、楽節で連続的に一連のキーを押すことにより)適当な速度及び精度を達成するために適切な指使い技術が必要である。音楽キーボード(例えば、ピアノ)を演奏するために音楽家を訓練する従来の方法としては、適切な技術を実証すると共に音楽家を目指す学習者にフィードバックを提供することができる講師との一対一の(例えば、「個人」)レッスンが挙げられる。しかしながら、個人レッスンは、極端に高価になり兼ねず、典型的には十分に前もって予定しなければならない。あるいは、ユーザが、電子機器にキーボードを接続することを可能にするか、又は、代用キーボードとしてタッチ感知面を有する電子機器の使用を可能にするプログラムが存在する。コンピュータでタイピングを習得するために使用されるプログラムと同様に、これらのプログラムは、ユーザの指使い技術ではなく、演奏される楽譜の精度に関するフィードバックを供給することができる。
以下で説明する実施形態では、改良形の方法及び適切な指使い技術(例えば、タイプ、又は、音楽キーボードの演奏)のユーザインタフェースが、指接触を検出して指接触に関連した指紋を分析することにより電子機器にて達成される。このようにして、電子機器はどの指が、いくつかの実施形態では、指先のどの部分が分ける接触を成すために使用されたか決定することができる。有利なことに、タイピング及び音楽キーボード演奏をトレーニングすることのための従来の電子方法と異なり、以下で説明する方法及びユーザインタフェースは、適切な指使い技術が使用されているかどうか(例えば、ユーザが正しい高さ及び方向にて音楽キーボードに接触しているかどうか、指の適切な組み合わせが和音及び楽節を弾くために使用されているかどうか、及び、正しい指がタイピングに使用されるかどうか)を示すフィードバックを提供する。更に、方法及び以下で説明するユーザインタフェースは、独学するために使用されることができ、音楽の個人レッスンを受けることに関連した経費及びスケジューリングの制限が排除される。
いくつかの実施形態では、機器は、別個のディスプレイ(例えば、ディスプレイ450)及び別個のタッチ感知面(例えば、タッチ感知面451)を有する電子機器である。いくつかの実施形態では、機器は、携帯型多機能機器100であり、ディスプレイは、タッチスクリーン112であり、タッチ感知面は、ディスプレイ(図1A)上の触覚出力発生器167を含む32A〜32S及び33A〜33Cを参照して以下で説明する機器は、1つ以上の指紋センサ169を含む。いくつかの実施形態では、1つ以上の指紋センサは、タッチ感知面(例えば、別個のタッチ感知面451又はタッチ感応表示システム112)に一体化される1つ以上の統合指紋センサ359−1(図4B)を含むいくつかの実施形態では、1つ以上の指紋センサは、タッチ感知面(例えば、別個のタッチ感知面451又はタッチ感応表示システム112)とは別個である別個の指紋センサ359−2(図4B)を含む。特に指定がない限り、以下で説明する指紋センサ169は、指紋センサ169を含む機器のハードウェア及びソフトウェアの構成に応じて、任意選択的に、統合指紋センサ359−1又は別個の指紋センサ359−2である。説明の便宜上、図32A〜32S及び33A〜33Cを参照して説明する実施形態統合指紋センサ359−1を有するタッチスクリーン112(例えば、個々の指紋隆起部により形成された指紋特徴部を検出するのに十分高い空間解像度を有するタッチスクリーン112)、しかしながら、類似した動作が、図32A〜32Sに示すユーザインタフェースを表示している間にディスプレイ450上で図32A〜32Sで説明する入力を検出することに応答して統合指紋センサ359−1上で任意選択的に別個の指紋センサ359−1を有する機器上で実行される。
図32A〜32Sは、個々の指紋隆起部により形成された指紋特徴部を検出するのに十分高く、該隆起部を指紋センサとして使用することができる空間解像度を有するタッチスクリーン112を有する多機能機器100を示す。いくつかの実施形態では、多機能機器100は、あるいは又は更に別個の指紋センサ169を有する。図32A〜32Pは、タッチスクリーン112上で表示されたユーザインタフェース3200、つまり、複数のアクティブ化可能なユーザインタフェースオブジェクト(例えば、キー3202−1〜3202−24)を有する音楽キーボード3201を含むユーザインタフェース3200を示す。図32Q〜32Sは、タッチスクリーン112上で表示されたユーザインタフェース3240、つまり、複数のアクティブ化可能なユーザインタフェースオブジェクト(例えば、キー3232−1〜3232−41)を有するQWERTY文字入力キーボード3222を含むユーザインタフェース3240を示す。図32C〜32K及び32Mは、イベント(例えば、音楽キーボード3201上のキーのディスプレイに対応するタッチスクリーン112上の位置での適格な接触の検出)を生成する音声出力に応答して、スピーカ111にて生成された音声出力3208の1つ以上の可聴周波数を示す可聴周波数計3210を含む。これらの可聴周波数計は、典型的には、表示されたユーザインタフェースの一部でなくて、図の解釈を支援するために提示される。
図32A〜32Pは、多機能機器100は、音楽キーボードにおけるアクティブ化可能な音楽キーの表示に対応するタッチスクリーン112上の位置にて接触の指紋模様を検出し、指紋模様の1つ以上の特性に基づいて、タッチスクリーン112上で接触を行うために使用された指使いが好適な指使いでない場合、ユーザにフィードバックを提供し、かつ、接触を行うために使用された指使いが好適な指使いである場合、音符(例えば、生成された音声出力3208)を弾く様々な実施形態を示す。
例えば、図32Aに示すように、図32A〜32Gは、多機能機器100が音楽キーボード3201上のキー3202−5(例えば、「E3」キー)の表示に対応するタッチスクリーン112上の位置にて接触3204の指紋模様を検出する様々な実施形態を示す。多機能機器100は、接触3204の指紋模様が好適な指使いに対応するかどうか決定し、好適な指使いは、少なくとも、「E3」キー3202−5をアクティブ化するために使用された接触3204の指紋模様に対応する指は、ユーザの左の中指であるという基準を含む。
図32B、32D〜32Fは、接触3205を行うために使用された指使いが、少なくとも「E3」キー3202−5がユーザの左の中指により接触されるという基準に基づいて好適な指使いではない様々な実施形態を示す。多機能機器100は、(例えば、少なくとも指紋模様に対応する指のアイデンティティの決定を含む)接触3205の指紋模様を分析して、図32B、32D〜32Fの接触3205はユーザの左の薬(LR)指により行われたと決定する。ユーザ左の薬指が所定の好適な指(例えば、ユーザの左の中指)に一致しないので、多機能機器100は、好適な指使いが使用されなかったことを示すフィードバックをユーザに提供する。
いくつかの実施形態では、ユーザが間違った指(例えば、左の中指の代わりに左の薬指)を使用したことを示すフィードバックは、視覚フィードバックを含む。例えば、図32B及び32Dに示すように、「E3」キー3202−5にユーザの左の薬(LR)指で接触したとき、大きい「X」3206がタッチスクリーン112上で表示される。
いくつかの実施形態では、ユーザが間違った指(例えば、左の中指の代わりに左の薬指)を使用したことを示すフィードバックは、可聴フィードバックを含む。例えば、図32Eに示すように、「E3」キー3202−5にユーザの左の薬(LR)指で接触させたとき、多機能機器100は、161.00Hzの周波数3210を有する「E3」トーンとは調子はずれである、164.81Hzの周波数を有する音声出力3208をスピーカ111にて生成する。特に、一連の音符(例えば、楽節の一部として)で、又は、和音で弾かれたとき、ユーザは、音符が「外れている」と察知し、好適ではない指使いを使用したことが示される。
いくつかの実施形態では、ユーザが間違った指(例えば、左の中指の代わりに左の薬指)を使用したことを示すフィードバックは、触覚フィードバックを含む。図32Fに示すように、「E3」キー3202−5にユーザの左の薬(LR)指で接触させたときに、多機能機器100は、(例えば、触覚出力発生器167を使用して)触覚出力3212を生成する。
図32C及び32Gは、接触3207を行うために使用された指使いが、少なくとも「E3」キー3202−5がユーザの左の中指により接触されるという基準に基づいて好適な指使いである様々な実施形態を示す。多機能機器100は、(例えば、少なくとも指紋模様に対応する指のアイデンティティの決定を含む)接触3205の指紋模様を分析して、図32C及び32Gの接触3205はユーザの左の中(LM)指により行われたと決定する。ユーザ左の中指が所定の好適な指であるので、多機能機器100は、「E3」トーンの本当の周波数に対応する、164.81Hzの周波数を有する音声出力3208をスピーカ111にて生成する。図32Cでは、いくつかの実施形態により、多機能機器100は、好適な指使いが使用されたことを示すフィードバックを提供しない。図32Gでは、いくつかの実施形態により、多機能機器100は、タッチスクリーン112上で星印3218を表示することにより、好適な指使いが使用されたことを示すフィードバックを提供する。
図32H〜32Jは、ハ長調三和音を弾く好適な指使いがユーザの左の小指、左の中指及び左の親指を含む様々な実施形態を示す。例えば、好適な指使い基準は、それぞれ、図32H〜32Jの音楽キーボード3201上で「C」キー3202−1、「E3」キー3202−5及び「G」キー3202−8をアクティブ化するために使用された接触3214、3217及び3216の指紋模様は、好適な指使いに対応するという基準を含む。
図32H〜32Iは、図32H〜32Iにおいて接触3214、3217及び3216を行うために使用された指使いは、音楽キーボード3201上で「E3」キー3202−5をアクティブ化するために使用された図32H〜32Iの接触3217の指紋模様はユーザ左の中指ではなくユーザ左薬(LR)指に対応するので好適な指使いではない様々な実施形態を示す。図32Hでは、いくつかの実施形態により、多機能機器100は、タッチスクリーン112上で大きい「X」3206を表示することにより、好適ではない指使いが使用されたことを示す視覚フィードバックを提供する。図32Iでは、いくつかの実施形態により、多機能機器100は、タッチスクリーン112上で大きい「X」3206を表示することにより、かつ、音声出力3208、つまり、161.00Hzの周波数を有するトーンを含む音声出力3208をスピーカ111にて生成し、及び、聞き取れるほどに調子はずれであるハ長調和音を作成することすることにより、好適ではない指使いが使用されたことを示す視覚及び音声フィードバックを提供する。
図32Jは、図32Jの接触3219、3221及び3223の指紋模様が、それぞれ、ユーザの左の小指(LP)、左の中指(LM)及び左の親指(LT)に対応するという決定に少なくとも基づいて、ハ長調三和音を弾くために使用された指使いが好適な指使いである実施形態を示す。これに応答して、多機能機器100は、いくつかの実施形態により、タッチスクリーン112上で星印3218を表示することにより、適切に調整されたハ長調三和音に対応する音声出力3208をスピーカ111にて生成して、和音を弾くために使用された指使いが好適な指使いであったことを示す視覚フィードバックを提供する。
図32K〜32Lは、好適な指使い基準がアクティブ化する接触の指紋模様が、ユーザが指腹又は指先の全体に対して指先の先端でタッチスクリーン112に接触するのと一致する基準を含む様々な実施形態を示す。
図32Kに示すように、多機能機器100は、音楽キーボード3201のアクティブ化可能な「E3」キー3202−5の表示に対応する接触3225をタッチスクリーン112上の位置にて検出する。図32Kの接触3225の指紋模様がユーザ左の中(LM)指先の先端に対応するので、多機能機器100は、接触が所定の指使い基準を満たすと決定して、適切に調整された「E3」トーンに対応する、164.81Hzの周波数を有する音声出力3208をスピーカ111にて生成する。多機能機器100は、いくつかの実施形態により、また、タッチスクリーン112上で星印3218を表示することにより、音符を弾くために使用された指使いが好適な指使いであったことを示す視覚フィードバックを提供する。
図32Lは、ユーザの指の先端がキーをアクティブ化するために使用されるという基準を含め、好適な指使い基準が満たされない実施形態を示す。多機能機器100は、タッチスクリーン112上で、図32Lの音楽キーボード3201上の「E3」キー3202−5の表示に対応する位置にて接触3227を検出する。図32Fの接触3227が好適な指使い基準を満たさないという決定で、接触の指先模様はユーザの左の中(FM)指先のパッドに対応するので、多機能機器100は、タッチスクリーン112上で大きい「X」3206を表示し、好適な指使いが使用されなかったことを示す視覚フィードバックが提供される。
図32M〜32Pは、好適な指使い基準がユーザが音楽キーボードの縁部の方へ後ろに移動する指の動きで音楽のキーをアクティブ化するという基準を更に含む様々な実施形態を示す。
図32M〜32Nに示すように、多機能機器100は、音楽キーボード3201のアクティブ化可能な「E3」キー3202−5の表示に対応する接触3228をタッチスクリーン112上の位置にて検出する。接触3228の指紋模様が図32Mのタッチスクリーン112上の位置3228−aから図32Nのタッチスクリーン112上での位置3228−bへの接触3228の動き3220を含むので、多機能機器100は、接触が所定の指使い基準を満たすと決定し、これに応答して、164.81Hzの周波数を有する、適切に調整された「E3」トーンに対応する音声出力3208をスピーカ111にて、生成する。多機能機器100は、いくつかの実施形態により、また、図32Nにおいてタッチスクリーン112上で星印3218を表示することにより、音符を弾くために使用された指使いが好適な指使いであったことを示す視覚フィードバックを提供する。図32M〜32Nの接触3228の指紋模様も、いくつかの実施形態により、更に好適な指使い基準に一致するユーザの左の中(LM)指先の先端に対応する。
図32O〜32Pに示すように、多機能機器100は、音楽キーボード3201のアクティブ化可能な「E3」キー3202−5の表示に対応する接触3229をタッチスクリーン112上の位置にて検出する。図32O〜32Pの接触3229の指紋模様が図32Oにおけるタッチスクリーン112上の位置3229−aから図32Pのタッチスクリーン112上での位置3229−bへの接触3229の動き3230を含むので、多機能機器100は、接触が所定の指使い基準を満たさないと決定し、図32Pにおいてタッチスクリーン112上で大きい「X」3206を表示することにより、これに応答して、音符を弾くために使用された指使いが好適な指使いではなかったことを示す視覚フィードバックを提供する。
図32Q〜32Sは、多機能機器100は、文字入力キーボードにおけるアクティブ化可能な文字入力キーの表示に対応するタッチスクリーン112上の位置にて接触の指紋模様を検出し、指紋模様の1つ以上の特性に基づいて、タッチスクリーン112上で接触を行うために使用された指使いが好適な指使い基準を満たさない場合、ユーザにフィードバックを提供し、かつ、接触を行うために使用された指使いが確かに好適な指使い基準を満たす場合、文字(例えば、文字「c」3232−27)を入力する様々な実施形態を示す。少なくとも、ユーザが左の中指で「C」キー3232−27に接触する基準を含む好適な指使い。
図32Qでは、多機能機器100は、タッチスクリーン112上で文字入力キー3232−27(例えば、「C」キー)の表示に対応する位置にて接触3234を検出する。多機能機器100は、少なくとも接触に対応するユーザ指のアイデンティティを決定するために図32Qの接触3234の指紋模様を分析する。
いくつかの実施形態では、図32Rに示すように、多機能機器100は図32Rの接触3236の指紋模様がユーザの左の人差指(LI)指に対応すると決定するので、接触は、既定の好適な指使い基準を満たさない。これに応答して、多機能機器100は、タッチスクリーン112上で大きい「X」3206を表示して、ユーザが好適な指使いを使用しなかったという視覚フィードバックを提供する。図32Rにおいて接触3236を検出することに応答して、いくつかの実施形態により、多機能機器100は、また、テキストボックス3224で文字「C」3226−53を表示する。
いくつかの実施形態では、図32Sに示すように、多機能機器100は図32Sの接触3238の指紋模様がユーザの左の中(LM)指に対応すると決定するので、接触は、既定の好適な指使い基準を満す。これに応答して、多機能機器100は、文字「c」をテキストボックス3224で表示する。いくつかの実施形態では、文字入力キーをアクティブ化する接触が好適な指使い基準を満たさないときに、機器は、文字入力キーに対応する文字を入力しない(例えば、機器は、好適ではない指での文字入力キーの選択をキーの起動の失敗として処理し、その代わりに、ユーザに、文字を入力するために好適な指を使用して文字入力キーをアクティブ化することを要求する)。
図33A〜33Cは、いくつかの実施形態に係る、ユーザに適切な指使い技術をトレーニングする方法3300を示す流れ図である。方法3300は、ディスプレイと、タッチ感知面とを有する電子機器(例えば、図3の機器300、又は、図1Aの携帯型多機能機器100)にて実行される。いくつかの実施形態において、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面がディスプレイ上にある。いくつかの実施形態において、ディスプレイはタッチ感知面から分離している。方法3300の一部の動作が、任意選択的に、組み合わされ、及び/又は、一部の動作の順序が、任意選択的に変えられる。
以下で説明するように、方法3300は、ユーザに適切な指使い技術をトレーニングする直観的方法を提供する。この方法により、適切な指使い技術を習得するとき、ユーザの認識的負担が軽減され、より効率的なヒューマン−マシンインタフェースが作成される。バッテリ動作電子機器では、ユーザが作業空間を適切な指使い技術を習得することを可能にすることにより、より高速かつ効率的に電力を保存し、バッテリの充電の間の時間を増やす。
いくつかの実施形態では、タッチ感知面(例えば、図32A〜32Sのタッチスクリーン112)と、ディスプレイ(例えば、図32A〜32Sのタッチスクリーン112)とを有する電子機器(例えば、図32A〜32Sの多機能機器100)は、それぞれのアクティブ化可能なユーザインタフェースオブジェクト(例えば、図32A〜32Pの音楽キーボード3201の「E3」キー3202−5及び/又は図32Q〜32SのQWERTY文字入力キーボード3222の文字「C」入力キー3232−27)を含むユーザインタフェース(例えば、図32A〜32Sのユーザインタフェース3200)を表示する(3302)。いくつかの実施形態では、ユーザインタフェースは、複数のアクティブ化可能なユーザインタフェースオブジェクト(例えば、アクティブ化可能な複数のユーザインタフェースオブジェクト)を含む。例えば、ユーザインタフェース3200は、図32A〜32Pにおいて音楽キーボード3201の複数のアクティブ化可能な音楽のキー3202−1〜3202−24を表示し、ユーザインタフェース3240は、図32Q〜32SにおいてQWERTY文字入力キーボード3222の複数のアクティブ化可能な文字入力キー3232−1〜3232−41を表示する。
いくつかの実施形態では、それぞれのアクティブ化可能なユーザインタフェースオブジェクト(例えば、図32A〜32Pのアクティブ化可能な「E3」キー)は、音楽キーボード(例えば、図32A〜32Pの音楽キーボード3201などの仮想ピアノ鍵盤)の描像のキー(例えば、図32A〜32Pのアクティブ化可能なキー3202−1、3202−24)に対応する複数のアクティブ化可能なユーザインタフェースオブジェクトの1つである(3304)。
いくつかの実施形態では、それぞれのアクティブ化可能なユーザインタフェースオブジェクト(例えば、図32Q〜32Sのアクティブ化可能な文字「C」入力キー3232−27)は、文字入力キーボード(例えば、仮想テキストキーボード(図32Q〜32SのQWERTYキーボード3222など))の描像におけるキー(例えば、アクティブ化可能な文字入力キー3232−1〜3232−41)に対応する複数のアクティブ化可能なユーザインタフェースオブジェクトの1つである(3306)。
電子機器(例えば、多機能機器100)は、ディスプレイ(例えば、タッチスクリーン112)上のそれぞれのアクティブ化可能なユーザインタフェースオブジェクト(例えば、図32A〜32Pの「E3」キー3202−5及び/又は図32Q〜32Sの文字「C」入力キー3232−27)上であるフォーカスセレクタ(例えば、図32A〜32Sの接触3204、3205、3207、3214、3216、3217、3219、3221、3223、3225、3227、3228、3229、3234、3236及び/又は3238)に対応するタッチ感知面(例えば、タッチスクリーン112)上の接触(例えば、図32A〜32Sの接触3204、3205、3207、3214、3216、3217、3219、3221、3223、3225、3227、3228、3229、3234、3236及び/又は3238)の指紋模様を検出する(3308)。いくつかの実施形態では、図32A〜32Sに示すように、機器は、それぞれのアクティブ化可能なユーザインタフェースオブジェクト上での接触をタッチスクリーンディスプレイ上で検出する。いくつかの実施形態では、機器は、フォーカスセレクタを表示する関連のディスプレイ上の位置に対応する位置にて、関連のディスプレイとは別個の、タッチ感応表面上の接触を検出する。
ディスプレイ(例えば、タッチスクリーン112)上のそれぞれのアクティブ化可能なユーザインタフェースオブジェクト(例えば、図32A〜32Pの「E3」キー3202−5及び/又は図32Q〜32Sの文字「C」入力キー3232−27)上のフォーカスセレクタに対応するタッチ感知面上の接触(例えば、図32A〜32Sの接触3204、3205、3207、3214、3216、3217、3219、3221、3223、3225、3227、3228、3229、3234、3236及び/又は3238)の指紋模様を検出することに応答して(3310)、機器(例えば、多機能機器100)は、接触の1つ以上の指使い特性を決定するために、タッチ感知面(例えば、タッチスクリーン112)上の接触(例えば、図32A〜32Sの接触3204、3205、3207、3214、3216、3217、3219、3221、3223、3225、3227、3228、3229、3234、3236や3238)の指紋模様を分析して(3312)、1つ以上の指使い特性に基づいて、接触(例えば、図32A〜32Sの接触3204、3205、3207、3214、3216、3217、3219、3221、3223、3225、3227、3228、3229、3234、3236や3238)が、既定の好適な指使い基準を満たすかどうか決定する(3314)。
いくつかの実施形態では、好適な指使い基準は、アクティブ化可能なユーザインタフェースオブジェクト(例えば、図32A〜32Pの「E3」キー3202−5及び/又は図32Q〜32Sの文字「C」入力キー3232−27)をアクティブ化するために使用された接触(例えば、図32A〜32Sの接触3204、3205、3207、3214、3216、3217、3219、3221、3223、3225、3227、3228、3229、3234、3236及び/又は3238)の指紋模様に対応する指がアクティブ化可能なユーザインタフェースオブジェクトをアクティブ化する手の好適な指に一致する(例えば、QWERTYキーボード上の「j」キーは、好ましくは、標準的なタッチタイピング基準を使用して右の人差指によりアクティブ化し、QWERTYキーボード上の「f」キーは、好ましくは、標準的なタッチタイピング基準を使用して左の人差指によりアクティブ化する)ときに満たされる基準を含む(3316)。例えば、好適な指使い基準は、図32C、32G及び32J−32Nでは、「E3」キー3202−5がユーザの左の中(LM)指に対応する指紋模様を有する接触3207、3221、3225、3227及び/又は3228によりアクティブ化したときに満たされる。これとは対照的に、この好適な指使い基準は、図32B、32D〜32F及び32H〜32Iでは「E3」キー3202−5がユーザの左薬(LR)指に対応する指紋模様を有する接触3205及び/又は3217によりアクティブ化したときには満たされない。別の実施例として、好適な指使い基準は、図32Sでは、文字「C」入力キー3232−27がユーザの左の中(LM)指に対応する指紋模様を有する接触3228によりアクティブ化したときに満たされる。これとは対照的に、好適な指使い基準は、図32Rでは、文字「C」入力キー3232−27がユーザの左の人差指(LI)指に対応する指紋模様を有する接触3236によりアクティブ化したときには満たされない。
いくつかの実施形態では、好適な指使い基準は、タッチ感知面(例えば、タッチスクリーン112)上の接触(例えば、図32K〜32Pの接触3225、3227、3228及び/又は3229)の指紋模様が、アクティブ化可能なユーザインタフェースオブジェクト(例えば、図32K〜32Pの「E3」キー3202−5)をアクティブ化するために使用された指と、アクティブ化可能なユーザインタフェースオブジェクトをアクティブ化する好適な初期迎角の既定の範囲内である、アクティブ化可能なユーザインタフェースオブジェクトが表示されるディスプレイ(例えば、タッチスクリーン112)との間の初回迎角に対応する(例えば、音楽キーボード上のキーは、好ましくは標準的なピアノ演奏指針による指の腹よりもむしろ指の先端で行われる)ときに満たされる基準を含む(3318)。例えば、好適な指使い基準は、図32K及び32M〜32Pでは、「E3」キー3202−5がユーザの指先の先端に対応する指紋模様を有する接触3225、3228及び/又は3229によりアクティブ化したときに満たされる。これとは対照的に、好適な指使い基準は、図32Lである、「E3」キー3202−5がユーザの指先の指腹に対応する指紋模様を有する接触3227によりアクティブ化したときには満たされない。
いくつかの実施形態では、好適な指使い基準は、タッチ感知面(例えば、タッチスクリーン112)上の接触(例えば、図32M〜32Pの接触3228及び/又は3229)の指紋模様がアクティブ化可能なユーザインタフェースオブジェクトをアクティブ化する好適な動きの既定の範囲内である、アクティブ化可能なユーザインタフェースオブジェクト(例えば、図32K〜32Pの「E3」キー3202−5)をアクティブ化する指の動きに対応する(例えば、音楽キーボード上のキーは、指の先端がキーボードへ前方にではなく、キーボードの縁部の方に後退する状態で、及び/又は既定の強度で弾かれるべきである)ときに満たされる基準を含む(3320)。例えば、好適な指使い基準は、図32M〜32Nでは、「E3」キー3202−5がタッチスクリーン112上で表示される音楽キーボード3201の描像のタッチスクリーン112上の接触の初回位置から、前端の方へのユーザの指先の後退(例えば、図32Mの位置3228−aから図32Nの位置3228−bへの接触3228の動き3220)に対応する指紋模様を有する接触3228によりアクティブ化したときに満たされる。これとは対照的に、好適な指使い基準は、図32O〜32Pでは、「E3」キー3202−5がタッチスクリーン112上で表示される音楽キーボード3201の描像の前端から離れてタッチスクリーン112上の接触の初回位置へのユーザの指先の前進(例えば、図32Oの位置3229−aから図32Pの位置3229−bへの接触3229の動き3230)に対応する指紋模様を有する接触3229によりアクティブ化したときには満たされない。
接触(例えば、図32A〜32Sの接触3204、3205、3207、3214、3216、3217、3219、3221、3223、3225、3227、3228、3229、3234、3236及び/又は3238)が好適な指使い基準を満たさないという決定に従って、機器(例えば、多機能機器100)は、好適な指使い基準が満たされなかったことを示すフィードバック(例えば、図32B、32D、32H〜32I、32L、32P及び32Rにおいてタッチスクリーン112上に表示される大きい「X」3206などの視覚フィードバック、図32E及び321においてスピーカ111にて生成される161.00Hzの周波数を含む音声出力3208などの音声フィードバック、及び/又は、例えば、図32Fにおいて触覚出力発生器167により生成される触覚出力3212などの触覚フィードバック)を提供する(3322)。
いくつかの実施形態では、接触が好適な指使い基準を満たさないという決定に従って、機器(例えば、多機能機器100)はアクティブ化可能なユーザインタフェースオブジェクト(例えば、図32A〜32Pの「E3」キー3202−5及び/又は図32Q〜32Sの文字「C」入力キー3232−27)に関連した動作を実行する(例えば、音符「E3」を弾く、又は、テキストボックスへ文字「C」を入力する)(3324)。したがって、いくつかの実施形態では、好適な指使い基準が満たされなかったときにさえ、機器は、それでも、アクティブ化可能なユーザインタフェースオブジェクトをアクティブ化させて、キーが誤って「押」されたという視覚、音声及び/又は触覚フィードバックを提供すると同時に、キーボード上のキーに対応する音符を弾くなど対応する動作を実行する。例えば、接触3205及び/又は3217が少なくとも「E3」キー3202−5がユーザの左の中(FM)指によりアクティブ化する基準を含む既定の指使い基準を満たさないという決定で、多機能機器100は、キーは好適ではない指使いを使用してアクティブ化したという異なる表示を供給する(例えば、ユーザの左の人差指が「E3」キー3202−5をアクティブ化するために使用されたので図32D及び32Hにおいて大きい「X」3206を表示する)と同時に、スピーカ111にて、図32D及び32Hの「E3」キー3202−5のアクティブ化に対応する、(例えば、「E3」トーンの本当の周波数に対応する)164.81の周波数を有する音声出力3208を生成する。別の実施例では、接触3236が少なくとも文字「C」入力キー3232−27がユーザの左の中(FM)指によりアクティブ化する基準を含む既定の指使い基準を満たさないという決定で、多機能機器100は、キーは好適ではない指使いを使用してアクティブ化したという異なる表示を提供する(例えば、ユーザの左の人差指が「C」入力キー3232−27をアクティブ化するために使用されたので図32Rにおいて大きい「X」3206を表示する)と同時に、文字「C」3226−53を、文字「C」入力キー3232−27のアクティブ化に対応する、タッチスクリーン112上で表示されるテキストボックス3224に入力する(例えば、表示する)。
いくつかの実施形態では、接触(例えば、図32A〜32Sの接触3204、3205、3207、3214、3216、3217、3219、3221、3223、3225、3227、3228、3229、3234、3236及び/又は3238)が好適な指使い基準を満たさないという決定に従って、機器(例えば、多機能機器100)は、アクティブ化可能なユーザインタフェースオブジェクト(例えば、図32A〜32Pの「E3」キー3202−5及び/又は図32Q〜32Sの文字「C」入力キー3232−27)に関連した動作の実効を取り止める(例えば、音符「E3」を弾かない、又は、文字「c」をアクティブなテキストボックスに入力しない)(3326)。したがって、いくつかの実施形態では、好適な指使い基準が満たされないとき、機器は、アクティブ化可能なユーザインタフェースオブジェクトをアクティブ化させて、好適な指使い基準が満たされた場合に弾かれるキーボード上のキーに対応する音符を弾くことなど、対応する動作を実行したりしない。例えば、接触3205及び/又は3229が少なくとも「E3」キー3202−5がユーザの左の中(LM)指によりアクティブ化する基準を含む既定の指使い基準を満たさないという決定で、多機能機器100は、スピーカ111にて、図32b及び32O〜32Pの「E3」キー3202−5のアクティブ化に対応する、(例えば、「E3」トーンの本当の周波数に対応する)164.81の周波数を有する音声出力3208を生成することを先行する。
いくつかの実施形態では、好適な指使い基準が満たされなかったことを示すフィードバックは、機器により生成された可聴フィードバックを含む(3328)(例えば、音楽キーボード上の音符を弾く指使い基準が満たされなかったときにまるで音楽キーボードが誤って弾かれたように、スピーカは、警告音を鳴らすか、又は音符は「外れた」音を出す)。例えば、接触3205及び/又は3217は少なくとも「E3」キー3202−5がユーザの左の中(LM)指によりアクティブ化するという基準を含む既定の指使い基準を満たさないという決定で、多機能機器100は、スピーカ111にて、(例えば、調子外れである「E3」トーンに対応する)161.00Hzの周波数を含む音声出力3208を生成して、好適な指使いが、図32E及び321において「E3」キー3202−5をアクティブ化するために使用されなかったことをユーザに示す。いくつかの実施形態では、可聴フィードバックは、好適な指使いが使用されなかったことを示すために音声出力の周波数を変えることの代わりに又はそれに加えて対応する音符の音量、反響又は他の可聴特性を変えることを含む。
いくつかの実施形態では、好適な指使い基準が満たされなかったことを示すフィードバックは、ディスプレイ上で表示される視覚フィードバックを含む(例えば、機器の表示は、点滅するか、又は、接触近傍での強調表示を表示する)(3330)。例えば、接触3205、3217、3227及び/又は3229は少なくとも「E3」キー3202−5がユーザの左の中(LM)指によりアクティブ化するという基準を含む既定の指使い基準を満たさないという決定で、多機能機器100は、タッチスクリーン112上で大きい「X」3206を表示して、好適な指使いが、図32B、32D、32H〜32I、32L及び32Pにおいて「E3」キー3202−5をアクティブ化するために使用されなかったことをユーザに示す。別の実施例では、例えば、接触3236は少なくとも文字「C」入力キー3232−27がユーザの左の中(LM)指によりアクティブ化するという基準を含むの指使い基準を満たさないという決定で、多機能機器100は、タッチスクリーン112上で大きい「X」3206を表示して、好適な指使いが、図32Rにおいて文字「C」入力キー3232−27をアクティブ化するために使用されなかったことをユーザに示す。
いくつかの実施形態では、好適な指使い基準が満たされなかったことを示すフィードバックは、機器により生成された触覚フィードバックを含む(例えば、機器は、ブザー音を鳴らすか、又は、ユーザ指使いが誤っていることを示す何らかの他の触覚出力を提供する)(3332)。例えば、図32Fの接触3205は少なくとも「E3」キー3202−5がユーザの左の中(LM)指によりアクティブ化するという基準を含む既定の指使い基準を満たさないという決定で、多機能機器100は、(例えば、触覚出力発生器167を使用して)触覚出力3212を生成して、好適な指使いが、図32Fにおいて「E3」キー3202−5をアクティブ化するために使用されなかったことをユーザに示す。
接触(例えば、図32A〜32Sの接触3204、3205、3207、3214、3216、3217、3219、3221、3223、3225、3227、3228、3229、3234、3236及び/又は3238)が好適な指使い基準を満たすという決定に従って、機器(例えば、多機能機器100)は、アクティブ化可能なユーザインタフェースオブジェクト(例えば、図32A〜32Pの「E3」キー3202−5及び/又は図32Q〜32S内の文字「C」入力キー3232−27)に関連した動作を実行する(3334)。例えば、機器は、好適な指使い基準が満たされなかったことを示すフィードバックを供給することなく、アクティブ化可能なユーザインタフェースオブジェクトをアクティブ化する。例えば、接触3207、3221、3225及び/又は3228が少なくとも「E3」キー3202−5がユーザの左の中(LM)指によりアクティブ化する基準を含む既定の指使い基準を満たすという決定で、多機能機器100は、スピーカ111にて、図32C、32G、32J−32K及び32M〜32Nの「E3」キー3202−5のアクティブ化に対応する、(例えば、「E3」トーンの本当の周波数に対応する)164.81の周波数を含む音声出力3208を生成する。別の実施例では、接触3238が少なくとも文字「C」入力キー3232−27がユーザの左の中(LM)指によりアクティブ化する基準を含む既定の指使い基準を満たすという決定で、多機能機器100は、図32Sにおいて文字「C」入力キー3232−27のアクティブ化に対応する、文字「c」3226−53をタッチスクリーン112上で表示されるテキストボックス3224に入力する(例えば、表示する)。
いくつかの実施形態では、接触が好適な指使い基準を満たすという決定に従って、機器(例えば、多機能機器100)は、好適な指使い基準が満たされたことを示すフィードバックを提供する(3336)。(例えば、視覚、音声及び/又は触覚フィードバック)。例えば、図32G、32J−32K及び32Nの接触3207、3221、3225及び/又は3228は少なくとも「E3」キー3202−5がユーザの左の中(LM)指によりアクティブ化するという基準を含む既定の指使い基準を満たさないという決定で、多機能機器100は、タッチスクリーン112上で星印3218を表示して、好適な指使いが、図32G、32J−32K及び32Nにおいて「E3」キー3202−5をアクティブ化するために使用されたことをユーザに示す。別の実施例では、例えば、図32Sの接触3228は少なくとも文字「C」入力キー3232−27がユーザの左の中(LM)指によりアクティブ化するという基準を含む既定の指使い基準を満たすという決定で、多機能機器100は、タッチスクリーン112上で星印3218を表示して、好適な指使いが、図32Sにおいて文字「C」入力キー3232−27をアクティブ化するために使用されたことをユーザに示す。
図33A〜33Cにおける動作について記載された特定の順序は単なる例示であり、記載された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書で説明される動作の再順序付けをするさまざまな方法を認識するであろう。加えて、本記載の方法及びに関して本明細書に記載の他の処理の詳細(例えば、パラグラフ[00123]に記載したものは、図33A〜33Cに関連して上述した方法3300と類似の様式で適用可能であることに留意されたい。例えば、方法3300を参照して先述した指紋、接触、ユーザインタフェース、及びフォーカスセレクタは、任意選択的に、本明細書で説明する他の方法(例えば、パラグラフ[00123]に記載したもの)を参照して本記載の指紋、接触、ユーザインタフェース、及びフォーカスセレクタの特性の1つ以上を有する。)簡潔にするため、これらの詳細はここでは繰り返さない。
いくつかの実施形態によれば、図34は、様々な記述する実施形態の原理に従って構成された電子機器3400の機能ブロック図を示す。機器の機能ブロックは、任意選択的に、様々な説明する実施形態の原理を実行するためにハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせにより実行される。図34に記述された機能ブロックが、任意選択的に、様々な記述する本発明の原理を実施するために、合成され、又はサブブロックに分離されることが、当業者により理解される。したがって、本明細書における説明は、あらゆる可能な組み合わせ若しくは分割、又は本明細書に述べられる更なる機能ブロックの定義を任意選択的に支持する。
図34に示すように、電子機器3400は、グラフィックユーザインタフェースを表示するように構成されたディスプレイユニット3402と、ユーザ接触を受け取るように構成されたタッチ感知面ユニット3404と、任意選択的に指紋センサユニット3405と、可聴フィードバックを供給する可聴フィードバックユニット3406と、触覚フィードバックを提供する触覚フィードバックユニット3407と、ディスプレイユニット3402、タッチ感知面ユニット3404、任意選択的に指紋センサユニット3405、可聴フィードバックユニット3406及び触覚フィードバックユニット3407いくつかの実施形態では、処理ユニット3408は、表示有効化ユニット3410と、検出ユニット3412と、分析ユニット3414と、決定ユニット3416と、フィードバック提供ユニット3418と、実行ユニット3420とに結合された処理ユニット3408とを含む。いくつかの実施形態では、処理ユニット3408は、表示有効化ユニット3410と、検出ユニット3412と、分析ユニット3414と、決定ユニット3416と、フィードバック提供ユニット3418と、実行ユニット3420とを含む。
処理ユニット3408は、(例えば、表示有効化ユニット3410で)それぞれのアクティブ化可能なユーザインタフェースオブジェクトを含むユーザインタフェースの表示を可能にして、(例えば、検出ユニット3412で)ディスプレイユニット3402上でそれぞれのアクティブ化可能なユーザインタフェースオブジェクト上にあるフォーカスセレクタに対応するタッチ感知面ユニット3402上の接触の指紋模様を検出するように構成される。処理ユニット3408は、また、ディスプレイユニット3402上のそれぞれのアクティブ化可能なユーザインタフェースオブジェクトの上にあるフォーカスセレクタに対応するタッチ感知面ユニット3404上の接触の指紋模様を検出することに応答して、(例えば、分析ユニット3414で)接触の1つ以上の指使い特性を決定するためにタッチ感知面ユニット3404上の接触の指紋模様を分析して、(例えば、決定ユニット3416で)接触が1つ以上の指使い特性に基づいて既定の好適な指使い基準を満たすかどうか決定するように構成される。処理ユニット3408は、接触が好適な指使い基準を満たさないという決定に従って、(例えば、フィードバック提供ユニット3418で)好適な指使い基準が満たされなかったことを示すフィードバックを提供するように更に構成される。処理ユニット3408は、接触が好適な指使い基準を満たすという決定に従って、(例えば、実行ユニット3420で)アクティブ化可能なユーザインタフェースオブジェクトに関連した動作を実行するように更に構成される。
いくつかの実施形態では、処理ユニット3408は、接触が好適な指使い基準を満たさないという決定に従って、(例えば、実行ユニット3420で)アクティブ化可能なユーザインタフェースオブジェクトに関連した動作を実行するように更に構成される。
いくつかの実施形態では、処理ユニット3408は、接触が好適な指使い基準を満たないという決定に従って、(例えば、実行ユニット3420で)アクティブ化可能なユーザインタフェースオブジェクトに関連した動作を取り止めるように更に構成される。
いくつかの実施形態では、処理ユニット3408は、接触が好適な指使い基準を満たすという決定に従って、(例えば、フィードバック提供ユニット3418で)好適な指使い基準が満たしたことを示すフィードバックを提供するように更に構成される。
いくつかの実施形態では、それぞれのアクティブ化可能なユーザインタフェースオブジェクトは、音楽キーボードの描像においてキーに対応する複数のアクティブ化可能なユーザインタフェースオブジェクトの1つである。
いくつかのの実施形態では、それぞれのアクティブ化可能なユーザインタフェースオブジェクトは、文字入力キーボードの描像においてキーに対応する複数のアクティブ化可能なユーザインタフェースオブジェクトの1つである。
いくつかのの実施形態では、好適な指使い基準は、アクティブ化可能なユーザインタフェースオブジェクトをアクティブ化するために使用された接触の指紋模様に対応する指がアクティブ化可能なユーザインタフェースオブジェクトをアクティブ化する手の既定の好適な指に一致するときに満たされる基準を含む。
いくつかの実施形態では、好適な指使い基準は、タッチ感知面ユニット上の接触の指紋模様は、アクティブ化可能なユーザインタフェースオブジェクトをアクティブ化するために使用された指と、アクティブ化可能なユーザインタフェースオブジェクトをアクティブ化する好適な初期迎角の既定の範囲内にあるアクティブ化可能なユーザインタフェースオブジェクトが表示されるディスプレイユニット3402との間の初回迎角に対応するときに満たされる基準を含む。
いくつかの実施形態では、好適な指使い基準は、タッチ感知面ユニット3404上の接触の指紋模様が、アクティブ化可能なユーザインタフェースオブジェクトをアクティブ化する好適な動きの既定の範囲内にあるアクティブ化可能なユーザインタフェースオブジェクトをアクティブ化する指の動きに対応するときに満たされる基準を含む。
いくつかの実施形態では、好適な指使い基準が満たされなかったことを示すフィードバックは、(例えば、可聴フィードバックユニット3406で)機器3400により生成された可聴フィードバックを含む。
いくつかの実施形態では、好適な指使い基準が満たされなかったことを示すフィードバックは、ディスプレイユニット3402上で表示される視覚フィードバックを含む。
いくつかの実施形態では、好適な指使い基準が満たされなかったことを示すフィードバックは、(例えば、触覚フィードバックユニット3407で)機器3400により生成された触覚フィードバックを含む。
先述した情報処理方法の動作は、(例えば、図1A及び3に関して先に説明したように)汎用プロセッサ又は特定用途向けチップなどの情報処理装置において1つ以上の機能モジュールを実行することにより任意選択的に実行される。
図33A〜33Cを参照して先述した動作は、任意選択的に、図1A〜1B又は図34に示す構成要素により実行される。例えば、表示する動作3302、検出する動作3308、分析する動作3312、決定する動作3314、フィードバックを提供する動作3322及び3336、実行する動作3324及び3334、及び取り止める動作3326は、任意選択的に、イベントソータ170、イベント認識部180及びイベントハンドラ190により実行される。イベントソータ170のイベントモニタ171は、タッチ感知ディスプレイ112上の接触を検出し、イベントディスパッチャモジュール174は、イベント情報をアプリケーション136−1に渡す。アプリケーション136−1のそれぞれのイベント認識部180は、イベント情報をそれぞれのイベント定義186と照会し、タッチ感知面上の第1の位置の第1の接触がユーザインタフェース上のオブジェクトの選択などの、既定のイベント又はサブイベントに対応するかどうかを判定する。それぞれの既定のイベント又はサブイベントが検出されると、イベント認識部180は、イベント又はサブイベントの検出に関連するイベントハンドラ190をアクティブ化する。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデーター176若しくはオブジェクトアップデーター177を任意選択的に利用するか又は呼び出す。いくつかの実施形態において、イベントハンドラ190は、アプリケーションにより表示されるものを更新するためのそれぞれのGUIアップデーター178にアクセスする。同様に、当業者にとって、他の処理が図1A〜1Bに示される構成要素に基づいてどのように実施されるかは明らかであるだろう。
高度な感度動作モードによるタッチ感知面の一部の動作
多くの電子機器は、ログインを有するアプリケーション又は私的コンテンツにアクセスするアプリケーションなど、アイデンティティ認証を利用するアプリケーションを有する。アイデンティティ認証の方法は、指紋の検出及び検証である。機器は、指紋を検出するために十分な感度のタッチ感知面を含むことができる。しかしながら、そのようなタッチ感知面は、より多くの電力を消費し、機器が電池で実行される場合、充電間の時間を短縮させる。以下で説明する実施形態は、指紋を検出するのに十分である高度な感度のモードで、又は、低感度のモードで動作されることができる領域に細分割することができるタッチ感知面を有する機器を含む。タッチ感知面の領域は、1つ以上の基準が満たされた場合に高度な感度モードで動作され、かつ、そうではない場合には低減された感度モードで動作される。これにより、必要に応じてタッチ感知面の部分の感度が高められる。必要に応じて高度な感度モードでタッチ感知面の部分を動作することにより、電力消費が低減され、一方、機器は、指紋検出が可能なままであり、その結果、バッテリ電力を保存する簡便かつ効率的なユーザインタフェースが提供される。
いくつかの実施形態では、機器は、別個のディスプレイ(例えば、ディスプレイ450)と、別個のタッチ感知面(例えば、タッチ感知面451)とを有する電子機器である。いくつかの実施形態では、機器は、携帯型多機能機器100であり、ディスプレイは、タッチスクリーン112であり、タッチ感知面は、ディスプレイ(図1A)上の触覚出力発生器167を含む35A〜35J及び36A〜36Bを参照して以下で説明する機器は、任意選択的に1つ以上の指紋センサ169を含む。いくつかの実施形態では、1つ以上の指紋センサは、タッチ感知面(例えば、別個のタッチ感知面451又はタッチ感応表示システム112)に一体化される1つ以上の統合指紋センサ359−1(図4B)を含むいくつかの実施形態では、1つ以上の指紋センサは、タッチ感知面(例えば、別個のタッチ感知面451又はタッチ感応表示システム112)とは別個である別個の指紋センサ359−2(図4B)を含む。特に指定がない限り、以下で説明する指紋センサ169は、指紋センサ169を含む機器のハードウェア及びソフトウェアの構成に応じて、任意選択的に、統合指紋センサ359−1又は別個の指紋センサ359−2である。説明の便宜上、図35A〜35J及び36A〜36Bを参照して説明する実施形態は、タッチスクリーン112を参照して論じ、そのような実施形態では、フォーカスセレクタは、任意選択的に、それぞれの接触、接触に対応する代表的な点(例えば、それぞれの接触の面心又はそれぞれの接触に関連した点)、又は、カーソルの代わりに、タッチスクリーン112上で検出された2つ以上の接触の面心である。類似した動作が、ディスプレイ450上の図35A〜35Jに示すユーザインタフェースを表示している間に、タッチ感知面451上で図35A〜35Jで説明する入力を検出することに応答して、ディスプレイ450と、別個のタッチ感知面451と、任意選択的に1つ以上の指紋センサ169とを有する機器上で任意選択的に実行される。
図35Aは、機器(例えば、機器100)のタッチスクリーン112上で表示されるユーザインタフェース3501を示す。ユーザインタフェース3501は、図4Aを参照して先述したように、1つ以上のアプリケーションアイコンを含む。タッチスクリーン112は、それぞれ、それぞれのアプリケーションアイコンに対応する1つ以上の領域3502を含む。図35Aに示すように、領域3502−1は、「メッセージ」アイコン424に対応する。領域3502−2は、「カレンダー」アイコン426に対応する。領域3502−3は、「写真」アイコン428に対応する。領域3502−4は、「メモ用紙」アイコン444に対応する。領域3502−5は、「設定」アイコン446に対応する。領域3502−6は、「電話」アイコン416に対応する。領域3502−7は、「メール」アイコン418に対応する。いくつかの実施形態では、領域は、タッチ感知面(例えば、タッチスクリーン112)の象限(又は他の幾何学的な分割)に対応する。
機器100は、低減された感度モード又は高められた感応的にモードでそれぞれの領域(例えば、図35A内の領域3502の1つ)を動作させる。機器100が高感度モードで動作するそれぞれの領域(例えば、図35A内の領域3502の1つ)を動作させるとき、機器100は、タッチスクリーン112上のそれぞれの領域(例えば、図35A内の領域3502の1つ)内の接触の存在/不在及び接触の動きを検出することができ、また、接触を独自に以前に登録された指紋と識別することを可能にする詳細特徴部など、接触の指紋特徴部を検出することができる。機器100が低感度モードで動作するそれぞれの領域(例えば、図35A内の領域3502の1つ)を動作させるとき、機器100は、タッチスクリーン112上のそれぞれの領域(例えば、図35A内の領域3502の1つ)内の接触の存在/不在及び接触の動きを検出することができるが、接触の指紋特徴部を検出することができない。したがって、例えば、接触が高感度モードで動作される機器100のそれぞれの領域(例えば、図35A内の領域3502の1つ)内に位置するとき、機器100は、アイデンティティ認証又は権限付与されたアクセス及び/又は接触の細かい動きの検出に使用することができる指紋特徴部を検出することができる。他方、接触が低感度モードで動作するそれぞれの領域(例えば、図35A内の領域3502の1つ)内に位置するとき、機器100は、接触の指紋特徴部を検出することができない。いくつかの実施形態では、機器100は、独立して動作し、かつ、低感度モードと高感度モードとの間で各それぞれの領域(例えば、図35A内の領域3502の1つ)を遷移する。いくつかの実施形態では、タッチスクリーン112の大半、又は、任意選択的に、タッチスクリーン112全体を高感度動作モードで動作することができる。
接触がそれぞれの領域(例えば、図35A内の領域3502の1つ)上で検出されなかったとき、機器100は、低感度モードでそれぞれの領域(例えば、図35A内の領域3502の1つ)を動作させる。低感度モードでそれぞれの領域(例えば、図35A内の領域3502の1つ)を動作させると、高感度モードで同じそれぞれの領域(例えば、図35A内の領域3502の1つ)を動作させるよりも消費電力が少ない。機器100が低感度モードで動作するそれぞれの領域(例えば、図35A内の領域3502の1つ)において接触を検出したとき、機器100は、接触が1つ以上の指紋センサアクティブ化基準を満たす場合、高感度モードでそれぞれの領域(例えば、図35A内の領域3502の1つ)を動作し、そうでない場合には、低感度モードでそれぞれの領域(例えば、図35A内の領域3502の1つ)を動作し続ける。
いくつかの実施形態では、1つ以上の指紋センサアクティブ化基準は、指紋状の接触がそれぞれの領域(例えば、図35A内の領域3502の1つ)において検出されたときに満たされる基準を含む。したがって、例えば、それぞれの領域(例えば、図35A内の領域3502の1つ)において検出される指紋状の接触であれば、高感度モードをアクティブ化するが、スタイラス接触であれば、高感度モードをアクティブ化させないだろう。いくつかの実施形態では、複数接触ジェスチャは、高感度動作モードをアクティブ化させず、一方、単一接触ジェスチャは、高感度動作モードをアクティブ化する。
いくつかの実施形態では、1つ以上の指紋センサアクティブ化基準は、指紋状の接触が所定の閾値速度を下回る速度にて(又は、所定の閾値を下回る回転速度にて)移動中又は回転中である(例えば、捻じれ中)と検出されたときに満たされる基準を含む。例えば、それぞれの領域(例えば、図35A内の領域3502の1つ)をゆっくり通過中、又は、該領域において捻じれ中である指紋は、それぞれの領域(例えば、図35A内の領域3502の1つ)の高感度モードをアクティブ化する。いくつかの実施形態では、1つ以上の指紋センサアクティブ化基準は、接触に対応するフォーカスセレクタが指紋感知ユーザインタフェース要素上にある間に接触がタッチスクリーン112上で検出されたときに満たされる基準を含む。いくつかの実施形態では、タッチスクリーン112上では、接触に対応するフォーカスセレクタは、接触自体である。したがって、例えば、この基準は、接触がタッチスクリーン112上で指紋感知ユーザインタフェース要素上で検出されたときに満たされる。指紋感知ユーザインタフェース要素の実施例は、対応するアプリケーションがアクセスについて認証又は承認を必要とするように構成されるアプリケーションアイコンである。いくつかの実施形態では、アプリケーションがアクセスについて認証又は承認を必要とするかどうかは、機器100のユーザにより構成可能である。指紋感知ユーザインタフェース要素の別の実施例は、対話型ユーザインタフェースオブジェクト(例えば、仮想ダイアル又はノブ)である。
いくつかの実施形態では、機器が高感度モードでそれぞれの領域(例えば、図35A内の領域3502の1つ)を動作させるとき、機器は、低感度モードで他のそれぞれの領域3502を動作させる。高感度モードで1つのそれぞれの領域(例えば、図35A内の領域3502の1つ)のみを動作させると、高感度モードで複数のそれぞれの領域3502を動作させるよりも消費電力が少ない。いくつかの実施形態では、接触は基準をもはや満たさないか、又は、接触は(例えば、タッチスクリーン112からの接触のリフトオフにより)それぞれの領域から除去されるとき、機器100は、低感度モードでそれぞれの領域(例えば、図35A内の領域3502の1つ)を動作させることに戻る。いくつかの実施形態では、低感度モードでそれぞれの領域(例えば、図35A内の領域3502の1つ)を動作させることへの復帰は、接触が除去されるか、又は、基準をもはや満たさなかった(例えば、タイムアウト)後に所定の時間後に行われる。
図35Aは、指紋3504が「メール」アイコン418上で検出される接触を示す。「メール」アイコン418は、低感度モードで機器100により動作されている領域3502−7に対応する。図35Aでは、「メール」アイコン418が対応する電子メールクライアントモジュール140は、アクセスについて認証又は権限付与を必要とするように構成される。「メール」アイコン418上の指紋3504を有する接触を検出することに応答して、機器100は、高感度モードで領域3502−7を動作し始める。高感度モードで動作する領域3502−7について、機器100は、権限付与のために指紋3504の指紋特徴部を検出することができる。いくつかの実施形態では、機器100が指紋3504が以前に登録された指紋に対応しないか、又は、電子メールクライアントモジュール140の権限が付与されたユーザに属しないと決定した場合、機器100は、図35Bに示すように、電子メールクライアントモジュール140にアクセスするたメニューザに権限付与の欠如についてアラートするメッセージ3506を表示する。機器100が指紋3504が電子メールクライアントモジュール140の権限が付与されたユーザに属する以前に登録された指紋に対応すると決定した場合、機器100は、電子メールクライアントモジュール140をアクティブ化させて、図35Cに示すように、電子メールクライアントモジュール140のユーザインタフェース3508を表示する。ユーザインタフェース3508は、例えば、電子メールアカウント3512のリスティング及び対応する受信箱3510のリスティングを含む。
いくつかの実施形態では、機器100のユーザは、一部の電子メールアカウント(及び、対応する受信箱)にアクセスすることができ、その他にはアクセスすることができない。電子メールクライアントモジュール140のユーザインタフェース3508が表示されたとき、電子メールアカウントリスト3512及び受信箱リスト3510は、領域3502−7において検出された指紋に基づいてユーザがアクセスする権限が付与される電子メールアカウント及び受信箱のみを含む。
図35Dは、ロックされた状態の機器100を示す。機器100がロックされた状態であり、タッチスクリーン112がアクティブである(例えば、スリープモードではない)間に、ロック画面が、タッチスクリーン112上で表示される。ロック画面は、ロック解除オブジェクト3516と、仮想溝(又は、ロック解除画像)3518とを含み、ロック解除オブジェクト3516は、仮想溝(又は、ロック解除画像)3518の一端(例えば、左端)に位置する。機器100は、仮想溝3518の反対端(例えば、右端)にロック解除オブジェクト3516をドラッグすることによりロック解除することができる。タッチスクリーン112は、機器100が低感度モード又は高感度モードで動作する領域3520も含む。接触が領域3520において検出されないとき、領域3520は、低感度モードで動作される。
指紋3514がロック解除オブジェクト3516上にある接触及び仮想溝3518の右端の方への接触及び指紋3514の動きが、タッチスクリーン112上で検出される。接触の動きを検出することに応答して、ロック解除オブジェクト3516は、図35E〜35F及び図35Gに示すように、仮想溝3518の右端の方に移動し、接触により、ロック解除オブジェクト3516が仮想溝3518の右端の方にドラッグされる。指紋3514が領域3520に到達する前に(例えば、指紋3514が位置3514−a又は3514−bにある間)、領域3520は、低感度モードのままである。
機器が、図35F及び図35Gに示すように、領域3520において指紋3514を検出したとき(例えば、指紋3514を有する接触が位置3514−cに動いたとき)、機器100は、高感度モードで領域3520を動作させる。いくつかの実施形態では、指紋3514を有する接触が所定の速度閾値を下回って領域3520において移動中と検出された場合、機器100は、高感度モードで領域3520を動作させる。機器100は、指紋3514の1つ以上の指紋特徴部を検出する。検出された指紋特徴部に基づいて、機器100は、指紋3514が1つ以上のロック解除基準を満たすかどうか決定する。図35Gに示す実施例では、指紋3514が3522のロック解除基準を満たす(例えば、指紋は機器100のユーザの以前に登録された指紋である)場合、機器100は、ロック解除され、例えば、アプリケーション起動ユーザインタフェース(又は、他のロック解除されたインタフェース)が表示される。これとは対照的に、指紋3514が3524のロック解除基準を満たさない(例えば、指紋は機器100のユーザの以前に登録された指紋と識別されない)場合、又は、指紋3514の特徴部が検出されることができない(例えば、領域3520が低感度モードであるので)場合、機器100は、ロックされた状態のままであり、機器100をロック解除する代替ユーザインタフェース(パスコード入力ユーザインタフェース)を任意選択的に表示する。あるいは、指紋3514が3524のロック解除基準を満たさないとき、図35Dに示すロック画面が再表示される。
図35Hは、タッチスクリーン112上で表示されたユーザインタフェース3526を示す。ユーザインタフェース3526は、数値フィールド3528と、仮想ノブ3530とを含む。ユーザインタフェース3526は、数値入力及び/又は操作を含むアプリケーションのユーザインタフェース(例えば、計算機、サーモスタットコントロールアプリケーション、単位コンバータ、スプレッドシート)である。ユーザは、数値フィールド3528内で表示された値を調整するために仮想ノブ3530と対話する。例えば、ユーザは、タッチスクリーン112上の仮想ノブ3530の上に指紋を置いて、仮想ノブ3530を回すために指紋を捻る。数値フィールド3528内の値は、仮想ノブ3530の回転と共に変わる。
図35H〜35Jでは、仮想ノブ3530の領域は、機器100が低感度モード又は高度な感度モードで動作するタッチスクリーン112の領域である。指紋が仮想ノブ3530上で検出されなかったとき、機器100は、低感度モードで仮想ノブ3530を含む一部のタッチスクリーン112を動作させる。指紋が仮想ノブ3530上で検出されるとき、機器100は、検出された指紋が捻れる速度に基づいて低感度モード又は高感度モードで仮想ノブ3530を含むタッチスクリーン112の部分を動作させる。例えば、図35Iは、仮想ノブ3530上で検出された指紋3532を示す。ユーザは、所定の閾値速度を上回る速度にて指紋3532を捻る。指紋3532の閾値を上回る捻り速度に従って、機器100は、低感度モードで仮想ノブ3530を含むタッチスクリーン112の部分を動作させる。低感度モードで仮想ノブ3530を含むタッチスクリーン112の部分を動作している間に、機器100は、指紋3532の特徴部ではなく指紋3532の動き(例えば、捻れ)を検出する。したがって、機器100は、相対的に粗い増分で指紋3530の捻れを検出する。仮想ノブ3530は、指紋3530の検出された粗い捻れ増分に従って粗い増分で回転する。数値フィールド3528内の値は、仮想ノブ3530の回転の粗い増分に従って、粗い増分で変わる。
図35Jは、仮想ノブ3530上で検出された指紋3532に類似した指紋3534を示す。ユーザは、所定の閾値速度を下回る速度にて指紋3534を捻る。指紋3534の閾値を下回る捻り速度に従って、機器100は、高感度モードで仮想ノブ3530を含むタッチスクリーン112の部分を動作させる。高感度モードで仮想ノブ3530を含むタッチスクリーン112の部分を動作している間に、機器100は、指紋3532の特徴部並びにその捻れの動きを検出する。指紋3532の特徴部を検出することにより、機器100は、それらの特徴部の動きを検出して、したがって、指紋3532の細かい増分での捻れを含め、細かい動きを検出することができる。仮想ノブ3530は、指紋3530の検出された細かい捻れ増分に従って細かい増分で回転する。数値フィールド3528内の値は、仮想ノブ3530の回転の細かい増分に従って、細かい増分で変わる。いくつかの実施形態では、機器100は、捻れの速度を問わず、仮想ノブ3530において指紋3534捻れを検出することに応答して、高感度モードで仮想ノブ3530を含むタッチスクリーン112の部分を動作させる。
図35A〜35Jに示すように、タッチスクリーン112は、機器100が低感度モード又は高感度モードで動作する1つ以上の領域を含む。いくつかの実施形態では、タッチスクリーン112(又は、タッチ感知面451)の任意の部分が低感度モード又は高感度モードで機器(例えば、機器100又は300)により動作することができることを認識されたい。いくつかの実施形態では、所与の表示されたユーザインタフェースについては、タッチスクリーン112(又はタッチ感知面451)の一部の部分は、領域3502、領域3520又は仮想ノブ3530の外側のタッチスクリーン112の部分など、低感度モードのままであり、低感度モードと高感度モードとの間でそれらの部分を遷移する能力は、無効化される。例えば、図35Aに示すようにユーザインタフェース3501については、低感度モードと高感度モードの間で領域3502の外側のタッチスクリーン112の部分を遷移する能力が無効化される。また、いくつかの実施形態では、感度モード間の遷移が有効化される領域は、対応するユーザインタフェースオブジェクト又はアフォーダンスとともに移動する。例えば、図35Aでは、「メモ用紙」アイコン444及び「天気」アイコン438の位置が互いに交換された場合、領域3502−5は「メモ用紙」アイコン444の新しい位置に移動し、「メモ用紙」アイコン444の古い位置(即ち、「天気」アイコン438の新しい位置)に対応するタッチスクリーン112の部分は、低感度モード及び高感度モード間の遷移から無効化される。
いくつかの実施形態では、低感度モードと高感度モードとの間で遷移されるタッチ感知面の部分は、別々に有効化及び無効化することができるセンサの異なるグループに対応する。例えば、タッチスクリーン112の右下象限に対応する第1のセンサのセット、タッチスクリーン112の右上象限に対応する第2のセンサのセット、タッチスクリーン112の左下象限に対応する第3のセンサのセット及びタッチスクリーン112の左上象限に対応する第4のセンサのセットは、低感度モードと高感度モードの間でそれぞれ独立して遷移することができる。いくつかの実施形態では、上により詳細に説明したように、異なる領域は、タッチスクリーン112上の接触又はユーザインタフェースオブジェクトの位置に基づいて低感度モードと高感度モードの間で遷移されるように選択される。機器が高感度データを必要とするユーザインタフェースの領域はセットのセンサの複数の領域にまたがると決定する状況では、機器は、任意選択的に、センサのセットの複数の領域の全てが高感度動作モードで動作することを可能にし、一方、1つ以上の他のセットのセンサは、低感度動作モードで動作し続ける。
図36A〜36Bは、いくつかの実施形態に係る、高感度動作モードで一部のタッチ感知面を動作させる方法3600を示す流れ図である。方法3600は、ディスプレイ及びタッチ感知面を備えた電子機器(例えば、図3の機器300、又は図1Aのポータブル多機能機器)で行われる。いくつかの実施形態において、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面がディスプレイ上にある。いくつかの実施形態において、ディスプレイはタッチ感知面から分離している。方法3600の一部の動作が、任意選択的に、組み合わされ、及び/又は、一部の動作の順序が、任意選択的に変えられる。
以下で説明するように、方法3600は、高感度動作モードでタッチ感知面の一部を動作させる直観的方法を提供する。この方法により、タッチ感知面を動作するとき、ユーザの認識的負担が軽減され、より効率的なヒューマン−マシンインタフェースが作成される。電池式電子機器については、高度な感度動作モードにおいて一部のタッチセンサ方式表面の動作を可能にすることは、電力を保存して、電池充電の間隔の時間を増大させる。
機器は、タッチ感知面の第1の領域において接触を検出し(3602)、タッチ感知面の第1の領域は、低感度動作モードである。図35Aは、例えば、低感度モードで動作されている領域3502−7において検出された指紋3504を有する接触を示す。図35Fは、低感度モードで動作されている領域3520内にある、位置3514−cに向かって動いている指紋3514を有する接触を示す。図35Hは、低感度モードで動作されている領域でもある仮想ノブ3530において検出された指紋3532を有する接触を示す。いくつかの実施形態では、タッチ感知面は、複数の異なる領域(例えば、タッチ感知面のサブセットに対応する領域)を含み(3603)、機器は、低感度モードと高感度モードの間で複数の異なる領域の各々独立して遷移するように構成される(例えば、機器は、全部のタッチ感知面について高感度モードをオンにすることなく、領域の1つ以上について高感度モードを「オン」にすることができる)。特定の領域において高感度モードを「オン」にするが、しかし他の領域ではしないことにより、タッチ感知面全体を高感度モードで有する必要性がない場合には、プロセッサに対する需要が低減され、電池寿命が延びる。例えば、図35Aは、領域3502−1〜3502−7を示す。いくつかの実施形態では、機器は、領域3502−1〜3502−7(又はこれらの領域を含むタッチスクリーン112の領域)のそれぞれを低感度モードと高感度モードとの間で独立して遷移するように構成される。
接触(3604)を検出することに応答して、機器は、接触が1つ以上の指紋センサアクティブ化基準を満たすかどうかを決定する(3606)。機器100は、例えば、指紋3504(又は指紋3514又は3532又は3534)が1つ以上の指紋センサアクティブ化基準を満たすかどうか決定する。
いくつかの実施形態では、1つ以上の指紋センサアクティブ化基準は、指紋状の接触がタッチ感知面の第1の領域において検出されたときに満たされる基準を含む(3608)。例えば、指紋センサアクティブ化基準は、領域3502−7における指紋3504を有する接触の検出(又は、領域3520における指紋3514を有する接触の検出)により満たされる。
いくつかの実施形態では、1つ以上の指紋センサアクティブ化基準は、指紋状の接触が所定の閾値速度を下回る速度にて移動中と検出されたときに満たされる基準を含む(例えば、高感度は、遅い動きをより正確にするのを助ける/遅い動きは、ユーザが指紋感知ユーザインタフェース要素と対話していることを示す)(3610)。例えば、指紋センサアクティブ化基準は、所定の閾値を下回る速度での仮想ノブ3530での指紋3534捻れの検出により満たされる。別の実施例として、指紋センサアクティブ化基準は、所定の閾値を下回る速度にて領域3520において移動する指紋3514を有する接触の検出により満たされる。
いくつかの実施形態では、1つ以上の指紋センサアクティブ化基準は、接触に対応するフォーカスセレクタが指紋感知ユーザインタフェース要素上にある間に接触がタッチ感知面上で検出されたときに満たされる基準を含む(3612)。例えば、機器は検出された指紋(例えば、指紋の捻れに応答して動作するノブ又はダイアル、又は、検出された指紋に従ってのみアクティブ化するように制限されるアフォーダンス)に従って動作するコントロール上の接触を検出して、接触に対応する指紋を識別してコントロールを動作させるために使用することができるように、接触及び/又はコントロールを含むタッチ感知面の領域における指紋感度をオンにする。例えば、指紋センサアクティブ化基準は、仮想ノブ3530での指紋3534捻れの検出により満たされる。別の実施例として、指紋センサアクティブ化基準は、領域350−7における指紋3504を有する接触の検出により満たされる。
接触が指紋センサアクティブ化基準を満たすという決定に従って、機器は、高感度動作モードでタッチ感知面の第1の領域を動作させる(3614)(例えば、タッチ感知面の第1の領域内の接触については、機器は存在/不在及び接触の動きを検出することができ、更に、機器は、接触を以前に登録された指紋と独自に識別することを可能にする詳細特徴部のような接触の指紋特徴部を検出できる)。例えば、指紋センサアクティブ化基準が満たされたとき、機器100は、高感度モードで領域3502−7(及び、同様に、領域3520、又は、仮想ノブ3530を含むタッチスクリーン112の部分)を動作させる。
接触が指紋センサアクティブ化基準を満たさないという決定に従って、機器は、低感度動作モードでタッチ感知面の第1の領域を動作し続ける(3618)(例えば、低感度モードで動作するタッチ感知面の領域については、機器は、接触の存在/不在及び動きを検出することができるが、接触を以前に登録された指紋と独自に識別することを可能にする詳細特徴部などの接触の指紋特徴部を検出することができない)。例えば、図351では、指紋センサアクティブ化基準が閾値速度を下回る動き又は回転を含むとき、指紋3532が閾値速度を上回って捻れたとき、機器100は、低感度モードで仮想ノブ3530を動作し続ける。
いくつかの実施形態では、タッチ感知面の第1の領域が高感度動作モードである間に、機器は、第1の領域において検出された接触の指紋詳細を検出することができ(3616)、タッチ感知面の第1の領域が低感度動作モードである間に、機器は、第1の領域において検出された接触の指紋詳細を検出することができない(3620)。例えば、機器100が高感度モードで領域3502−7(又は、領域3520又は3530)を動作している間に、機器100は、領域において検出された接触(例えば、指紋3504を有する接触、指紋3514を有する接触、指紋3534を有する接触)の指紋詳細(例えば、指紋特徴部)を検出することができる。機器100が低感度モードで領域3502−7(あるいは、領域3520又は3530)を動作している間に、機器100は、領域において検出された接触の指紋詳細(例えば、指紋特徴部)を検出することができず、このように、領域が高感度モードで動作するときほど正確には接触の動きを追跡しない。
いくつかの実施形態では、高感度モードでタッチ感知面の第1の領域を動作している(3622)間に、機器は、接触の指紋特徴部を検出して(3624)、接触の指紋特徴部を検出することに応答して、指紋特徴部に従って動作を実行する(3626)(例えば、接触の指紋特徴部を検出することに応答して、機器は、アイデンティティを基本とする動作又は接触の指紋特徴部を検出することを必要とする動作を実行する)。例えば、機器は指紋詳細特徴部の動きを検出することに基づいて接触の小さい動きを検出し、接触の小さい動きは、指紋特徴部を見なれけば全体的な接触の動きに基づいて検出可能でない。図35B〜35Cでは、機器100は、領域3502−7において指紋3504の特徴部を検出して、指紋3504の検出された特徴部に基づいて、エラーメッセージ3506を表示するか、又は、電子メールクライアントモジュール140のユーザインタフェース3508を表示する。図35Gでは、機器100は、領域3520において指紋3514の特徴部を検出して、指紋3514がロック解除基準3522を満たす、又は、ロック解除基準3524を満たさないかに基づいて機器100をロック解除する、又は、機器100を出る。図35Jでは、機器100は、仮想ノブ3530において指紋3534の特徴部の動きを検出して、指紋特徴部の検出された動きに従って、細かい増分で仮想ノブ3530を回転させる。
いくつかの実施形態では、高感度モードで第1の領域が動作している(3622)間に、機器は、低感度モードでタッチ感知面の他の領域の1つ以上を動作させる(3628)(例えば、第1の領域がタッチ感知面上で検出された接触の指紋詳細を検出するために有効化される間に、タッチ感知面の他の領域は、接触の指紋詳細を検出することなく、接触の存在/不在及び動きを検出することができる)。例えば、図35Aは、低感度モード又は高感度モードで動作可能である複数の領域3502(及び、タッチスクリーン112の残りは、低感度モードで動作可能であること)を示す。領域3502−7が高感度モードで動作される間に、他の領域3502は、低感度モードで動作される。高感度モードでそれぞれの領域を動作している間にタッチスクリーン112の領域の一部を低感度モードに維持することは、高感度モードが他の領域に必要とされないときに他の領域をより低電力低感度モードに保つことにより電力使用量を低減すると同時に、高められた精度及び/又はそれぞれの領域においてユーザを認証する能力という利点を提供する。
いくつかの実施形態では、高感度モードでタッチ感知面の第1の領域を動作させる(3630)ことにより、低感度モードでタッチ感知面の第1の領域を動作させることよりも多くの電力が消費される。したがって、タッチ感知面の第1の領域を「必要に応じて」低感度モードから高感度モードへ切り換えることにより、機器の全体的なエネルギー消費量が低減され、その結果、機器のエネルギー効率が上がり、電池寿命が延びる。例えば、動作領域3502−7内に接触が内部で検出されるときに高感度モードで、そして他の時に低感度モードで動作することにより、常に高感度モードで動作領域3502−7を動作させることと比較すると電力消費量が低減される。
いくつかの実施形態では、高感度モードでタッチ感知面の第1の領域以上を動作させる(3632)ことにより、高感度モードでタッチ感知面の第1の領域のみを動作させること(例えば、低感度モードでタッチ感知面の残りを動作している間)よりも多くの電力が消費される。したがって、高感度モードでタッチ感知面の第1の領域を動作している間に低感度モードでタッチ感知面の残りを動作させることにより、機器の全体的なエネルギー消費量が低減され、その結果、機器のエネルギー効率が上がり、電池寿命が延びる。例えば、接触が検出されるいずれかの領域3502(例えば、図35A内の領域3502−7)のみを高感度モードで残りを低感度モードで動作させることにより、高感度モードで領域3502の2つ以上を動作させることと比較すると電力消費が低減される。
図36A〜3BDにおける動作について記載された特定の順序は単なる例示であり、記載された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書で説明される動作の再順序付けをするさまざまな方法を認識するであろう。加えて、本記載の方法及びに関して本明細書に記載の他の処理の詳細(例えば、パラグラフ[00123]に記載したものは、図36A〜36Bに関連して上述した方法3600と類似の様式で適用可能であることに留意されたい。例えば、方法3600を参照して先述した指紋、接触、及びユーザインタフェースは、任意選択的に、本明細書で説明する他の方法(例えば、パラグラフ[00123]内に記載されたもの)を参照して本記載の指紋、接触、及びユーザインタフェースオブジェクトの特性の1つ以上を有する。簡潔にするため、これらの詳細はここでは繰り返さない。
いくつかの実施形態により、図37は、様々な説明する実施形態の原理に従って構成される電子機器3700の機能ブロック図を示す。機器の機能ブロックは、任意選択的に、様々な説明する実施形態の原理を実行するためにハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせにより実行される。図37に記述された機能ブロックが、任意選択的に、様々な記述する本発明の原理を実施するために、合成され、又はサブブロックに分離されることが、当業者により理解される。したがって、本明細書における説明は、あらゆる可能な組み合わせ若しくは分割、又は本明細書に述べられる更なる機能ブロックの定義を任意選択的に支持する。
図37に示すように、電子機器3700は、ディスプレイユニット3702と、接触を受け取るように構成されたタッチ感知面ユニット3704と、ディスプレイユニット3702及びタッチ感知面ユニット3704に結合された処理ユニット3708とを含む。いくつかの実施形態では、処理ユニット3708は、検出ユニット3710と、決定ユニット3712と、動作ユニット3714と、実行ユニット3716と、遷移ユニット3718とを含む。
処理ユニット3708は、(例えば、検出ユニット3710で)タッチ感知面ユニット3704の第1の領域において接触を検出し、タッチ感知面ユニット3704の第1の領域は、低感度動作モードであり、接触を検出することに応答して、(例えば、決定ユニット3712で)接触が指紋センサアクティブ化基準を満たすかどうか決定し、接触が指紋センサアクティブ化基準を満たすという決定に従って、(例えば、動作ユニット3714で)高感度動作モードでタッチ感知面ユニット3704の第1の領域を動作し、接触が指紋センサアクティブ化基準を満たさないという決定に従って、(例えば、動作ユニット3714で)低感度で動作モードタッチ感知面ユニット3704の第1の領域を動作し続けるように構成される。
いくつかの実施形態では、タッチ感知面ユニット3704の第1の領域が高感度動作モードである間に、処理ユニット3708は、(例えば、検出ユニット3710で)第1の領域において検出された接触の指紋詳細を検出することができ、タッチ感知面ユニット3704の第1の領域が低感度動作モードである間に、処理ユニット3708は、第1の領域(例えば、検出ユニット3710で)において検出された接触の指紋詳細を検出することができない。
いくつかの実施形態では、処理ユニット3708は、高感度モードでタッチ感知面ユニット3704の第1の領域を動作している間に、(例えば、検出ユニット3710で)接触の指紋特徴部を検出し、接触の指紋特徴部を検出することに応答して、(例えば、実行ユニット3716で)指紋特徴部に従って動作を実行するように構成される。
いくつかの実施形態では、タッチ感知面ユニット3704は、複数の異なる領域を含み、処理ユニット3708は、(例えば、遷移ユニット3718で)低感度モードと高感度モードの間で複数の異なる領域のそれぞれを独立して遷移するように構成される。
いくつかの実施形態では、処理ユニット3708は、高感度モードで第1の領域を動作している間に、(例えば、動作ユニット3714で)低感度モードでタッチ感知面ユニット3704の他の領域の1つ以上を動作させるように構成される。
いくつかの実施形態では、高感度モードでタッチ感知面の第1の領域を動作させることにより、低感度モードでタッチ感知面3704の第1の領域を動作させることよりも多くの電力が消費される。
いくつかの実施形態では、高感度モードでタッチ感知面の第1の領域以上を動作させることにより、高感度モードでタッチ感知面3704の第1の領域のみを動作させることよりも多くの電力が消費される。
いくつかの実施形態では、1つのつ以上の指紋センサアクティブ化基準は、指紋状の接触がタッチ感知面ユニット3704の第1の領域において検出されたときに満たされる基準を含む。
いくつかの実施形態では、1つ以上の指紋センサアクティブ化基準は、指紋状の接触が所定の閾値速度を下回る速度にて移動中と検出されたときに満たされる基準を含む。
いくつかの実施形態では、1つ以上の指紋センサアクティブ化基準は、接触に対応するフォーカスセレクタが指紋感知ユーザインタフェース要素上にある間に接触がタッチ感知面ユニット3704上で検出さたときに満たされる基準を含む。
先述した情報処理方法の動作は、(例えば、図1A及び3に関して先に説明したように)汎用プロセッサ又は特定用途向けチップなどの情報処理装置において1つ以上の機能モジュールを実行することにより任意選択的に実行される。
図36A〜36Bを参照して先述した動作は、意選択的に、図1A〜1B又は図37に示す構成要素により実行される。例えば、検出する動作3602、決定する動作3606、及び動作する動作3614及び3618は、任意選択的に、イベントソータ170、イベント認識部180、及びイベントハンドラ190により実行される。イベントソータ170のイベントモニタ171は、タッチ感知ディスプレイ112上の接触を検出し、イベントディスパッチャモジュール174は、イベント情報をアプリケーション136−1に渡す。アプリケーション136−1のそれぞれのイベント認識部180は、イベント情報をそれぞれのイベント定義186と照会し、タッチ感知面上の第1の位置の第1の接触がユーザインタフェース上のオブジェクトの選択などの、既定のイベント又はサブイベントに対応するかどうかを判定する。それぞれの既定のイベント又はサブイベントが検出されると、イベント認識部180は、イベント又はサブイベントの検出に関連するイベントハンドラ190をアクティブ化する。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデーター176若しくはオブジェクトアップデーター177を任意選択的に利用するか又は呼び出す。いくつかの実施形態において、イベントハンドラ190は、アプリケーションにより表示されるものを更新するためのそれぞれのGUIアップデーター178にアクセスする。同様に、当業者にとって、他の処理が図1A〜1Bに示される構成要素に基づいてどのように実施されるかは明らかであるだろう。
指紋ジェスチャに関連した動作を実行する
多くの電子機器が、それぞれの対応するユーザインタフェース及びアフォーダンスとともに、それぞれの動作を実行するそれぞれのアプリケーションを有する。典型的には、動作を機器に実行させるたメニューザは、対応するユーザインタフェース及びアフォーダンスが表示されるように、(例えば、対応するアプリケーションアイコンをアクティブ化することにより)機器上で対応するアプリケーションをアクティブ化する。ユーザインタフェース及びアフォーダンスを使用して動作をアクティブ化する。しかしながら、時には、ユーザは、無関係なアプリケーション又はユーザインタフェースと対話している間に、動作を瞬時に実行して欲しいと思う。現行の方法であれば、ユーザは、まだ、動作を実行するために、アプリケーションアイコンをアクティブ化させてアプリケーションを立ち上げなければならない。これは、時間がかかって、ユーザエクスペリエンスを損なう。以下で説明する実施形態は、機器上で特定の指紋を動作と関連づけることによりこれらの方法で向上させるものである。所望の動作に無関係なユーザインタフェースが表示されている間にユーザがその指紋でジェスチャを実行したとき、機器は、動作を実行する。したがって、動作に無関係なユーザインタフェースが表示されている間に、ユーザは、動作をアクティブ化することができ、ユーザは素早くかつ効率的に動作をアクティブ化する能力を有し、その結果、ユーザインタフェースの速度及び効率が向上する。
いくつかの実施形態では、機器は、別個のディスプレイ(例えば、ディスプレイ450)と、別個のタッチ感知面(例えば、タッチ感知面451)とを有する電子機器である。いくつかの実施形態では、機器は、携帯型多機能機器100であり、ディスプレイは、タッチスクリーン112であり、タッチ感知面は、ディスプレイ(図1A)上の触覚出力発生器167を含む38A〜38P及び39A〜39Eを参照して以下で説明する機器は、任意選択的に1つ以上の指紋センサ169を含む。いくつかの実施形態では、1つ以上の指紋センサは、タッチ感知面(例えば、別個のタッチ感知面451又はタッチ感応表示システム112)に一体化される1つ以上の統合指紋センサ359−1(図4B)を含むいくつかの実施形態では、1つ以上の指紋センサは、タッチ感知面(例えば、別個のタッチ感知面451又はタッチ感応表示システム112)とは別個である別個の指紋センサ359−2(図4B)を含む。特に指定がない限り、以下で説明する指紋センサ169は、指紋センサ169を含む機器のハードウェア及びソフトウェアの構成に応じて、任意選択的に、統合指紋センサ359−1又は別個の指紋センサ359−2である。説明の便宜上、図38A〜38P及び39A〜39Eを参照して説明する実施形態は、タッチスクリーン112及び任意選択的に1つ以上の指紋センサ169を参照して論じ、そのような実施形態では、フォーカスセレクタは、任意選択的に、それぞれの接触、接触に対応する代表的な点(例えば、それぞれの接触の面心又はそれぞれの接触に関連した点)、又は、カーソルの代わりに、タッチスクリーン112上で検出された2つ以上の接触の面心である。類似した動作が、ディスプレイ450上の図38A〜38Pに示すユーザインタフェースを表示している間に、図38A〜38Pで説明する入力を検出することに応答して、ディスプレイ450と、別個のタッチ感知面451と、任意選択的に1つ以上の指紋センサ169とを有する機器上で任意選択的に実行される。
図38Aは、機器(機器100)のタッチスクリーン112上で表示されるユーザインタフェース3801を示す。タッチスクリーン112は、統合指紋センサを含む。図38Aでは、それぞれのアプリケーションを立ち上げる1つ以上のアイコンを含むアプリケーション起動ユーザインタフェース3801が、タッチスクリーンディスプレイ112上で表示される。機器にて、1つ以上のそれぞれの指紋が、それぞれの動作に関連している。いくつかの実施形態では、指紋は、手及び指により区別される。例えば、右の拇印は、それぞれの機能又は動作に関連しており、左の拇印は、別のそれぞれの機能又は動作に関連している。いくつかの実施形態では、カメラ関連の機能又は動作(例えば、写真又は映像をキャプチャするシャッター機能、カメラプレビュー表示)が、それぞれの指紋に関連している。
アプリケーション起動ユーザインタフェース3801がタッチスクリーン112上で表示されている間に、機器は、タッチスクリーン112上で指紋3802を有するジェスチャを検出する。指紋3802は、右の拇印として機器により識別される。この実施例では、右の拇印は、カメラインタフェース及びカメラプレビューの表示及び静止画像又は写真キャプチャに関連している。指紋3802を有するジェスチャを検出することに応答して、機器は、図38Bに示すように、タッチスクリーン112上で、カメラモジュール143に対応するカメラインタフェース3804を表示する。いくつかの実施形態では、機器は、少なくとも既定の時間量でタッチスクリーン112上で指紋3802を検出することに応答して、カメラプレビュー3804を表示する。カメラインタフェース3804は、カメラプレビュー3806を含む。カメラプレビュー3806は、機器上でカメラ(例えば、光センサ164)により検出されているコンテンツを示して、媒体キャプチャ機能が機器上でアクティブ化した場合に静止画像又は映像としてカメラによりキャプチャされるものをプレビューする。
いくつかの実施形態では、タッチスクリーン112上で検出された指紋が、ユーザの指紋の以前に登録された特徴部に、又は、既定の指紋形式に関連した特徴部との比較に基づいて識別される。例えば、指紋3802は、特定のユーザの右の拇印としての指紋3802の識別表示、又は、一般的な(即ち、指紋3802は特定のユーザに属すると識別することのない)右の拇印としての指紋3802の識別表示を介して右の拇印と識別される。
機器は、指紋3802を有するジェスチャの連続部を検出し、連続部は、図38Cに示すように、既定の強度閾値を上回る指紋3802に対応する接触の強度(例えば、標準的な接触検出強度閾値よりも高い強度閾値)の増加を含む。例えば、ユーザは、指紋3802に対応する接触でタッチスクリーン112を押し下げる。閾値を上回る強度増加を検出することに応答して、機器は、シャッター機能をアクティブ化させ、これにより、カメラプレビュー3806に対応する静止画像又は写真のキャプチャがアクティブ化する。いくつかの実施形態では、図38Cに示すように、機器は、カメラアプリケーション143に向けてフィルムストリップ又はカメラロールに動くキャプチャされた写真の描像3808のアニメーションを表示する。写真がキャプチャされた後、機器は、図38Dに示すように、カメラインタフェース3804及びカメラインタビュー3806を表示することを中止して、以前に表示されたユーザインタフェース(例えば、アプリケーション立ち上げユーザインタフェース3801)を再表示する。
いくつかの実施形態では、機器は、接触強度の増加を検出することに応答してではなく、それぞれの時間閾値より長く(例えば、2秒、5秒、10秒又は任意の他の妥当な時間閾値)指紋3802を連続的に検出することに応答してコンテンツをキャプチャするシャッター機能をアクティブ化する。例えば、シャッター機能は、図38Bの指紋3802が初回検出から連続的に検出される場合、時間閾値より長くアクティブ化する。したがって、いくつかの実施形態では、カメラインタフェースを表示するか、又は、シャッター機能(又は、別の動作)をアクティブ化するアフォーダンスを含まないユーザインタフェースが表示されている間でさえ、ユーザは、それぞれの動作に関連した指紋を含むジェスチャで、カメラインタフェースの表示及び/又はシャッター機能(又は、別の動作)をそれでもアクティブ化することができる。
図38E〜38Hは、それぞれの動作をアクティブ化するアフォーダンスを含まないユーザインタフェースが表示されている間にそれぞれの動作をアクティブ化する別の実施例を示す。図38Eは、図38Aの場合と同様に、タッチスクリーン112上で表示されるアプリケーション立ち上げユーザインタフェース3801を示す。指紋3810を有するジェスチャが、タッチスクリーン112上で検出される。指紋3810は、右の拇印であると機器により検出される。この実施例では、右の拇印は、カメラインタフェース及びカメラプレビューの表示及び録画に関連している。指紋3810でジェスチャを検出することに応答して、機器は、図38Fに示すように、タッチスクリーン112上でカメラインタフェース3804及びカメラプレビュー3812を表示する。また、機器は、カメラプレビュー3812に対応する映像の録画をアクティブ化する。映像が録画されている間に、録画インジケータ3813が、任意選択的に、録画が進行中であること、並びに、進行中の録画の時間の長さを示すためにタッチスクリーン112上で表示される。例えば、図38Gは、指紋3810がタッチスクリーン112からリフトオフされたためにもはやタッチスクリーン112上で検出されない指紋3810を有するジェスチャを示す。リフトオフを検出することに応答して、機器は、図38Hに示すように、映像を録画することを中止して、カメラインタフェース3804及びカメラプレビュー3812を表示することを中止して、ユーザインタフェース3801を再表示する。
いくつかの実施形態では、指紋を含むジェスチャは、向き、位置や持続時間に対して独特であり、指紋に関連した動作がアクティブ化するかどうかは、指紋が向き、位置及び/又は持続時間要件を満たすかどうかに左右される。例えば、いくつかの実施形態では、指紋3802が既定の時間周期未満でタッチスクリーン112上で検出された場合、動作は、実行されない。いくつかの実施形態では、指紋がタッチスクリーン112上の所定の位置(例えば、現在の画面向きに基づいてタッチスクリーン112の右上象限)以外の位置にて検出された(例えば、右上象限にある指紋3802又は3810ではなくて、指紋3814は右下象限(図38I)にある)場合、動作は実行されない。いくつかの実施形態では、指紋が、指紋タッチスクリーン112上で所定の向き(例えば、右上縦からから45°±10°度の角度)以外の向きにて検出された場合(例えば、指紋3816は、向き角度範囲内である指紋3802又は3810に対して向き角度範囲(図38J)の外側にある、)、動作は、実行されない(例えば、メディアはキャプチャされず、機器は、現在表示されているユーザインタフェースの表示をメディアキャプチャユーザインタフェースと入れ替えない)。
図38K〜38Lは、それぞれの動作をアクティブ化するアフォーダンスを含まないユーザインタフェースが表示されている間にそれぞれの動作をアクティブ化する別の実施例を示す。図38Kは、タッチスクリーン112上で表示されるメモ用紙アプリケーションのユーザインタフェース3818を示す。指紋3820を有するジェスチャが、タッチスクリーン112上で検出されて、その後、既定の時間周期後タッチスクリーン112からリフトオフされた。指紋3820は、右の拇印であると機器により検出される。この実施例では、右の拇印は、電話アプリケーションユーザインタフェース、電子メールアプリケーションユーザインタフェース又はメッセージ発信アプリケーションユーザインタフェースなど、通信インタフェースの表示に関連している。指紋3820を有するジェスチャ及びその後のリフトオフを検出することに応答して、機器は、図38Lに示すように、タッチスクリーン112上で電話アプリケーションインタフェース3822を表示する。
いくつかの実施形態では、複数の指紋は、異なる動作と機器上でそれぞれ関連づけられる。例えば、右の拇印は、静止状態画像キャプチャに関連しており、左の拇印は、映像録画に関連しており、この実施例を図38M〜38Pに示す。図38Mは、アプリケーション立ち上げユーザインタフェース3801がタッチスクリーン112上で表示されている間にタッチスクリーン112上で検出された指紋3824を有するジェスチャを示す。指紋3824は、右の拇印であると検出される。指紋3824を有するジェスチャを検出することに応答して、カメラインタフェース3804及びカメラプレビュー3826が表示され、図38Nに示すように、カメラプレビュー3826に対応する写真がキャプチャされる。写真がキャプチャされた後、機器は、カメラインタフェース3804及びカメラプレビュー3826を表示することを中止して、以前に表示されたユーザインタフェース(例えば、アプリケーション立ち上げユーザインタフェース3801)を再表示する。
図38Oは、アプリケーション立ち上げユーザインタフェース3801がタッチスクリーン112上で表示されている間にタッチスクリーン112上で検出された指紋3828を有するジェスチャを示す。指紋3828は、左の拇印であると検出される。指紋3828を有するジェスチャを検出することに応答して、カメラインタフェース3804及びカメラプレビュー3830が表示され、図38Pに示すように、カメラプレビュー3830に対応する写真がキャプチャされる。映像録画、及び、カメラインタフェース3804及びカメラプレビュー3830の表示が、指紋3828を有するジェスチャのリフトオフが検出されるときに任意選択的に停止される。カメラインタフェース3804及びカメラプレビュー3830が表示されることを中止した後、機器は、ユーザインタフェース3801を再表示する。
図39A〜39Eは、いくつかの実施形態に係る、指紋ジェスチャに関連した動作を実行する方法3900を示す流れ図である。方法3900は、ディスプレイと、タッチ感知面とを有する電子機器(例えば、図3の機器300、又は、図1Aの携帯型多機能機器100)にて実行される。いくつかの実施形態において、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面がディスプレイ上にある。いくつかの実施形態において、ディスプレイはタッチ感知面から分離している。方法3900の一部の動作が、任意選択的に、組み合わされ、及び/又は、一部の動作の順序が、任意選択的に変えられる。
以下で説明するように、方法3900は、指紋ジェスチャに関連した動作を実行する直観的方法を提供する。この方法により、指紋ジェスチャに関連した動作を実行するときにユーザの認識的負担が軽減される、より効率的なヒューマン−マシンインタフェースが作成される。バッテリ動作電子機器では、ユーザが作業空間を指紋ジェスチャに関連した動作を実行することを可能にすることにより、より高速かつ効率的に電力を保存し、バッテリの充電の間の時間を増やす。
機器は、第1の指紋を第1の動作と関連づける(例えば、指紋登録プロセス中に、右の拇印をカメラアプリケーションのシャッター機能に割り当てる)(3902)。例えば、図38A〜38Dでは、右の拇印は、カメラシャッター機能に関連している。
機器は、ディスプレイ上で、第1の動作以外の複数の動作を実行するアフォーダンスを含むそれぞれのユーザインタフェースを表示する(3904)(例えば、ユーザインタフェースは第1の動作を実行するユーザインタフェースではなく、ユーザインタフェースは、第1の動作を実行するアフォーダンス又は他のユーザインタフェース要素を含まない)。タッチスクリーン112上で表示されるユーザインタフェース3801は、図38A及び38Eに示すように、例えば、写真をキャプチャするか、又は、映像を録画するアフォーダンスでなくアプリケーションを立ち上げるアフォーダンス(例えば、アプリケーションアイコン)を含む。同様に、ユーザインタフェース3818(図38K)は、電話を掛けることに関係するアフォーダンスでなく、メモ用紙を取ることに関係するアフォーダンス(例えば、既存のメモ用紙を開く、新しいメモ用紙を作成する、メモ用紙を削除するなどのそれぞれのアフォーダンス)を含む。いくつかの実施形態では、それぞれのユーザインタフェースは、第1の動作を実行する表示されたコントロールを含まない(3906)。例えば、ユーザインタフェース3801(図38A又は38E)は、写真をキャプチャするか、又は、映像を録画するコントロールを含まない。ユーザインタフェース3818(図38K)は、電話を掛けるか、又は、電話アプリケーションインタフェースの表示をアクティブ化するコントロールを含まない。
いくつかの実施形態では、それぞれのユーザインタフェースは、第1の動作を実行するように構成されない第1のアプリケーションのユーザインタフェースであり(3908)、第1の動作は、第1のアプリケーションと異なる第2のアプリケーションにより実行される。例えば、ユーザインタフェース3818(図38K)は、カメラ動作を実行するように構成されない、メモ用紙アプリケーション(例えば、メモ用紙モジュール153)のユーザインタフェースである。カメラ動作は、カメラアプリケーション(例えば、カメラモジュール143)により実行される。いくつかの実施形態では、それぞれのユーザインタフェースは、第1の動作を実行するように構成されないアプリケーション立ち上げ画面のユーザインタフェースであり(3910)、第1の動作は、アプリケーション立ち上げ画面と異なる第2のアプリケーションにより実行される。例えば、ユーザインタフェース3801(図38A又は38E)は、カメラ動作を実行するように構成されないアプリケーション起動画面である。カメラ動作は、カメラアプリケーション(例えば、カメラモジュール143)により実行される。
第1の動作以外の複数の動作を実行するアフォーダンスを含むそれぞれのユーザインタフェースを表示している間に、機器は、タッチ感知面上で第1の指紋を検出することを含む第1のジェスチャ(例えば、タップジェスチャ、タップ及びドラッグジェスチャ、タッチ及び把握ジェスチャ、又は、第1の動作を実行することに関連した他の既定のジェスチャ)を検出する(3912)。図38Aは、例えば、機器100がタッチスクリーン112上で指紋3802を含むジェスチャを検出するのを示す。図38Eは、機器100がタッチスクリーン112上で指紋3810を含むジェスチャを検出するのを示す。図38Kは、機器100がタッチスクリーン112上で指紋3820を含むジェスチャを検出するのを示す。
いくつかの実施形態では、第1のジェスチャは、向き固有のジェスチャであり、向き固有のジェスチャを検出するステップは、所定の向きにてタッチ感知面上で第1の指紋を検出するステップ(3914)を含む。例えば、動作は、親指が既定の角度にて(例えば、タッチ感知面の1次軸線と比較して45°にて)、又は、タッチ感知面の1次軸線に対する角度の既定の範囲内で(例えば、タッチ感知面の1次軸線と比較して45°±5°、10°又は15°にて)ある間に機器が親指で実行されたジェスチャを検出したときにのみ実行される。これとは対照的に、いくつかの実施形態では、第1の指紋が既定の角度、又は、角度の既定の範囲内ではない場合、第1の動作は、実行されない(例えば、動作は、実行されないか、又は、第1の指紋の位置での現在表示されているアイコン(又は、他のユーザインタフェース要素)に関連した動作が、第1の動作の代わりに実行される)。例えば、図38A〜38Cでは、指紋3802を有するジェスチャは、任意選択的に、向き固有であり、指紋3802が機器の長い縁部に平行な軸線に対して角度(例えば、45°±10°)の既定の範囲内であると検出される。指紋3802を有するジェスチャを検出することに応答して、カメラインタフェース3804及びカメラプレビュー3806が表示される。他方、指紋3812(図38J)は、既定の角度範囲の外側にあり、カメラインタフェース又はカメラプレビューは、指紋3812の検出に応答して表示されない。
いくつかの実施形態では、第1のジェスチャは、位置固有のジェスチャであり、位置固有のジェスチャを検出するステップは、所定の位置にてタッチ感知面上で第1の指紋を検出するステップ(3916)を含む。例えば、動作は、親指がタッチ感知面上の所定の位置(例えば、タッチ感知面の右上隅部)にある間に機器が親指で実行されたジェスチャを検出したときにのみ実行される。これとは対照的に、いくつかの実施形態では、第1の指紋が所定の位置にない場合、第1の動作は、実行されない(例えば、動作は、実行されないか、又は、第1の指紋の位置での現在表示されているアイコン(又は、他のユーザインタフェース要素)に関連した動作が、第1の動作の代わりに実行される)。例えば、図38A〜38Cでは、指紋3802を有するジェスチャは、任意選択的に、位置固有であり、指紋3802が所定の位置(例えば、現在の画面向きに基づいてタッチスクリーン112の右上象限)内にあると検出される。指紋3802を有するジェスチャを検出することに応答して、カメラインタフェース3804及びカメラプレビュー3806が表示される。他方、指紋3810(図38I)は、所定の位置の外側にあり、カメラインタフェース又はカメラプレビューは、指紋3810の検出に応答して表示されない。
いくつかの実施形態では、第1のジェスチャは、期間固有のジェスチャであり、期間固有のジェスチャを検出するステップは、少なくとも所定の時間量でタッチ感知面上で第1の指紋を検出するステップ(3918)を含む。例えば、動作は、機器が既定の時間周期(例えば、0.05秒、0.1秒、0.2秒、0.5秒又は何らかの他の妥当な時間周期)を上回ってタッチ感知面に存在する右の親指で実行されたジェスチャを検出したときにのみ実行される。これとは対照的に、いくつかの実施形態では、第1の指紋が少なくとも所定の時間量で検出されなかった場合、第1の動作は、実行されない(例えば、動作は、実行されないか、又は、第1の指紋の位置での現在表示されているアイコン(又は、他のUI要素)に関連した動作が、第1の動作の代わりに実行される)。例えば、図38A〜38Cでは、指紋3802を有するジェスチャは、任意選択的に、期間固有であり、指紋3802は、既定の時間周期(例えば、0.2秒)を上回ってタッチスクリーン112上で検出される。指紋3802を有するジェスチャを検出することに応答して、カメラインタフェース3804及びカメラプレビュー3806が表示される。いくつかの実施形態では、指紋3802が既定の時間周期を下回ってタッチスクリーン112上で検出された場合、カメラインタフェース又はカメラプレビューは、これに応答して表示されていない。
いくつかの実施形態では、タッチ感知面は、統合指紋センサを有するタッチスクリーンディスプレイである(3920)。図38A〜38Pに示す機器は、ジェスチャが検出されるタッチ感知面としてタッチスクリーン(例えば、タッチスクリーン112)を有する。タッチスクリーンは、任意選択的に、統合指紋センサを有する。統合指紋センサは、任意選択的に、タッチスクリーン112の領域にまたがる。いくつかの実施形態では、タッチスクリーン112は、指紋の隆起部を検出するために十分に高分解能タッチ感知能力を有し、タッチスクリーン112は、指紋センサとして使用することができる。
いくつかの実施形態では、第1の指紋は以前に登録された指紋であり(例えば、第1の指紋は、ユーザXの右の親指として登録され、登録は、機器のメモリ内に記憶される)、第1のジェスチャを検出するステップは、検出された指紋の検出された特徴部と第1の指紋の以前に登録された特徴部との間の比較に基づいて検出された指紋を第1の指紋として識別するステップを含む(3922)(例えば、指紋は、親指指紋であるとユーザにより識別された特定のユーザの以前に登録された指紋に第1の指紋を一致することにより親指であると識別される)。例えば、指紋3802の識別は、ユーザの以前に登録された指紋と指紋3802を比較して、特定のユーザの特定の指紋(例えば、右の拇印)と指紋3802を識別することを伴う。
いくつかの実施形態では、第1の指紋は、既定の種類の指紋(例えば、「拇印」)であり、第1のジェスチャを検出するステップは、検出された指紋の検出された特徴部と既定の種類の指紋に関連した特徴部との間の比較に基づいて検出された指紋を第1の指紋として識別するステップを含む(3924)(例えば、第1の指紋は、特に指紋が特定のユーザの特定の指紋であることを識別することのなく一般的な「親指」であると識別される)。例えば、指紋3802の識別は、ユーザ固有でない指紋特徴部(例えば、サイズ)と指紋3802を比較して、一般的な指(例えば、一般的な右の親指、一般的な左の人差指など)として指紋3802を識別することを伴う。
機器は、第1のジェスチャ(3926)を検出することに応答して第1の動作を実行する(3928)。例えば、図38Bでは、カメラインタフェース3804及びカメラプレビュー3806は、機器が指紋3802を有するジェスチャを検出することに応答して表示される。別の実施例として、図38Nでは、カメラプレビュー3826に対応する写真は、機器が指紋3824を有するジェスチャを検出することに応答してキャプチャされる。
いくつかの実施形態では、第1の動作は、タッチ感知面上で第1の指紋を検出することに応答して実行される(3930)(例えば、第1の動作は、タッチ感知面上で第1の指紋を検出することに応答して実行される)。例えば、図38Nの写真キャプチャ動作は、機器が指紋3824を検出することに応答して、機器により実行される。別の実施例として、図38Aのカメラインタフェース3804及びカメラプレビュー3806の表示は、機器が指紋3802を検出するに応答して、機器により実行される。いくつかの実施形態では、第1の動作は、所定の時間量を上回ってタッチ感知面上で第1の指紋を検出することに応答して実行される。
いくつかの実施形態では、第1の動作は、タッチ感知面からのリフトオフを検出することに応答して実行される(3932)(例えば、第1の動作は、タッチ感知面上で第1の指紋を検出した後にタッチ感知面からの第1の指紋のリフトオフを検出することに応答して実行される)。例えば、図38Lの電話アプリケーションインタフェース3822の表示は、機器が指紋3820のリフトオフを検出することに応答して、機器により実行される。いくつかの実施形態では、第1の動作は、所定の時間量を上回ってタッチ感知面上で第1の指紋を検出した後にタッチ感知面からの第1の指紋のリフトオフを検出することに応答して実行される。
いくつかの実施形態では、第1の動作は、写真を撮るステップを含む(3934)。例えば、図38M〜38Nの機器は、指紋3824を検出することに応答して写真をキャプチャする。いくつかの実施形態では、第1の動作は、映像を録画するステップを含む(3936)。例えば、図38E〜38Fの機器は、指紋3810を検出することに応答して映像を録画する。いくつかの実施形態では、第1の動作は、通信インタフェース(例えば、第1の指紋に関連したデフォルトアプリケーションであるか、又は、機器のユーザによる第1の指紋に関連したアプリケーションである電話、電子メール、又は他の電子メッセージアプリケーションのユーザインタフェース)を表示するステップを含む(3938)。例えば、図38K〜38Lの機器は、指紋3820を検出することに応答して、電話アプリケーションインタフェース3822を表示する。いくつかの実施形態では、第1の動作は、カメラインタフェース(例えば、写真又は映像をキャプチャするカメラアプリケーションのユーザインタフェース)を表示するステップを含む(3940)。例えば、図38A〜38Bの機器は、指紋3802を検出することに応答して、カメラインタフェース3804を表示する。
いくつかの実施形態では、カメラインタフェースを表示している(3942)間に、機器は、メディアキャプチャ基準が満たされたかどうか決定する。メディアキャプチャ基準が満たされたという決定に従って、機器は、カメラでメディアをキャプチャし始める。メディアキャプチャ基準が満たされなかったという決定に従って、機器は、カメラでメディアをキャプチャするのを取り止める。例えば、図38B〜38Cでは、機器は、カメラインタフェース3806を表示する。カメラインタフェース3806を表示している間に、機器は、1つ以上のメディアキャプチャ基準が満たされるかどうか決定する。基準が満たされた場合、機器は、カメラ(例えば、光センサ164)でメディア(例えば、1つ以上の写真、映像)をキャプチャし始める。基準が満たされなかった場合、機器は、メディアをキャプチャしない。
いくつかの実施形態では、メディアキャプチャ基準は、第1の指紋に対応する接触がそれぞれの強度閾値を上回る強度を有するときに満たされる基準を含む(3944)(例えば、ユーザは、カメラプレビューが表示されている間に、写真を撮るために指紋をつけてより強く押し下げるか、又は、映像を撮り始める)。例えば、図38Cの指紋3802は、それぞれの強度閾値(例えば、タッチスクリーンディスプレイ112上で接触を検出することに対応する、接触検出強度閾値を上回る強度閾値)を上回る強度を有し、したがって基準を満たす。これに応答して、機器は、写真をキャプチャする。
いくつかの実施形態では、メディアキャプチャ基準は、第1の指紋に対応する接触がそれぞれの時間閾値を上回って連続的に検出されたときに満たされる基準を含む(3946)(例えば、ユーザは、カメラプレビューが表示されている間に、写真を撮るために、又は、映像を撮り始めるためにそれぞれの時間閾値より長い時間でタッチ感知面上の接触を維持する)。例えば、図38Cでは、メディアキャプチャ基準は、任意選択的に、強度基準よりもむしろ指紋検出期間基準である。指紋3802がそれぞれの時間閾値を上回って連続的に検出された場合、期間基準は満たされる。
いくつかの実施形態では、少なくとも既定の時間量で第1の指紋を検出することに応答して、機器は、カメラによりキャプチャされることになるメディアのプレビューを含むカメラプレビューを表示する(3948)。例えば、図38Bでは、機器は少なくとも既定の時間量(例えば、0.05秒、0.1秒、0.2秒、0.5秒、又は何らかの他の妥当な時間周期)で指紋3802を検出することに応答して、カメラプレビュー3806を表示する。
いくつかの実施形態では、カメラプレビューを表示している間に、機器は、カメラプレビューに対応するメディアをキャプチャする要求に対応する入力を検出する(例えば、機器は第1の指紋のリフトオフ、それぞれの強度閾値を上回る指紋の強度の増加、又は画像をキャプチャすることに関連した物理的ボタンのアクティブ化を検出する)(3950)。カメラプレビューに対応するメディアをキャプチャする要求に対応する入力を検出する(3952)ことに応答して、機器は、カメラプレビューに対応する静止画像をキャプチャして(3954)、カメラプレビューを表示することを中止して(3956)、それぞれのユーザインタフェースを再表示する(3958)。例えば、タッチ感知面上で指紋を検出することに応答して、機器は、カメラプレビューを表示する。カメラプレビューを表示している間に指紋のリフトオフを検出することに応答して、機器は、写真を撮って、カメラプレビューを表示することを中止する。したがって、ユーザがそれぞれのタスク(例えば、ニュースを読む、電子メールをチェックする、又は、何らかの他のタスク)のために機器を使用している最中である間に、ユーザは、素早く写真キャプチャモードに遷移して、写真を撮って、その後、最小の中断でそれぞれのタスクに戻ることができる。
例えば、カメラプレビュー3806が表示されている間に、図38B〜38Dは、それぞれの強度閾値を上回る指紋3802の強度を示す。強度増加は、機器にカメラプレビュー3806に対応するメディアをキャプチャする要求である。要求を検出することに応答して、機器は、カメラプレビュー3806に対応する写真をキャプチャして、(カメラインタフェース3804を表示することを中止するとともに)カメラプレビュー3806を表示することを中止して、ユーザインタフェース3801を再表示する。
いくつかの実施形態では、カメラプレビューを表示している間に、機器は、カメラプレビューに対応するメディア(例えば、バースト写真キャプチャモードなどの所定の間隔にて撮られる映像又は一連のスチール写真)をキャプチャする(3960)。いくつかの実施形態では、機器は、タッチ感知面上で第1の指紋を検出することに応答してメディアをキャプチャし始める。いくつかの実施形態では、機器は、所定の時間量を上回ってタッチ感知面上で第1の指紋を検出するか、又は、それぞれの強度閾値を上回る第1の指紋の強度の増加を検出することなどのその後のキャプチャ開始入力を検出することに応答してメディアをキャプチャし始める。例えば、図38Fは、機器は、指紋3810を検出することに応答してカメラプレビュー3812を表示している間にカメラプレビュー3812に対応する映像を録画するのを示す。
いくつかの実施形態では、カメラプレビューに対応するメディアをキャプチャしている間に(例えば、一連の写真において1つ以上の写真を撮った後、又は、映像をキャプチャしている間に)、機器は、メディアをキャプチャすることを中止する要求に対応する入力を検出する(3962)(例えば、機器は、第1の指紋のリフトオフを検出するか、それぞれの強度閾値を上回る指紋の強度の増加を検出するか、又は、画像をキャプチャすることに関連した物理的ボタンのアクティブ化を検出するか、又は、タップ又は押しを検出して、タッチ感知面又はメディアキャプチャアイコンに対応するタッチ感知面の部分上でジェスチャを保持する)。メディアをキャプチャすることを中止する要求に対応する入力を検出する(3964)ことに応答して、機器は、メディアをキャプチャすることを中止し(3966)、カメラプレビューを表示することを中止して(3968)、それぞれのユーザインタフェースを再表示する(3970)。いくつかの実施形態では、タッチ感知面上で指紋を検出することに応答して、機器は、カメラプレビューを表示する。所定の時間量を上回ってタッチ感知面上で指紋を検出し続けることに応答して、機器は、映像を撮り始めて、カメラプレビューを表示している間に指紋のリフトオフを検出することに応答して、機器は、映像を撮るのを止めて、カメラプレビューを表示することを中止する。あるいは、タッチ感知面上で指紋を検出することに応答して、機器は、カメラプレビューを表示し、所定の時間量を上回ってタッチ感知面上で指紋を検出し続けることに応答して、機器は、バーストフォトキャプチャモードで一連の複数の写真を撮り、カメラプレビューを表示している間に指紋のリフトオフを検出することに応答して、機器は、カメラプレビューを表示することを中止する。したがって、ユーザがそれぞれのタスク(例えば、ニュースを読む、電子メールをチェックする、又は、何らかの他のタスク)のために機器を使用している最中である間に、ユーザは、素早く映像キャプチャモードに遷移して、映像又は一気に写真を撮って、その後最小の中断でそれぞれのタスクに戻ることができる。カメラプレビュー3812対応する映像が録画されている(図38F)間に、例えば、機器は指紋3810のリフトオフを検出する。これに応答して、機器は、映像を録画するのを止めて(図38G)、(カメラインタフェース3804を表示することを中止するとともに)カメラプレビュー3812を表示することを中止して、ユーザインタフェース3801を再表示する(図38H)。
いくつかの実施形態では、機器は、第1の指紋と異なる第2の指紋を、第1の動作と異なる第2の動作と関連づける(例えば、指紋登録プロセス中に、に右の拇印にカメラアプリケーションのシャッター機能を割り当てる)(3972)。機器は、ディスプレイ上で(それぞれのユーザインタフェースを表示し(3976)、それぞれのユーザインタフェースは、第2の動作を実行するアフォーダンスを含まない(例えば、ユーザインタフェースは、アプリケーション立ち上げ画面、又は、第2の動作を実行するユーザインタフェースではない異なるアプリケーションのユーザインタフェースであり、ユーザインタフェースは、第2の動作を実行するアフォーダンス又は他のユーザインタフェース要素を含まない)。それぞれのユーザインタフェースを表示している間に、機器は、タッチ感知面上で第2の指紋を検出することを含む第2のジェスチャを検出する(3978)。タッチ感知面上で第2の指紋を含むジェスチャを検出することに応答して、機器は、第2の動作を実行する(3980)。例えば、図38M〜38Pでは、右の拇印は、写真キャプチャに関連しており、左の拇印は。映像録画に関連している。機器は、写真キャプチャ又は映像録画のアフォーダンスを含まないユーザインタフェース3801を表示する(図38M)。機器は、右の拇印である指紋3824を検出することに応答して、写真をキャプチャして、指紋3828を検出することに応答して、映像を録画する。
いくつかの実施形態では、第1の動作は、スチール写真をキャプチャすることに関連した動作(例えば、スチルカメラアプリケーションユーザインタフェースを表示するか、又は、写真をキャプチャする)であり(3974)、第2の動作は、映像をキャプチャすることに関連した動作(例えば、映像カメラアプリケーションユーザインタフェースを表示するか、又は、映像を撮る)である。例えば、ユーザが機器のタッチ感知面(例えば、タッチスクリーン)上でどこであれ左の拇印を付けたとき、機器は、スチルカメラアプリケーションを立ち上げ、ユーザが機器のタッチ感知面(例えば、タッチスクリーン)上でどこであれ右の拇印を付けたとき、機器は、映像カメラアプリケーションを立ち上げる。いくつかの実施形態では、第1の動作及び第2の動作は、同じアプリケーションを、但し、異なるモードで立ち上げる(例えば、カメラアプリケーションは、機器が左の拇印を付けて実行されたジェスチャを検出した場合に静止状態画像キャプチャモードで、又は、機器が右の拇印を付けて実行されたジェスチャを検出した場合に映像キャプチャモードで立ち上げられる。例えば、図38M〜38Pでは、右の拇印は、写真キャプチャに関連しており、左の拇印は。映像録画に関連している。
図39A〜39Eにおける動作について記載された特定の順序は単なる例示であり、記載された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書で説明される動作の再順序付けをするさまざまな方法を認識するであろう。加えて、本記載の方法及びに関して本明細書に記載の他の処理の詳細(例えば、パラグラフ[00123]に記載したものは、図39A〜39Eに関連して上述した方法3900と類似の様式で適用可能であることに留意されたい。例えば、方法3900を参照して先述した指紋、接触、及び、説明したジェスチャは、任意選択的に、本明細書で説明する他の方法(例えば、パラグラフ[00123]内に記載されたもの)を参照して本記載の指紋、接触、及びジェスチャの特性の1つ以上を有する。簡潔にするため、これらの詳細はここでは繰り返さない。
いくつかの実施形態によれば、図40は、様々な記述する実施形態の原理に従って構成された電子機器4000の機能ブロック図を示す。機器の機能ブロックは、任意選択的に、様々な説明する実施形態の原理を実行するためにハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせにより実行される。図40に記述された機能ブロックが、任意選択的に、様々な記述する本発明の原理を実施するために、合成され、又はサブブロックに分離されることが、当業者により理解される。したがって、本明細書における説明は、あらゆる可能な組み合わせ若しくは分割、又は本明細書に述べられる更なる機能ブロックの定義を任意選択的に支持する。
図40に示すように、電子機器4000は、第1の動作以外の複数の動作を実行するアフォーダンスを含むそれぞれのユーザインタフェースを表示するように構成されたディスプレイユニット4002と、ジェスチャを受け取るように構成されたタッチ感知面ユニット4004と、任意選択的に、指紋を検出する指紋センサユニット4006と、ディスプレイユニット4002及びタッチ感知面ユニット4004に結合された処理ユニット4008とを含む。いくつかの実施形態では、処理ユニット4008は関連づけユニット4010と、検出ユニット4012と、実行ユニット4014と、決定ユニット4016と、開始ユニット4018と、表示有効化ユニット4022と、キャプチャユニット4024と、中止ユニット4026とを含む。
処理ユニット4008は、(例えば、関連づけユニット4010で)第1の指紋を第1の動作と関連づけ、(例えば、表示有効化ユニット4022で)第1の動作以外の複数の動作を実行するアフォーダンスを含むそれぞれのユーザインタフェースの表示を有効化し、第1の動作以外の複数の動作を実行するアフォーダンスを含むそれぞれのユーザインタフェースの表示を有効化している間に、(例えば、検出ユニット4012で)タッチ感知面ユニット4004上で第1の指紋を検出することを含む第1のジェスチャを検出して、(例えば、実行ユニット4014で)第1のジェスチャを検出することに応答して、第1の動作を実行するように構成される。
いくつかの実施形態では、第1の動作は、タッチ感知面ユニット4004上で第1の指紋を検出することに応答して実行される。
いくつかの実施形態では、第1の動作は、タッチ感知面ユニット4004上で第1の指紋のリフトオフを検出することに応答して実行される。
いくつかの実施形態では、第1のジェスチャは、向き固有のジェスチャであり、向き固有のジェスチャを検出するステップは、所定の向きにてタッチ感知面ユニット4004上で第1の指紋を検出するステップを含む。
いくつかの実施形態では、第1のジェスチャは、位置固有のジェスチャであり、位置固有のジェスチャを検出するステップは、所定の向きにてタッチ感知面ユニット4004上で第1の指紋を検出するステップを含む。
いくつかの実施形態では、第1のジェスチャは、期間固有のジェスチャであり、期間固有のジェスチャを検出するステップは、少なくとも所定の時間量でタッチ感知面ユニット4004上で第1の指紋を検出するステップを含む。
いくつかの実施形態では、それぞれのユーザインタフェースは、第1の動作を実行する表示されたコントロールを含まない。
いくつかの実施形態では、それぞれのユーザインタフェースは、第1の動作を実行するように構成されない第1のアプリケーションのユーザインタフェースであり、第1の動作は、第1のアプリケーションと異なる第2のアプリケーションにより実行される。
いくつかの実施形態では、それぞれのユーザインタフェースは、第1の動作を実行するように構成されないアプリケーション立ち上げ画面のユーザインタフェースであり、第1の動作は、アプリケーション立ち上げ画面と異なるそれぞれのアプリケーションにより実行される。
いくつかの実施形態では、第1の動作は、写真を撮るステップを含む。
いくつかの実施形態では、第1の動作は、映像を録画するステップを含む。
いくつかの実施形態では、第1の動作は、通信インタフェースの表示を有効化するステップを含む。
いくつかの実施形態では、第1の動作は、カメラインタフェースの表示を有効化するステップを含む。
いくつかの実施形態では、処理ユニット4008は、カメラインタフェースの表示を有効化している間に、(例えば、決定ユニット4016で)メディアキャプチャ基準が満たされたかどうか決定し、メディア−キャプチャ基準が満たされたという決定に従って、(例えば、開始ユニット4018又はキャプチャユニット4024で)カメラでメディアをキャプチャし始めて、メディアキャプチャ基準が満たされなかったという決定に従って、(例えば、キャプチャユニット4024で)カメラでメディアをキャプチャすることを取り止めるように構成される。
いくつかの実施形態では、メディアキャプチャ基準は、第1の指紋に対応する接触がそれぞれの強度閾値を上回る強度を有するときに満たされる基準を含む。
いくつかの実施形態では、メディアキャプチャ基準は、第1の指紋に対応する接触がそれぞれの時間閾値を上回って連続的に検出されたときに満たされる基準を含む。
いくつかの実施形態では、処理ユニット4008は、少なくとも既定の時間量で第1の指紋を検出することに応答して、(例えば、表示有効化ユニット4022で)カメラによりキャプチャされることになるメディアのプレビューを含むカメラプレビューの表示を有効化するように構成される。
いくつかの実施形態では、処理ユニット4008は、カメラプレビューの表示を有効化している間に、(例えば、検出ユニット4012で)カメラプレビューに対応するメディアをキャプチャする要求に対応する入力を検出し、カメラプレビューに対応するメディアをキャプチャする要求に対応する入力を検出することに応答して、(例えば、キャプチャユニット4024で)カメラプレビューに対応する静止画像をキャプチャして、(例えば、中止ユニット4026で)カメラプレビューの表示を有効化することを中止して、(例えば、表示有効化ユニット4022で)それぞれのユーザインタフェースの表示を再有効化するように構成される。
いくつかの実施形態では、処理ユニット4008は、カメラプレビューの表示を有効化している間に、(例えば、キャプチャユニット4024で)カメラプレビューに対応するメディアをキャプチャし、カメラプレビューに対応するメディアをキャプチャしている間に、(例えば、検出ユニット4012で)メディアをキャプチャすることを中止する要求に対応する入力を検出し、メディアをキャプチャすることを中止する要求に対応する入力を検出することに応答して、(例えば、中止ユニット4026で)メディアをキャプチャすることを中止し、(例えば、中止ユニット4026で)カメラプレビューの表示を有効化することを中止して、(例えば、表示有効化ユニット4022で)それぞれのユーザインタフェースの表示を再有効化するように構成される。
いくつかの実施形態では、タッチ感知面4004は、統合指紋センサを有するタッチスクリーンディスプレイである。
いくつかの実施形態では、第1の指紋は、以前に登録された指紋であり、第1のジェスチャを検出するステップは、検出された指紋の検出された特徴部と第1の指紋の以前に登録された特徴部との間の比較に基づいて第1の指紋として検出された指紋を識別するステップを含む。
いくつかの実施形態では、第1の指紋は、既定の種類の指紋であり、第1のジェスチャを検出するステップは、検出された指紋の検出された特徴部と既定の種類の指紋に関連した特徴部との間の比較に基づいて第1の指紋として検出された指紋を識別するステップを含む。
いくつかの実施形態では、処理ユニット4008は、(例えば、関連づけユニット4010で)第1の指紋と異なる第2の指紋を第1の動作と異なる第2の動作と関連づけ、(例えば、表示有効化ユニット4022で)ディスプレイユニット4002上で、それぞれのユーザインタフェースの表示を有効化し、(それぞれのユーザインタフェースは、第2の動作を実行するアフォーダンスを含まない)、それぞれのユーザインタフェースの表示を有効化している間に、(例えば、検出ユニット4012で)タッチ感知面ユニット4004上で第2の指紋を検出することを含む第2のジェスチャを検出し、タッチ感知面ユニット4004上で第2の指紋を含むジェスチャを検出することに応答して、(例えば、実行ユニット4014で)第2の動作を実行するように構成される。
いくつかの実施形態では、第1の動作は、スチール写真をキャプチャすることに関連した動作であり、第2の動作は、映像をキャプチャすることに関連した動作である。
先述した情報処理方法の動作は、(例えば、図1A及び3に関して先に説明したように)汎用プロセッサ又は特定用途向けチップなどの情報処理装置において1つ以上の機能モジュールを実行することにより任意選択的に実行される。
図39A〜39Eを参照して先述した動作は、任意選択的に、図1A〜1B又は図40に示す構成要素により実行される。例えば、検出する動作3912、及び実行する動作3928は、任意選択的に、イベントソータ170、イベント認識部180、及びイベントハンドラ190により実行される。イベントソータ170のイベントモニタ171は、タッチ感知ディスプレイ112上の接触を検出し、イベントディスパッチャモジュール174は、イベント情報をアプリケーション136−1に渡す。アプリケーション136−1のそれぞれのイベント認識部180は、イベント情報をそれぞれのイベント定義186と照会し、タッチ感知面上の第1の位置の第1の接触がユーザインタフェース上のオブジェクトの選択などの、既定のイベント又はサブイベントに対応するかどうかを判定する。それぞれの既定のイベント又はサブイベントが検出されると、イベント認識部180は、イベント又はサブイベントの検出に関連するイベントハンドラ190をアクティブ化する。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデーター176若しくはオブジェクトアップデーター177を任意選択的に利用するか又は呼び出す。いくつかの実施形態において、イベントハンドラ190は、アプリケーションにより表示されるものを更新するためのそれぞれのGUIアップデーター178にアクセスする。同様に、当業者にとって、他の処理が図1A〜1Bに示される構成要素に基づいてどのように実施されるかは明らかであるだろう。
それぞれのコントロールを移動させることに関連した第1の指紋の検出に基づいてユーザインタフェースのそれぞれのコントロールを表示する
多くの電子機器が、ユーザインタフェースのそれぞれのコントロールを有するグラフィカルユーザインタフェースを有する。それぞれのコントロール(例えば、画像編集アプリケーションのカラーパレット)は、例えば、マウス(又は、他の周辺機器)により制御されるカーソルとともに、ユーザツールバー又はメニューィンドウ選択に応答してユーザインタフェース上で表示される。以下で説明する機器は、タッチ感知面上でそれぞれのコントロールを移動させることに関連した第1の指紋を検出することに応答して、ディスプレイ上で、ユーザインタフェースのそれぞれのコントロールを表示することにより既存の方法を向上させる。第1の指紋は、それぞれのコントロールを含まないディスプレイ上の第1の位置でのフォーカスセレクタに対応する。
いくつかの実施形態では、機器は、別個のディスプレイ(例えば、ディスプレイ450)と、別個のタッチ感知面(例えば、タッチ感知面451)とを有する電子機器である。いくつかの実施形態では、機器は、携帯型多機能機器100であり、ディスプレイは、タッチスクリーン112であり、タッチ感知面は、ディスプレイ(図1A)上の触覚出力発生器167を含む図41A〜41K及び42A〜42Cを参照して以下で説明する機器は、任意選択的に1つ以上の指紋センサ169を含む。いくつかの実施形態では、1つ以上の指紋センサは、タッチ感知面(例えば、別個のタッチ感知面451又はタッチ感応表示システム112)に一体化される1つ以上の統合指紋センサ359−1(図4B)を含むいくつかの実施形態では、1つ以上の指紋センサは、タッチ感知面(例えば、別個のタッチ感知面451又はタッチ感応表示システム112)とは別個である別個の指紋センサ359−2(図4B)を含む。特に指定がない限り、以下で説明する指紋センサ169は、指紋センサ169を含む機器のハードウェア及びソフトウェアの構成に応じて、任意選択的に、統合指紋センサ359−1又は別個の指紋センサ359−2である。説明の便宜上、図41A〜41K及び42A〜42Cを参照して説明する実施形態は、タッチスクリーン112及び任意選択的に1つ以上の指紋センサ169(例えば、指紋センサ359−1、又は、別個の指紋センサ359−2)を参照して論じ、そのような実施形態では、フォーカスセレクタは、任意選択的に、それぞれの接触、接触に対応する代表的な点(例えば、それぞれの接触の面心又はそれぞれの接触に関連した点)、又は、カーソルの代わりに、タッチスクリーン112上で検出された2つ以上の接触の面心である。類似した動作が、任意選択的に、図41A〜41Kに示すユーザインタフェースをディスプレイ450上で表示している間に図41A〜41Kで説明する入力を統合指紋センサ359−1又は別個の指紋センサ359−2上で検出することに応答して、ディスプレイ450と、別個のタッチ感知面451と、統合指紋センサ359−1又は別個の指紋センサ359−2とを有する機器上で実行される。
図41A〜41Kは、タッチスクリーン112のユーザインタフェース4101上でビデオゲームを表示する携帯型多機能機器100を示す。いくつかの実施形態では、タッチスクリーン112は、機器100がタッチスクリーン112上で任意の位置にて指紋を検出するために有効化されるように指紋センサを含む。図41B〜41F及び41H〜41Kは、機器100がユーザインタフェース4101上で表示された休止記号4104により示されたビデオゲームを休止モードで表示するのを更に示す。
図41Aは、従来の位置4102−aにてユーザインタフェース4101についてそれぞれのコントロール4102(例えば、ビデオゲームの対話型オブジェクトの方向コントロールの方向パッド、d−パッド又はジョイパッド)を表示することを示す。従来の位置4102−aは、図41E〜41Hにおいては第1の位置4102−bと異なる。それぞれのコントロール4102は、移動用のそれぞれのコントロール4102(例えば、図41Dにおいて検出される指紋4112)に関連した第1の指紋(例えば、ユーザの右の小指)を検出する前に従来の位置4102−aにて表示される。いくつかの実施形態では、第1の指紋は、典型的にはユーザインタフェースオブジェクト(例えば、ユーザの薬指又は小指)の操作に関連していない指に対応する。図41Aは、それぞれのコントロール4102上で指紋4106(例えば、ユーザの右の人差指)を検出することを更に示す。指紋4106を検出することに応答して、機器100は、それぞれのコントロール4102に関連した動作を実行する。
図41Bは、従来の位置4102−aにてそれぞれのコントロール4102を表示している間に、タッチスクリーン112上の第1の位置にて移動用のそれぞれのコントロール4102に関連した第1の指紋4108(例えば、ユーザの右の小指)を検出することを示す。第1の位置は、従来の位置と異なり、かつ、それぞれのコントロール4102を含まない。
図41Cは、それぞれのコントロール4102がタッチスクリーン112上で表示されない間にタッチスクリーン112上で指紋4110を検出することを示す。指紋4110を検出することに応答して、機器100は、指紋4110が第1の指紋(例えば、ユーザの右の小指)と異なる指紋(例えば、ユーザの右の人差指)であり、かつ、ユーザインタフェース4101について移動用のそれぞれのコントロール4102に関連していないという決定に従ってそれぞれのコントロール4102を表示することを取り止める。
図41Dは、1Dタッチ感知面112上で第1の位置4112−aにてユーザインタフェース4101について移動用のそれぞれのコントロール4102に関連した第1の指紋4112(例えば、ユーザの右の小指)を検出することを示す。第1の指紋4112は、それぞれのコントロール4102を含まないタッチスクリーン112上の第1の位置4112−aでのフォーカスセレクタ(例えば、タッチスクリーン112上で検出された指紋4112に関連したそれぞれの接触の面心)に対応する。
図41Eは、図41Dにおいて第1の位置4112−aにて第1の指紋4112(例えば、ユーザの右の小指)を検出することに応答してタッチスクリーン112上で第1の位置4102−aにてそれぞれのコントロール4102を表示することを示す。
図41Fは、第1の位置4112−aから第2の位置4112−bまでタッチスクリーン112上で第1の指紋4112(例えば、ユーザの右の小指)のドラッグしているジェスチャを検出することを示す。第2の位置は、第1の位置と異なっており、かつ、それぞれのコントロール4102を含まない。
図41Gは、図41Eの位置4112−aからの第1の指紋4112のリフトオフを検出することを示す。図41Gは、図41Eにおいて位置4112−aからの第1の指紋4112のリフトオフを検出した後にタッチスクリーン112上で第1の位置4102−bにてそれぞれのコントロール4102の表示を維持することも示す。図41Gは、それぞれのコントロール4102上で指紋4114(例えば、ユーザの右の人差指)を検出することを更に示す。指紋4114を検出することに応答して、機器100は、それぞれのコントロール4102に関連した動作を実行する。
図41Hは、タッチスクリーン112上で第1の位置4102−bにてそれぞれのコントロール4102を表示している間に、第2の位置にてそれぞれの指紋4116(例えば、ユーザの右の中指)を検出することを示す。第2の位置は、第1の位置1402−bと異なっており、かつ、それぞれのコントロール4102を含まない。
図41Iは、タッチスクリーン112上で第1の位置4102−bにてそれぞれのコントロール4102を表示している間に、第2の位置にてそれぞれの指紋4118(例えば、ユーザの右の小指)を検出することを示す。第2の位置は、第1の位置1402−bと異なっており、かつ、それぞれのコントロール4102を含まない。
図41Jは、第1の位置4102−bにてそれぞれのコントロール4102を表示することを中止して、タッチスクリーン112上で第2の位置4102−cにてそれぞれのコントロール4102を表示することを示す。それぞれのコントロール4102は、図41Fにおいて第2の位置4112−bにてそれぞれの指紋4112を、又は、図41Iにおいては指紋4118(それぞれの指紋4112又は4118は第1の指紋である)を検出することに応答して、タッチスクリーン112上で第2の位置4102−cにて表示される。例えば、それぞれの指紋4118が図41Fにおいて第2の位置4112−bにドラッグされるとき、それぞれのコントロール4102は、タッチスクリーン112上で第2の位置4102−cにて表示される。別の実施例では、機器が図41Iにおいて第2の位置にてそれぞれの指紋4118のタッチダウンを検出したとき、それぞれのコントロール4102は、タッチスクリーン112上で第2の位置4102−cにて表示される。
図41Kは、図41Hにおいて第2の位置にてそれぞれの指紋4116を検出することに応答して、かつ、それぞれの指紋4116は、第1の指紋(例えば、ユーザの右の小指)と異なる第2の指紋(例えば、ユーザの右の人差指)であり、かつ、ユーザインタフェース4101について移動用のそれぞれのコントロール4102に関連していないという決定に従ってタッチスクリーン112上で第1の位置4102−bにてそれぞれのコントロール4102の表示を維持することを示す。
図42A〜42Cは、いくつかの実施形態に係る、それぞれのコントロールを移動させることに関連した第1の指紋の検出に基づいてユーザインタフェースのそれぞれのコントロールを表示する方法4200を示す流れ図である。方法420は、ディスプレイと、タッチ感知面と、指紋センサとを有する電子機器(例えば、図3の機器300、又は、図1Aの携帯型多機能機器100)にて実行される。いくつかの実施形態において、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面がディスプレイ上にある。いくつかの実施形態において、ディスプレイはタッチ感知面から分離している。方法4200の一部の動作が、任意選択的に、組み合わされ、及び/又は、一部の動作の順序が、任意選択的に変えられる。
以下で説明するように、方法4200はそれぞれのコントロールを移動させることに関連した第1の指紋の検出に基づいてユーザインタフェースのそれぞれのコントロールを表示する直観的方法を提供する。この方法により、それぞれのコントロールを移動させることに関連した第1の指紋の検出に基づいてユーザインタフェースのそれぞれのコントロールを表示するときに、ユーザの上で認識的負担が軽減され、その結果、より効率的なヒューマン−マシンインタフェースが作成される。バッテリ動作電子機器では、ユーザがそれぞれのコントロールを移動させることに関連した第1の指紋の検出に基づいてユーザインタフェースについてそれぞれのコントロールを表示することを可能にすることにより、より高速かつ効率的で電力を保存して、バッテリの充電の間の時間を増やす。
ディスプレイと、タッチ感知面と、指紋センサとを有する電子機器は、ディスプレイ上でユーザインタフェースを表示する(4202)。図41A〜41Kは、例えば、タッチスクリーン112上でビデオゲームを含むユーザインタフェース4101を表示する携帯型多機能機器100を示す。
いくつかの実施形態では、ユーザインタフェースのそれぞれのコントロールを移動させることに関連した第1の指紋を検出する(直)前に、機器は、第1の位置と異なる従来の位置にてそれぞれのコントロールを表示し(4204)、第1の指紋を検出することに応答して、機器は、従来の位置にてそれぞれのコントロールを表示することを中止する(例えば、機器は、第1の指紋を検出することに応答して、従来の位置から新しい位置までそれぞれのコントロールを移動させる)。図41Aは、例えば、機器100が移動用のそれぞれのインタフェース4102に関連した第1の指紋(例えば、ユーザの右の小指)を検出する前、従来の位置4102−aにてユーザインタフェース4101のそれぞれのコントロール4102を表示するのを示す。図41A〜41Bのそれぞれのコントロール4102の従来の位置4102−aは、図41E〜41Fのそれぞれのコントロール4102の第1の位置4102−bと異なる。図41Bは、例えば、機器100が第1の位置にて第1の指紋4108を検出するのを示す。図41Eは、機器100が、例えば、従来の位置4102−aにてそれぞれのコントロール4102を表示することを中止して、図41Bにおいて第1の位置にて第1の指紋4108を検出することに応答して第1の位置4102−bにてそれぞれのコントロール4102を表示するのを示す。
いくつかの実施形態では、それぞれのコントロールが従来の位置にて表示されるとき、機器は、それぞれのコントロールに関連した動作を実行することにより従来の位置に対応する入力に応答する(4206)。更に、いくつかの実施形態では、それぞれのコントロールが従来の位置にて表示されるとき、機器は、それぞれのコントロールに関連していない動作(例えば、スクロールする、選択するなど)を実行することにより(又は、任意選択的に、入力がユーザインタフェースにおいて他の動作に対応しない場合に動作を実行しないことにより)第1の位置に対応する入力に応答する。図41Aは、例えば、機器100が、それぞれのコントロール4102が従来の位置4102−aにて表示されている間にそれぞれのコントロール4102上に指紋4106(例えば、ユーザの右の人差指)を検出することに応答してそれぞれのコントロール4102に関連した動作を実行するのを示す。一実施例では、機器100は、下向きの方向に対応するそれぞれのコントロール4102上の指紋4106の位置に従って、ユーザインタフェース4101上でビデオゲーム(例えば、車両4103)の対話型オブジェクトの方向を変える。
機器は、タッチ感知面上でユーザインタフェースのそれぞれのコントロールを移動させる(例えば、ディスプレイ上で移動させる)ことに関連した第1の(所定の)指紋を検出し(4208)、第1の指紋は、それぞれのコントロールを含まないディスプレイ上の第1の位置でのフォーカスセレクタに対応する。図41Dは、例えば、機器100がそれぞれのコントロール4102を含まないタッチスクリーン112上で、第1の位置4112−aにて第1の指紋4112(例えば、ユーザの右の小指)を検出するのを示す。図41Dでは、例えば、機器100はタッチスクリーン112上でそれぞれのコントロール4102を表示していない。いくつかの実施形態では、それぞれのコントロールは、ユーザインタフェースの隠れたコントロール(例えば、ビデオゲームの方向コントロール、画像編集アプリケーションのメディア再生アプリケーション、カラーパレット又はトリミングツールの音声コントロール、ウェブブラウザーアプリケーションのナビゲーションコントロールなど)に対応する。
いくつかの実施形態では、それぞれのコントロールは、ビデオゲーム(例えば、ソフトジョイスティック、仮想dパッド/方向パッド/ジョイパッド)の方向制御パッドである(4210)。例えば、機器が方向制御パッドと対話する接触を検出した(及び、接触が第1の指紋を含まない)とき、機器は、ユーザインタフェースをナビゲートする、又は、ビデオゲームにおいて車両又はキャラクタの動き又は視野の方向を変えることなど、方向制御パッドに関連した対応する動作を実行する。図41A〜41B及び41E〜41Kは、例えば、機器100がタッチスクリーン112上で表示されるビデオゲームの方向コントロールであるそれぞれのコントロール4102を表示するのを示す。
第1の指紋を検出することに応答して、機器は、ディスプレイ上で第1の位置にてそれぞれのコントロールを表示する(4212)。図41Eは、例えば、機器100が、図41Bにおいて第1の位置にて第1の指紋4108(例えば、ユーザの右の小指)を、又は、図41Dにおいて第1の位置4112−aにて第1の指紋4112(例えば、ユーザの右の小指)を検出することに応答して、タッチスクリーン112上で第1の位置4102−bにてそれぞれのコントロール4102を表示するのを示す。
いくつかの実施形態では、それぞれのコントロールが第1の位置にて表示されるとき、機器は、それぞれのコントロールに関連した動作を実行することにより第1の位置に対応する入力に応答する(4214)。更に、いくつかの実施形態では、それぞれのコントロールが第1の位置にて表示されるとき、機器は、それぞれのコントロールに関連していない動作(例えば、スクロールする、選択するなど)を実行することにより(又は、任意選択的に、入力がユーザインタフェースにおいて他の動作に対応しない場合に動作を実行しないことにより)従来の位置に対応する入力に応答する。図41Gは、例えば、機器100が、それぞれのコントロール4102が第1の位置4102−bにて表示されている間にそれぞれのコントロール4102上に指紋4114(例えば、ユーザの右の人差指)を検出することに応答してそれぞれのコントロール4102に関連した動作を実行するのを示す。一実施例では、機器100は、左方向に対応するそれぞれのコントロール4102上の指紋4114の位置に従って、ユーザインタフェース4101上でビデオゲーム(例えば、車両4103)の対話型オブジェクトの方向を変える。
いくつかの実施形態では、それぞれのコントロールは、第1の指紋を検出する(直)前にはディスプレイ上で表示されない(4216)。図41Dは、例えば、機器100は、第1の位置4112−aにて第1の指紋4112(例えば、ユーザの右の小指)を検出する前にはタッチスクリーン112上でそれぞれのコントロール4102を表示しないのを示す。
いくつかの実施形態では、ディスプレイはタッチスクリーンディスプレイであり(4218)、それぞれのコントロールが表示される第1の位置は、タッチスクリーンディスプレイ上の第1の指紋の位置に対応する。図41A〜41Kは、例えば、タッチ感知ディスプレイの表面又はタッチスクリーンディスプレイであるタッチスクリーン112を有する携帯型多機能機器100を示す。図41Eは、例えば、機器100が、タッチスクリーン112上の図41Bの第1の位置での第1の指紋4108(例えば、ユーザの右の小指)、又は、タッチスクリーン112上の図41Dの第1の位置4112−aでの第1の指紋4112(例えば、ユーザの右の小指)の位置の位置に応答する第1の位置4102−bにてそれぞれのコントロール4102を表示するのを示す。
いくつかの実施形態では、機器は、機器が機器のユーザインタフェースを再構成することに関連していない動作の通常のモードである間に、第1の指紋を検出することに応答して、ディスプレイ上で第1の位置にてそれぞれのコントロールを表示する(4220)(例えば、それぞれのコントロールは、まず、機器が別個の再構成モードではない間に表示されるか、又は、ディスプレイ上で移動される)。図41Gは、例えば、機器100が、機器100が機器100のユーザインタフェース4101を再構成することに関連していない動作の通常のモード(例えば、ビデオゲームプレイモード)である間にタッチスクリーン112上で第1の位置4102−bにてそれぞれのコントロール4102を表示するのを示す。
いくつかの実施形態では、機器は、第1の指紋のリフトオフを検出し(4222)、第1の指紋のリフトオフを検出した後、機器は、それぞれのコントロールの表示をディスプレイ上の第1の位置にて維持する(4224)。例えば、それぞれのコントロールは、ユーザがタッチ感知面上で別の位置にて第1の指紋を付けることにより再びそれぞれのコントロールを移動させるまで第1の位置に永久に又は半永久に移動する。図41Gは、例えば、機器100が、図41Eにおいて第1の位置4112−aからの第1の指紋4112(例えば、ユーザの右の小指)のリフトオフを検出するのを示す。図41Gは、図41Eにおいて位置4112−aからの第1の指紋4112のリフトオフを検出した後にタッチスクリーン112上で第1の位置4102−bにてそれぞれのコントロール4102の表示を維持することを更に示す。
いくつかの実施形態では、ディスプレイ上で第1の位置にてそれぞれのコントロールを表示している間に、機器は、ディスプレイ上で第2の位置にてフォーカスセレクタに対応するタッチ感知面上でそれぞれの指紋を検出し(4226)、第2の位置は、第1の位置と異なり、かつ、それぞれのコントロールを含まない。いくつかの実施形態では、それぞれの指紋が第1の指紋であるとき、第2の位置にて第1の指紋を検出するステップは、第1の位置から第2の位置までの動きに対応する第1の指紋で実行されたドラッグジェスチャを検出するステップを含む。いくつかの実施形態では、それぞれの指紋が第1の指紋であるとき、第2の位置にて第1の指紋を検出するステップは、ディスプレイ上の第2の位置に対応するタッチ感知面上の位置にて第1の指紋で実行されたタップジェスチャを検出するステップを含む。
図41Fは、例えば、機器100が、第1の位置4102−bにてそれぞれのコントロール4102を表示している間に、第1の位置4112−aからそれぞれのコントロール4102を含まない第2の位置4112−bまでそれぞれの指紋4112のドラッグジェスチャを検出するのを示す。この実施例では、それぞれの指紋4112は、第1の指紋(例えば、ユーザの右の小指)である。図41Hは、例えば、機器100が、第1の位置4102−bにてそれぞれのコントロール4102を表示している間に、それぞれのコントロール4102を含まず、かつ、図41Dの第1の指紋4112の第1の位置4112−aと異なる第2の位置にてそれぞれの指紋4116(例えば、ユーザの右の中指)を検出するのを示す。この実施例では、それぞれの指紋4116は、第1の指紋(例えば、ユーザの右の小指)と異なる第2の指紋(例えば、ユーザの右の中指)である。図41Iは、例えば、機器100が、第1の位置4102−bにてそれぞれのコントロール4102を表示している間に、それぞれのコントロール4102を含まず、かつ、図41Dの第1の指紋4112の第1の位置4112−aと異なる第2の位置にてそれぞれの指紋4118(例えば、ユーザの右の小指)を検出するのを示す。この実施例では、それぞれの指紋4118は、第1の指紋(例えば、ユーザの右の小指)である。
いくつかの実施形態では、それぞれの指紋を検出する(4228)ことに応答して、かつ、それぞれの指紋が、タッチ感知面上でユーザインタフェースのそれぞれのコントロールを移動させる(例えば、ディスプレイ上で移動させる)ことに関連した第1の(所定の)指紋であるという決定に従って、機器は、ディスプレイ上で第1の位置にてそれぞれのコントロールを表示することを中止して(4230)、ディスプレイ上で第2の位置にてそれぞれのコントロールを表示する(4232)(例えば、第1の指紋を有するその後の入力を検出することに応答して、それぞれのコントロールは、ディスプレイ上で異なる位置に移動する)。図41Jは、第1の位置4102−bにてそれぞれのコントロール4102を表示することを中止して、第2の位置4102−cにてそれぞれのコントロール4102を表示することを示す。この実施例では、機器100は、図41Fにおいて第2の位置4112−bにてそれぞれの指紋4112を、又は、図411において第2の位置にてそれぞれの指紋4118を検出することに応答して、かつ、それぞれの指紋4112又は4118は、移動用のそれぞれのコントロール4102に関連した第1の指紋(例えば、ユーザの右の小指)であるという決定に従って上述した動作を実行する。
いくつかの実施形態では、それぞれの指紋を検出することに応答して、かつ、それぞれの指紋が、タッチ感知面上でユーザインタフェースのそれぞれのコントロールを移動させる(例えば、ディスプレイ上で移動させる)ことに関連した第2の指紋であるという決定に従って、機器は、それぞれのコントロールの表示をディスプレイの上で第1の位置にて維持する(4234)。機器は、また、任意選択的に、(例えば、第2の指紋で実行されたジェスチャがディスプレイ上の第2の位置にて表示されるアイコン又は他のユーザインタフェース要素と対話するジェスチャである場合)、それぞれのコントロールに対応する動作ではない、ディスプレイ上の第2の位置に関連した動作を実行する。図41Kは、例えば、機器100が、それぞれのコントロール4102の表示を第1の位置4102−bにて維持するのを示す。この実施例では、機器100は、図41Hにおいて第2の位置にてそれぞれの指紋4116を検出することに応答して、かつ、それぞれの指紋4116は、第1の指紋(例えば、ユーザの右の小指)と異なる第2の指紋(例えば、ユーザの右の中指)であり、かつ、移動用のそれぞれのコントロール4102に関連していないという決定に従って、前述した動作を実行する。
図42A〜42Cにおける動作について記載された特定の順序は単なる例示であり、記載された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書で説明される動作の再順序付けをするさまざまな方法を認識するであろう。加えて、本記載の方法及びに関して本明細書に記載の他の処理の詳細(例えば、パラグラフ[00123]に記載したものは、図42A〜42Cに関連して上述した方法4200と類似の様式で適用可能であることに留意されたい。例えば、方法4200を参照して先述した指紋、接触、ユーザインタフェース、及びフォーカスセレクタは、任意選択的に、本明細書で説明する他の方法(例えば、パラグラフ[00123]に記載したもの)を参照して本記載の指紋、接触、ユーザインタフェース、及びフォーカスセレクタの特性の1つ以上を有する。)簡潔にするため、これらの詳細はここでは繰り返さない。
いくつかの実施形態により、図43は、様々な説明する実施形態の原理に従って構成する電子機器4300の機能ブロック図を示す。機器の機能ブロックは、任意選択的に、様々な説明する実施形態の原理を実行するためにハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせにより実行される。図43に記述された機能ブロックが、任意選択的に、様々な記述する本発明の原理を実施するために、合成され、又はサブブロックに分離されることが、当業者により理解される。したがって、本明細書における説明は、あらゆる可能な組み合わせ若しくは分割、又は本明細書に述べられる更なる機能ブロックの定義を任意選択的に支持する。
図43に示すように、電子機器4300は、グラフィックユーザインタフェースを表示するように構成されたディスプレイユニット4302と、1つ以上の接触を受け取るように構成されたタッチ感知面ユニット4304と、指紋センサユニット4306と、ディスプレイユニット4302、タッチ感知面ユニット4304、及び指紋センサユニット4306に結合された処理ユニット4308とを含む。いくつかの実施形態では、処理ユニット4308は表示有効化ユニット4310と、検出ユニット4312と、実行ユニット4314と、決定ユニット4316とを含む。
処理ユニット4308は、(例えば、検出ユニット4312で)タッチ感知面ユニット4304上でユーザインタフェースのそれぞれのコントロールを移動させることに関連した第1の指紋を検出するように構成され、第1の指紋は、それぞれのコントロールを含まないディスプレイユニット4302上の第1の位置でのフォーカスセレクタに対応する。第1の指紋を検出することに応答して、処理ユニット4308は、ディスプレイユニット4302上で第1の位置にてそれぞれのコントロールのディスプレイ(例えば、表示有効化ユニット4310で)を有効化するように構成される。
いくつかの実施形態では、それぞれのコントロールは、第1の指紋を検出する前にはディスプレイユニット4302上で表示されない。
いくつかの実施形態では、処理ユニット4308は、第1の指紋を検出する前に、(例えば、表示有効化ユニット4310で)第1の位置と異なる従来の位置にてそれぞれのコントロールのディスプレイを有効化し、第1の指紋を検出することに応答して、(例えば、表示有効化ユニット4310で)従来の位置でのそれぞれのコントロールの表示を中止するように構成される。
いくつかの実施形態では、処理ユニット4308は、それぞれのコントロールが従来の位置にて表示されたとき、(例えば、実行ユニット4314で)それぞれのコントロールに関連した動作を実行することにより従来の位置に対応する入力に応答し、それぞれのコントロールが第1の位置にて表示されたとき、(例えば、実行ユニット4314で)それぞれのコントロールに関連した動作を実行することにより第1の位置に対応する入力に応答するように構成される。
いくつかの実施形態では、ディスプレイユニット4302は、タッチスクリーンディスプレイであり、それぞれのコントロールが表示される第1の位置は、タッチスクリーンディスプレイ上の第1の指紋の位置に対応する。
いくつかの実施形態では、処理ユニット4308は、(例えば、検出ユニット4312で)第1の指紋のリフトオフを検出し、第1の指紋のリフトオフを検出した後、(例えば、表示有効化ユニット4310で)それぞれのコントロールのディスプレイの表示をディスプレイユニット4302上の第1の位置に維持するように構成される。
処理ユニット4308は、(例えば、表示有効化ユニット4310で)ディスプレイユニット上で第1の位置にてそれぞれのコントロールを表示している間に、(例えば、検出ユニット4312で)ディスプレイユニット4302上で第2の位置にてタッチ感知面ユニット4304上でフォーカスセレクタに対応するそれぞれの指紋を検出し、(第2の位置は、第1の位置と異なっており、かつ、それぞれのコントロール4102を含まない)、それぞれの指紋を検出することに応答して、それぞれの指紋がタッチ感知面ユニット4304上でユーザインタフェースのそれぞれのコントロールを移動させることに関連した第1の指紋であるという(例えば、決定ユニット4316での)決定に従って、(例えば、表示有効化ユニット4310で)ディスプレイユニット4302上で第1の位置にてそれぞれのコントロールのディスプレイを表示することを中止して、ディスプレイユニット4302上の第1の位置でのそれぞれのコントロールのディスプレイの(例えば、表示有効化ユニット4310での)表示を有効化するように構成される。
いくつかの実施形態では、処理ユニット4308は、それぞれの指紋を検出することに応答して、かつ、それぞれの指紋は、第1の指紋と異なり、かつ、タッチ感知面ユニット4304上でユーザインタフェースのそれぞれのコントロールを移動させることに関連していない第2の指紋であるという(例えば、決定ユニット4316での)決定に従って、それぞれのコントロールのディスプレイの表示をディスプレイユニット4302上の第1の位置に維持する(例えば表示可能化ユニットにで)ように構成される。
いくつかの実施形態では、それぞれのコントロールは、ビデオゲームの方向制御パッドである。
いくつかの実施形態では、処理ユニット4308は、機器が機器のユーザインタフェースを再構成することに関連していない通常の動作モードである間に第1の指紋を検出することに応答して、ディスプレイユニット4302上の第1の位置でのそれぞれのコントロールの表示を(例えば、表示有効化ユニット4310で)有効化するように構成される。
先述した情報処理方法の動作は、(例えば、図1A及び3に関して先に説明したように)汎用プロセッサ又は特定用途向けチップなどの情報処理装置において1つ以上の機能モジュールを実行することにより任意選択的に実行される。
図42A〜42Cを参照して先述した動作は、任意選択的に、図1A〜1B又は図43に示す構成要素により実行される。例えば、表示する動作4204及び4212、検出する動作4204及び4222、及び、実行する動作4210及び4214は、任意選択的に、イベントソータ170、イベント認識部180、及びイベントハンドラ190により実行される。イベントソータ170のイベントモニタ171は、タッチ感知ディスプレイ112上の接触を検出し、イベントディスパッチャモジュール174は、イベント情報をアプリケーション136−1に渡す。アプリケーション136−1のそれぞれのイベント認識部180は、イベント情報をそれぞれのイベント定義186と照会し、タッチ感知面上の第1の位置の第1の接触がユーザインタフェース上のオブジェクトの選択などの、既定のイベント又はサブイベントに対応するかどうかを判定する。それぞれの既定のイベント又はサブイベントが検出されると、イベント認識部180は、イベント又はサブイベントの検出に関連するイベントハンドラ190をアクティブ化する。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデーター176若しくはオブジェクトアップデーター177を任意選択的に利用するか又は呼び出す。いくつかの実施形態において、イベントハンドラ190は、アプリケーションにより表示されるものを更新するためのそれぞれのGUIアップデーター178にアクセスする。同様に、当業者にとって、他の処理が図1A〜1Bに示される構成要素に基づいてどのように実施されるかは明らかであるだろう。
電子機器を補助ディスプレイとして構成する
多くの電子機器が、コンテンツを表示するグラフィックユーザインタフェースを有し、かつ、ユーザが機器と対話することを可能にする。時には、ユーザは、機器自体内に一体化又は接続されたディスプレイを越えてグラフィックユーザインタフェースを拡張したいと思う場合がある。例えば、内蔵又は外部ディスプレイを有するデスクトップ又はラップトップコンピュータを動作するユーザは、任意選択的に、ケーブルを介してCPUに第2の電子機器又は外部ディスプレイを接続し、その後、第1のディスプレイから第2のディスプレイ上へグラフィックユーザインタフェースを拡張するように第2のディスプレイを構成する。同様に、携帯型多機能電子機器(例えば、スマートフォン、タブレットコンピュータ、又は、デジタルプランナー)を操作するユーザは、任意選択的に、より容易に、機器を構成して、携帯型機器上へ、又は、携帯型機器からファイルを転送する、などのためにベースコンピュータに携帯型機器を(例えば、有線、又は、無線接続部を介して)接続する。このようにして、グラフィックユーザインタフェースの効果的なサイズが増大し、機器と対話するユーザの能力が向上する。しかしながら、第2の電子機器を第1の電子機器の補助ディスプレイとして構成する現行の方法では、第2の機器のディスプレイを構成するためには、メニュー及びサブメニューを開くこと、及び/又は、複数のジェスチャ及びボタン押しが必要であり、これは、ユーザには紛らわしく、及び/又は時間がかかるものになり兼ねない。したがって、ユーザが第2の電子機器を第1の電子機器の補助ディスプレイとしてより効率的かつ便利に構成することを可能にする方法及びユーザインタフェースを提供する必要性がある。
以下で説明する実施形態は、第2の電子機器を第1の電子機器の補助ディスプレイとして構成する改良形の方法及びユーザインタフェースを提供する。更に詳しくは、以下で説明するいくつかの実施形態により、単に各機器上で指紋センサに触れることによりユーザが第2の機器を第1の機器の補助ディスプレイとして構成することを可能にする方法及びユーザインタフェースを提供する。いくつかの実施形態では、これらの方法及びユーザインタフェースでは、第1の機器上のタッチからのそれぞれの指紋アイデンティティを第2の機器上のタッチからのそれぞれの指紋アイデンティティに相関させて、第2の機器を第1の機器の補助ディスプレイとして自動的に構成する。あるいは、いくつかの実施形態では、第1及び第2の指紋の検出で、ユーザは、第1の機器の補助ディスプレイとして第2の機器の構成を確認するように促される。以下で説明するいくつかの実施形態では、第1及び/又は第2の電子機器上のタッチの向きによって、補助ディスプレイ上で表示されるコンテンツの向きが決定される。いくつかの実施形態では、第1及び/又は第2の機器上の指紋タッチのアイデンティティにより、第1のディスプレイのユーザインタフェースが補助ディスプレイ上へ拡張される方向が決定される。例えば、いくつかの実施形態では、ユーザが左手で第1の機器に触れて、右手で第2の機器に触れた場合、ユーザインタフェースは、補助ディスプレイ上で右に拡張される、そして、その逆も同様。有利なことに、以下で説明する方法及びユーザインタフェースでは、ステップの所要の数を低減することにより第2の電子機器を第1の機器の補助ディスプレイとして構成するプロセスが簡素化される。
いくつかの実施形態では、機器は、別個のディスプレイ(例えば、ディスプレイ450)と、別個のタッチ感知面(例えば、タッチ感知面451)とを有する電子機器である。いくつかの実施形態では、機器は、携帯型多機能機器100であり、ディスプレイは、タッチスクリーン112であり、タッチ感知面は、ディスプレイ(図1A)上の触覚出力発生器167を含む44A〜44EE及び45A〜45Dを参照して以下で説明する機器は、1つ以上の指紋センサ169を含む。いくつかの実施形態では、1つ以上の指紋センサは、タッチ感知面(例えば、別個のタッチ感知面451又はタッチ感応表示システム112)に一体化される1つ以上の統合指紋センサ359−1(図4B)を含む。いくつかの実施形態では、1つ以上の指紋センサは、タッチ感知面(例えば、別個のタッチ感知面451又はタッチ感応表示システム112)とは別個である別個の指紋センサ359−2(図4B)を含む。特に指定がない限り、以下で説明する指紋センサ169は、指紋センサ169を含む機器のハードウェア及びソフトウェアの構成に応じて、任意選択的に、統合指紋センサ359−1又は別個の指紋センサ359−2である。説明の便宜上、図44A〜44EE及び45A〜45Dを参照して説明する実施形態は、ディスプレイ450、別個のタッチ感知面451、及び別個の指紋センサ359−2を参照して論じるが、類似した動作が、図44A〜44EEに示すユーザインタフェースをディスプレイ450上で表示している間に、図44A〜44EEで説明する入力を統合指紋センサ359−1上で検出することに応答して、統合指紋センサ359−1で任意選択的に機器上で実行される。更に、類似した動作が、タッチスクリーン112上で図44A〜44EEに示すユーザインタフェースを表示している間に、指紋センサ169(例えば、統合指紋センサ359−1又は別個の指紋センサ359−2)上で図44A〜44EEで説明する接触を検出することに応答して、タッチスクリーン112を有する機器上で任意選択的に実行される。そのような実施形態では、フォーカスセレクタは、任意選択的に、それぞれの接触、接触に対応する代表的な点(例えば、それぞれの接触の面心又はそれぞれの接触に関連した点)、又は、カーソル4422の代わりに、タッチスクリーン112上で検出された2つ以上の接触の面心である。
図44A〜44Jは、個々の指紋隆線により形成された指紋特徴部を検出するのに十分高く、該指紋隆線を指紋センサとして使用することができる空間解像度を有するタッチスクリーン112をそれぞれ有する2つの多機能機器100(例えば、多機能装置100−1及び100−2)を示す。多機能装置100−1及び100−2は、別個の指紋センサ169を有するとも図示されている。いくつかの実施形態では、多機能装置100−1及び100−2のそれぞれは、指紋センサ、別個の指紋センサ169、又はその両方として使用することができるタッチスクリーン112を独立して有する。
図44A〜44Fは、第1の多機能機器100−1が、第1の指紋4402を検出し、第2の多機能機器100−2が、第1の指紋4402の検出と同時に又は該検出後に、第2の指紋4403を検出する(例えば、指紋は、同時に、実質的に同時に、又は、時間的に近接して検出される)様々な実施形態を示す。多機能機器100−2は、第2の指紋4403が検出されたという情報を多機能機器100−1に伝える。既定の基準が指紋4402及び4403により満たされたときに、多機能機器100−1は、多機能機器100−2を多機能機器100−1の補助ディスプレイとして構成することを可能にする情報で多機能機器100−2に応答する。所定の基準が指紋4402及び4403の検出により満たされなかったとき、多機能機器100−2は、多機能機器100−1の補助ディスプレイとして構成されない。
図44A〜44Dは、既定の基準が両方の機器により検出された指紋4402及び4403が同じユーザに登録される基準を含む実施形態を示す。図44Aでは、多機能機器100−1は、United Statesのマップ4404−1を含む第1のユーザインタフェースを表示し、一方、多機能機器100−2は、アプリケーション立ち上げ画面4406を含む第2のユーザインタフェースを表示する。図44Bでは、多機能機器100−1は、ユーザの左の人差(LI)指に対応する第1の指紋4402を検出し、多機能機器100−2は、ユーザの右の人差指(RI)指に対応する第2の指紋4403を検出する。多機能機器100−2は、第2の指紋4403が検出されたことを、任意選択的に、接触(例えば、指紋のアイデンティティ)に関する追加情報を多機能機器100−1に伝える。
図44Cでは、指紋4402及び4403が同じユーザに対応する(例えば、指紋4402はユーザ1の左の人差指のものであり、指紋4403はユーザIの右の人差指のものである)場合、多機能機器100−1のタッチスクリーン112上で表示される第1のユーザインタフェースは、United Statesのマップ4404が両方の多機能機器のタッチスクリーン112上で表示されるように多機能機器100−2まで拡張される(例えば、United States西部は多機能機器100−1のタッチスクリーン112−1上でマップ4404−1として表示され、United States東部は多機能機器100−2のタッチスクリーン112−2上でマップ4404−2として表示される)が、既定の基準が満たされたからである(例えば、指紋4402及び4403は、同じユーザに属すると識別されたからである)。
図44Dでは、指紋4405及び4407が異なったユーザに対応する(例えば、指紋4405はユーザ1の左の人差指のものであり、指紋4407はユーザ2の右の人差指のものである)場合、第1のユーザインタフェースは、多機能機器100−2上へ拡張されない(例えば、多機能機器100−1のタッチスクリーン112−1は、まだマップ4404−1を含む第1のユーザインタフェースを表示し、多機能機器100−2のタッチスクリーン112−2は、まだアプリケーション立ち上げ画面4406を表示する)が、既定の基準が満たされなかった(例えば、指紋4405及び4407は、異なるユーザに属すると識別された)からである。
図44E〜44Fは、既定の基準が第2の指紋(例えば、それぞれ、図44E及び44Fの指紋4411及び4415)が第1の指紋(例えば、それぞれ、図44E及び44Fの指紋4409及び4413)の検出の後に所定の期間以内に検出される基準を含む場合、例えば、第1の接触が検出された後、第2の接触は、5秒以内に発生しなければならない実施形態を示す。例えば、図44Eでは、多機能機器100−1は第1の時間(例えば、時間0と定義)にて第1の指紋4409を検出し、多機能機器100−2は、第2の時間4410にて、第1の時間の後、及び、所定の時間4408前に第2の指紋4411を検出する。多機能機器100−2は、第2の指紋4411が検出されたことを、任意選択的に、接触(例えば、指紋が検出された時間)に関する追加情報を多機能機器100−1に伝える。多機能機器100−1のタッチスクリーン112−1上で表示される第1のユーザインタフェースは、United Statesのマップ4404が両方の多機能機器のタッチスクリーン112上で表示されるように多機能機器100−2まで拡張される(例えば、United States西部は多機能機器100−1のタッチスクリーン112上でマップ4404−1として表示され、United States東部は多機能機器100−2のタッチスクリーン112−2上でマップ4404−2として表示される)が、所定の基準が満たされた(例えば、第2の指紋4411は、第1の指紋4409の検出の5秒以内に検出された)からである。これとは対照的に、図44Fでは、多機能機器100−1は第1の時間(例えば、時間0と定義)にて第1の指紋4413を検出し、多機能機器100−2は、第2の時間4459にて、第1の時間の後、及び、所定の時間4408後に第2の指紋4411を検出する。多機能機器100−2は、第2の指紋4415が検出されたことを、任意選択的に、接触(例えば、指紋が検出された時間)に関する追加情報を多機能機器100−1に伝える。第1のユーザインタフェースは、多機能機器100−2上へ拡張されない(例えば、多機能機器100−1のタッチスクリーン112−1は、まだマップ4404−1を含む第1のユーザインタフェースを表示し、多機能機器100−2のタッチスクリーン112−2は、まだアプリケーション立ち上げ画面4406を表示する)が、既定の基準が満たされなかったからである(例えば、指紋4415は、第1の指紋4413から5秒以内に検出されなかったからである)。
図44G〜44Hは、第2の機器を補助ディスプレイとして構成する要求のユーザ確認が必要とされる様々な実施形態を示す。図44G〜44Hでは、多機能機器100−1及び多機能機器100−2は、それぞれ、指紋4417及び4419を検出する。多機能機器100−2は、第2の指紋4419が検出されたという情報を多機能機器100−1に伝える。既定の基準がその他の場合に指紋4417及び4419の検出により満たされたとき、(図44Gに示すような)第2の多機能機器100−2のユーザ及び/又は(図44Hに示すような)第1の多機能機器100−1のユーザは、第2の多機能機器100−2が補助ディスプレイとして構成されるべきであることを確認するように(例えば、図44Gの多機能機器100−2のタッチスクリーン112−2上でのプロンプト4412の表示により、又は、図44Hの多機能機器100−1上のタッチスクリーン112−1上でのプロンプト4421の表示により)促される(例えば、ユーザはAbrahamの及び/又はMary ToddのiPhoneに接続する要求が行われたことを確認しなければならない)。要求の確認を受信すると、多機能機器100−1のタッチスクリーン112−1上で表示される第1のユーザインタフェースは、United Statesのマップ4404が両方の多機能機器のタッチスクリーン112上で表示されるように多機能機器100−2まで拡張される(例えば、図44C及び44Eに示すように、United States西部は多機能機器100−1のタッチスクリーン112−1上でマップ4404−1として表示され、United States東部は多機能機器100−2のタッチスクリーン112−2上でマップ4404−2として表示される)。
図44I〜44Jは、指紋(例えば、指紋4427及び/又は指紋4429)の向きにより補助ディスプレイ上でのユーザディスプレイの向きが決定される実施形態を示す。図44Iでは、多機能機器100−1は、機器の長軸と実質的に平行な第1の向きを有する第1の指紋4427を検出する。多機能機器100−2は、機器の長軸に実質的に垂直な第2の向きを有する第2の指紋4429を検出する。多機能機器100−2は、第2の接触4429が検出されたという情報と、任意選択的に、接触に関する追加情報(例えば、接触の向き)とを多機能機器100−1に伝える。既定の基準がその他の場合に指紋4427及び4429の検出により満たされたとき、多機能機器100−1のタッチスクリーン112−1上で表示される第1のユーザインタフェースは、図44Jに示すように、United Statesのマップ4404が両方の多機能機器のタッチスクリーン112上で表示される(例えば、United States西部は多機能機器100−1のタッチスクリーン112−1上で表示され、United States東部は多機能機器100−2のタッチスクリーン112−2上で表示される)ように、機器の長軸に対して第2の指紋4429の向きに対応する横向きで多機能機器100−2のタッチスクリーン112−2上へ拡張される。
図44K〜44Pは、それぞれ、指紋センサ169を有する3つの電子機器(例えば、多機能機器100−1、100−2、及び100−3)を示す。様々な実施形態を、指紋のアイデンティティにより、第1の電子機器上で表示されたユーザインタフェースが第2の電子機器上へ拡張される方向が決定される図44K〜44Pに示す。
いくつかの実施形態では、図44K〜44Nに示すように、第2の指紋(例えば、図44K〜44Lの指紋4437又は図44M〜44Mの指紋4441)に対応する指が属する手により、ユーザインタフェースが補助ディスプレイで拡張される方向が決定される。例えば、図44Kでは、(ユーザの左の人差(LI)指に対応する)指紋4435が、第1の多機能機器100−1上で指紋センサ169−1により検出される。ユーザの右の人差指(RI)指に対応する指紋4437が、第2の多機能機器100−2上で指紋センサ169−2により検出される。これに応答して、図44Lに示すように、既定の基準がその他の場合に指紋4435及び4437の検出により満たされたとき、多機能機器100−1のタッチスクリーン112−1上で表示される第1のユーザインタフェースは、United Statesのマップ4404が両方の多機能機器のタッチスクリーン112上で表示されるように、多機能機器100−2のタッチスクリーン112−2上へ右に拡張される(例えば、United States中央部は多機能機器100−1のタッチスクリーン112−1上でマップ4404−1として表示され、United States東部は多機能機器100−2のタッチスクリーン112−2上でマップ4404−2として表示される)が、右の人差指がユーザの右手の上に位置するからである。同様に、図44Mに示すように、指紋4439(ユーザの右の人差(RI)指に対応する)が、第1の多機能機器100−1上で指紋センサ169−1により検出される。ユーザの左の人差(LI)指に対応する指紋4441が、第2の多機能機器100−3上で指紋センサ169−3により検出される。これに応答して、図44Nに示すように、既定の基準がその他の場合に指紋4439及び4441の検出により満たされたとき、多機能機器100−1のタッチスクリーン112−1上で表示される第1のユーザインタフェースは、United Statesのマップ4404が両方の多機能機器のタッチスクリーン112上で表示されるように、多機能機器100−3のタッチスクリーン112−3上へ左に拡張される(例えば、United States中央部は多機能機器100−1のタッチスクリーン112−1上で4404−1でマップとして表示され、United Statesの西海岸は多機能機器100−3のタッチスクリーン112−3上でマップ4404−3として表示される)が、左の人差指がユーザの左手の上に位置するからである。
いくつかの実施形態では、図44O〜44Pに示すように、第1の指紋(例えば、指紋4443)に対応する指に対する第2の指紋(例えば、指紋4444)に対応する指のユーザの手に関する順序により、ユーザインタフェースが補助ディスプレイで拡張される方向が決定される。例えば、図44Oでは、ユーザの右の人差指(RR)に対応する指紋4443が、第1の多機能機器100−1上で指紋センサ169−1により検出される。ユーザの右の人差指(RI)指に対応する指紋4444が、第2の多機能機器100−2上で指紋センサ169−2により検出される。これに応答して、図44Pに示すように、既定の基準がその他の場合に指紋4443及び4444の検出により満たされたとき、多機能機器100−1のタッチスクリーン112−1上で表示される第1のユーザインタフェースは、United Statesのマップ4404が両方の多機能機器のタッチスクリーン112上で表示されるように、多機能機器100−2のタッチスクリーン112−2上へ左に拡張される(例えば、United States中央部は多機能機器100−1のタッチスクリーン112−1上で4404−1でマップとして表示され、United Statesの西海岸は多機能機器100−2のタッチスクリーン112−2上でマップ4404−2として表示される)が、右の人差指がユーザの手の右の薬指のユーザの左に寄って位置するからである。
図44Q〜44EEは、個々の指紋隆線により形成された指紋特徴部を検出するのに十分高く、該指紋隆線を指紋センサとして使用することができる空間解像度を有するタッチスクリーン112をそれぞれ有する2つの多機能機器100(例えば、多機能装置100−1及び100−2)を示す。多機能装置100−1及び100−2は、別個の指紋センサ169を有するとも図示されている。いくつかの実施形態では、多機能装置100−1及び100−2のそれぞれは、指紋センサ、別個の指紋センサ169、又はその両方として使用することができるタッチスクリーン112を独立して有する。44Q〜44T図では、第2の多機能機器100−2は、第1の多機能機器100−1の補助ディスプレイとして構成されている間に、第1の多機能機器100−1上でアクティブであるアプリケーションに関連した1つのユーザインタフェース要素のセットを表示する様々な実施形態を示す。
図44Qでは、多機能機器100−1は、アクティブな写真表示アプリケーションに対応するUnited Statesのマップ4404−1を含む第1のユーザインタフェースを表示する。多機能機器100−2は、アプリケーション立ち上げ画面4406を含む第2のユーザインタフェースを表示する。適格指紋4445及び4446(例えば、既定の補助−ディスプレイ基準を満たす指紋)の検出で、第2の多機能機器100−2は、第1の多機能機器100−1の補助ディスプレイとして構成される。図44Rに示すように、補助ディスプレイとして構成されている間に、多機能機器100−2のタッチスクリーン112−2は第1の多機能機器100−1上でアクティブな写真表示アプリケーションに関連しているユーザインタフェース要素4414、4416及び4447(例えば、ツールバー4414及び4447及びドロップダウンメニュー4416)を表示する。
いくつかの実施形態では、図44S〜44Tに示すように、補助ディスプレイ上で表示されたユーザインタフェース要素は、第1のディスプレイ上でアクティブなアプリケーションにおいて動作を実行するコントロールである。図44Sでは、第1の多機能機器100−1の補助ディスプレイとして構成された第2の多機能機器100−2は、多機能機器100−1上でアクティブな写真表示アプリケーションにおいて写真アルバムを表示するコントロール(例えば、ユーザインタフェースメニュー要素4414−b)に対応する接触4430をタッチスクリーン112−2上の位置にて検出する。第2の多機能機器100−2上で接触4430を検出することに応答して、第1の多機能機器100−1のタッチスクリーン112−1上で表示されたユーザインタフェースは、United Statesのマップ4404−1の表示から、図44Tに示すように、写真アルバムの立ち上げアイコン4432(例えば、写真アルバム「花」4432−1、「宇宙」4432−2、「休暇」4432−3及び「冬」4432−4を表すアイコン)の表示に変わる(例えば、写真表示アプリケーションのモードは、写真が撮られた位置の表示からユーザにより編集された写真アルバムの表示に変わる)。更に、第2の多機能機器100−2上で接触4430を検出することに応答して、多機能機器100−1の補助ディスプレイとして構成された多機能機器100−2のタッチスクリーン112−2は、多機能機器100−1のタッチスクリーン112−1上で表示された立ち上げアイコン4432により表される写真アルバムに関係する機能を実行するコントロールに対応するドロップダウンメニュー4448を表示する。
いくつかの実施形態では、図44U〜44Vに示すように、補助ディスプレイ上で表示されたユーザインタフェース要素は、第1の機器の表示から拡張された作業空間の部分を含む。図44Uでは、多機能機器2100−1は、アクティブなワープロアプリケーションの作業空間4417−1を含む第1のユーザインタフェースを表示する。多機能機器100−2は、アプリケーション立ち上げ画面4406を含む第2のユーザインタフェースを表示する。適格指紋4449及び4450(例えば、既定の補助−ディスプレイ基準を満たす指紋)の検出で、第2の多機能機器100−2は、第1の多機能機器100−1の補助ディスプレイとして構成される。図44Vに示すように、第1のユーザインタフェースは、多機能機器100−1及び100−2のタッチスクリーン112にまたがる連続的な作業空間4417を作成するために補助ディスプレイに拡張される。例えば、第2の多機能機器100−2が補助ディスプレイとして構成されているとき、図44Uの多機能機器100−1のタッチスクリーン112−1上でテキスト4418の第2の行に表示された語「ago」(例えば、ユーザインタフェースオブジェクト4418−1)は、図44Vの第2の多機能機器100−2のタッチスクリーン112−2上の作業空間4417−2の行1(例えば、補助ディスプレイ上で表示された連続的な作業空間4417の部分)に移動する。
いくつかの実施形態では、図44W〜44Yに示すように、第2の電子機器が第1の電子機器の補助ディスプレイとして構成されている間に、ユーザインタフェース要素との対話に対応する入力が、第2の機器により受信され、アクティブなアプリケーションに関連した動作が、第1の機器上で実行される。例えば、図44Wでは、多機能機器100−1は、アクティブな写真表示アプリケーションに対応するUnited Statesのマップ4404−1を含む第1のユーザインタフェースを表示する。多機能機器100−2は、アプリケーション立ち上げ画面4406を含む第2のユーザインタフェースを表示する。適格指紋4451及び4452(例えば、既定の補助−ディスプレイ基準を満たす指紋)の検出で、第2の多機能機器100−2は、第1の多機能機器100−1の補助ディスプレイとして構成される。図44Xに示すように、補助ディスプレイとして構成されている間に、第2の多機能機器100−2のタッチスクリーン112−2は、ユーザインタフェース4420を表示し、該ユーザインタフェースは、第1の多機能機器100−1のタッチスクリーン112−1上で表示されるのと同じUnited Statesの同じビューを(例えば、マップ4453−2として)含む(例えば、第1の多機能機器100−1の上でマップ4404−1の表示を拡張する代わりに、第2の多機能機器100−2は、第1の多機能機器100−1の表示をミラーリングする)。第2の多機能機器100−2は、第1の多機能機器100−1のタッチスクリーン112−1上で表示されたフォーカスセレクタ4422に対応する、図44Xの位置4424−aから図44Yの位置4424−bへの接触4424の動き4426を含むジェスチャを検出する。これに応答して、第1の多機能機器100−1は、図44Xの位置4422−aから図44Yの位置4422−bへのフォーカスセレクタ4422の動きを表示する。
いくつかの実施形態では、図44Z〜44BBに示すように、第2の電子機器が第1の電子機器の補助ディスプレイとして構成されている間に、第1の機器上のアクティブなアプリケーションに関連した補助ディスプレイ上のユーザインタフェース要素との対話に対応する動作を指定する、第2の機器からの動作データが、第1の機器により受信され実行される。例えば、図44Zでは、多機能機器100−1は、アクティブなピアノアプリケーションに対応する、キーボード4428−1を含む第1のユーザインタフェースを表示する。多機能機器100−2は、アプリケーション立ち上げ画面4406を含む第2のユーザインタフェースを表示する。適格指紋4455及び4456(例えば、既定の補助−ディスプレイ基準を満たす指紋)の検出で、第2の多機能機器100−2は、第1の多機能機器100−1の補助ディスプレイとして構成される。図44AAに示すように、補助ディスプレイとして構成されている間に、第2の多機能機器100−2のタッチスクリーン112−2は、キーボード4428の拡張部(例えば、キーボード上のトーンの第2のオクターブに対応するキーボード4428−2)を表示する。図44BBでは、第2の多機能機器100−2は、ピアノキー4457の表示に対応するタッチスクリーン112−2上での位置にて接触4430(例えば、「E」キー)を検出する。第2の多機能機器100−2は、接触4430を処理して、「E」キー4457に対応するピッチにて音を生成するステップを含む動作が実行されるべきであると決定する。第1の多機能機器100−1は、「E」キー4457に対応するピッチにて音を生成するステップに関係する動作データを含む通信情報を第2の多機能機器100−2から受信して、第2の多機能機器100−2から受信された動作データに従って音4429を生成する。いくつかの実施形態では、第1の多機能機器100−1に通信情報を送る代わりに、第2の多機能機器100−2は、「E」キー4457に対応するピッチにて音を生成する。
いくつかの実施形態では、図44CC〜44EEに示すように、第2の電子機器が第1の電子機器の補助ディスプレイとして構成されている間に、各それぞれの機器のタッチ感知面(例えば、タッチスクリーン112)上で実行された対応するジェスチャにより、第1の機器上のアクティブなアプリケーションに関連したユーザインタフェースオブジェクトが、第1の機器の表示と第2の機器の表示との間で移動する。例えば、図44CCでは、多機能機器100−1は、アクティブな写真表示アプリケーションに対応する写真アルバム(例えば、写真アルバム「花」4432−1、「宇宙」4432−2、「休暇」4432−3、及び「冬」4432−4を表すアイコン)の立ち上げアイコン4432を含む第1のユーザインタフェースを表示する。多機能機器100−2は、アプリケーション立ち上げ画面4406を含む第2のユーザインタフェースを表示する。適格指紋4460及び4462(例えば、既定の補助−ディスプレイ基準を満たす指紋)の検出で、第2の多機能機器100−2は、第1の多機能機器100−1の補助ディスプレイとして構成される。図44DDに示すように、第1のユーザインタフェースは、第2の多機能機器100−2のタッチスクリーン112−2上で更なる写真アルバム(例えば、写真アルバム「砂漠」4432−5及び「結婚式」4432−6を表すアイコン)の立ち上げアイコン4432を表示するために補助ディスプレイで拡張される。第1の多機能機器100−1は、立ち上げアイコン4432−4の表示に対応する、図44DDの位置4436−aから図44EEの位置4436−bへのタッチスクリーン112−1上での接触4436の動き4438を含む第1のジェスチャを検出する。第2の多機能機器100−2は、位置4440−aから図44EEの位置4440−bへのタッチスクリーン112−2上の接触4440の動き4442を含む第2のジェスチャを検出する。これに応答して、立ち上げアイコン4432−4の表示が、図44DDの第1の多機能機器100−1のタッチスクリーン112−1上の位置4436−aから図44EEの第2の多機能機器100−2のタッチスクリーン112−2上の位置4440−bに移動する。
図45A〜45Dは、いくつかの実施形態に係る、第2の電子機器を第1の電子機器の補助ディスプレイとして構成する方法4500を示す流れ図である。方法4500は、ディスプレイと、タッチ感知面とを有する電子機器(例えば、図3の機器300、又は、図1Aの携帯型多機能機器100)にて実行される。いくつかの実施形態では、ディスプレイは、タッチスクリーンディスプレイであり、タッチ感知面は、ディスプレイ上にある。いくつかの実施形態において、ディスプレイはタッチ感知面から分離している。方法4500の一部の動作が、任意選択的に、組み合わされ、及び/又は、一部の動作の順序が、任意選択的に変えられる。
以下で説明するように、方法4500は、第2の電子機器を第1の電子機器の補助ディスプレイとして構成する直観的方法を提供する。この方法により、第2の電子機器を第1の電子機器の補助ディスプレイとして構成するときに、ユーザの上で認識的負担が軽減され、その結果、より効率的なヒューマン−マシンインタフェースが作成される。バッテリ動作電子機器では、ユーザが第2の電子機器を第1の電子機器の補助ディスプレイとして構成することができることにより、より高速かつ効率的に電力を保存して、バッテリの充電の間の時間を増やす。
いくつかの実施形態では、指紋センサと、ディスプレイとを有する第1の電子機器は、第1の時間にて第1の電子機器の指紋センサ上で第1の指紋を検出し(4502)、第1の指紋は、それぞれのユーザに登録される。例えば、図44B、44D〜44K、44M、44O、44Q、44U、44W、44Z、及び44CCは、多機能機器100−1が、個々の指紋隆線により形成された指紋特徴部を検出するのに十分高い空間解像度を有し指紋センサとして使用することができる、指紋センサ169−1又はタッチスクリーン112−1上で第1の指紋(例えば、指紋4402、4405、4409、4413、4417、4423、4427、4431、4435、4439、4443、4445、4449、4451、4455、又は4460)を検出する様々な実施形態を示す。
第1の電子機器は、第2の指紋が第2の時間にて第2の機器の指紋センサ上で検出されたことを示す情報を含む通信情報を第1の電子機器と異なる第2の電子機器から受信する(4504)。例えば、図44B、44D〜44K、44M、44O、44Q、44U、44W、44Z、及び44CCは、多機能機器100−2又は100−3が指紋センサ169−2又は169−3上で、又は、タッチスクリーン112−2又は112−3上で第2の指紋(例えば、指紋4403、4407、4411、4415、4419、4425、4429、4433、4437、4441、4444、4446、4450、4452、4456、又は4462)を検出して、第2の指紋が検出されたという情報、任意選択的に、接触(例えば、指紋のアイデンティティ、指紋が検出された時又は指紋の向き)に関する更なる特徴づけ情報を多機能機器100−1に通信する様々な実施形態を示す。
第1の指紋を検出して第2の電子機器から通信情報を受信する(4506)ことに応答して、第1の電子機器は、既定の補助−ディスプレイ基準が満たされたかどうか決定し(4508)、補助ディスプレイ基準は、第2の指紋がそれぞれのユーザに登録されたときに満たされる基準を含む。例えば、図44Cに示すように、指紋4402及び4403は同じユーザ(例えば、ユーザ「1」)に登録されるので、補助ディスプレイ基準は満たされる。これとは対照的に、図44Dに示すように、指紋4405及び4407が異なるユーザ(例えば、それぞれ、ユーザ「1」及び「2」)に登録されるので、補助ディスプレイ基準は、満たされない。
いくつかの実施形態では、補助ディスプレイ基準は、第1の時間が第2の時間の既定の時間以内であるときに満たされる基準を含む(4510)。例えば、第1の指紋及び第2の指紋が第1及び第2の機器上で同時に又は実質的に同時に(例えば、互いから0.5秒、1.0秒、2秒、又は、5秒以内に)検出されたときに、第2の機器は、補助ディスプレイとして使用される。例えば、図44Eに示すように、第2の指紋4411が所定の時間4408(例えば、第1の指紋4409の検出の5秒後)以内の時間4410(例えば、第1の指紋4409の検出の3.5秒後)にて検出されたので、補助ディスプレイ基準は満たされる。これとは対照的に、例えば、図44Fに示すように、第2の指紋4415が所定の時間4408(例えば、第1の指紋4413の検出の5秒後)以内ではない時間4459(例えば、第1の指紋4413の検出の6.5秒後)にて発生したので、補助ディスプレイ基準は満たされない。
いくつかの実施形態では、補助ディスプレイ基準は、第1の機器が補助ディスプレイとしての第2の機器の構成が要求された確認を受信したときに満たされる基準を含む(4512)。いくつかの実施形態では、図44G〜44Hに示すように、補助ディスプレイとしての第2の機器(例えば、多機能機器100−2)の構成は、「接続を承認する」、「承認する」、「接続する」、又は一方又は両方の機器上で類似の肯定の選択を選択すること(例えば、それぞれ、図44G及び44Hのユーザインタフェースオブジェクト4412及び4421内で表示された「CONNECT」プロンプト)、及び/又は、機器(例えば、多機能機器100−1及び/又は多機能機器100−2)の一方又は両方上で既定のピン又はパスワードを入力することを含む。これとは対照的に、いくつかの実施形態では、図44A〜44Cの連続に示すように、第2の機器(例えば、多機能機器100−2)は、第2の機器を第1の機器の補助機器として構成する前に実行される更なる認証を要求することなく、第1の機器の補助ディスプレイとして構成される(例えば、構成は、2つの指紋4402及び4403が検出されたときに自動的に発生する)。
補助ディスプレイ基準が満たされるという決定に従って、第1の電子機器は、第2の電子機器が第1の電子機器の補助ディスプレイとして構成されることを可能にする応答を第2の電子機器に送る(4514)。例えば、図44C、44E、44J、44F、44N、44P、44R、44V、44X、44AA、及び44DDは、補助ディスプレイ基準を満たすことに応答して、第1の多機能機器100−1が、第2の多機能機器100−2又は100−3が第1の多機能機器100−1の補助ディスプレイとして構成されることを可能にする応答を送った様々な実施形態を示す。
いくつかの実施形態では、第1の機器のディスプレイ上で表示されるユーザインタフェースの向きは、第1の機器のディスプレイの既定の軸線に対する第1の指紋の向きに従って決定され(4516)、第2の機器のディスプレイ上で表示されるユーザインタフェースの向きは、第2の機器のディスプレイの既定の軸線に対する第2の指紋の向きに従って決定される。例えば、第1の機器上で表示されるユーザインタフェース及び第2の機器上で表示されるユーザインタフェースは、それぞれ対応する機器上で検出された指紋と整合されるように向きが定められる(例えば、ユーザインタフェースは、ディスプレイ上のユーザインタフェースの「上」は、指紋センサ上の対応する指紋の「上」に対応するように向が定められる)。いくつかの実施形態では、図44I〜44Jに示すように、指紋の縦軸がそれぞれの機器の既定の縦軸と実質的に平行であるとき、(例えば、第1の接触4427の縦軸は、図44Iでは第1の多機能機器100−1の長軸と実質的に平行である場合)、ユーザインタフェースは、ユーザインタフェースの底部がそれぞれの機器の下縁部に沿うように既定の縦軸に対して整合され(例えば、第1の多機能機器100−1のタッチスクリーン112−1上でUnited Statesのマップ4404−1を表示するユーザインタフェースは、図44Jでは縦向きで表示される)、一方、指紋の縦軸がそれぞれの機器の既定の縦軸に実質的に垂直であるとき、(例えば、第2の接触4433の縦軸が図44Iでは第2の多機能機器100−2の長軸に実質的に垂直である場合)、ユーザインタフェースは、ユーザインタフェースの底部がそれぞれの機器の側縁部に沿うように既定の縦軸に対して整合される(例えば、第2の多機能機器100−2のタッチスクリーン112−2上でUnited Statesのマップ4404−2を表示するユーザインタフェースは、図44Jでは横向きで表示される)。
いくつかの実施形態では、第1の電子機器は、第1の指紋のアイデンティティ及び第2の指紋のアイデンティティの少なくとも1つに従って、補助ディスプレイを有する第1の機器のディスプレイ上で表示されるユーザインタフェースを拡張する方向を決定する(4518)。例えば、ユーザの右手の指紋が第1の機器の指紋センサ上で検出され(例えば、第1の多機能機器100−1上の指紋4439が図44Mではユーザの右の人差指に対応する)、及び/又は、ユーザの左手の指紋が第2の機器の指紋センサ上で検出された(例えば、第2の多機能機器100−1上の指紋4441が図44Mではユーザの左の人差指に対応する)とき、第1の機器のユーザインタフェースは、第2の機器のディスプレイ上へ左に拡張される(例えば、図44Mの多機能機器100−1のタッチスクリーン112−1上で表示された第1のユーザインタフェースは、United Statesの西海岸は第2の多機能機器100−3のタッチスクリーン112−3上でマップ4404−3として表示され、United States中央部は第1の多機能機器100−1のタッチスクリーン112−1上でマップ4404−1として表示されるように、図44Nにおいて多機能機器100−3上へ拡張される)。同様に、ユーザの左手の指紋が第1の機器の指紋センサ上で検出され(例えば、第1の多機能機器100−1上の指紋4435が図44Mではユーザの左の人差指に対応する)、及び/又は、ユーザの右手の指紋が第2の機器の指紋センサ上で検出された(例えば、第2の多機能機器100−2上の指紋4437が図44Kではユーザの右の人差指に対応する)とき、第1の機器のユーザインタフェースは、第2の機器のディスプレイ上へ右に拡張される(例えば、図44Kの多機能機器100−1のタッチスクリーン112−1上で表示された第1のユーザインタフェースは、United Statesの東海岸は第2の多機能機器100−2のタッチスクリーン112−2上でマップ4404−2として表示され、United States中央部は第1の多機能機器100−1のタッチスクリーン112−1上でマップ4404−1として表示されるように、図44Lにおいて多機能機器100−2上へ拡張される)。したがって、いくつかの実施形態では、ユーザの左手の指紋を検出する機器はユーザの右手の指紋を検出する機器の左寄りであると想定されるので、ユーザインタフェースの左側であると思われるユーザインタフェースオブジェクトは、ユーザの左手の指紋を検出した機器上で表示され、一方、ユーザインタフェースの右側であると思われるユーザインタフェースオブジェクトは、ユーザの右手の指紋を検出した機器上で表示される。
いくつかの実施形態では、第1の指紋に対応する指に対する第2の指紋に対応する指のユーザの手に関する順序により、ユーザインタフェースが補助ディスプレイで拡張される方向が決定される。例えば、第2の指(例えば、第1の指紋(例えば、図44Oにおいて第1の多機能機器100−1上で検出された指紋4443)に対応する第1の指(例えば、ユーザの右のリング(RR)指)のユーザの左寄りに位置するユーザの右の人差指(RI)指)に対応する第2の指紋(例えば、図44O内の第2の多機能機器100−2上で検出された指紋4444)とき、第1の機器のユーザインタフェースは、第2の機器のディスプレイ上へ左に拡張される(例えば、図44Oの多機能機器100−1のタッチスクリーン112−1上で表示された第1のユーザインタフェースは、United Statesの西海岸は第2の多機能機器100−2のタッチスクリーン112−2上でマップ4404−2として表示されてし、United States中央部は第1の多機能機器100−1のタッチスクリーン112−1上でマップ4404−1として表示されるように図44Pにおいて多機能機器100−3上へ拡張される)。
いくつかの実施形態では、第1の指紋及び第2の指紋が、第1のアプリケーションが第1の機器でのアクティブなアプリケーションである間(例えば、写真表示アプリケーションが図44Q、44W及び44CCに示すようにアクティブである場合、ワープロアプリケーションが図44Uに示すようにアクティブである場合、及び、ピアノアプリケーションが、図44Zに示すように、第1の多機能機器100−1にてアクティブである場合)、及び、第2の電子機器を第1の電子機器の補助ディスプレイとして構成することを可能にする応答を第2の電子機器に送った後に検出された(4420)場合、第1の機器は、第2の電子機器を第1の機器の補助ディスプレイとして構成する(4522)(例えば、第2の多機能機器100−2は、図44R、44V、44X、44AA及び44DDにおいて第1の多機能機器100−1の補助ディスプレイとして構成される)。
第2の電子機器が第1の電子機器の補助ディスプレイとして構成されている間に、第1の機器が第2の機器に、第2の機器が第1のアプリケーションに関連した1つの1つ以上のインタフェース要素のセットを表示することを可能にする命令を送る(4524)(例えば、図44Rのメニューバー4414及び4447及びドロップダウンメニュー4416、図44Vのテキスト4418、図44XのUnited Statesのマップ4404−2、図44AAのピアノキーボード4428−2、及び、図44DDの写真アルバム「砂漠」4432−5及び「結婚式」4432−6を表すアイコン)。
いくつかの実施形態では、第1のアプリケーションに関連したその1つ以上のユーザインタフェース要素のセットは、第1のアプリケーションにおいて動作を実行する1つ以上のコントロールを含む(4526)(例えば、1つ以上のユーザインタフェース要素は、第1のアプリケーションに関連したメニュー、コントロール要素、又は他のユーザインタフェースオブジェクトを含む)。例えば、第2の機器のディスプレイを補助ディスプレイとして使用するステップは、第1の機器のディスプレイ上で表示されたユーザインタフェースのコントロール(例えば、図44Rのメニューバー4414及び4447及びドロップダウンメニュー4416)の1つ以上を第2の機器のディスプレイ上に置くステップを含む。したがって、更なるメニュー、パレット又は他のコントロールが、1次ディスプレイを混乱させることを低減又は排除するために補助ディスプレイ上で表示され得る(例えば、第1の機器のディスプレイ上で表示された第1のアプリケーションのユーザインタフェース)。
いくつかの実施形態では、第1のアプリケーションに関連したその1つ以上のユーザインタフェース要素のセットは、第1の機器のディスプレイ上で表示された作業空間の延長である作業空間の部分を含む(4528)(例えば、1つ以上のユーザインタフェース要素としては、第1及び第2の機器のディスプレイの上に広げられる文書本文、アプリケーションキャンバス又は他の仮想作業空間が挙げられる)。例えば、補助ディスプレイとして第2の機器のディスプレイを使用するステップは、第1の機器のディスプレイ及び第2の機器のディスプレイ上に第1のアプリケーションの作業空間を広げるステップを含む(例えば、作業空間4417−1は、図44Uの第1の多機能機器100−1のタッチスクリーン112−1から第2の多機能機器100−2のタッチスクリーン112−2上へ、図44Vの連続的な作業空間4417の作業空間4417−2として拡張される)。
いくつかの実施形態では、第2の電子機器が第1の機器の補助ディスプレイとして構成されている間に、第1の機器は、第2の機器により検出された入力を示す入力データを受信し(4530)、入力は、第2の機器のディスプレイ上で表示される第1のアプリケーションに関連したユーザインタフェース要素の1つ以上との対話に対応し、第1の機器は、入力データに従って第1のアプリケーションに関連した動作を実行する(4532)。例えば、第1の機器は、第2の機器に表示情報を送って、第2の機器のディスプレイ上で表示されたユーザインタフェースとのユーザの相互作用を示す入力データ(例えば、図44Xの接触4424などのタッチポイントの座標、及び/又は、図44Xの位置4424−aから図44Yの位置4424−bへの接触4424の動き4426を含むジェスチャ)を受信し、これに応答して、第1の機器は、第1のアプリケーションに従って実行中のプログラムに関連した動作を実行する(例えば、第1の多機能機器100−1は、第2の多機能機器100−2により提供されたジェスチャデータに従って、図44Xの位置4422−aから図44Yの位置4422−bにフォーカスセレクタ4422を移動させる)。したがって、いくつかの実施形態では、第2の機器は、第1の機器の補助タッチパッド又はタッチスクリーンとしての役割を果たす。
いくつかの実施形態では、第2の電子機器が第1の機器の補助ディスプレイとして構成されている間に、第1の機器は、第2の機器のディスプレイ上で表示される第1のアプリケーションに関連したユーザインタフェース要素の1つ以上との対話に対応する1つ以上の動作を指定する動作データを第2の電子機器から受信して(4534)1つ以上の動作を実行する(4536)。したがって、いくつかの実施形態では、何らかのアプリケーション処理は、機器のそれぞれにて行われ(例えば、第1の機器及び各第2の機器は、同じアプリケーションのコピーを有する)、2つのアプリケーションは、それぞれ、表示されるユーザインタフェースの部分に適切なジェスチャへの応答を生成し、2つのアプリケーションは、情報を共有する。例えば、第1の機器のディスプレイ及び第2の機器のディスプレイ全体にわたって広がる音楽キーボード(例えば、図44BBのピアノキーボード4428)(例えば、それぞれ、図44AA〜44BBでは多機能機器100−1及び100−2上で表示されたキーボード4428−1及び4428−2として)については、第1の電子機器にタッチポイント(例えば、図44BBの接触4430の座標)を送る代わりに、第2の機器(例えば、図44BBの多機能機器100−2)は、音楽キーボードの(例えば、図44BBの「E」キー4457を含む)半分のキーを表示して、ユーザがアクティブ化させたキーに対応する弾く音符を示す情報を第1の機器に送る(例えば、第2の多機能機器100−2は、接触4430が「E」キー4457をアクティブ化するべきであると決定して、ピッチ「E」を有する音を弾く情報を第1の多機能機器100−1に送る)。別の実施例として、分割されたテキストキーボードについては、第1の電子機器にタッチポイントを送る代わりに、第2の電子機器は、ユーザがアクティブ化させたキーに対応する文字を送る。第2の機器にて処理の一部を実行することにより、第1の機器上の処理負荷が減少され、その結果、アプリケーションの性能が向上する。
いくつかの実施形態では、第2の電子機器が第1の機器の補助ディスプレイとして構成されている間に、第1の機器は、第1の機器のタッチ感知面上で第1のジェスチャを検出し(4538)(例えば、第1のジェスチャは、第1の機器のタッチ感知ディスプレイ上の第1の位置に対応する)、かつ、第2の機器のタッチ感知面上で検出された第2のジェスチャを示す通信情報を第2の機器から受信する(4540)(例えば、第2のジェスチャは、第2の機器のタッチ感知ディスプレイ上の第2の位置に対応する)。第1のジェスチャを検出して第2のジェスチャを示す通信情報を受信することに応答して、第1の機器は、第1の機器のディスプレイ(例えば、第1の機器のディスプレイ上の第1の位置)と第2の機器のディスプレイ(例えば、第2の機器のディスプレイ上の第2の位置)との間で第1のアプリケーションに関連したユーザインタフェースオブジェクト(例えば、ファイル、アイコン、メニュー、又はコントロール)を移動させる(4542)例えば、第1の機器は、第1のユーザインタフェースオブジェクトに対応する第1の位置にて第1の機器のタッチ感知面上でピンチジェスチャを検出し、第2の機器は、第2の位置にて第2の機器のタッチ感知面上でピンチ解除ジェスチャ(depinch gesture)を検出し、ピンチジェスチャ及びピンチ解除ジェスチャを検出することに応答して、第1のユーザインタフェースオブジェクトは、第1の位置から第2の位置まで移動する(例えば、第1の機器は、第1のユーザインタフェースオブジェクトを表示することを中止し、第2の機器は、第1のユーザインタフェースオブジェクトを表示し始める)。別の実施例として、第1の機器(例えば、図44DDの第1の多機能機器100−1)は、第1のユーザインタフェースオブジェクト(例えば、図44DDの写真アルバムを表すアイコン4432−4)に対応する第1の位置(例えば、図44DDの位置4436−a)にて開始する第1のタッチ感知面上のドラッグジェスチャの第1の部分(例えば、図44DDの位置4436−aから図44EEのタッチスクリーン112−1上で位置4436−bへの接触4436の動き4438を含むドラッグジェスチャ)を検出し、第2の機器(例えば、多機能機器100−2)は、第2の位置(例えば、図44EEの位置4440−b)にて(例えば、接触のリフトオフで)終了する第2のタッチ感知面上のドラッグジェスチャ(例えば、位置4440−aから図44EE内のタッチスクリーン112−2上の位置4440−bへの接触4440の動き4442を含むドラッグジェスチャ)の第2の部分を検出し、ドラッグジェスチャの第1及び第2の部分に応答して、第1のユーザインタフェースオブジェクトは、第1の位置から第2の位置まで移動する(例えば、第1の機器は、写真アルバム「冬」を表すアイコン4432−4を表示することを中止し、図44EEに示すように、第2の機器は、写真アルバム「冬」を表すアイコン4432−4を表示し始める)。
補助ディスプレイ基準が満たされないという決定に従って、第1の機器は、第2の電子機器が第1の電子機器の補助ディスプレイとして構成されることを可能にする応答を第2の電子機器に送ることを取り止める(4544)。例えば、図44Dでは、第1の指紋4405及び第2の指紋4407が同じユーザに登録されない(例えば、指紋4405はユーザ「1」に対応し、指紋4407はユーザ「2」に対応する)ので、補助ディスプレイ基準は、満たされず、したがって、第2の多機能機器100−2は、第1の多機能機器100−1の補助ディスプレイとして構成されない。同様に、図44Fでは、第2の指紋4415が第1の指紋4413の検出後に所定の時間4408以内に検出されなかったので、補助ディスプレイ基準が満たされず(例えば、指紋4413が検出された5秒後に、指紋4415が検出された)、したがって、第2の多機能機器100−2は、第1の多機能機器100−1の補助ディスプレイとして構成されない。
図45A〜45Dにおける動作について記載された特定の順序は単なる例示であり、記載された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書で説明される動作の再順序付けをするさまざまな方法を認識するであろう。加えて、本記載の方法及びに関して本明細書に記載の他の処理の詳細(例えば、パラグラフ[00123]に記載したものは、図45A〜45Dに関連して上述した方法4500と類似の様式で適用可能であることに留意されたい。例えば、方法4500を参照して先述した指紋、接触、ユーザインタフェース、及びフォーカスセレクタは、任意選択的に、本明細書で説明する他の方法(例えば、パラグラフ[00123]に記載したもの)を参照して本記載の指紋、接触、ユーザインタフェース、及びフォーカスセレクタの特性の1つ以上を有する。)簡潔にするため、これらの詳細はここでは繰り返さない。
いくつかの実施形態により、図46は、様々な説明する実施形態の原理に従って構成する電子機器4600の機能ブロック図を示す。機器の機能ブロックは、任意選択的に、様々な説明する実施形態の原理を実行するためにハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせにより実行される。図46に記述された機能ブロックが、任意選択的に、様々な記述する本発明の原理を実施するために、組み合わされ、又はサブブロックに分離されることが、当業者により理解される。したがって、本明細書における説明は、あらゆる可能な組み合わせ若しくは分割、又は本明細書に述べられる更なる機能ブロックの定義を任意選択的に支持する。
図46に示すように、電子機器4600は、グラフィックユーザインタフェースを表示するように構成されたディスプレイユニット4602と、任意選択的にタッチ感知面ユニット4604と、指紋センサユニット4606と、ディスプレイユニット4602、タッチ感知面ユニット4604及び指紋センサユニット4606に結合された処理ユニット4608とを含む。いくつかの実施形態では、処理ユニット4608は、検出ユニット4610と、受信ユニット4612と、決定ユニット4614と、送信ユニット4616と、ディスプレイユニット4602上での情報の表示を有効化する表示有効化ユニット4618と、構成ユニット4620と、実行ユニット4622と、移動ユニット4624とを含む。
処理ユニット4608は、第1の時間にて(例えば、検出ユニット4610で)第1の電子機器4600の指紋センサユニット上で第1の指紋を検出するように構成され、第1の指紋は、それぞれのユーザに登録される。処理ユニット4608は、また、(例えば、受信ユニット4612で)第2の指紋が第2の時間にて第2の機器の指紋センサユニット上で検出されたことを示す情報を含む第1の電子機器4600と異なる第2の電子機器から通信情報を受信するように構成される。第1の指紋を検出して第2の電子機器から通信情報を受信することに応答して、処理ユニット4608は、(例えば、決定ユニット4614で)既定の補助ディスプレイ基準が満たされたかどうか決定するように構成され、補助ディスプレイ基準は、第2の指紋がそれぞれのユーザに登録されたときに満たされる基準を含む。補助ディスプレイ基準が満たされるという決定に従って、処理ユニット4608は、(例えば、送信ユニット4616で)第2の電子機器を第1の電子機器4600の補助ディスプレイとして構成することを可能にする応答を第2の電子機器に送るように構成される。補助ディスプレイ基準が満たされないという決定に従って、処理ユニット4608は、(例えば、送信ユニット4616で)第2の電子機器を第1の電子機器4600の補助ディスプレイとして構成することを可能にする応答を第2の電子機器に送ることを取り止めるように構成される。
いくつかの実施形態では、補助ディスプレイ基準は、第1の時間が第2の時間の既定の時間以内であるときに満たされる基準を含む。
いくつかの実施形態では、補助ディスプレイ基準は、第1の機器が補助ディスプレイとしての第2の機器の構成が要求された確認を(例えば、受信ユニット4612で)受信したときに満たされる基準を含む。
いくつかの実施形態では、第1の機器4600のディスプレイユニット4602上で表示されるユーザインタフェースの向きは、(例えば、決定ユニット4614で)第1の機器4600のディスプレイユニット4602の既定の軸線に対する第1の指紋の向きに従って決定され、第2の機器のディスプレイユニット上で表示されるユーザインタフェースの向きは、(例えば、決定ユニットで)第2の機器のディスプレイユニットの既定の軸線に対する第2の指紋の向きに従って決定される。
いくつかの実施形態では、処理ユニット4608は、(例えば、決定ユニット4614で)第1の指紋のアイデンティティ及び第2の指紋のアイデンティティの少なくとも1つに従って補助ディスプレイで第1の機器4600のユーザインタフェースを拡張する方向を決定するように更に構成される。
いくつかの実施形態では、第1のアプリケーションが第1の機器4600でのアクティブなアプリケーションである間に、第1の指紋及び第2の指紋が検出され、第2の電子機器が第1の電子機器4600の補助ディスプレイとして構成されることを可能にする応答を第2の電子機器に(例えば、送信ユニット4616で)送った後、処理ユニット4608は、(例えば、構成ユニット4620で)第2の電子機器を第1の機器4600の補助ディスプレイとして構成するように更に構成され、第2の電子機器が第1の機器4600の補助ディスプレイとして構成される間に、処理ユニット4608は、第2の機器が第1のアプリケーションに関連した1つの1つ以上のユーザインタフェース要素のセットのを表示することを可能にする命令を第2の機器に(例えば、送信ユニット4616で)送るように更に構成される。
いくつかの実施形態では、どこで、第1のアプリケーションに関連したその1つ以上のユーザインタフェース要素のセットは、第1のアプリケーションにおいて動作を実行する1つ以上のコントロールを含む。
いくつかの実施形態では、どこで、第1のアプリケーションに関連したその1つ以上のユーザインタフェース要素のセットは、第1の機器4600のディスプレイユニット4602上で表示された作業空間の延長である作業空間の部分を含む。
いくつかの実施形態では、第2の電子機器が第1の機器4600の補助ディスプレイとして構成されている間に、処理ユニット4608は、(例えば、受信ユニット4612で)第2の機器により検出された入力を示す入力データを受信するように更に構成され、入力は、第2の機器のディスプレイユニット4602上で表示される第1のアプリケーションに関連したユーザインタフェース要素の1つ以上との対話に対応し、処理ユニット4608は、(例えば、実行ユニット4622で)入力データに従って第1のアプリケーションに関連した動作を実行するように更に構成される。
いくつかの実施形態では、第2の電子機器が第1の機器4600の補助ディスプレイとして構成されている間に、処理ユニット4608は、(例えば、受信ユニット4612で)第2の機器のディスプレイユニット上で表示される第1のアプリケーションに関連したユーザインタフェース要素の1つ以上との対話に対応する1つ以上の動作を指定する動作データを第2の電子機器から受信するように更に構成され、処理ユニット4608は、(例えば、実行ユニット4622で)1つ以上の動作を実行するように更に構成される。
いくつかの実施形態では、第2の電子機器が第1の機器4600の補助ディスプレイとして構成されている間に、処理ユニット4608は、(例えば、検出ユニット4610で)第1の機器4600のタッチ感知面ユニット4604上で第1のジェスチャを検出するように更に構成される。処理ユニット4608は、(例えば、受信ユニット4612で)第2の機器のタッチ感知面ユニット上で検出された第2のジェスチャを示す通信情報を第2の機器から受信するように更に構成され、第1のジェスチャを検出して第2のジェスチャを示す通信情報を受信することに応答して、処理ユニット4608は、(例えば、移動ユニット4624で)第1の機器4600のディスプレイユニット4602と第2の機器のディスプレイユニットとの間で第1のアプリケーションに関連したユーザインタフェースオブジェクトを移動させるように更に構成される。
先述した情報処理方法の動作は、(例えば、図1A及び3に関して先に説明したように)汎用プロセッサ又は特定用途向けチップなどの情報処理装置において1つ以上の機能モジュールを実行することにより任意選択的に実行される。
図45A〜45Dを参照して先述した動作は、任意選択的に、図1A〜1B又は図46に示す構成要素により実行される。例えば、検出する動作4502及び4538、受信する動作4504、4530、4534及び4540、決定する動作4508、4516及び4518、送る動作4514及び4524、取り止める動作4544、構成する動作4522、実行する動作4532及び4536、及び、移動する動作4542は、任意選択的に、イベントソータ170、イベント認識部180及びイベントハンドラ190により実行される。イベントソータ170のイベントモニタ171は、タッチ感知ディスプレイ112上の接触を検出し、イベントディスパッチャモジュール174は、イベント情報をアプリケーション136−1に渡す。アプリケーション136−1のそれぞれのイベント認識部180は、イベント情報をそれぞれのイベント定義186と照会し、タッチ感知面上の第1の位置の第1の接触がユーザインタフェース上のオブジェクトの選択などの、既定のイベント又はサブイベントに対応するかどうかを判定する。それぞれの既定のイベント又はサブイベントが検出されると、イベント認識部180は、イベント又はサブイベントの検出に関連するイベントハンドラ190をアクティブ化する。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデーター176若しくはオブジェクトアップデーター177を任意選択的に利用するか又は呼び出す。いくつかの実施形態において、イベントハンドラ190は、アプリケーションにより表示されるものを更新するためのそれぞれのGUIアップデーター178にアクセスする。同様に、当業者にとって、他の処理が図1A〜1Bに示される構成要素に基づいてどのように実施されるかは明らかであるだろう。
指紋の向きに基づいてビーム形成パラメータを変える
多くの電子機器が、近接センサデータに基づいて音声要素の構成を有効化する。例えば、近接センサからの情報に基づいて、移動体電話機器は、受信機モードとスピーカモードと間で切り替わることができる。以下で説明する機器は、1つの1つ以上の音声要素のセットをより効率的に動作するように複数のビーム形成パラメータから1つのビーム形成パラメータのセットを選択するために指紋の向きの検出された変化を利用することにより既存の方法を向上させる。
第1の指紋が指紋センサ上で第1の向きで検出されている間に、機器は、第1のビーム形成パラメータのセットに従って1つの1つ以上の音声要素のセットを動作させる。その後、機器は、指紋センサ上で第1の向きと異なる第2の向きを有するその後の指紋を検出する。その後の指紋は、変更された向きを有する第1の指紋及び第1の指紋と異なる第2の指紋からなるセットから選択される。最後に、指紋センサ上で第2の向きを有するその後の指紋を検出することに応答して、機器は、第1のビーム形成パラメータのセットと異なる第2のビーム形成パラメータのセットに従って、その1つ以上の音声要素のセットを動作させる。
いくつかの実施形態では、機器は、別個のディスプレイ(例えば、ディスプレイ450)と、別個のタッチ感知面(例えば、タッチ感知面451)とを有する電子機器である。いくつかの実施形態では、機器は、携帯型多機能機器100であり、ディスプレイは、タッチスクリーン112であり、タッチ感知面は、ディスプレイ(図1A)上の触覚出力発生器167を含む図47A〜47L及び48A〜48Bを参照して以下で説明する機器は、任意選択的に1つ以上の指紋センサ169を含む。いくつかの実施形態では、1つ以上の指紋センサは、タッチ感知面(例えば、別個のタッチ感知面451又はタッチ感応表示システム112)に一体化される1つ以上の統合指紋センサ359−1(図4B)を含むいくつかの実施形態では、1つ以上の指紋センサは、タッチ感知面(例えば、別個のタッチ感知面451又はタッチ感応表示システム112)とは別個である別個の指紋センサ359−2(図4B)を含む。特に指定がない限り、以下で説明する指紋センサ169は、指紋センサ169を含む機器のハードウェア及びソフトウェアの構成に応じて、任意選択的に、統合指紋センサ359−1又は別個の指紋センサ359−2である。説明の便宜上、図47A〜47L及び48A〜48Bを参照して説明する実施形態は、タッチスクリーン112及び指紋センサ169(例えば、統合指紋センサ359−1又は別個の指紋センサ359−2)を参照して論じ、そのような実施形態では、フォーカスセレクタは、任意選択的に、それぞれの接触、接触に対応する代表的な点(例えば、それぞれの接触の面心又はそれぞれの接触に関連した点)、又は、カーソルの代わりに、タッチスクリーン112上で検出された2つ以上の接触の面心である。類似した動作が、ディスプレイ450上で図47A〜47Lに示すユーザインタフェースを表示している間に、統合指紋センサ359−1又は別個の指紋センサ359−2上で図47A〜47Lで説明する入力を検出することに応答して、任意選択的に、ディスプレイ450と、別個のタッチ感知面451と、統合指紋センサ359−1又は別個の指紋センサ359−2とを有する機器上で実行される。
図47A〜47Cは、音声生成モードで動作する携帯型多機能機器100を示す。音声生成モードである間に、携帯型多機能機器100は、スピーカ111を介して音声を生成する。メディアプレーヤ(例えば、Apple、Inc.のiTunesアプリケーション)が、図47A〜47Cにおいてタッチスクリーン112のユーザインタフェース4701上で表示される。図47A〜47Cに示すメディアプレーヤは、例えば、音声ファイル又はストリーミング音声を再生している。図47A〜47Cは、それぞれの指紋の角度を示す指紋軸線4704及び指紋センサ169の角度を示す指紋センサ軸線4706を更に示す。図47A〜47Cは、それぞれの指紋の向きを除いて全ての点で似ており、したがって、簡潔さのために図47A〜47C間の差異のみを論じる。
図47Aは、機器100のホームボタン204に一体化される指紋センサ169(例えば、統合指紋センサ359−1)上の第1の向きでの第1の指紋4702を示す。指紋4702は、例えば、ユーザの右の親指である。図47Aは、90°での指紋軸線4704を介した指紋4702の角度及び90°での指紋センサ軸線4706を介した指紋センサ169の角度を示す。したがって、図47Aでは、指紋センサ169の軸線に対する第1の指紋4702の角度は、0°である。
図47Bは、指紋センサ169上の第2の向きでの第1の指紋4702を示す。図47Bは、135°での指紋軸線4704を介した指紋4702の角度及び90°での指紋センサ軸線4706を介した指紋センサ169の角度を示す。したがって、図47Bでは、指紋センサ169の軸線に対する第1の指紋4702の角度は、45°である。
図47Cは、指紋センサ169上の第3の向きでの第1の指紋4702を示す。図47Cは、180°での指紋軸線4704を介した指紋4702の角度及び90°での指紋センサ軸線4706を介した指紋センサ169の角度を示す。したがって、図47Cでは、指紋センサ169の軸線に対する第1の指紋4702の角度は、90°である。
図47D〜47Fは、音声キャプチャモードで動作する携帯型多機能機器100を示す。音声キャプチャモードである間に、携帯型多機能機器100は、マイク113を介して音声をキャプチャする。図47D〜47Fは、例えば、その後の再生又は伝達のために音声信号を記録する(又は、キャプチャする)、Apple Inc.のVoice Memosアプリケーション)を示す。図47D〜47Fは、それぞれの指紋の向きを除いて全ての点で似ており、したがって、簡潔さのために図47D〜47F間の差異のみを論じる。
図47Dは、機器100のホームボタン204に一体化される指紋センサ169(例えば、統合指紋センサ359−1)上の第1の向きでの第1の指紋4708を示す。指紋4708は、例えば、ユーザの左の親指である。図47Dは、90°での指紋軸線4704を介した指紋4708の角度及び90°での指紋センサ軸線4708を介した指紋センサ169の角度を示す。したがって、図47Dでは、指紋センサ169の軸線に対する第1の指紋4708の角度は、0°である。
図47Eは、指紋センサ169上の第2の向きでの第1の指紋4708を示す。図47Eは、45°での指紋軸線4704を介した指紋4708の角度及び90°での指紋センサ軸線4706を介した指紋センサ169の角度を示す。したがって、図47Eでは、指紋センサ169の軸線に対する第1の指紋4708の角度は、45°である。
図47Fは、指紋センサ169上の第3の向きでの第1の指紋4708を示す。図47Fは、0°での指紋軸線4704を介した指紋4708の角度及び90°での指紋センサ軸線4706を介した指紋センサ169の角度を示す。したがって、図47Fでは、指紋センサ169の軸線に対する第1の指紋4708の角度は、90°である。
図47G〜47Iは、スピーカフォンモードで動作する携帯型多機能機器100を示す。複数のボタンが、ミュートボタン、キーパッドを表示するボタン、スピーカをアクティブ化するボタン4712、通話を追加するボタン、FaceTimeをアクティブ化するボタン、接触を表示するボタン及び通話を終了するボタンを含め、タッチスクリーン112のユーザインタフェース4701上で表示される。図47G〜47Iでは、スピーカフォンモードに対応するスピーカボタン4712がアクティブ化する。スピーカフォンモードである間に、携帯型多機能機器100は、マイク113を介して音声をキャプチャし、スピーカ111を介して音声を生成する。図47G〜47Iは、それぞれの指紋の向きを除いて全ての点で似ており、したがって、簡潔さのために図47G〜47I間の差異のみを論じる。
図47Gは、機器100のホームボタン204に一体化される指紋センサ169上の第1の向きでの第1の指紋4710を示す。指紋4710は、例えば、ユーザの右の親指である。図47Gは、90°での指紋軸線4704を介した指紋4710の角度及び90°での指紋センサ軸線4706を介した指紋センサ169の角度を示す。したがって、図47Gでは、指紋センサ169の軸線に対する第1の指紋4710の角度は、0°である。
図47Hは、指紋センサ169上の第2の向きでの第1の指紋4710を示す。図47Hは、135°での指紋軸線4704を介した指紋4710の角度及び90°での指紋センサ軸線4706を介した指紋センサ169の角度を示す。したがって、図47Hでは、指紋センサ169の軸線に対する第1の指紋4710の角度は、45°である。
図47Iは、指紋センサ169上の第3の向きでの第1の指紋4710を示す。図47Iは、180°での指紋軸線4704を介した指紋4710の角度及び90°での指紋センサ軸線4710を介した指紋センサ169の角度を示す。したがって、図47Iでは、指紋センサ169の軸線に対する第1の指紋4710の角度は、90°である。
図47J〜47Lは、テレビ会議又は映像チャットモードで動作する携帯型多機能機器100(例えば、Apple、Inc.のFaceTimeアプリケーション)を示す。図47J〜47Lは、タッチスクリーン112上で映像チャット参加者を表示することを示す。更に、タッチスクリーン112に関連した機器100の側に対して映像をキャプチャするように有効化された前向きカメラ(図示せず)が、チャット参加者に映像を送信するようにユーザの映像をキャプチャするように構成される。映像チャットモードである間に、携帯型多機能機器100は、マイク113を介して音声をキャプチャし、前向きカメラ(図示せず)を介して映像をキャプチャして、スピーカ111を介して音声を生成する。図47J〜47Lは、それぞれの指紋の向きを除いて全ての点で似ており、したがって、簡潔さのために図47J〜47L間の差異のみを論じる。
図47Jは、機器100のホームボタン204に一体化される指紋センサ169上の第1の向きでの第1の指紋4714を示す。指紋4714は、例えば、ユーザの右の親指である。図47Jは、90°での指紋軸線4704を介した指紋4714の角度及び90°での指紋センサ軸線4706を介した指紋センサ169の角度を示す。したがって、図47Jでは、指紋センサ169の軸線に対する第1の指紋4714の角度は、0°である。
図47Kは、指紋センサ169上の第2の向きでの第2の指紋4716を示す。指紋4716は、例えば、ユーザの右の人差指である。図47Kは、135°での指紋軸線4704を介した指紋4716の角度及び90°での指紋センサ軸線4706を介した指紋センサ169の角度を示す。したがって、図47Kでは、指紋センサ169の軸線に対する第1の指紋4716の角度は、45°である。
図47Lは、指紋センサ169上の第3の向きでの第2の指紋4716を示す。図47Lは、180°での指紋軸線4704を介した指紋47160の角度及び90°での指紋センサ軸線4710を介した指紋センサ169の角度を示す。したがって、図47Lでは、指紋センサ169の軸線に対する第1の指紋4716の角度は、90°である。
図48A〜48Bは、いくつかの実施形態に係る、指紋の向きに基づいてビーム形成パラメータを変える方法4800を示す流れ図である。方法4800は、ディスプレイ及びタッチ感知面を備えた電子機器(例えば、図3の機器300、又は図1Aのポータブル多機能機器)で行われる。いくつかの実施形態において、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面がディスプレイ上にある。いくつかの実施形態において、ディスプレイはタッチ感知面から分離している。方法4800の一部の動作が、任意選択的に、組み合わされ、及び/又は、一部の動作の順序が、任意選択的に変えられる。
以下で説明するように、方法4800は、指紋の向きに基づいてビーム形成パラメータを変える直観的方法を提供する。この方法により、ビーム形成パラメータを変えるとき、ユーザの認識的負担が軽減され、より効率的なヒューマン−マシンインタフェースが作成される。バッテリ動作電子機器では、ユーザが指紋の向きに基づいてビーム形成パラメータを変えることができることにより、より高速かつ効率的に電力を保存して、バッテリの充電の間の時間を増やす。
第1の指紋が指紋センサ上で第1の向きで検出されている間に、機器は、第1のビーム形成パラメータのセットに従って1つの1つ以上の音声要素のセットを動作させる(4802)。図47Aは、例えば、指紋センサ169上の第1の向き(例えば、指紋センサ軸線4706に対して0°)での第1の指紋4702を示す。図47Aは、例えば、機器100が、第1の指紋4702が指紋センサ軸線4706に対して0°の角度にある間に、スピーカー111(例えば、機器100の1つ以上の音声要素のセットの1つ)を第1のビーム形成パラメータのセットに従って動作させることを示す。
いくつかの実施形態では、その1つ以上の音声要素のセットは、複数のスピーカを含む(4804)。例えば、ビーム形成パラメータの変化により、既定の経路に沿って、又は、スピーカに対して既定の領域内で音声が既定の位置にてスピーカの音を増幅する建設的な干渉を生成するようにスピーカにより生成される時間が変わる。図47A〜47Cは、例えば、機器100が、スピーカ111(例えば、複数のスピーカのうちの1つ)を動作させて、タッチスクリーン112に表示されたメディアプレーヤ(例えば、AppleInc.のiTunesアプリケーション)を介してユーザにより選択された音声ファイル又はストリーミング音声に対応する音を生成している事を示す。
いくつかの実施形態では、その1つ以上の音声要素のセットは、複数のマイクを含む(4806)。例えば、ビーム形成パラメータの変化により、既定の経路に沿って、又は、マイクに対して既定の領域内で、既定の位置から来るマイクにより受信された音を増幅する建設的な干渉を生成するようにマイクにより受信された音が処理される時間が変わる。図47D〜47Fは、例えば、機器100が、音声記録モードで間に(例えば、AppleInc.の音声メモアプリケーションを介して)音をキャプチャするためにマイク111(例えば、複数のマイクの1つ)を動作させるのを示す。
いくつかの実施形態では、その1つ以上の音声要素のセットは、1つ以上のマイクと、1つ以上のスピーカとを含む(4808)。図47G〜47Iは、例えば、機器100が、スピーカフォンモードにある間に音を生成及びキャプチャするためにスピーカ111(例えば、複数のスピーカの1つ)及びマイク113(例えば、複数のマイクの1つ)を動作させるのを示す。図47J〜47Lは、例えば、機器100が、映像チャットモード(例えば、Apple,Inc.のFaceTimeアプリケーションを介して)にある間に、音を生成するためスピーカ111(例えば、複数のスピーカの1つ)を、音をキャプチャするためマイク113(例えば、複数のマイクの1つ)を動作させるのを示す。
機器は、指紋センサ上で第1の向きと異なる第2の向きを有するその後の指紋を検出し(4810)、その後の指紋は、変更された向きを有する第1の指紋及び第1の指紋と異なる第2の指紋からなるセットから選択される。
図47Bは、例えば、機器100が図47Aの第1の向き(例えば、指紋センサ軸線4706に対する0°の角度)と異なる第2の向き(例えば、指紋センサ軸線4706に対する45°の角度)を有するその後の指紋4702を指紋センサ169上で検出するのを示す。図47Bのその後の指紋4702は、変更された向き(例えば、指紋センサ軸線4706に対する0°の角度に対して45°の角度)を有する図47Aの第1の指紋4702である。この実施例では、その後の指紋4702は、ユーザの右の親指である。しかしながら、いくつかの実施形態により、その後の指紋4702は、2つのシナリオ、即ち、(1)図47Aの第1の向きと図47Bの第2の向きと間の指紋センサ169でのユーザの右の親指の連続的な接触、又は、(2)図47Aの第1の向きでのユーザ右の親指の検出後、ユーザ右の親指のリフトオフ及び設置は、図47Bの第2の向きでの右の親指の置きの1つに対応する。
図47Kは、例えば、機器100が図47Jの第1の向き(例えば、指紋センサ軸線4706に対する0°の角度)と異なる第2の向き(例えば、指紋センサ軸線4706に対する45°の角度)を有するその後の指紋4716を指紋センサ169上で検出するのを示す。図47Kのその後の指紋4716は、図47Jの第1の指紋4714と異なる第2の指紋である。この実施例では、図47Jにおいて指紋センサ169上で検出された指紋4714は、ユーザの右の親指であり、図47Kにおいて指紋センサ169上で検出された指紋4716は、ユーザの右の人差指である。したがって、この実施例では、図47Jのユーザの右の親指の検出後、ユーザの右の親指は、指紋センサ169からリフトオフし、その後、ユーザの右の人差指が、図47Kにおいて指紋センサ169上で検出される。
指紋センサ上で第2の向きを有するその後の指紋を検出することに応答して、機器は、第1のビーム形成パラメータのセットと異なる第2のビーム形成パラメータのセットに従って、1つ以上の音声要素のセットを動作させる(4812)。いくつかの実施形態では、ビーム形成パラメータの変化により、音声要素の効果的な範囲を拡張するように、複数の音声要素(例えば、スピーカ又はマイク)により受信/生成された音声の建設的及び破壊的な干渉が変わる。図47Bは、例えば、指紋センサ169上の第2の向き(例えば、指紋センサ軸線4706に対する45°の相対角度)でのその後の指紋4702を示す。図47Bは、例えば、機器100が、その後の指紋4702が指紋センサ軸線4706に対して45°の角度にある間に、第2のビーム形成パラメータのセットに従ってスピーカ111(例えば、機器100の1つ以上の音声要素のセットの1つ)を動作させるのを示す。
いくつかの実施形態では、指紋センサ上で指紋の向きの変化を検出することに応答して、機器は、対応する指紋の向きに関連した複数のセットの既定のビーム形成パラメータから第2のビーム形成パラメータのセットを選択する(4814)。例えば、第1のビーム形成パラメータのセットは、指紋が指紋センサ上で0°にある状況に備えて最適化され(例えば、指紋の軸線は、指紋センサの既定の軸線と整合され)、第2のビーム形成パラメータのセットは、指紋の角度が指紋センサの既定の軸線に対する指紋センサ上の90°である状況に備えて最適化される、など。いくつかの実施形態では、ビーム形成パラメータは、機器にて記憶され、ビーム形成パラメータは、向きの変化を検出することに応答して記憶装置から検索される。いくつかの実施形態では、ビーム形成パラメータは、必要に応じて機器により生成させる。いくつかの実施形態では、複数のセットの既定のビーム形成パラメータが、15°、30°又は45°など、規則的に離間された間隔にて指紋の向きに対応する。例えば、指紋の角度が指紋センサの既定の軸線に対して指紋センサ上で45°であるとき、機器は、指紋センサ上の指紋の角度に従って、異なるセットの基線ビーム形成パラメータ(例えば、30度ビーム形成パラメータのセットの1つ及び60度ビーム形成パラメータのセットの1つ)からの寄与率を組み合わせる。
いくつかの実施形態では、第1のビーム形成パラメータのセットと第2のビーム形成パラメータのセットとの差異は、機器の音声要素に対する機器のユーザ(4818)の口の可能性の高いロケーションの変化を補正する(4816)(例えば、ビーム形成の変化は、より効果的にユーザから音をキャプチャする)。図47D〜47Fは、例えば、機器100が、指紋センサ169上の指紋の向きの変化に従ってビーム形成パラメータを変えることにより音記録モードで音をキャプチャしている間に、マイク113に対する機器100のユーザの口の可能性の高いロケーションの変化を補正するのを示す。
いくつかの実施形態では、第1のビーム形成パラメータのセットと第2のビーム形成パラメータのセットとの差異は、機器の音声要素に対する機器のユーザ(4820)の耳の可能性の高いロケーションの変化を補正する(4816)(例えば、ビーム形成の変化により、音がより効果的にユーザに送給される)。図47A〜47Cは、例えば、機器100が、指紋センサ169上の指紋の向きの変化に従ってビーム形成パラメータを変えることによりメディア再生モードで音を生成している間に、スピーカ111に対する機器100のユーザの耳の可能性の高いロケーションの変化を補正するのを示す。
いくつかの実施形態では、第1のビーム形成パラメータのセットと第2のビーム形成パラメータのセットとの差異は、機器の音声要素に対する機器のユーザ(4822)の手の可能性の高いロケーションの変化を補正する(4816)(例えば、ビーム形成の変化は、手が音声要素とユーザの耳/口との間の経路の少なくとも一部を塞ぐ可能性がある場合にユーザからの音をキャプチャし、及び/又は、より効果的にユーザに音を送給する)。図47G〜47I、例えば、機器100が、指紋センサ169上の指紋の向きの変化に従ってビーム形成パラメータを変えることによりスピーカフォンモードで音を生成及びキャプチャしている間に、マイク111に対する機器100のユーザの手の可能性の高いロケーションの変化を補正するのを示す。
図48A〜48Bにおける動作について記載された特定の順序は単なる例示であり、記載された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書で説明される動作の再順序付けをするさまざまな方法を認識するであろう。加えて、本記載の方法及びに関して本明細書に記載の他の処理の詳細(例えば、パラグラフ[00123]に記載したものは、図48A〜48Bに関連して上述した方法4800と類似の様式で適用可能であることに留意されたい。例えば、方法4800を参照して先述した指紋、接触、及びユーザインタフェースは、随意的に、本明細書で説明する他の方法(例えば、パラグラフ[00123]内に記載されたもの)を参照して本記載の指紋、接触、及びユーザインタフェースオブジェクトの特性の1つ以上を有する。簡潔にするため、これらの詳細はここでは繰り返さない。
いくつかの実施形態により、図46は、様々な説明する実施形態の原理に従って構成する電子機器4600の機能ブロック図を示す。機器の機能ブロックは、任意選択的に、様々な説明する実施形態の原理を実行するためにハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせにより実行される。図49に記述された機能ブロックが、任意選択的に、様々な記述する本発明の原理を実施するために、合成され、又はサブブロックに分離されることが、当業者により理解される。したがって、本明細書における説明は、あらゆる可能な組み合わせ若しくは分割、又は本明細書に述べられる更なる機能ブロックの定義を任意選択的に支持する。
図49に示すように、電子機器4900は、1つ以上のユーザインタフェースオブジェクトを表示するように構成されたディスプレイユニット4902と、指紋センサユニット4904と、音声信号を生成及び/又はキャプチャするように構成された1つ以上の音声ユニット4906のセットの1つと、ディスプレイユニット4902、指紋センサユニット4904、及び1セットの1つ以上の音声ユニット4906に結合された処理ユニット4908とを含む。いくつかの実施形態では、処理ユニット4908は、動作ユニット4910と、検出ユニット4912と、選択ユニット4914とを含む。
(例えば、検出ユニット4912で)第1の指紋が指紋センサユニット4904の上で第1の向きで検出される間に、処理ユニット4908は、(例えば、動作ユニット4910で)第1のビーム形成パラメータのセットに従って1つ以上の音声ユニット4906のセットの1つを動作させるように構成される。処理ユニット4908は、指紋センサ4904上で第1の向きと異なる第2の向きを有するその後の指紋を検出し(その後の指紋は、変更された向きを有する第1の指紋及び第1の指紋と異なる第2の指紋からなるセットから選択される)、指紋センサユニット4904上で第2の向きを有するその後の指紋を検出することに応答して、(例えば、動作ユニット4910で)第1のビーム形成パラメータのセットと異なる第2のビーム形成パラメータのセットに従って、1つ以上の音声ユニット4906のセットの1つを動作させるように更に構成される。
いくつかの実施形態では、1つ以上の音声ユニット4906のセットは、複数のスピーカを含む。いくつかの実施形態では、1つ以上の音声ユニット4906のセットは、複数のマイクを含む。いくつかの実施形態では、1つ以上の音声ユニット4906のセットは、1つ以上のマイクと、1つ以上のスピーカとを含む。
いくつかの実施形態では、処理ユニット4908は、(例えば、検出ユニット4912で)指紋センサユニット4904上で第2の向きを有するその後の指紋を検出することに応答して、ために(例えば、選択ユニット4914で)対応する指紋の向きに関連した複数の既定のビーム形成パラメータのセットから、第2のビーム形成パラメータのセットを選択するように更に構成される。
いくつかの実施形態では、第1のビーム形成パラメータのセットと第2のビーム形成パラメータのセットとの差異は、1つ以上の音声ユニット4906に対する機器のユーザの口の可能性の高いロケーションの変化を補正する。いくつかの実施形態では、第1のビーム形成パラメータのセットと第2のビーム形成パラメータのセットとの差異は、1つ以上の音声ユニット4906に対する機器のユーザの耳の可能性の高いロケーションの変化を補正する。いくつかの実施形態では、第1のビーム形成パラメータのセットと第2のビーム形成パラメータのセットとの差異は、1つ以上の音声ユニット4906に対する機器のユーザの手の可能性の高いロケーションの変化を補正する。
先述した情報処理方法の動作は、(例えば、図1A及び3に関して先に説明したように)汎用プロセッサ又は特定用途向けチップなどの情報処理装置において1つ以上の機能モジュールを実行することにより任意選択的に実行される。
図48A〜48Bを参照して先述した動作は、任意選択的に、図1A〜1B又は図49に示す構成要素により実行される。例えば、動作する動作4802及び4812、検出する動作4810、並びに選択する動作4814は、任意選択的に、イベントソータ170、イベント認識部180及びイベントハンドラ190により実行される。イベントソータ170のイベントモニタ171は、タッチ感知ディスプレイ112上の接触を検出し、イベントディスパッチャモジュール174は、イベント情報をアプリケーション136−1に渡す。アプリケーション136−1のそれぞれのイベント認識部180は、イベント情報をそれぞれのイベント定義186と照会し、タッチ感知面上の第1の位置の第1の接触がユーザインタフェース上のオブジェクトの選択などの、既定のイベント又はサブイベントに対応するかどうかを判定する。それぞれの既定のイベント又はサブイベントが検出されると、イベント認識部180は、イベント又はサブイベントの検出に関連するイベントハンドラ190をアクティブ化する。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデーター176若しくはオブジェクトアップデーター177を任意選択的に利用するか又は呼び出す。いくつかの実施形態において、イベントハンドラ190は、アプリケーションにより表示されるものを更新するためのそれぞれのGUIアップデーター178にアクセスする。同様に、当業者にとって、他の処理が図1A〜1Bに示される構成要素に基づいてどのように実施されるかは明らかであるだろう。
上記の説明は、説明のため、特定の実施形態について述べられたものである。しかし、上述の例示的説明は、網羅的であること、又は本発明を、開示されている寸分違わない形態に限定することを意図されてはいない。多くの変更及び変形が上述の教示に鑑みて可能である。本発明の原理及びその実際的な応用を最良の形で説明し、それによって他の当業者が、及び想到される特定の用途に好適な様々な改良で本発明及び様々な実施形態を最良な形で使用することを可能とするために、これらの実施形態を選択し説明した。
[関連出願]
本願は、2013年3月15日に出願された米国仮特許出願第61/794,710号「Device,Method,and Graphical User Interface for Manipulating User Interfaces Based on Fingerprint Sensor Inputs」、2012年7月3日に出願された米国仮特許出願第61/667,926号「Device,Method,and Graphical User Interface for Manipulating User Interfaces Based on Fingerprint Sensor Inputs」、及び、2012年5月18日に出願された米国仮特許出願第61/649,207号「Device,Method,and Graphical User Interface for Manipulating User Interfaces Based on Fingerprint Sensor Inputs」に対する優先権を主張する。これらの出願は、全体が参照により本明細書中に組込まれている。

Claims (464)

  1. 指紋センサとディスプレイとを有する電子機器において、
    前記ディスプレイに第1のユーザインタフェースを表示するステップと、
    前記ディスプレイに前記第1のユーザインタフェースを表示している間に、前記指紋センサにおける指紋の動きを検出するステップと、
    前記指紋センサにおいて前記指紋の動きを検出したことに応じて、
    前記指紋の前記動きが第1の方向であるという判定に従って、前記第1のユーザインタフェースをナビゲートするステップと、
    前記指紋の前記動きが前記第1の方向とは異なる第2の方向であるという判定に従って、前記第1のユーザインタフェースとは異なる第2のユーザインタフェースを前記ディスプレイに表示するステップと、
    を含む、方法。
  2. 前記第1の方向が前記第2の方向に対して直角である、請求項1に記載の方法。
  3. 前記第1のユーザインタフェースが第1のアプリケーションのユーザインタフェースであり、
    前記第2のユーザインタフェースが、複数の現在開いているアプリケーションの描像を含む、マルチタスキングユーザインタフェースである、請求項1〜2のいずれか一項に記載の方法。
  4. 前記指紋の前記動きが前記第2の方向であるという前記判定に従って前記第2のユーザインタフェースを表示している間に、前記指紋センサにおける前記指紋の前記第1の方向の動きを検出するステップと、
    前記指紋センサにおいて前記第1の方向の前記指紋の動きを検出したことに応じて、前記第2のユーザインタフェースをナビゲートするステップと、を含む、請求項1〜3のいずれか一項に記載の方法。
  5. 前記指紋の前記動きが前記第2の方向であるという前記判定に従って前記第2のユーザインタフェースを表示している間に、前記指紋センサにおける前記指紋の第3の方向の動きを検出するステップと、
    前記指紋センサにおいて前記第3の方向の前記指紋の動きを検出したことに応じて、前記第2のユーザインタフェースを表示するのを中止するステップと、を含む、請求項1〜4のいずれか一項に記載の方法。
  6. 前記第1のユーザインタフェースをナビゲートするステップが、前記指紋センサにおける前記指紋の変位に従って判定された速度で前記第1のユーザインタフェースをナビゲートするステップを含む、請求項1〜5のいずれか一項に記載の方法。
  7. 前記第1のユーザインタフェースをナビゲートするステップが、前記指紋センサにおける前記指紋の変位に従って判定された量の分だけ前記第1のユーザインタフェースをナビゲートするステップを含む、請求項1〜5のいずれか一項に記載の方法。
  8. 前記第1のユーザインタフェースをナビゲートするステップが、前記指紋センサにおける前記指紋の動きの方向に従って判定された方向に前記第1のユーザインタフェースをナビゲートするステップを含む、請求項1〜7のいずれか一項に記載の方法。
  9. 前記第2のユーザインタフェースを表示するステップが、前記ディスプレイに現れる前記第2のユーザインタフェースのアニメートされた遷移を表示するステップを含み、
    前記アニメートされた遷移の速度が、前記指紋センサにおける前記指紋の変位に基づく、請求項1〜8のいずれか一項に記載の方法。
  10. 前記指紋センサが前記ディスプレイとは分離している、請求項1〜9のいずれか一項に記載の方法。
  11. 前記機器がタッチ感知面を含み、
    前記指紋センサが前記タッチ感知面とは分離している、請求項1〜10のいずれか一項に記載の方法。
  12. 前記機器がボタンを含み、
    前記指紋センサが前記ボタンと一体型である、請求項1〜11のいずれか一項に記載の方法。
  13. 前記第1のユーザインタフェースが表示されている間に、前記ボタンのアクティブ化を検出するステップと、
    前記ボタンのアクティブ化を検出したことに応じて、前記第1のユーザインタフェースを、前記ボタンのアクティブ化と関連付けられた既定のユーザインタフェースに置き換えるステップと、を含む、請求項12に記載の方法。
  14. 前記第2のユーザインタフェースが表示されている間に、前記ボタンのアクティブ化を検出するステップと、
    前記ボタンのアクティブ化を検出したことに応じて、前記第2のユーザインタフェースを表示するのを中止するステップと、を含む、請求項12に記載の方法。
  15. 前記第1のユーザインタフェースが表示されている間に、前記ボタンの二重アクティブ化を検出するステップと、
    前記ボタンの二重アクティブ化を検出したことに応じて、前記ディスプレイに前記第2のユーザインタフェースを表示するステップと、を含む、請求項12に記載の方法。
  16. 電子機器であって、
    ディスプレイと、
    指紋センサと、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、
    前記ディスプレイに第1のユーザインタフェースを表示し、
    前記ディスプレイに第1のユーザインタフェースを表示している間に、前記指紋センサにおける指紋の動きを検出し、
    前記指紋センサにおいて前記指紋の動きを検出したことに応じて、
    前記指紋の前記動きが第1の方向であるという判定に従って、前記第1のユーザインタフェースをナビゲートし、
    前記指紋の前記動きが前記第1の方向とは異なる第2の方向であるという判定に従って、前記第1のユーザインタフェースとは異なる第2のユーザインタフェースを前記ディスプレイに表示する、
    ための命令を含む、電子機器。
  17. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、ディスプレイと指紋センサとを有する電子機器によって実行されたときに、前記機器に、
    前記ディスプレイに第1のユーザインタフェースを表示させ、
    前記ディスプレイに第1のユーザインタフェースを表示している間に、前記指紋センサにおける指紋の動きを検出させ、
    前記指紋センサにおいて前記指紋の動きを検出したことに応じて、
    前記指紋の前記動きが第1の方向であるという判定に従って、前記第1のユーザインタフェースをナビゲートさせ、
    前記指紋の前記動きが前記第1の方向とは異なる第2の方向であるという判定に従って、前記第1のユーザインタフェースとは異なる第2のユーザインタフェースを前記ディスプレイに表示させる、
    ための命令を備える、コンピュータ可読記憶媒体。
  18. ディスプレイと、指紋センサと、メモリと、前記メモリに記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサと、を有する電子機器のグラフィカルユーザインタフェースであって、
    第1のユーザインタフェースを備え、
    前記ディスプレイに前記第1のユーザインタフェースを表示している間に、前記指紋センサにおける指紋の動きが検出され、
    前記指紋センサにおいて前記指紋の動きを検出したことに応じて、
    前記指紋の前記動きが第1の方向であるという判定に従って、前記第1のユーザインタフェースのナビゲーションが実行され、
    前記指紋の前記動きが前記第1の方向とは異なる第2の方向であるという判定に従って、前記第1のユーザインタフェースとは異なる第2のユーザインタフェースが前記ディスプレイに表示される、
    グラフィカルユーザインタフェース。
  19. 電子機器であって、
    ディスプレイと、
    指紋センサと、
    前記ディスプレイに第1のユーザインタフェースを表示するための手段と、
    前記ディスプレイに前記第1のユーザインタフェースを表示している間に、前記指紋センサにおける指紋の動きを検出するための手段と、
    前記指紋センサにおいて前記指紋の動きを検出したことに応じて、
    前記指紋の前記動きが第1の方向であるという判定に従って、前記第1のユーザインタフェースをナビゲートし、
    前記指紋の前記動きが前記第1の方向とは異なる第2の方向であるという判定に従って、前記第1のユーザインタフェースとは異なる第2のユーザインタフェースを前記ディスプレイに表示する、ための手段と、
    を備える、電子機器。
  20. ディスプレイと指紋センサとを有する電子機器で使用するための情報処理装置であって、
    前記ディスプレイに第1のユーザインタフェースを表示するための手段と、
    前記ディスプレイに前記第1のユーザインタフェースを表示している間に、前記指紋センサにおける指紋の動きを検出するための手段と、
    前記指紋センサにおいて前記指紋の動きを検出したことに応じて、
    前記指紋の前記動きが第1の方向であるという判定に従って、前記第1のユーザインタフェースをナビゲートし、
    前記指紋の前記動きが前記第1の方向とは異なる第2の方向であるという判定に従って、前記第1のユーザインタフェースとは異なる第2のユーザインタフェースを前記ディスプレイに表示する、ための手段と、
    を備える、情報処理装置。
  21. 電子機器であって、
    ディスプレイと、
    指紋センサと、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項1〜15に記載の方法のいずれかを実行するための命令を含む、電子機器。
  22. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、ディスプレイと指紋センサとを有する電子機器によって実行されたときに、請求項1〜15に記載の方法のいずれかを前記機器に実行させるための命令を備える、コンピュータ可読記憶媒体。
  23. ディスプレイと、指紋センサと、メモリと、前記メモリに記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサと、を有する電子機器のグラフィカルユーザインタフェースであって、請求項1〜15に記載の方法のいずれかに従って表示されるユーザインタフェースを備える、グラフィカルユーザインタフェース。
  24. 電子機器であって、
    ディスプレイと、
    指紋センサと、
    請求項1〜15に記載の方法のいずれかを実行するための手段と、を備える、電子機器。
  25. ディスプレイと指紋センサとを有する電子機器で使用するための情報処理装置であって、
    請求項1〜15に記載の方法のいずれかを実行するための手段を備える、情報処理装置。
  26. 電子機器であって、
    第1のユーザインタフェースを表示するように構成されたディスプレイユニットと、
    指紋センサユニットと、
    前記ディスプレイユニット及び前記指紋センサユニットに連結された処理ユニットであって、
    前記ディスプレイに第1のユーザインタフェースを表示している間に、前記指紋センサにおける指紋の動きを検出し、
    前記指紋センサにおいて前記指紋の動きを検出したことに応じて、
    前記指紋の前記動きが第1の方向であるという判定に従って、前記第1のユーザインタフェースをナビゲートし、
    前記指紋の前記動きが前記第1の方向とは異なる第2の方向であるという判定に従って、前記ディスプレイユニットにおける前記第1のユーザインタフェースとは異なる第2のユーザインタフェースの表示を有効化する、
    ように構成された処理ユニットと、を備える、電子機器。
  27. 前記第1の方向が前記第2の方向に対して直角である、請求項26に記載の電子機器。
  28. 前記第1のユーザインタフェースが第1のアプリケーションのユーザインタフェースであり、
    前記第2のユーザインタフェースが、複数の現在開いているアプリケーションの描像を含む、マルチタスキングユーザインタフェースである、請求項26〜27のいずれか一項に記載の電子機器。
  29. 前記処理ユニットが、
    前記指紋の前記動きが前記第2の方向であるという前記判定に従って前記第2のユーザインタフェースの表示を有効化している間に、前記指紋センサにおける前記指紋の前記第1の方向の動きを検出し、
    前記指紋センサにおいて前記第1の方向の前記指紋の動きを検出したことに応じて、前記第2のユーザインタフェースをナビゲートする、ように更に構成されている、請求項26〜28のいずれか一項に記載の電子機器。
  30. 前記処理ユニットが、
    前記指紋の前記動きが前記第2の方向であるという前記判定に従って前記第2のユーザインタフェースの表示を有効化している間に、前記指紋センサにおける前記指紋の前記第3の方向の動きを検出し、
    前記指紋センサにおいて前記第3の方向の前記指紋の動きを検出したことに応じて、前記第2のユーザインタフェースの表示を有効化するのを中止する、ように更に構成されている、請求項26〜29のいずれか一項に記載の電子機器。
  31. 前記第1のユーザインタフェースをナビゲートすることが、前記指紋センサにおける前記指紋の変位に従って判定された速度で前記第1のユーザインタフェースをナビゲートすることを含む、請求項26〜30のいずれか一項に記載の電子機器。
  32. 前記第1のユーザインタフェースをナビゲートすることが、前記指紋センサにおける前記指紋の変位に従って判定された量の分だけ前記第1のユーザインタフェースをナビゲートすることを含む、請求項26〜30のいずれか一項に記載の電子機器。
  33. 前記第1のユーザインタフェースをナビゲートすることが、前記指紋センサにおける前記指紋の動きの方向に従って判定された方向に前記第1のユーザインタフェースをナビゲートすることを含む、請求項26〜32のいずれか一項に記載の電子機器。
  34. 前記第2のユーザインタフェースの表示を有効化することが、前記ディスプレイに現れる前記第2のユーザインタフェースのアニメートされた遷移の表示を有効化することを含み、
    前記アニメートされた遷移の速度が、前記指紋センサにおける前記指紋の変位に基づく、請求項26〜33のいずれか一項に記載の電子機器。
  35. 前記指紋センサが前記ディスプレイとは分離している、請求項26〜34のいずれか一項に記載の電子機器。
  36. 前記機器がタッチ感知面を含み、
    前記指紋センサが前記タッチ感知面とは分離している、請求項26〜35のいずれか一項に記載の電子機器。
  37. 前記機器がボタンを含み、
    前記指紋センサが前記ボタンと一体型である、請求項26〜36のいずれか一項に記載の電子機器。
  38. 前記処理ユニットが、
    前記第1のユーザインタフェースが表示されている間に、前記ボタンのアクティブ化を検出し、
    前記ボタンのアクティブ化を検出したことに応じて、前記第1のユーザインタフェースを、前記ボタンのアクティブ化と関連付けられた既定のユーザインタフェースに置き換える、ように更に構成されている、請求項37に記載の電子機器。
  39. 前記処理ユニットが、
    前記第2のユーザインタフェースが表示されている間に、前記ボタンのアクティブ化を検出し、
    前記ボタンのアクティブ化を検出したことに応じて、前記第2のユーザインタフェースを表示するのを中止する、ように更に構成されている、請求項37に記載の電子機器。
  40. 前記処理ユニットが、
    前記第1のユーザインタフェースが表示されている間に、前記ボタンの二重アクティブ化を検出し、
    前記ボタンの二重アクティブ化を検出したことに応じて、前記ディスプレイにおける前記第2のユーザインタフェースの表示を有効化する、ように更に構成されている、請求項37に記載の電子機器。
  41. 一体型指紋センサを含むボタンを有する電子機器において、
    前記一体型指紋センサにおいて指紋を検出するステップと、
    前記一体型指紋センサにおいて前記指紋を検出し続けている間に前記ボタンのアクティブ化を検出するステップと、
    前記ボタンのアクティブ化を検出したことに応じて、
    前記指紋が、前記ボタンのアクティブ化を検出するまで所定の期間よりも長きにわたり、前記一体型指紋センサにおいて連続して検出されなかったという判定に従って、前記ボタンのアクティブ化と関連付けられた既定の動作である第1の動作を実行するステップと、
    前記指紋が、前記ボタンのアクティブ化を検出するまで前記所定の期間よりも長きにわたり、前記一体型指紋センサにおいて連続して検出されたという判定に従って、前記第1の動作とは異なる第2の動作を実行するステップであって、前記第2の動作が、前記ボタンのアクティブ化を検出する直前にディスプレイに表示されたユーザインタフェースと関連付けられた動作である、ステップと、
    を含む、方法。
  42. 前記電子機器がディスプレイを含み、
    前記方法が、前記一体型指紋センサにおいて前記指紋を検出する前に、前記ディスプレイに第1のユーザインタフェースを表示するステップを含む、請求項41に記載の方法。
  43. 前記第1のユーザインタフェースが第1のアプリケーションのユーザインタフェースであり、
    前記第1の動作が、前記第1のユーザインタフェースを表示するのを中止するステップと、アプリケーション起動インタフェースを表示するステップと、を含む、請求項42に記載の方法。
  44. 前記第1のアプリケーションの前記ユーザインタフェースが、前記第1のアプリケーションと関連付けられたそれぞれの動作に対応する複数のアフォーダンスを含み、
    前記第2の動作が、前記複数のアフォーダンスのうち、現在選択されているアフォーダンスに対応する前記第1のアプリケーションと関連付けられた動作を実行するステップを含む、請求項43に記載の方法。
  45. 前記第1のユーザインタフェースがアプリケーション起動インタフェースであり、
    前記第1の動作が、前記アプリケーション起動インタフェースを表示するのを中止するステップと、前記ボタンのアクティブ化と関連付けられた既定のアプリケーションを表示するステップと、を含む、請求項42に記載の方法。
  46. 前記アプリケーション起動インタフェースが、複数のアプリケーションにおけるそれぞれのアプリケーションに対応する複数のアプリケーション起動アフォーダンスを含み、
    前記第2の動作が、前記複数のアプリケーション起動アフォーダンスのうちの現在選択されているアプリケーション起動アフォーダンスに対応するそれぞれのアプリケーションを起動するステップを含む、請求項45に記載の方法。
  47. 前記ボタンのアクティブ化を検出する前に、
    前記一体型指紋センサにおいて前記所定の期間よりも長きにわたり、前記指紋を検出するステップと、
    前記一体型指紋センサにおいて前記所定の期間よりも長きにわたり前記指紋を検出したことに応じて、前記ディスプレイにフォーカスセレクタの描像を表示するステップと、を含む、請求項42〜46のいずれか一項に記載の方法。
  48. 前記ボタンのアクティブ化を検出する前に、
    前記ディスプレイにフォーカスセレクタの描像を表示するステップと、
    前記指紋センサにおける前記指紋の動きを検出するステップと、
    前記指紋センサにおける前記指紋の前記動きを検出したことに応じて、前記指紋の動きに従って前記ディスプレイ上で前記フォーカスセレクタの前記描像を移動させるステップと、を含む、請求項42〜46のいずれか一項に記載の方法。
  49. 前記第2の動作が、前記第1のユーザインタフェースにおけるフォーカスセレクタのロケーションに依存しており、
    前記第1の動作が、前記第1のユーザインタフェースにおける前記フォーカスセレクタの前記ロケーションから独立している、請求項42〜46のいずれか一項に記載の方法。
  50. 前記ボタンのアクティブ化を検出する前に、
    前記指紋が前記ボタン上にある前記指紋センサを横切る動きを検出するステップと、
    前記指紋の前記動きを検出したことに応じて、前記指紋の前記動きに従って第3の動作を実行するステップと、を含む、請求項41〜49のいずれか一項に記載の方法。
  51. 前記第3の動作が、それぞれのオプションを、現在選択されているオプションとして複数のオプションから選択するステップを含み、
    前記第2の動作が、前記現在選択されているオプションと関連付けられたアクションを実行するステップを含む、請求項50に記載の方法。
  52. 前記第1の動作が、前記現在選択されているオプションから独立している、請求項51に記載の方法。
  53. 電子機器であって、
    ディスプレイと、
    一体型指紋センサを含むボタンと、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、
    前記一体型指紋センサにおいて指紋を検出し、
    前記一体型指紋センサにおいて前記指紋を検出し続けている間に前記ボタンのアクティブ化を検出し、
    前記ボタンのアクティブ化を検出したことに応じて、
    前記指紋が、前記ボタンのアクティブ化を検出するまで所定の期間よりも長きにわたり、前記一体型指紋センサにおいて連続して検出されなかったという判定に従って、前記ボタンのアクティブ化と関連付けられた既定の動作である第1の動作を実行し、
    前記指紋が、前記ボタンのアクティブ化を検出するまで前記所定の期間よりも長きにわたり、前記一体型指紋センサにおいて連続して検出されたという判定に従って、前記第1の動作とは異なる、前記ボタンのアクティブ化を検出する直前に前記ディスプレイに表示されたユーザインタフェースと関連付けられた動作である第2の動作を実行する、
    ための命令を含む、電子機器。
  54. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、ディスプレイと、一体型指紋センサを含むボタンとを有する電子機器によって実行されたときに、前記機器に、
    前記一体型指紋センサにおいて指紋を検出させ、
    前記一体型指紋センサにおいて前記指紋を検出し続けている間に前記ボタンのアクティブ化を検出させ、
    前記ボタンのアクティブ化を検出したことに応じて、
    前記指紋が、前記ボタンのアクティブ化を検出するまで所定の期間よりも長きにわたり、前記一体型指紋センサにおいて連続して検出されなかったという判定に従って、前記ボタンのアクティブ化と関連付けられた既定の動作である第1の動作を実行させ、
    前記指紋が、前記ボタンのアクティブ化を検出するまで前記所定の期間よりも長きにわたり、前記一体型指紋センサにおいて連続して検出されたという判定に従って、前記第1の動作とは異なる、前記ボタンのアクティブ化を検出する直前に前記ディスプレイに表示されたユーザインタフェースと関連付けられた動作である第2の動作を実行させる、
    ための命令を備える、コンピュータ可読記憶媒体。
  55. ディスプレイと、一体型指紋センサを含むボタンと、メモリと、前記メモリに記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサと、を有する電子機器のグラフィカルユーザインタフェースであって、
    1つ以上のユーザインタフェースオブジェクトを備え、
    前記一体型指紋センサにおいて指紋を検出し続けている間に、前記ボタンのアクティブ化を検出したことに応じて、
    前記指紋が、前記ボタンのアクティブ化を検出するまで所定の期間よりも長きにわたり、前記一体型指紋センサにおいて連続して検出されなかったという判定に従って、前記ボタンのアクティブ化と関連付けられた既定の動作であり、前記1つ以上のユーザインタフェースオブジェクトの表示を調整するための第1の動作が実行され、
    前記指紋が、前記ボタンのアクティブ化を検出するまで前記所定の期間よりも長きにわたり、前記一体型指紋センサにおいて連続して検出されたという判定に従って、前記第1の動作とは異なる、前記ボタンのアクティブ化を検出する直前に前記ディスプレイに表示されたユーザインタフェースと関連付けられた動作である第2の動作が実行される、グラフィカルユーザインタフェース。
  56. 電子機器であって、
    ディスプレイと、
    一体型指紋センサを含むボタンと、
    前記一体型指紋センサにおいて指紋を検出するための手段と、
    前記一体型指紋センサにおいて前記指紋を検出し続けている間に前記ボタンのアクティブ化を検出するための手段と、
    前記ボタンのアクティブ化を検出したことに応じて、前記指紋が、前記ボタンのアクティブ化を検出するまで所定の期間よりも長きにわたり、前記一体型指紋センサにおいて連続して検出されなかったという判定に従って、前記ボタンのアクティブ化と関連付けられた既定の動作である第1の動作を実行するための手段と、
    前記ボタンのアクティブ化を検出したことに応じて、前記指紋が、前記ボタンのアクティブ化を検出するまで前記所定の期間よりも長きにわたり、前記一体型指紋センサにおいて連続して検出されたという判定に従って、前記第1の動作とは異なる、前記ボタンのアクティブ化を検出する直前に前記ディスプレイに表示されたユーザインタフェースと関連付けられた動作である第2の動作を実行するための手段と、を備える、電子機器。
  57. ディスプレイと、一体型指紋センサを含むボタンと、を有する電子機器で使用するための情報処理装置であって、
    前記一体型指紋センサにおいて指紋を検出するための手段と、
    前記一体型指紋センサにおいて前記指紋を検出し続けている間に前記ボタンのアクティブ化を検出するための手段と、
    前記ボタンのアクティブ化を検出したことに応じて、前記指紋が、前記ボタンのアクティブ化を検出するまで所定の期間よりも長きにわたり、前記一体型指紋センサにおいて連続して検出されなかったという判定に従って、前記ボタンのアクティブ化と関連付けられた既定の動作である第1の動作を実行するための手段と、
    前記ボタンのアクティブ化を検出したことに応じて、前記指紋が、前記ボタンのアクティブ化を検出するまで前記所定の期間よりも長きにわたり、前記一体型指紋センサにおいて連続して検出されたという判定に従って、前記第1の動作とは異なる、前記ボタンのアクティブ化を検出する直前に前記ディスプレイに表示されたユーザインタフェースと関連付けられた動作である第2の動作を実行するための手段と、を備える、情報処理装置。
  58. 電子機器であって、
    ディスプレイと、
    一体型指紋センサを含むボタンと、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項41〜52に記載の方法のいずれかを実行するための命令を含む、電子機器。
  59. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、ディスプレイと、一体型指紋センサを含むボタンと、を有する電子機器によって実行されたときに、請求項41〜52に記載の方法のいずれかを前記機器に実行させるための命令を備える、コンピュータ可読記憶媒体。
  60. ディスプレイと、一体型指紋センサを含むボタンと、メモリと、前記メモリに記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサと、を有する電子機器のグラフィカルユーザインタフェースであって、請求項41〜52に記載の方法のいずれかに従って表示されるユーザインタフェースを備える、グラフィカルユーザインタフェース。
  61. 電子機器であって、
    ディスプレイと、
    一体型指紋センサを含むボタンと、
    請求項41〜52に記載の方法のいずれかを実行するための手段と、を備える、電子機器。
  62. ディスプレイと、一体型指紋センサを含むボタンと、を有する電子機器で使用するための情報処理装置であって、
    請求項41〜52に記載の方法のいずれかを実行するための手段と、を備える、情報処理装置。
  63. 電子機器であって、
    一体型指紋センサユニットを含むボタンユニットと、
    前記指紋センサユニットに連結された処理ユニットであって、
    前記一体型指紋センサユニットにおいて指紋を検出し、
    前記一体型指紋センサユニットにおいて前記指紋を検出し続けている間に、前記ボタンユニットのアクティブ化を検出し、
    前記ボタンユニットのアクティブ化を検出したことに応じて、
    前記指紋が、前記ボタンユニットのアクティブ化を検出するまで所定の期間よりも長きにわたり、前記一体型指紋センサユニットにおいて連続して検出されなかったという判定に従って、前記ボタンユニットのアクティブ化と関連付けられた既定の動作である第1の動作を実行し、
    前記指紋が、前記ボタンユニットのアクティブ化を検出するまで前記所定の期間よりも長きにわたり、前記一体型指紋センサユニットにおいて連続して検出されたという判定に従って、前記第1の動作とは異なる、前記ボタンユニットのアクティブ化を検出する直前にディスプレイユニットに表示されたユーザインタフェースと関連付けられた動作である第2の動作を実行する、
    ように構成された処理ユニットと、を備える、電子機器。
  64. 前記一体型指紋センサユニットにおいて前記指紋を検出する前に第1のユーザインタフェースを表示するように構成されたディスプレイユニットを更に備える、請求項63に記載の電子機器。
  65. 前記第1のユーザインタフェースが第1のアプリケーションのユーザインタフェースであり、
    前記第1の動作が、前記第1のユーザインタフェースを表示するのを中止するステップと、前記ディスプレイユニットにアプリケーション起動インタフェースを表示するステップと、を含む、請求項64に記載の電子機器。
  66. 前記第1のアプリケーションの前記ユーザインタフェースが、前記第1のアプリケーションと関連付けられたそれぞれの動作に対応する複数のアフォーダンスを含み、
    前記第2の動作が、前記複数のアフォーダンスのうちの現在選択されているアフォーダンスに対応する前記第1のアプリケーションと関連付けられた動作を実行するステップを含む、請求項65に記載の電子機器。
  67. 前記第1のユーザインタフェースがアプリケーション起動インタフェースであり、
    前記第1の動作が、前記アプリケーション起動インタフェースを表示するのを中止するステップと、前記ボタンユニットのアクティブ化と関連付けられた既定のアプリケーションを表示するステップと、を含む、請求項64に記載の電子機器。
  68. 前記アプリケーション起動インタフェースが、複数のアプリケーションにおけるそれぞれのアプリケーションに対応する複数のアプリケーション起動アフォーダンスを含み、
    前記第2の動作が、前記複数のアプリケーション起動アフォーダンスの現在選択されているアプリケーション起動アフォーダンスに対応するそれぞれのアプリケーションを起動するステップを含む、請求項67に記載の電子機器。
  69. 前記処理ユニットが、前記ボタンユニットのアクティブ化を検出する前に、
    前記一体型指紋センサユニットにおいて前記所定の期間よりも長きにわたり、前記指紋を検出し、
    前記一体型指紋センサユニットにおいて前記所定の期間よりも長きにわたり前記指紋を検出したことに応じて、前記ディスプレイユニットにフォーカスセレクタの描像を表示する、ように更に構成されている、請求項64〜67のいずれか一項に記載の電子機器。
  70. 前記処理ユニットが、前記ボタンユニットのアクティブ化を検出する前に、
    前記ディスプレイユニットにフォーカスセレクタの描像を表示し、
    前記指紋センサユニットにおいて前記指紋の動きを検出し、
    前記指紋センサユニットにおいて前記指紋の前記動きを検出したことに応じて、前記指紋の動きに従って、前記ディスプレイユニット上で前記フォーカスセレクタの前記描像を移動させる、ように更に構成されている、請求項64〜67のいずれか一項に記載の電子機器。
  71. 前記第2の動作が前記第1のユーザインタフェースにおけるフォーカスセレクタのロケーションに依存しており、
    前記第1の動作が前記第1のユーザインタフェースにおける前記フォーカスセレクタの前記ロケーションから独立している、請求項64〜67のいずれか一項に記載の電子機器。
  72. 前記処理ユニットが、前記ボタンユニットのアクティブ化を検出する前に、
    前記指紋が前記ボタンユニット上にある前記指紋センサユニットを横切る動きを検出し、
    前記指紋の前記動きを検出したことに応じて、前記指紋の前記動きに従って第3の動作を実行する、ように更に構成されている、請求項71に記載の電子機器。
  73. 前記第3の動作が、それぞれのオプションを、現在選択されているオプションとして複数のオプションから選択するステップを含み、
    前記第2の動作が、前記現在選択されているオプションと関連付けられたアクションを実行するステップを含む、請求項72に記載の電子機器。
  74. 前記第1の動作が、前記現在選択されているオプションから独立している、請求項73に記載の電子機器。
  75. 指紋センサとディスプレイとを有する電子機器において、
    前記ディスプレイにユーザインタフェースを表示するステップであって、前記ユーザインタフェースが、
    前記機器の第1の向きと関連付けられた第1の向き固有の動作モードと、
    前記機器の前記第1の向きとは異なる前記機器の第2の向きと関連付けられた第2の向き固有の動作モードと、を有するステップと、
    前記ユーザインタフェースの前記向きがロックされていない間に、
    前記機器が前記第1の向きになっている場合に前記ユーザインタフェースを前記第1の向き固有の動作モードで表示するステップと、
    前記機器が前記第2の向きになっている場合に前記ユーザインタフェースを前記第2の向き固有の動作モードで表示するステップと、
    前記指紋センサにおいて指紋を検出するステップと、
    前記ユーザインタフェースが前記第1の向き固有の動作モードになっている間に、前記指紋センサにおける第1の方向での前記指紋の回転を検出するステップと、
    前記指紋センサにおける前記第1の方向での前記指紋の回転を検出したことに応じて、前記ユーザインタフェースを前記第1の向き固有の動作モードでロックするステップと、
    前記ユーザインタフェースが前記第1の向き固有の動作モードでロックされている間に、前記機器が前記第2の向きになっていることを検出し、前記ユーザインタフェースを前記第1の向き固有の動作モードに維持するステップと、
    を含む、方法。
  76. 前記ユーザインタフェースが前記第1の向き固有の動作モードでロックされている間に、前記指紋センサにおける前記第1の方向とは異なる第2の方向での指紋の回転を検出するステップと、
    前記第2の方向での前記指紋の前記回転を検出したことに応じて、前記ユーザインタフェースを前記第1の向き固有の動作モードからロック解除するステップと、を含む、請求項75に記載の方法。
  77. 前記指紋センサにおける前記第1の方向での前記指紋の回転を検出したことに応じて、前記ユーザインタフェースの向きが前記第1の向き固有の動作モードでロックされているという視覚的合図を表示するステップを含む、請求項75〜76のいずれか一項に記載の方法。
  78. 前記第1の向き固有の動作モードが縦向き動作モードであり、
    前記第2の向き固有の動作モードが横向き動作モードである、請求項75〜77のいずれか一項に記載の方法。
  79. 前記指紋センサが前記ディスプレイとは分離している、請求項75〜78のいずれか一項に記載の方法。
  80. 電子機器であって、
    ディスプレイと、
    指紋センサと、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、
    ユーザインタフェースであって、
    前記機器の第1の向きと関連付けられた第1の向き固有の動作モードと、
    前記機器の前記第1の向きとは異なる前記機器の第2の向きと関連付けられた第2の向き固有の動作モードと、を有するユーザインタフェースを前記ディスプレイに表示し、
    前記ユーザインタフェースの前記向きがロックされていない間に、
    前記機器が前記第1の向きになっている場合に前記ユーザインタフェースを前記第1の向き固有の動作モードで表示し、
    前記機器が前記第2の向きになっている場合に前記ユーザインタフェースを前記第2の向き固有の動作モードで表示し、
    前記指紋センサにおいて指紋を検出し、
    前記ユーザインタフェースが前記第1の向き固有の動作モードになっている間に、前記指紋センサにおける第1の方向での前記指紋の回転を検出し、
    前記指紋センサにおける前記第1の方向での前記指紋の回転を検出したことに応じて、前記ユーザインタフェースを前記第1の向き固有の動作モードでロックし、
    前記ユーザインタフェースが前記第1の向き固有の動作モードでロックされている間に、前記機器が前記第2の向きになっていることを検出し、前記ユーザインタフェースを前記第1の向き固有の動作モードに維持する、
    ための命令を含む、電子機器。
  81. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、ディスプレイと指紋センサとを有する電子機器によって実行されたときに、前記機器に、
    前記機器の第1の向きと関連付けられた第1の向き固有の動作モードと、
    前記機器の前記第1の向きとは異なる前記機器の第2の向きと関連付けられた第2の向き固有の動作モードと、
    を有するユーザインタフェースを前記ディスプレイに表示させ、
    前記ユーザインタフェースの前記向きがロックされていない間に、
    前記機器が前記第1の向きになっている場合に前記ユーザインタフェースを前記第1の向き固有の動作モードで表示させ、
    前記機器が前記第2の向きになっている場合に前記ユーザインタフェースを前記第2の向き固有の動作モードで表示させ、
    前記指紋センサにおいて指紋を検出させ、
    前記ユーザインタフェースが前記第1の向き固有の動作モードになっている間に、前記指紋センサにおける第1の方向での前記指紋の回転を検出させ、
    前記指紋センサにおける前記第1の方向での前記指紋の回転を検出したことに応じて、前記ユーザインタフェースを前記第1の向き固有の動作モードでロックさせ、
    前記ユーザインタフェースが前記第1の向き固有の動作モードでロックされている間に、前記機器が前記第2の向きになっていることを検出させ、前記ユーザインタフェースを前記第1の向き固有の動作モードに維持させる、
    ための命令を備える、コンピュータ可読記憶媒体。
  82. ディスプレイと、指紋センサと、メモリと、前記メモリに記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサと、を有する電子機器のグラフィカルユーザインタフェースであって、
    前記機器の第1の向きと関連付けられた第1の向き固有の動作モードと、
    前記機器の前記第1の向きとは異なる前記機器の第2の向きと関連付けられた第2の向き固有の動作モードと、
    を有するユーザインタフェースを備え、
    前記ユーザインタフェースの前記向きがロックされていない間に、
    前記機器が前記第1の向きになっている場合に前記ユーザインタフェースが前記第1の向き固有の動作モードで表示され、
    前記機器が前記第2の向きになっている場合に前記ユーザインタフェースが前記第2の向き固有の動作モードで表示され、
    前記指紋センサにおいて指紋が検出され、
    前記ユーザインタフェースが前記第1の向き固有の動作モードになっている間に、前記指紋センサにおける第1の方向での前記指紋の回転が検出され、
    前記ユーザインタフェースが前記第1の向き固有の動作モードになっている間に、前記指紋センサにおける前記第1の方向での前記指紋の前記回転を検出したことに応じて、前記ユーザインタフェースが前記第1の向き固有の動作モードでロックされ、
    前記ユーザインタフェースが前記第1の向き固有の動作モードでロックされている間に、前記機器の前記第2の向きが検出され、前記ユーザインタフェースが前記第1の向き固有の動作モードに維持される、
    グラフィカルユーザインタフェース。
  83. 電子機器であって、
    ディスプレイと、
    指紋センサと、
    前記ディスプレイにユーザインタフェースを表示するための手段であって、前記ユーザインタフェースが、
    前記機器の第1の向きと関連付けられた第1の向き固有の動作モードと、
    前記機器の前記第1の向きとは異なる前記機器の第2の向きと関連付けられた第2の向き固有の動作モードと、を有する、手段と、
    前記ユーザインタフェースの前記向きがロックされていない間に、
    前記機器が前記第1の向きになっている場合に前記ユーザインタフェースを前記第1の向き固有の動作モードで表示し、
    前記機器が前記第2の向きになっている場合に前記ユーザインタフェースを前記第2の向き固有の動作モードで表示する、ための手段と、
    前記指紋センサにおいて指紋を検出するための手段と、
    前記ユーザインタフェースが前記第1の向き固有の動作モードになっている間に、前記指紋センサにおける第1の方向での前記指紋の回転を検出するための手段と、
    前記指紋センサにおける前記第1の方向での前記指紋の回転を検出したことに応じて、前記ユーザインタフェースを前記第1の向き固有の動作モードでロックするための手段と、
    前記ユーザインタフェースが前記第1の向き固有の動作モードでロックされている間に、前記機器が前記第2の向きになっていることを検出するための手段と、前記ユーザインタフェースを前記第1の向き固有の動作モードに維持するための手段と、
    を備える、電子機器。
  84. ディスプレイと指紋センサとを有する電子機器で使用するための情報処理装置であって、
    前記ディスプレイにユーザインタフェースを表示するための手段であって、前記ユーザインタフェースが、
    前記機器の第1の向きと関連付けられた第1の向き固有の動作モードと、
    前記機器の前記第1の向きとは異なる前記機器の第2の向きと関連付けられた第2の向き固有の動作モードと、を有する、手段と、
    前記ユーザインタフェースの前記向きがロックされていない間に、
    前記機器が前記第1の向きになっている場合に前記ユーザインタフェースを前記第1の向き固有の動作モードで表示し、
    前記機器が前記第2の向きになっている場合に前記ユーザインタフェースを前記第2の向き固有の動作モードで表示する、ための手段と、
    前記指紋センサにおいて指紋を検出するための手段と、
    前記ユーザインタフェースが前記第1の向き固有の動作モードになっている間に、前記指紋センサにおける第1の方向での前記指紋の回転を検出するための手段と、
    前記指紋センサにおける前記第1の方向での前記指紋の回転を検出したことに応じて、前記ユーザインタフェースを前記第1の向き固有の動作モードでロックするための手段と、
    前記ユーザインタフェースが前記第1の向き固有の動作モードでロックされている間に、前記機器が前記第2の向きになっていることを検出するための手段と、前記ユーザインタフェースを前記第1の向き固有の動作モードに維持するための手段と、
    を備える、情報処理装置。
  85. 電子機器であって、
    ディスプレイと、
    指紋センサと、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項75〜79に記載の方法のいずれかを実行するための命令を含む、電子機器。
  86. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、ディスプレイと指紋センサとを有する電子機器によって実行されたときに、請求項75〜79に記載の方法のいずれかを前記機器に実行させるための命令を備える、コンピュータ可読記憶媒体。
  87. ディスプレイと、指紋センサと、メモリと、前記メモリに記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサと、を有する電子機器のグラフィカルユーザインタフェースであって、請求項75〜79に記載の方法のいずれかに従って表示されるユーザインタフェースを備える、グラフィカルユーザインタフェース。
  88. 電子機器であって、
    ディスプレイと、
    指紋センサと、
    請求項75〜79に記載の方法のいずれかを実行するための手段と、を備える、電子機器。
  89. ディスプレイと指紋センサとを有する電子機器で使用するための情報処理装置であって、
    請求項75〜79に記載の方法のいずれかを実行するための手段を備える、情報処理装置。
  90. 電子機器であって、
    ユーザインタフェースを表示するように構成されたディスプレイユニットであって、前記ユーザインタフェースが、
    前記機器の第1の向きと関連付けられた第1の向き固有の動作モードと、
    前記機器の前記第1の向きとは異なる前記機器の第2の向きと関連付けられた第2の向き固有の動作モードと、を有する、ディスプレイユニットと、
    指紋センサユニットと、
    前記ディスプレイユニット及び前記指紋センサユニットに連結された処理ユニットであって、
    前記ユーザインタフェースの前記向きがロックされていない間に、
    前記機器が前記第1の向きになっている場合に前記第1の向き固有の動作モードでの前記ユーザインタフェースの表示を有効化し、
    前記機器が前記第2の向きになっている場合に前記第2の向き固有の動作モードでの前記ユーザインタフェースの表示を有効化し、
    前記指紋センサユニットにおいて指紋を検出し、
    前記ユーザインタフェースが前記第1の向き固有の動作モードになっている間に、前記指紋センサユニットにおける第1の方向での前記指紋の回転を検出し、
    前記指紋センサユニットにおいて前記第1の方向での前記指紋の回転を検出したことに応じて、前記ユーザインタフェースを前記第1の向き固有の動作モードでロックし、
    前記ユーザインタフェースが前記第1の向き固有の動作モードでロックされている間に、前記機器が前記第2の向きになっていることを検出し、前記ユーザインタフェースを前記第1の向き固有の動作モードに維持する、
    ように構成された処理ユニットと、を備える、電子機器。
  91. 前記処理ユニットが、
    前記ユーザインタフェースが前記第1の向き固有の動作モードでロックされている間に、前記指紋センサユニットにおける前記第1の方向とは異なる第2の方向での指紋の回転を検出し、
    前記第2の方向での前記指紋の前記回転を検出したことに応じて、前記ユーザインタフェースを前記第1の向き固有の動作モードからロック解除する、ように構成されている、請求項90に記載の機器。
  92. 前記処理ユニットが、
    前記指紋センサユニットにおける前記第1の方向での前記指紋の回転を検出したこと応じて、前記ユーザインタフェースの向きが前記第1の向き固有の動作モードでロックされているという視覚的合図の表示を有効化するように構成されている、請求項90〜91のいずれか一項に記載の機器。
  93. 前記第1の向き固有の動作モードが縦向き動作モードであり、
    前記第2の向き固有の動作モードが横向き動作モードである、請求項90〜92のいずれか一項に記載の機器。
  94. 前記指紋センサユニットが前記ディスプレイユニットとは分離している、請求項90〜93のいずれか一項に記載の機器。
  95. 指紋センサを有する電子機器において、
    前記機器を用いてメディアを記録するステップであって、音声を記録することを含む、ステップと、
    前記メディアを記録している間に、
    前記記録された音声における、前記機器の第1の側で発生しているノイズを低減するステップと、
    前記指紋センサにおいて指紋を検出するステップと、
    前記指紋センサにおいて前記指紋を検出したことに応じて、前記機器の前記第1の側で発生しているノイズを低減するのを中止するステップと、
    を含む、方法。
  96. 前記指紋センサが前記機器の前記第1の側に位置する、請求項95に記載の方法。
  97. 前記機器の前記第1の側で前記発生している前記ノイズを低減するのを中止した後に、前記指紋センサにおいて前記指紋がなくなった時期を検出するステップと、
    前記指紋センサにおいて前記指紋がなくなったことを検出したことに応じて、前記記録された音声における、前記機器の前記第1の側で発生しているノイズの低減を再開するステップと、を含む、請求項95〜96のいずれか一項に記載の方法。
  98. 前記メディアを記録するステップが、前記機器の前記第1の側とは異なる前記機器の第2の側でカメラセンサからの映像を記録するステップを含む、請求項95〜97のいずれか一項に記載の方法。
  99. 前記メディアを記録するステップが、前記機器の前記第1の側に位置するディスプレイにおける前記映像のプレビューを表示するステップを含む、請求項98に記載の方法。
  100. 前記メディアを記録するステップが、前記機器の前記第1の側とは異なる前記機器の第2の側で発生している音を記録するステップを含み、
    前記方法が、前記指紋センサにおいて前記指紋を検出したことに応じて、前記記録された音声における、前記機器の前記第2の側で発生しているノイズを低減するステップを更に含む、請求項95〜97のいずれか一項に記載の方法。
  101. 電子機器であって、
    指紋センサと、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、
    前記機器を用いて、音声を記録することを含む、メディアを記録することを行い、
    前記メディアを記録している間に、
    前記記録された音声における、前記機器の第1の側で発生しているノイズを低減し、
    前記指紋センサにおいて指紋を検出し、
    前記指紋センサにおいて前記指紋を検出したことに応じて、前記機器の前記第1の側で発生しているノイズを低減するのを中止する、
    ための命令を含む、電子機器。
  102. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、指紋センサを有する電子機器によって実行されたときに、前記機器に、
    前記機器を用いて、音声を記録することを含む、メディアを記録することを行わせ、
    前記メディアを記録している間に、
    前記記録された音声における、前記機器の第1の側で発生しているノイズを低減させ、
    前記指紋センサにおいて指紋を検出させ、
    前記指紋センサにおいて前記指紋を検出したことに応じて、前記機器の前記第1の側で発生しているノイズを低減するのを中止させる、
    ための命令を備える、コンピュータ可読記憶媒体。
  103. ディスプレイと、指紋センサと、メモリと、前記メモリに記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサと、を有する電子機器のグラフィカルユーザインタフェースであって、
    ユーザインタフェースオブジェクトを備え、
    前記機器を用いて、音声を記録することとカメラセンサからの映像を記録することとを含む、メディアを記録することを行っている間に、
    前記記録された音声における、前記機器の第1の側で発生しているノイズを低減し、
    前記指紋センサにおいて指紋を検出し、
    前記指紋センサにおいて前記指紋を検出したことに応じて、前記機器の前記第1の側で発生しているノイズを低減するのを中止し、
    前記ディスプレイにおいて前記映像のプレビューを表示する、
    グラフィカルユーザインタフェース。
  104. 電子機器であって、
    指紋センサと、
    前記機器を用いてメディアを記録するための手段であって、音声を記録することを含む、手段と、
    前記メディアを記録している間に、前記記録された音声における、前記機器の第1の側で発生しているノイズを低減するための手段と、
    前記指紋センサにおいて指紋を検出するための手段と、
    前記指紋センサにおいて前記指紋を検出したことに応じて、前記記録された音声における、前記機器の前記第1の側で発生しているノイズを低減するのを中止するための手段と、を備える、電子機器。
  105. 指紋センサを有する電子機器で使用するための情報処理装置であって、
    前記機器を用いてメディアを記録するための手段であって、音声を記録することを含む、手段と、
    前記メディアを記録している間に、前記記録された音声における、前記機器の第1の側で発生しているノイズを低減するための手段と、
    前記指紋センサにおいて指紋を検出するための手段と、
    前記指紋センサにおいて前記指紋を検出したことに応じて、前記記録された音声における、前記機器の前記第1の側で発生しているノイズを低減するのを中止するための手段と、を備える、情報処理装置。
  106. 電子機器であって、
    指紋センサと、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項95〜100に記載の方法のいずれかを実行するための命令を含む、電子機器。
  107. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、指紋センサを有する電子機器によって実行されたときに、請求項95〜100に記載の方法のいずれかを前記機器に実行させるための命令を備える、コンピュータ可読記憶媒体。
  108. 指紋センサと、メモリと、前記メモリに記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサと、を有する電子機器のグラフィカルユーザインタフェースであって、請求項95〜100に記載の方法のいずれかに従って表示されるユーザインタフェースを備える、グラフィカルユーザインタフェース。
  109. 電子機器であって、
    指紋センサと、
    請求項95〜100に記載の方法のいずれかを実行するための手段を備える、電子機器。
  110. 指紋センサを有する電子機器で使用するための情報処理装置であって、
    請求項95〜100に記載の方法のいずれかを実行するための手段を備える、情報処理装置。
  111. 電子機器であって、
    指紋を検出するように構成された指紋センサユニットと、
    前記指紋センサユニットに連結された処理ユニットであって、
    前記機器を用いて、音声を記録することを含む、メディアを記録することを行い、
    前記メディアを記録している間に、
    前記記録された音声における、前記機器の第1の側で発生しているノイズを低減し、
    前記指紋センサユニットにおいて指紋を検出し、
    前記指紋センサユニットにおいて前記指紋を検出したことに応じて、前記機器の前記第1の側で発生しているノイズを低減するのを中止する、
    ように構成された処理ユニットと、を備える、電子機器。
  112. 前記指紋センサユニットが前記機器の前記第1の側に位置する、請求項111に記載の電子機器。
  113. 前記処理ユニットが、
    前記機器の前記第1の側で発生している前記ノイズを低減するのを中止した後に、前記指紋センサにおける前記指紋がなくなった時期を検出し、
    前記指紋センサユニットにおいて前記指紋がなくなったことを検出したことに応じて、前記記録された音声における、前記機器の前記第1の側で発生しているノイズの低減を再開する、ように更に構成されている、請求項111〜112のいずれか一項に記載の電子機器。
  114. 前記電子機器が、前記機器の前記第1の側とは異なる前記機器の第2の側にカメラセンサユニットを更に備え、
    前記処理ユニットが前記カメラセンサユニットからの映像を記録するように更に構成されている、請求項111〜113のいずれか一項に記載の電子機器。
  115. 前記機器の前記第1の側に位置するディスプレイユニットを更に備え、
    前記メディアを記録することが、前記ディスプレイユニットにおける前記映像のプレビューの表示を有効化することを含む、請求項114に記載の電子機器。
  116. 前記メディアを記録することが、前記機器の前記第1の側とは異なる前記機器の第2の側で発生している音を記録することを含み、
    前記処理ユニットが、前記指紋センサユニットにおいて前記指紋を検出したことに応じて、前記記録された音声における、前記機器の前記第2の側で発生しているノイズを低減するように更に構成されている、請求項111〜113のいずれか一項に記載の電子機器。
  117. 指紋センサと、それぞれの入力要素と、ディスプレイと、を有する電子機器において、
    複数のプロファイルを取得するステップであって、前記複数のプロファイルが、
    1つ以上のユーザ固有のプロファイルと、
    各々がそれぞれのユーザクラスに対応する、前記ユーザ固有のプロファイルとは別である1つ以上のクラス別プロファイルと、
    を含む、ステップと、
    前記指紋センサにおいて第1の指紋を検出するステップと、
    前記第1の指紋が、第1のクラス別プロファイルと関連付けられている第1のユーザクラス内のユーザの指紋に対応するという判定に従って、前記第1のクラス別プロファイルをアクティブなプロファイルとして選択するステップを含む、前記機器と関連付けられた1つ以上のクラス別プロファイルを、以前に登録済みの指紋としての前記第1の指紋の認証とは無関係に、前記第1の指紋に対応するアクティブなプロファイルとして選択するステップと、
    前記それぞれの入力要素による入力を受け取るステップであって、前記入力が、前記機器で1つ以上の動作を実行する要求に対応している、ステップと、
    前記第1のクラス別プロファイルがアクティブなプロファイルとして選択されている間に、前記それぞれの入力要素による前記入力を受け取ったことに応じて、前記要求と前記第1のクラス別プロファイルとに基づいてそれぞれの動作を実行するステップと、
    を含む、方法。
  118. 前記第1のクラス別プロファイルが前記第1の指紋の検出されたサイズに従って選択される、請求項117に記載の方法。
  119. 前記第1のクラス別プロファイルが前記第1のクラスのメンバーに対して前記機器の動作を制限する、請求項117〜118のいずれか一項に記載の方法。
  120. 前記第1のクラス別プロファイルが、前記機器の機能を変更して、前記機能を前記第1のクラスのメンバーにとってより適切なものにする、請求項117〜119のいずれか一項に記載の方法。
  121. 前記第1のクラス別プロファイルが、前記ユーザの年齢に少なくとも部分的に基づいており、
    前記要求が、音声を含む、コンテンツを提示する要求を含み、
    前記それぞれの動作が、前記ユーザの年齢に合うように調整された音声を提示するステップを含む、請求項120に記載の方法。
  122. 前記第1のクラス別プロファイルが、前記ユーザの年齢に少なくとも部分的に基づいており、
    前記要求が、視覚的構成要素を含む、コンテンツを提示する要求を含み、
    前記ユーザにとって前記視覚的構成要素が見やすくなるように、前記それぞれの動作が前記メディアの前記視覚的構成要素を調整するステップを含む、請求項120〜121のいずれか一項に記載の方法。
  123. 前記機器が、前記要求と関連付けられた前記1つ以上の動作を実行する権限が付与されたアクティブなプロファイルを持っていない場合に、前記それぞれの動作がエラーメッセージである、請求項117〜122のいずれか一項に記載の方法。
  124. 前記第1のクラス別プロファイルがアクティブなプロファイルとして選択されている間に、前記それぞれの入力要素による前記入力を受け取ったことに応じて、前記それぞれの動作を実行するステップに加えて前記1つ以上の動作も実行するステップを含む、請求項117〜123のいずれか一項に記載の方法。
  125. 前記指紋センサにおいて前記第1の指紋を検出した後に、
    前記第1の指紋の指紋の特徴を判定するステップと、
    前記第1の指紋の前記指紋の特徴に一致する、以前に登録済みの指紋を特定するステップと、
    前記以前に登録済みの指紋と関連付けられた第1のユーザ固有のプロファイルをアクティブなプロファイルとして選択するステップと、を含む、請求項117〜124のいずれか一項に記載の方法。
  126. 1つ以上の動作を実行する前記要求が、個人情報を入力するためのフォームを表示する要求を含み、
    前記それぞれの動作が、前記第1のユーザ固有のプロファイルの情報に基づいて前記フォームに前記個人情報を自動的に入力するステップを含む、請求項125に記載の方法。
  127. 1つ以上の動作を実行する前記要求が、ウェブページを読み込む要求を含み、
    前記それぞれの動作が、前記第1のユーザ固有のプロファイルと関連付けられたクッキーに従って前記ウェブページを読み込むステップを含む、請求項125〜126のいずれか一項に記載の方法。
  128. 電子機器であって、
    ディスプレイと、
    それぞれの入力要素と、
    指紋センサと、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、
    1つ以上のユーザ固有のプロファイルと、
    各々がそれぞれのユーザクラスに対応する、前記ユーザ固有のプロファイルとは別である1つ以上のクラス別プロファイルと、
    を含む、複数のプロファイルを取得し、
    前記指紋センサにおいて第1の指紋を検出し、
    前記第1の指紋が、第1のクラス別プロファイルと関連付けられている第1のユーザクラス内のユーザの指紋に対応するという判定に従って、前記第1のクラス別プロファイルをアクティブなプロファイルとして選択することを含めて、前記機器と関連付けられた1つ以上のクラス別プロファイルを、以前に登録済みの指紋としての前記第1の指紋の認証とは無関係に、前記第1の指紋に対応するアクティブなプロファイルとして選択し、
    前記それぞれの入力要素による入力を受け取り、これにおいて前記入力が前記機器で1つ以上の動作を実行する要求に対応しており、
    前記第1のクラス別プロファイルがアクティブなプロファイルとして選択されている間に、前記それぞれの入力要素による前記入力を受け取ったことに応じて、前記要求と前記第1のクラス別プロファイルとに基づいてそれぞれの動作を実行する、
    ための命令を含む、電子機器。
  129. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、ディスプレイと、それぞれの入力要素と、指紋センサと、を有する電子機器によって実行されたときに、前記機器に、
    1つ以上のユーザ固有のプロファイルと、
    各々がそれぞれのユーザクラスに対応する、前記ユーザ固有のプロファイルとは別である1つ以上のクラス別プロファイルと、
    を含む、複数のプロファイルを取得させ、
    前記指紋センサにおいて第1の指紋を検出させ、
    前記第1の指紋が、第1のクラス別プロファイルと関連付けられている第1のユーザクラス内のユーザの指紋に対応するという判定に従って、前記第1のクラス別プロファイルをアクティブなプロファイルとして選択させることを含めて、前記機器と関連付けられた1つ以上のクラス別プロファイルを、以前に登録済みの指紋としての前記第1の指紋の認証とは無関係に、前記第1の指紋に対応するアクティブなプロファイルとして選択させ、
    前記それぞれの入力要素による入力を受け取らせ、これにおいて前記入力が前記機器で1つ以上の動作を実行する要求に対応しており、
    前記第1のクラス別プロファイルがアクティブなプロファイルとして選択されている間に、前記それぞれの入力要素による前記入力を受け取ったことに応じて、前記要求と前記第1のクラス別プロファイルとに基づいてそれぞれの動作を実行させる、
    ための命令を備える、コンピュータ可読記憶媒体。
  130. ディスプレイと、それぞれの入力要素と、指紋センサと、メモリと、前記メモリに記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサと、を有する電子機器のグラフィカルユーザインタフェースであって、
    1つ以上の動作に従って表示される1つ以上のユーザインタフェースを備え、
    1つ以上のユーザ固有のプロファイルと、
    各々がそれぞれのユーザクラスに対応する、前記ユーザ固有のプロファイルとは別である1つ以上のクラス別プロファイルと、
    を含む、複数のプロファイルが取得され、
    前記指紋センサにおいて第1の指紋が検出され、
    前記第1の指紋が、第1のクラス別プロファイルと関連付けられている第1のユーザクラス内のユーザの指紋に対応するという判定に従って、前記第1のクラス別プロファイルがアクティブなプロファイルとして選択されることを含めて、前記機器と関連付けられた1つ以上のクラス別プロファイルが、以前に登録済みの指紋としての前記第1の指紋の認証とは無関係に、前記第1の指紋に対応するアクティブなプロファイルとして選択され、
    前記第1のクラス別プロファイルがアクティブなプロファイルとして選択されている間に、前記それぞれの入力要素による、前記機器で1つ以上の動作を実行する要求に対応する入力を受け取ったことに応じて、前記要求と前記第1のクラス別プロファイルとに基づいてそれぞれの動作が実行される、
    グラフィカルユーザインタフェース。
  131. 電子機器であって、
    ディスプレイと、
    それぞれの入力要素と、
    指紋センサと、
    複数のプロファイルを取得するための手段であって、前記複数のプロファイルが、
    1つ以上のユーザ固有のプロファイルと、
    各々がそれぞれのユーザクラスに対応する、前記ユーザ固有のプロファイルとは別である1つ以上のクラス別プロファイルと、
    を含む、手段と、
    前記指紋センサにおいて第1の指紋を検出するための手段と、
    前記第1の指紋が、第1のクラス別プロファイルと関連付けられている第1のユーザクラス内のユーザの指紋に対応するという判定に従って、前記第1のクラス別プロファイルをアクティブなプロファイルとして選択するための手段を含む、前記機器と関連付けられた1つ以上のクラス別プロファイルを、以前に登録済みの指紋としての前記第1の指紋の認証とは無関係に、前記第1の指紋に対応するアクティブなプロファイルとして選択するための手段と、
    前記それぞれの入力要素による入力を受け取るための手段であって、前記入力が、前記機器で1つ以上の動作を実行する要求に対応している、手段と、
    前記第1のクラス別プロファイルがアクティブなプロファイルとして選択されている間に、前記それぞれの入力要素による前記入力を受け取ったことに応じて、前記要求と前記第1のクラス別プロファイルとに基づいてそれぞれの動作を実行するための手段と、を備える、電子機器。
  132. ディスプレイと、それぞれの入力要素と、指紋センサと、を有する電子機器で使用するための情報処理装置であって、
    複数のプロファイルを取得するための手段であって、前記複数のプロファイルが、
    1つ以上のユーザ固有のプロファイルと、
    各々がそれぞれのユーザクラスに対応する、前記ユーザ固有のプロファイルとは別である1つ以上のクラス別プロファイルと、
    を含む、手段と、
    前記指紋センサにおける第1の指紋を検出するための手段と、
    前記第1の指紋が、第1のクラス別プロファイルと関連付けられている第1のユーザクラス内のユーザの指紋に対応するという判定に従って、前記第1のクラス別プロファイルをアクティブなプロファイルとして選択するための手段を含む、前記機器と関連付けられた1つ以上のクラス別プロファイルを、以前に登録済みの指紋としての前記第1の指紋の認証とは無関係に、前記第1の指紋に対応するアクティブなプロファイルとして選択するための手段と、
    前記それぞれの入力要素による入力を受け取るための手段であって、前記入力が、前記機器で1つ以上の動作を実行する要求に対応している、手段と、
    前記第1のクラス別プロファイルがアクティブなプロファイルとして選択されている間に、前記それぞれの入力要素による前記入力を受け取ったことに応じて、前記要求と前記第1のクラス別プロファイルとに基づいてそれぞれの動作を実行するための手段と、
    を備える、情報処理装置。
  133. 電子機器であって、
    ディスプレイと、
    指紋センサと、
    それぞれの入力要素と、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項117〜127に記載の方法のいずれかを実行するための命令を含む、電子機器。
  134. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、ディスプレイと、それぞれの入力要素と、指紋センサと、を有する電子機器によって実行されたときに、請求項117〜127に記載の方法のいずれかを前記機器に実行させるための命令を備える、コンピュータ可読記憶媒体。
  135. ディスプレイと、それぞれの入力要素と、指紋センサと、メモリと、前記メモリに記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサと、を有する電子機器のグラフィカルユーザインタフェースであって、請求項117〜127に記載の方法のいずれかに従って表示されるユーザインタフェースを備える、グラフィカルユーザインタフェース。
  136. 電子機器であって、
    ディスプレイと、
    それぞれの入力要素と、
    指紋センサと、
    請求項117〜127に記載の方法のいずれかを実行するための手段と、を備える、電子機器。
  137. ディスプレイと、それぞれの入力要素と、指紋センサと、を有する電子機器で使用するための情報処理装置であって、
    請求項117〜127に記載の方法のいずれかを実行するための手段を備える、情報処理装置。
  138. 電子機器であって、
    ディスプレイユニットと、
    それぞれの入力要素ユニットと、
    指紋センサユニットと、
    前記ディスプレイユニット、前記それぞれの入力要素、及び前記指紋センサユニットに連結された処理ユニットであって、
    1つ以上のユーザ固有のプロファイルと、
    各々がそれぞれのユーザクラスに対応する、前記ユーザ固有のプロファイルとは別である1つ以上のクラス別プロファイルと、
    を含む、複数のプロファイルを取得し、
    前記指紋センサユニットにおいて第1の指紋を検出し、
    前記第1の指紋が、第1のクラス別プロファイルと関連付けられている第1のユーザクラス内のユーザの指紋に対応するという判定に従って、前記第1のクラス別プロファイルをアクティブなプロファイルとして選択することを含めて、前記機器と関連付けられた1つ以上のクラス別プロファイルを、以前に登録済みの指紋としての前記第1の指紋の認証とは無関係に、前記第1の指紋に対応するアクティブなプロファイルとして選択し、
    前記それぞれの入力要素ユニットによる入力を受け取り、これにおいて前記入力が前記機器で1つ以上の動作を実行する要求に対応しており、
    前記第1のクラス別プロファイルがアクティブなプロファイルとして選択されている間に、前記それぞれの入力要素ユニットによる前記入力を受け取ったことに応じて、前記要求と前記第1のクラス別プロファイルとに基づいてそれぞれの動作を実行する、
    ように構成された処理ユニットと、を備える、電子機器。
  139. 前記第1のクラス別プロファイルが、前記第1の指紋の検出されたサイズに従って選択される、請求項138に記載の機器。
  140. 前記第1のクラス別プロファイルが前記第1のクラスのメンバーに対して前記機器の動作を制限する、請求項138〜139のいずれか一項に記載の機器。
  141. 前記第1のクラス別プロファイルが、前記機器の機能を変更して、前記機能を前記第1のクラスのメンバーにとってより適切なものにする、請求項138〜140のいずれか一項に記載の機器。
  142. 前記第1のクラス別プロファイルが、前記ユーザの年齢に少なくとも部分的に基づいており、
    前記要求が、音声を含む、コンテンツを提示する要求を含み、
    前記それぞれの動作が、前記ユーザの年齢に合うように調整された音声を提示するステップを含む、請求項141に記載の機器。
  143. 前記第1のクラス別プロファイルが、前記ユーザの年齢に少なくとも部分的に基づいており、
    前記要求が、視覚的構成要素を含む、コンテンツを提示する要求を含み、
    前記ユーザにとって前記視覚的構成要素が見やすくなるように、前記それぞれの動作が前記メディアの前記視覚的構成要素を調整するステップを含む、請求項141〜142のいずれか一項に記載の機器。
  144. 前記機器が、前記要求と関連付けられた前記1つ以上の動作を実行する権限が付与されたアクティブなプロファイルを持っていない場合に、前記それぞれの動作がエラーメッセージである、請求項138〜143のいずれか一項に記載の機器。
  145. 前記処理ユニットが、
    前記第1のクラス別プロファイルがアクティブなプロファイルとして選択されている間に、前記それぞれの入力要素ユニットによる前記入力を受け取ったことに応じて、前記それぞれの動作を実行することに加えて前記1つ以上の動作も実行するように構成されている、請求項138〜144のいずれか一項に記載の機器。
  146. 前記処理ユニットが、前記指紋センサユニットにおいて前記第1の指紋を検出した後に、
    前記第1の指紋の指紋の特徴を判定し、
    前記第1の指紋の前記指紋の特徴に一致する、以前に登録済みの指紋を特定し、
    前記以前に登録済みの指紋と関連付けられた第1のユーザ固有のプロファイルをアクティブなプロファイルとして選択する、ように構成されている、請求項138〜145のいずれか一項に記載の機器。
  147. 1つ以上の動作を実行する前記要求が、個人情報を入力するためのフォームの表示を有効化する要求を含み、
    前記それぞれの動作が、前記第1のユーザ固有のプロファイルの情報に基づいて前記フォームに前記個人情報を自動的に入力することを含む、請求項146に記載の機器。
  148. 1つ以上の動作を実行する前記要求が、ウェブページを読み込む要求を含み、
    前記それぞれの動作が、前記第1のユーザ固有のプロファイルと関連付けられたクッキーに従って前記ウェブページを読み込むステップを含む、請求項146〜147のいずれか一項に記載の機器。
  149. 指紋センサと、それぞれの入力要素と、ディスプレイと、を有する電子機器において、
    前記指紋センサにおいて第1の指紋を検出するステップと、
    前記第1の指紋が、前記機器と関連付けられたユーザプロファイルと関連付けられているかどうかを判定するステップと、
    前記第1の指紋が、前記機器と関連付けられたユーザプロファイルと関連付けられているかどうかを判定した後に、
    前記第1の指紋が、前記機器と関連付けられたそれぞれのユーザプロファイルと関連付けられているという判定に従って、前記それぞれのユーザプロファイルをアクティブなプロファイルとして設定するステップと、
    前記第1の指紋が、前記機器と関連付けられたどのユーザプロファイルとも関連付けられていないという判定に従って、デフォルトプロファイルをアクティブなプロファイルとして設定するステップと、
    前記それぞれの入力要素による入力を受け取るステップであって、前記入力が、要求された動作を実行する要求に対応している、ステップと、
    前記それぞれの入力要素による前記入力を受け取ったことに応じて、
    前記それぞれのユーザプロファイルが前記アクティブなプロファイルであるという判定に従って、前記要求された動作と関連付けられた第1の1つ以上の動作のセットを前記それぞれのユーザプロファイルのロギングプリファレンスに従って実行するステップと、
    前記デフォルトプロファイルが前記アクティブなプロファイルであるという判定に従って、前記要求された動作と関連付けられた第2の動作のセットを前記デフォルトプロファイルのロギングプリファレンスに従って実行するステップと、
    を含む、方法。
  150. 前記第1の動作のセットを実行するステップが、前記機器で実行される第1の種類の動作のロギング動作を含み、
    前記第2の動作のセットを実行するステップが、前記それぞれのユーザプロファイルのロギングプリファレンスに従ってログに記録されていたであろう、前記機器で実行される前記第1の種類の動作のロギング動作を取り止めるステップを含む、請求項149に記載の方法。
  151. 前記第1の種類の動作が、前記機器の使用パターン履歴に基づいて前記機器の動作をカスタマイズする目的で前記機器によって用いられる動作を含む、請求項150に記載の方法。
  152. 前記第2の動作のセットを実行するステップが、前記機器で実行される第2の種類の動作のロギング動作を含み、
    前記第1の動作のセットを実行するステップが、前記デフォルトユーザプロファイルのロギングプリファレンスに従ってログに記録されていたであろう、前記機器で実行される前記第2の種類の動作のロギング動作を取り止めるステップを含む、請求項149〜151のいずれか一項に記載の方法。
  153. 前記第2の種類の動作が、紛失又は盗難機器と関連付けられたフォレンジック動作の実行を支援する動作を含む、請求項152に記載の方法。
  154. 前記第2の種類の動作が、前記機器の位置特定を支援する動作を含む、請求項152又は153のいずれか一項に記載の方法。
  155. 前記第2の種類の動作の前記ロギング動作の描像を含む、ログ記録をリモートサーバに送信するステップを含む、請求項154に記載の方法。
  156. 電子機器であって、
    ディスプレイと、
    それぞれの入力要素と、
    指紋センサと、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、
    前記指紋センサにおいて第1の指紋を検出し、
    前記第1の指紋が、前記機器と関連付けられたユーザプロファイルと関連付けられているかどうかを判定し、
    前記第1の指紋が、前記機器と関連付けられたユーザプロファイルと関連付けられているかどうかを判定した後に、
    前記第1の指紋が、前記機器と関連付けられたそれぞれのユーザプロファイルと関連付けられているという判定に従って、前記それぞれのユーザプロファイルをアクティブなプロファイルとして設定し、
    前記第1の指紋が、前記機器と関連付けられたどのユーザプロファイルとも関連付けられていないという判定に従って、デフォルトプロファイルをアクティブなプロファイルとして設定し、
    前記それぞれの入力要素による入力を受け取り、これにおいて前記入力が、要求された動作を実行する要求に対応しており、
    前記それぞれの入力要素による前記入力を受け取ったことに応じて、
    前記それぞれのユーザプロファイルが前記アクティブなプロファイルであるという判定に従って、前記要求された動作と関連付けられた第1の1つ以上の動作のセットを前記それぞれのユーザプロファイルのロギングプリファレンスに従って実行し、
    前記デフォルトプロファイルが前記アクティブなプロファイルであるという判定に従って、前記要求された動作と関連付けられた第2の動作のセットを前記デフォルトプロファイルのロギングプリファレンスに従って実行する、
    ための命令を含む、電子機器。
  157. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、ディスプレイと、それぞれの入力要素と、指紋センサと、を有する電子機器によって実行されたときに、前記機器に、
    前記指紋センサにおける第1の指紋を検出させ、
    前記第1の指紋が、前記機器と関連付けられたユーザプロファイルと関連付けられているかどうかを判定させ、
    前記第1の指紋が、前記機器と関連付けられたユーザプロファイルと関連付けられているかどうかを判定した後に、
    前記第1の指紋が、前記機器と関連付けられたそれぞれのユーザプロファイルと関連付けられているという判定に従って、前記それぞれのユーザプロファイルをアクティブなプロファイルとして設定させ、
    前記第1の指紋が、前記機器と関連付けられたどのユーザプロファイルとも関連付けられていないという判定に従って、デフォルトプロファイルをアクティブなプロファイルとして設定させ、
    前記それぞれの入力要素による入力を受け取らせ、これにおいて前記入力が要求された動作を実行する要求に対応しており、
    前記それぞれの入力要素による前記入力を受け取ったことに応じて、
    前記それぞれのユーザプロファイルが前記アクティブなプロファイルであるという判定に従って、前記要求された動作と関連付けられた第1の1つ以上の動作のセットを前記それぞれのユーザプロファイルのロギングプリファレンスに従って実行させ、
    前記デフォルトプロファイルが前記アクティブなプロファイルであるという判定に従って、前記要求された動作と関連付けられた第2の動作のセットを前記デフォルトプロファイルのロギングプリファレンスに従って実行させる、
    ための命令を備える、コンピュータ可読記憶媒体。
  158. ディスプレイと、それぞれの入力要素と、指紋センサと、メモリと、前記メモリに記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサと、を有する電子機器のグラフィカルユーザインタフェースであって、
    ユーザインタフェースオブジェクトを備え、
    前記指紋センサにおいて検出された第1の指紋が、前記機器と関連付けられたユーザプロファイルと関連付けられているかどうかを判定したことに応じて、
    前記それぞれのユーザプロファイルが、前記第1の指紋が前記機器と関連付けられたそれぞれのユーザプロファイルと関連付けられているという判定に従ってアクティブなプロファイルとして設定され、
    前記第1の指紋が、前記機器と関連付けられたどのユーザプロファイルとも関連付けられていないという判定に従って、デフォルトプロファイルがアクティブなプロファイルとして設定され、
    前記それぞれの入力要素による入力を受け取ったことに応じて、これにおいて前記入力が、前記ユーザインタフェースオブジェクトと関連付けられた要求された動作を実行する要求に対応しており、
    前記それぞれのユーザプロファイルが前記アクティブなプロファイルであるという判定に従って、前記要求された動作と関連付けられた第1の1つ以上の動作のセットを前記それぞれのユーザプロファイルのロギングプリファレンスに従って実行し、
    前記デフォルトプロファイルが前記アクティブなプロファイルであるという判定に従って、前記要求された動作と関連付けられた第2の動作のセットを前記デフォルトプロファイルのロギングプリファレンスに従って実行する、
    グラフィカルユーザインタフェース。
  159. 電子機器であって、
    ディスプレイと、
    それぞれの入力要素と、
    指紋センサと、
    前記指紋センサにおける第1の指紋を検出するための手段と、
    前記第1の指紋が、前記機器と関連付けられたユーザプロファイルと関連付けられているかどうかを判定するための手段と、
    前記第1の指紋が、前記機器と関連付けられたユーザプロファイルと関連付けられているかどうかを判定した後に、前記機器のアクティブなプロファイルを設定するための手段であって、
    前記第1の指紋が、前記機器と関連付けられたそれぞれのユーザプロファイルと関連付けられているという判定に従って、前記それぞれのユーザプロファイルが前記アクティブなプロファイルとして設定され、
    前記第1の指紋が、前記機器と関連付けられたどのユーザプロファイルとも関連付けられていないという判定に従って、デフォルトプロファイルが前記アクティブなプロファイルとして設定される、
    手段と、
    前記それぞれの入力要素による入力を受け取るための手段であって、前記入力が、要求された動作を実行する要求に対応している、手段と、
    前記それぞれの入力要素による前記入力を受け取ったことに応じて、
    前記それぞれのユーザプロファイルが前記アクティブなプロファイルであるという判定に従って、前記要求された動作と関連付けられた第1の1つ以上の動作のセットを前記それぞれのユーザプロファイルのロギングプリファレンスに従って実行し、
    前記デフォルトプロファイルが前記アクティブなプロファイルであるという判定に従って、前記要求された動作と関連付けられた第2の動作のセットを前記デフォルトプロファイルのロギングプリファレンスに従って実行する、ための手段と、
    を備える、電子機器。
  160. ディスプレイと、それぞれの入力要素と、指紋センサと、を有する電子機器で使用するための情報処理装置であって、
    前記指紋センサにおける第1の指紋を検出するための手段と、
    前記第1の指紋が前記機器と関連付けられたユーザプロファイルと関連付けられているかどうかを判定するための手段と、
    前記第1の指紋が前記機器と関連付けられたユーザプロファイルと関連付けられているかどうかを判定した後に、
    前記第1の指紋が、前記機器と関連付けられたそれぞれのユーザプロファイルと関連付けられているという判定に従って、前記それぞれのユーザプロファイルをアクティブなプロファイルとして設定し、
    前記第1の指紋が、前記機器と関連付けられたどのユーザプロファイルとも関連付けられていないという判定に従って、デフォルトプロファイルをアクティブなプロファイルとして設定する、
    ための手段と、
    前記それぞれの入力要素による入力を受け取るための手段であって、前記入力が、要求された動作を実行する要求に対応している、手段と、
    前記それぞれの入力要素による前記入力を受け取ったことに応じて、
    前記それぞれのユーザプロファイルが前記アクティブなプロファイルであるという判定に従って、前記要求された動作と関連付けられた第1の1つ以上の動作のセットを前記それぞれのユーザプロファイルのロギングプリファレンスに従って実行し、
    前記デフォルトプロファイルが前記アクティブなプロファイルであるという判定に従って、前記要求された動作と関連付けられた第2の動作のセットを前記デフォルトプロファイルのロギングプリファレンスに従って実行する、
    ための手段と、
    を備える、情報処理装置。
  161. 電子機器であって、
    ディスプレイと、
    指紋センサと、
    それぞれの入力要素と、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項149〜155に記載の方法のいずれかを実行するための命令を含む、電子機器。
  162. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、ディスプレイと、それぞれの入力要素と、指紋センサと、を有する電子機器によって実行されたときに、請求項149〜155に記載の方法のいずれかを前記機器に実行させるための命令を備える、コンピュータ可読記憶媒体。
  163. ディスプレイと、それぞれの入力要素と、指紋センサと、メモリと、前記メモリに記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサと、を有する電子機器のグラフィカルユーザインタフェースであって、請求項149〜155に記載の方法のいずれかに従って表示されるユーザインタフェースを備える、グラフィカルユーザインタフェース。
  164. 電子機器であって、
    ディスプレイと、
    それぞれの入力要素と、
    指紋センサと、
    請求項149〜155に記載の方法のいずれかを実行するための手段と、を備える、電子機器。
  165. ディスプレイと、それぞれの入力要素と、指紋センサと、を有する電子機器で使用するための情報処理装置であって、
    請求項149〜155に記載の方法のいずれかを実行するための手段を備える、情報処理装置。
  166. 電子機器であって、
    入力を受け取るように構成されたそれぞれの入力ユニットであって、前記入力が、要求された動作を実行する要求に対応している、それぞれの入力ユニットと、
    指紋センサユニットと、
    前記指紋センサユニット及び前記それぞれの入力ユニットに連結された処理ユニットであって、
    前記指紋センサユニットにおいて第1の指紋を検出し、
    前記第1の指紋が、前記機器と関連付けられたユーザプロファイルと関連付けられているかどうかを判定し、
    前記第1の指紋が、前記機器と関連付けられたユーザプロファイルと関連付けられているかどうかを判定した後に、
    前記第1の指紋が、前記機器と関連付けられたそれぞれのユーザプロファイルと関連付けられているという判定に従って、前記それぞれのユーザプロファイルをアクティブなプロファイルとして設定し、
    前記第1の指紋が、前記機器と関連付けられたどのユーザプロファイルとも関連付けられていないという判定に従って、デフォルトプロファイルをアクティブなプロファイルとして設定し、
    前記それぞれの入力ユニットによる前記入力を受け取ったことに応じて、
    前記それぞれのユーザプロファイルが前記アクティブなプロファイルであるという判定に従って、前記要求された動作と関連付けられた第1の1つ以上の動作のセットを前記それぞれのユーザプロファイルのロギングプリファレンスに従って実行し、
    前記デフォルトプロファイルが前記アクティブなプロファイルであるという判定に従って、前記要求された動作と関連付けられた第2の動作のセットを前記デフォルトプロファイルのロギングプリファレンスに従って実行する、
    ように構成された処理ユニットと、を備える、電子機器。
  167. 前記第1の動作のセットを実行することが、前記機器で実行される第1の種類の動作のロギング動作を含み、
    前記第2の動作のセットを実行することが、前記それぞれのユーザプロファイルのロギングプリファレンスに従ってログに記録されていたであろう、前記機器で実行される前記第1の種類の動作のロギング動作を取り止めることを含む、請求項166に記載の電子機器。
  168. 前記第1の種類の動作が、前記機器の使用パターン履歴に基づいて前記機器の動作をカスタマイズする目的で前記機器によって用いられる動作を含む、請求項167に記載の電子機器。
  169. 前記第2の動作のセットを実行することが、前記機器で実行される第2の種類の動作のロギング動作を含み、
    前記第1の動作のセットを実行することが、前記デフォルトユーザプロファイルのロギングプリファレンスに従ってログに記録されていたであろう、前記機器で実行される前記第2の種類の動作のロギング動作を取り止めることを含む、請求項166〜168のいずれか一項に記載の電子機器。
  170. 前記第2の種類の動作が、紛失又は盗難機器と関連付けられたフォレンジック動作の実行を支援する動作を含む、請求項169に記載の電子機器。
  171. 前記第2の種類の動作が、前記機器の位置特定を支援する動作を含む、請求項169又は170のいずれか一項に記載の電子機器。
  172. 前記処理ユニットが、前記第2の種類の動作の前記ロギング動作の描像を含む、ログ記録をリモートサーバに送信するように更に構成されている、請求項171に記載の電子機器。
  173. ディスプレイと指紋センサとを有する電子機器において、
    指紋の照合を制御するための指紋照合基準を取得するステップと、
    それぞれの制限された動作に対応する複数のそれぞれの入力ごとに、
    前記それぞれの入力の指紋の特徴を特定するステップと、
    前記それぞれの入力の前記指紋の特徴と、1つ以上の以前に登録済みの指紋の特徴との比較と、
    前記指紋照合基準と、
    に少なくとも部分的に基づいて前記それぞれの入力の指紋照合情報を判定するステップと、
    前記それぞれの入力を検出したことに応じて、
    前記指紋照合情報が、前記それぞれの制限された動作に対するそれぞれの権限付与基準を満たすという判定に従って前記それぞれの制限された動作を実行するステップと、
    前記指紋照合情報が、前記制限された動作に対する前記それぞれの権限付与基準を満たさないという判定に従って、前記それぞれの制限された動作を実行することを取り止めるステップと、
    を含む、方法。
  174. 同じ指紋照合基準が、複数の異なるそれぞれの入力に対して指紋を処理する目的で使用される、請求項173に記載の方法。
  175. 前記指紋照合情報が、前記指紋照合基準に従って判定された一致指紋を特定する情報を含む、請求項173〜174のいずれか一項に記載の方法。
  176. 前記一致指紋が、前記制限された動作を実行する権限が付与されたユーザと関連付けられた指紋である場合に、前記動作固有の権限付与基準が満たされる、請求項175に記載の方法。
  177. 前記指紋照合情報を判定するステップが、
    前記それぞれの入力における特徴点を特定するステップと、
    前記それぞれの入力において特定された前記特徴点を、複数の候補指紋における特徴点と比較するステップと、
    最高数の一致特徴点を有するそれぞれの候補指紋を前記一致指紋として選択するステップと、を含む、請求項175に記載の方法。
  178. 前記指紋照合情報が、
    複数の以前に登録済みの指紋の中の最良一致指紋を特定する情報であって、前記最良一致指紋が前記指紋照合基準に従って特定される、情報と、
    前記第1の入力と前記最良一致指紋との一致信頼度を表す指紋一致信頼値であって、前記指紋照合基準に従って判定される、指紋一致信頼値と、を含む、請求項173〜174のいずれか一項に記載の方法。
  179. 前記最良一致指紋が、前記それぞれの制限された動作を実行する権限が付与されたユーザと関連付けられており、かつ
    前記信頼値が、前記それぞれの制限された動作と関連付けられた信頼度閾値より大きい場合に、前記動作固有の権限付与基準が満たされる、請求項178に記載の方法。
  180. 前記複数の制限された動作が、
    第1の信頼度閾値と関連付けられている第1の制限された動作と、
    前記第1の信頼度閾値とは異なる第2の信頼度閾値と関連付けられている第2の制限された動作と、を含む、請求項179に記載の方法。
  181. 前記指紋照合情報を判定するステップが、
    前記それぞれの入力における特徴点を特定するステップと、
    前記それぞれの入力において特定された前記特徴点を、複数の候補指紋における特徴点と比較するステップと、
    最高数の一致特徴点を有するそれぞれの候補指紋を前記最良一致指紋として選択するステップと、を含む、請求項178に記載の方法。
  182. 前記それぞれの入力における第1の特徴点数が前記最良一致指紋における対応特徴点に一致するという判定に従って、第1の信頼値を前記最良一致指紋に割り当てるステップと、
    前記それぞれの入力における第2の特徴点数が前記最良一致指紋における対応特徴点に一致するという判定に従って、第2の信頼値を前記最良一致指紋に割り当てるステップと、を含み、
    前記第2の特徴点数が、前記第1の特徴点数より大きく、
    前記第2の信頼値が、前記それぞれの入力と前記最良一致指紋との、前記第1の信頼値が示す一致率よりも高い一致率を示す、
    請求項181に記載の方法。
  183. 前記指紋照合基準がデフォルト基準のセットを含み、
    前記指紋照合基準を取得するステップが、
    前記指紋照合基準に対する変更を示す基準調整入力をユーザから受け取るステップと、
    前記基準調整入力を受け取ったことに応じて、1つ以上のデフォルト基準を、前記指紋照合基準における対応する変更された基準に置き換えるステップと、を含む、請求項173〜182のいずれか一項に記載の方法。
  184. 前記指紋センサが物理ボタンと一体型であり、
    前記指紋センサにおいて前記指紋を検出したことに応じて、前記機器が前記指紋照合情報を判定し、
    前記ボタンのアクティブ化を検出したことに応じて、前記機器が前記それぞれの制限された動作を実行する、請求項173〜183のいずれか一項に記載の方法。
  185. 電子機器であって、
    ディスプレイと、
    指紋センサと、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、
    指紋の照合を制御するための指紋照合基準を取得し、
    それぞれの制限された動作に対応する複数のそれぞれの入力ごとに、
    前記それぞれの入力の指紋の特徴を特定し、
    前記それぞれの入力の前記指紋の特徴と、1つ以上の以前に登録済みの指紋の特徴との比較と、
    前記指紋照合基準と、
    に少なくとも部分的に基づいて前記それぞれの入力の指紋照合情報を判定し、
    前記それぞれの入力を検出したことに応じて、
    前記指紋照合情報が、前記それぞれの制限された動作に対するそれぞれの権限付与基準を満たすという判定に従って前記それぞれの制限された動作を実行し、
    前記指紋照合情報が、前記制限された動作に対する前記それぞれの権限付与基準を満たさないという判定に従って、前記それぞれの制限された動作を実行することを取り止める、
    ための命令を含む、電子機器。
  186. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、ディスプレイと指紋センサとを有する電子機器によって実行されたときに、前記機器に、
    指紋の照合を制御するための指紋照合基準を取得させ、
    それぞれの制限された動作に対応する複数のそれぞれの入力ごとに、
    前記それぞれの入力の指紋の特徴を特定させ、
    前記それぞれの入力の前記指紋の特徴と、1つ以上の以前に登録済みの指紋の特徴との比較と、
    前記指紋照合基準と、
    に少なくとも部分的に基づいて前記それぞれの入力の指紋照合情報を判定させ、
    前記それぞれの入力を検出したことに応じて、
    前記指紋照合情報が、前記それぞれの制限された動作に対するそれぞれの権限付与基準を満たすという判定に従って前記それぞれの制限された動作を実行させ、
    前記指紋照合情報が、前記制限された動作に対する前記それぞれの権限付与基準を満たさないという判定に従って、前記それぞれの制限された動作を実行することを取り止めさせる、
    ための命令を備える、コンピュータ可読記憶媒体。
  187. ディスプレイと、一体型指紋センサを含むボタンと、メモリと、前記メモリに記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサと、を有する電子機器のグラフィカルユーザインタフェースであって、
    1つ以上のユーザインタフェースオブジェクトを備え、
    指紋の照合を制御するための指紋照合基準を取得したことに応じて、
    それぞれの制限された動作に対応する複数のそれぞれの入力ごとに、
    前記それぞれの入力の指紋の特徴が特定され、
    前記それぞれの入力の前記指紋の特徴と、1つ以上の以前に登録済みの指紋の指紋の特徴との比較と、
    前記指紋照合基準と、
    に少なくとも部分的に基づいて前記それぞれの入力の指紋照合情報が判定され、
    前記それぞれの入力を検出したことに応じて、
    前記指紋照合情報が前記それぞれの制限された動作に対するそれぞれの権限付与基準を満たすという判定に従って、前記それぞれの制限された動作が実行され、
    前記指紋照合情報が前記制限された動作に対する前記それぞれの権限付与基準を満たさないという判定に従って、前記それぞれの制限された動作が実行されない、
    グラフィカルユーザインタフェース。
  188. 電子機器であって、
    ディスプレイと、
    指紋センサと、
    指紋の照合を制御するための指紋照合基準を取得するための手段と、
    それぞれの制限された動作に対応する複数のそれぞれの入力の各々に応じた手段であって、
    前記それぞれの入力の指紋の特徴を特定するための手段と、
    前記それぞれの入力の前記指紋の特徴と、1つ以上の以前に登録済みの指紋の特徴との比較と、
    前記指紋照合基準と、
    に少なくとも部分的に基づいて前記それぞれの入力の指紋照合情報を判定するための手段と、
    前記それぞれの入力を検出したことに応じた手段であって、
    前記指紋照合情報が、前記それぞれの制限された動作に対するそれぞれの権限付与基準を満たすという判定に従って前記それぞれの制限された動作を実行するための手段と、
    前記指紋照合情報が、前記制限された動作に対する前記それぞれの権限付与基準を満たさないという判定に従って、前記それぞれの制限された動作を実行することを取り止めるための手段と
    を備える、手段と、
    を含む手段と
    を備える、電子機器。
  189. ディスプレイと指紋センサとを有する電子機器で使用するための情報処理装置であって、
    指紋の照合を制御するための指紋照合基準を取得するための手段と、
    それぞれの制限された動作に対応する複数のそれぞれの入力の各々に応じた手段であって、
    前記それぞれの入力の指紋の特徴を特定するための手段と、
    前記それぞれの入力の前記指紋の特徴と、1つ以上の以前に登録済みの指紋の特徴との比較と、
    前記指紋照合基準と、
    に少なくとも部分的に基づいて前記それぞれの入力の指紋照合情報を特定するための手段と、
    前記それぞれの入力を検出したことに応じた手段であって、
    前記指紋照合情報が、前記それぞれの制限された動作に対するそれぞれの権限付与基準を満たすという判定に従って前記それぞれの制限された動作を実行するための手段と、
    前記指紋照合情報が、前記制限された動作に対する前記それぞれの権限付与基準を満たさないという判定に従って、前記それぞれの制限された動作を実行することを取り止めるための手段と
    を備える、手段と、
    を含む手段と
    を備える、情報処理装置。
  190. 電子機器であって、
    ディスプレイと、
    指紋センサと、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項173〜184に記載の方法のいずれかを実行するための命令を含む、電子機器。
  191. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、ディスプレイと指紋センサとを有する電子機器によって実行されたときに、請求項173〜184に記載の方法のいずれかを前記機器に実行させるための命令を備える、コンピュータ可読記憶媒体。
  192. ディスプレイと、指紋センサと、メモリと、前記メモリに記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサと、を有する電子機器のグラフィカルユーザインタフェースであって、請求項173〜184に記載の方法のいずれかに従って表示されるユーザインタフェースを備える、グラフィカルユーザインタフェース。
  193. 電子機器であって、
    ディスプレイと、
    指紋センサと、
    請求項173〜184に記載の方法のいずれかを実行するための手段と、を備える、電子機器。
  194. ディスプレイと指紋センサとを有する電子機器で使用するための情報処理装置であって、
    請求項173〜184に記載の方法のいずれかを実行するための手段を備える、情報処理装置。
  195. 電子機器であって、
    1つ以上のユーザインタフェースオブジェクトを表示するように構成されたディスプレイユニットと、
    指紋センサユニットと、
    前記ディスプレイユニット及び前記指紋センサユニットに連結された処理ユニットであって、
    指紋の照合を制御するための指紋照合基準を取得し、
    それぞれの制限された動作に対応する複数のそれぞれの入力ごとに、
    前記それぞれの入力の指紋の特徴を特定し、
    前記それぞれの入力の前記指紋の特徴と、1つ以上の以前に登録済みの指紋の特徴との比較と、
    前記指紋照合基準と、
    に少なくとも部分的に基づいて前記それぞれの入力の指紋照合情報を判定し、
    前記それぞれの入力を検出したことに応じて、
    前記指紋照合情報が、前記それぞれの制限された動作に対するそれぞれの権限付与基準を満たすという判定に従って、前記それぞれの制限された動作を実行し、
    前記指紋照合情報が、前記制限された動作に対する前記それぞれの権限付与基準を満たさないという判定に従って、前記それぞれの制限された動作を実行することを取り止める、
    ように構成された処理ユニットと、を備える、電子機器。
  196. 同じ指紋照合基準が、複数の異なるそれぞれの入力に対して指紋を処理する目的で使用される、請求項195に記載の電子機器。
  197. 前記指紋照合情報が、前記指紋照合基準に従って判定された一致指紋を特定する情報を含む、請求項195〜196のいずれか一項に記載の電子機器。
  198. 前記一致指紋が、前記制限された動作を実行する権限が付与されたユーザと関連付けられた指紋である場合に、前記動作固有の権限付与基準が満たされる、請求項197に記載の電子機器。
  199. 前記処理ユニットが、
    前記それぞれの入力における特徴点を特定することと、
    前記それぞれの入力において特定された前記特徴点を、複数の候補指紋における特徴点と比較することと、
    最高数の一致特徴点を有するそれぞれの候補指紋を前記一致指紋として選択することと、によって前記指紋照合情報を判定するように構成されている、請求項197に記載の電子機器。
  200. 前記指紋照合情報が、
    複数の以前に登録済みの指紋の中の最良一致指紋を特定する情報であって、前記最良一致指紋が前記指紋照合基準に従って特定される、情報と、
    前記第1の入力と前記最良一致指紋との一致信頼度を表す指紋一致信頼値であって、前記指紋照合基準に従って判定される、指紋一致信頼値と、を含む、請求項195〜196のいずれか一項に記載の電子機器。
  201. 前記最良一致指紋が、前記それぞれの制限された動作を実行する権限が付与されたユーザと関連付けられており、かつ
    前記信頼値が、前記それぞれの制限された動作と関連付けられた信頼度閾値より大きい場合に、前記動作固有の権限付与基準が満たされる、請求項200に記載の電子機器。
  202. 前記複数の制限された動作が、
    第1の信頼度閾値と関連付けられている第1の制限された動作と、
    前記第1の信頼度閾値とは異なる第2の信頼度閾値と関連付けられている第2の制限された動作と、を含む、請求項201に記載の電子機器。
  203. 前記処理ユニットが、
    前記それぞれの入力における特徴点を特定することと、
    前記それぞれの入力において特定された前記特徴点を、複数の候補指紋における特徴点と比較することと、
    最高数の一致特徴点を有するそれぞれの候補指紋を前記最良一致指紋として選択することと、によって前記指紋照合情報を判定するように構成されている、請求項200に記載の電子機器。
  204. 前記処理ユニットが、
    前記それぞれの入力における第1の特徴点数が、前記最良一致指紋における対応する特徴点に一致するという判定に従って、第1の信頼値を前記最良一致指紋に割り当て、
    前記それぞれの入力における第2の特徴点数が前記最良一致指紋における対応特徴点に一致するという判定に従って、第2の信頼値を前記最良一致指紋に割り当てる、
    ように構成されており、
    前記第2の特徴点数が、前記第1の特徴点数より大きく、
    前記第2の信頼値が、前記それぞれの入力と前記最良一致指紋との、前記第1の信頼値が示す一致率よりも高い一致率を示す、
    請求項203に記載の電子機器。
  205. 前記指紋照合基準がデフォルト基準のセットを含み、
    前記処理ユニットが、
    前記指紋照合基準に対する変更を示す基準調整入力をユーザから受け取り、
    前記基準調整入力を受け取ったことに応じて、1つ以上のデフォルト基準を、前記指紋照合基準における対応する変更された基準に置き換える
    ことによって、前記指紋照合基準を取得するように構成されている、請求項195〜204のいずれか一項に記載の電子機器。
  206. 前記指紋センサユニットが物理ボタンと一体型であり、
    前記指紋センサユニットにおいて前記指紋を検出したことに応じて、前記処理ユニットが前記指紋照合情報を判定するように構成されており、
    前記ボタンのアクティブ化を検出したことに応じて、前記処理ユニットが前記それぞれの制限された動作を実行するように構成されている、請求項195〜205のいずれか一項に記載の電子機器。
  207. 指紋センサとディスプレイとを有する電子機器において、
    前記ディスプレイにマップを表示するステップと、
    アクティブ化入力を検出するステップであって、前記アクティブ化入力が、
    それぞれの地理的ロケーションに対応する前記マップ上に表示されたロケーション、及び
    前記指紋センサにおいて検出された指紋と関連付けられている、ステップと、
    前記アクティブ化入力を検出したことに応じて、
    前記指紋に対応するユーザを特定するステップと、
    前記それぞれの地理的ロケーション及び前記ユーザと関連付けられた動作を実行するステップと、
    を含む、方法。
  208. 前記アクティブ化入力が、前記指紋センサとは異なるタッチ感知面で検出される、請求項207に記載の方法。
  209. 前記アクティブ化入力が前記指紋センサにおいて検出される、請求項207に記載の方法。
  210. 前記それぞれの地理的ロケーション及び前記ユーザと関連付けられた前記動作が、前記それぞれの地理的ロケーションにおける前記ユーザの存在を示すメッセージを生成するステップを含む、請求項207〜209のいずれか一項に記載の方法。
  211. 前記地理的ロケーション及び前記ユーザと関連付けられた前記動作が、前記それぞれの地理的ロケーションで、前記ユーザから事業体への支払い権限を付与するステップを含む、請求項207〜209のいずれか一項に記載の方法。
  212. 前記地理的ロケーション及び前記ユーザと関連付けられた前記動作が、メタデータをメディアに追加するステップであって、前記メタデータが、前記メディアが前記それぞれの地理的ロケーション及び前記ユーザと関連付けられていることを示す、ステップを含む、請求項207〜209のいずれか一項に記載の方法。
  213. 電子機器であって、
    ディスプレイと、
    指紋センサと、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、
    前記ディスプレイにマップを表示し、
    アクティブ化入力を検出し、前記アクティブ化入力が、
    それぞれの地理的ロケーションに対応する前記マップ上に表示されたロケーション、及び
    前記指紋センサにおいて検出された指紋
    と関連付けられており、
    前記アクティブ化入力を検出したことに応じて、
    前記指紋に対応するユーザを特定し、
    前記それぞれの地理的ロケーション及び前記ユーザと関連付けられた動作を実行する、
    ための命令を含む、電子機器。
  214. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、ディスプレイと指紋センサとを有する電子機器によって実行されたときに、前記機器に、
    前記ディスプレイにマップを表示させ、
    アクティブ化入力を検出させ、前記アクティブ化入力が、
    それぞれの地理的ロケーションに対応する前記マップ上に表示されたロケーション、及び
    前記指紋センサにおいて検出された指紋
    と関連付けられており、
    前記アクティブ化入力を検出したことに応じて、
    前記指紋に対応するユーザを特定させ、
    前記それぞれの地理的ロケーション及び前記ユーザと関連付けられた動作を実行させる、
    ための命令を備える、コンピュータ可読記憶媒体。
  215. ディスプレイと、指紋センサと、メモリと、前記メモリに記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサと、を有する電子機器のグラフィカルユーザインタフェースであって、
    前記ディスプレイに表示されるマップを含む、ユーザインタフェースを備え、
    アクティブ化入力が検出され、前記アクティブ化入力がそれぞれの地理的ロケーションに対応する前記マップ上に表示されたロケーションと前記指紋センサにおいて検出された指紋との両方と関連付けられており、
    前記アクティブ化入力を検出したことに応じて前記指紋に対応するユーザが特定され、
    動作が実行され、これにおいて前記動作が前記それぞれの地理的ロケーション及び前記特定されたユーザと関連付けられており、前記動作の実行により、前記ユーザインタフェースの少なくとも1つの面に対する変更が生じる、グラフィカルユーザインタフェース。
  216. 電子機器であって、
    ディスプレイと、
    指紋センサと、
    前記ディスプレイにマップを表示するための手段と、
    アクティブ化入力を検出するための手段であって、前記アクティブ化入力が、
    それぞれの地理的ロケーションに対応する前記マップ上に表示されたロケーション、及び
    前記指紋センサにおいて検出された指紋
    と関連付けられている、手段と、
    前記アクティブ化入力を検出したことに応じて、
    前記指紋に対応するユーザを特定し、
    前記それぞれの地理的ロケーション及び前記ユーザと関連付けられた動作を実行する、ための手段と、
    を備える、電子機器。
  217. ディスプレイと指紋センサとを有する電子機器で使用するための情報処理装置であって、
    前記ディスプレイにマップを表示するための手段と、
    アクティブ化入力を検出するための手段であって、前記アクティブ化入力が、
    それぞれの地理的ロケーションに対応する前記マップ上に表示されたロケーション、及び
    前記指紋センサにおいて検出された指紋
    と関連付けられている、手段と、
    前記アクティブ化入力を検出したことに応じて、
    前記指紋に対応するユーザを特定し、
    前記それぞれの地理的ロケーション及び前記ユーザと関連付けられた動作を実行する、ための手段と、
    を備える、情報処理装置。
  218. 電子機器であって、
    ディスプレイと、
    指紋センサと、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項207〜212に記載の方法のいずれかを実行するための命令を含む、電子機器。
  219. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、ディスプレイと指紋センサとを有する電子機器によって実行されたときに、請求項207〜212に記載の方法のいずれかを前記機器に実行させるための命令を備える、コンピュータ可読記憶媒体。
  220. ディスプレイと、指紋センサと、メモリと、前記メモリに記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサと、を有する電子機器のグラフィカルユーザインタフェースであって、請求項207〜212に記載の方法のいずれかに従って表示されるユーザインタフェースを備える、グラフィカルユーザインタフェース。
  221. 電子機器であって、
    ディスプレイと、
    指紋センサと、
    請求項207〜212に記載の方法のいずれかを実行するための手段と、を備える、電子機器。
  222. ディスプレイと指紋センサとを有する電子機器で使用するための情報処理装置であって、
    請求項207〜212に記載の方法のいずれかを実行するための手段を備える、電子機器。
  223. 電子機器であって、
    マップを含む、ユーザインタフェースを表示するように構成されたディスプレイユニットと、
    指紋センサユニットと、
    前記ディスプレイユニット及び前記指紋センサユニットに連結された処理ユニットであって、
    アクティブ化入力を検出し、前記アクティブ化入力が、
    それぞれの地理的ロケーションに対応する前記マップ上に表示されたロケーション、及び
    前記指紋センサユニットにおいて検出された指紋
    と関連付けられており、
    前記アクティブ化入力を検出したことに応じて、
    前記指紋に対応するユーザを特定し、
    前記それぞれの地理的ロケーション及び前記ユーザと関連付けられた動作を実行する、ように構成された処理ユニットと、
    を備える、電子機器。
  224. 前記アクティブ化入力が、前記指紋センサユニットとは異なるタッチ感知面ユニットで検出される、請求項223に記載の電子機器。
  225. 前記アクティブ化入力が前記指紋センサユニットにおいて検出される、請求項223に記載の電子機器。
  226. 前記それぞれの地理的ロケーション及び前記ユーザと関連付けられた前記動作が、前記それぞれの地理的ロケーションにおける前記ユーザの存在を示すメッセージを生成するステップを含む、請求項223〜225のいずれか一項に記載の電子機器。
  227. 前記地理的ロケーション及び前記ユーザと関連付けられた前記動作が、前記それぞれの地理的ロケーションで、前記ユーザから事業体への支払い権限を付与するステップを含む、請求項223〜225のいずれか一項に記載の電子機器。
  228. 前記地理的ロケーション及び前記ユーザと関連付けられた前記動作が、メタデータをメディアに追加するステップであって、前記メタデータが、前記メディアが前記それぞれの地理的ロケーション及び前記ユーザと関連付けられていることを示す、ステップを含む、請求項223〜225のいずれか一項に記載の電子機器。
  229. タッチ感知面とディスプレイとを有する電子機器において、
    前記タッチ感知面の第1の領域を画定する前記タッチ感知面における第1の1つ以上の入力のセットを検出するステップと、
    前記第1の1つ以上の入力のセットを検出した後に、
    前記第1の1つ以上の入力のセットが、第1のユーザと関連付けられた第1の指紋を含む、第1の接触を含んでいると判定するステップと、
    前記第1の1つ以上の入力のセットが、前記第1のユーザと関連付けられた前記第1の指紋を含む、前記第1の接触を含んでいるという前記判定に少なくとも部分的に基づいて、前記タッチ感知面の前記第1の領域を前記第1のユーザと関連付けるステップと、
    を含む、方法。
  230. 前記タッチ感知面の前記第1の領域がタッチスクリーンディスプレイの領域である、請求項229に記載の方法。
  231. 前記タッチ感知面の前記第1の領域を前記第1のユーザと関連付けた後に、前記第1の領域の範囲の視覚的合図を表示するステップを含む、請求項229〜230のいずれか一項に記載の方法。
  232. 前記タッチ感知面の前記第1の領域が前記第1のユーザと関連付けられている間に、
    前記第1の領域内で第2の1つ以上の入力のセットを検出するステップと、
    前記第2の1つ以上の入力のセットを前記第1のユーザに結び付けるステップと、を含む、請求項229〜231のいずれか一項に記載の方法。
  233. 前記タッチ感知面の前記第1の領域が前記第1のユーザと関連付けられている間に、第3の1つ以上の入力のセットを検出するステップと、
    前記第3の1つ以上の入力のセットを検出したことに応じて、
    前記第3の1つ以上の入力のセットが前記第1の領域内で検出されたという判定に従って、第1の動作を実行するステップと、
    前記第3の1つ以上の入力のセットが前記第1の領域外で検出されたという判定に従って、前記第1の動作とは異なる第2の動作を実行するステップと、
    を含む、請求項229〜232のいずれか一項に記載の方法。
  234. 前記タッチ感知面の前記第1の領域が前記第1のユーザと関連付けられている間に、前記タッチ感知面の第2の領域を画定する前記タッチ感知面における第4の1つ以上の入力のセットを検出するステップと、
    前記第4の1つ以上の入力のセットが、第2のユーザと関連付けられた第2の指紋を含む、第2の接触を含んでいると判定するステップと、
    前記第4の1つ以上の入力のセットが、前記第2のユーザと関連付けられた前記第2の指紋を含む、前記第2の接触を含んでいるという前記判定に少なくとも部分的に基づいて、前記タッチ感知面の前記第2の領域を前記第2のユーザと関連付けるステップと、を含む、請求項229〜233のいずれか一項に記載の方法。
  235. 前記タッチ感知面の前記第1の領域が前記第1のユーザと関連付けられ、前記タッチ感知面の前記第2の領域が前記第2のユーザと関連付けられている間に、第5の1つ以上の入力のセットを検出するステップと、
    前記第5の1つ以上の入力のセットを検出したことに応じて、
    前記第5の1つ以上の入力のセットが前記第1の領域内で検出されたという判定に従って、第1の動作を実行するステップと、
    前記第5の1つ以上の入力のセットが前記第2の領域内で検出されたという判定に従って、前記第1の動作とは異なる第2の動作を実行するステップと、
    を含む、請求項234に記載の方法。
  236. 前記第1の領域が前記ディスプレイの第1の縁に近く、
    前記第1の領域に表示された1つ以上の第1のユーザインタフェースオブジェクトが、前記ディスプレイの底部として前記第1の縁を用いて方向付けられており、
    前記第2の領域が、前記ディスプレイの前記第1の縁とは異なる前記ディスプレイの第2の縁に近く、
    前記第2の領域に表示された1つ以上の第2のユーザインタフェースオブジェクトが、前記ディスプレイの底部として前記第2の縁を用いて方向付けられている、請求項234〜235のいずれか一項に記載の方法。
  237. 電子機器であって、
    ディスプレイと、
    タッチ感知面と、
    指紋センサと、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、
    前記タッチ感知面の第1の領域を画定する前記タッチ感知面における第1の1つ以上の入力のセットを検出し、
    前記第1の1つ以上の入力のセットを検出した後に、
    前記第1の1つ以上の入力のセットが、第1のユーザと関連付けられた第1の指紋を含む、第1の接触を含んでいると判定し、
    前記第1の1つ以上の入力のセットが、前記第1のユーザと関連付けられた前記第1の指紋を含む、前記第1の接触を含んでいるという前記判定に少なくとも部分的に基づいて、前記タッチ感知面の前記第1の領域を前記第1のユーザと関連付ける、
    ための命令を含む、電子機器。
  238. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、ディスプレイと、タッチ感知面と、指紋センサと、を有する電子機器によって実行されたときに、前記機器に、
    前記タッチ感知面の第1の領域を画定する前記タッチ感知面における第1の1つ以上の入力のセットを検出させ、
    前記第1の1つ以上の入力のセットを検出した後に、
    前記第1の1つ以上の入力のセットが、第1のユーザと関連付けられた第1の指紋を含む、第1の接触を含んでいると判定させ、
    前記第1の1つ以上の入力のセットが、前記第1のユーザと関連付けられた前記第1の指紋を含む、前記第1の接触を含んでいるという前記判定に少なくとも部分的に基づいて、前記タッチ感知面の前記第1の領域を前記第1のユーザと関連付けさせる、
    ための命令を備える、コンピュータ可読記憶媒体。
  239. ディスプレイと、タッチ感知面と、指紋センサと、メモリと、前記メモリに記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサと、を有する電子機器のグラフィカルユーザインタフェースであって、
    1つ以上のユーザインタフェースオブジェクトを備え、
    前記タッチ感知面の第1の領域を画定する前記タッチ感知面における第1の1つ以上の入力のセットが検出され、
    前記第1の1つ以上の入力のセットを検出した後に、
    前記第1の1つ以上の入力のセットが、第1のユーザと関連付けられた第1の指紋を含む、第1の接触を含んでいると判定され、
    前記第1の1つ以上の入力のセットが、前記第1のユーザと関連付けられた前記第1の指紋を含む、前記第1の接触を含んでいるという前記判定に少なくとも部分的に基づいて、前記タッチ感知面の前記第1の領域が前記第1のユーザと関連付けられ、
    前記1つ以上のユーザインタフェースオブジェクトの表示が、前記第1の領域が前記第1のユーザと関連付けられていることを示すように変更される、
    グラフィカルユーザインタフェース。
  240. 電子機器であって、
    ディスプレイと、
    タッチ感知面と、
    指紋センサと、
    前記タッチ感知面の第1の領域を画定する前記タッチ感知面における第1の1つ以上の入力のセットを検出するための手段と、
    前記第1の1つ以上の入力のセットを検出した後に、
    前記第1の1つ以上の入力のセットが、第1のユーザと関連付けられた第1の指紋を含む、第1の接触を含んでいると判定するための手段と、
    前記第1の1つ以上の入力のセットが、前記第1のユーザと関連付けられた前記第1の指紋を含む、前記第1の接触を含んでいるという前記判定に少なくとも部分的に基づいて、前記タッチ感知面の前記第1の領域を前記第1のユーザと関連付けるための手段と、
    を備える、電子機器。
  241. ディスプレイと、タッチ感知面と、指紋センサと、を有する電子機器で使用するための情報処理装置であって、
    前記タッチ感知面の第1の領域を画定する前記タッチ感知面における第1の1つ以上の入力のセットを検出するための手段と、
    前記第1の1つ以上の入力のセットを検出した後に、
    前記第1の1つ以上の入力のセットが、第1のユーザと関連付けられた第1の指紋を含む、第1の接触を含んでいると判定するための手段と、
    前記第1の1つ以上の入力のセットが、前記第1のユーザと関連付けられた前記第1の指紋を含む、前記第1の接触を含んでいるという前記判定に少なくとも部分的に基づいて、前記タッチ感知面の前記第1の領域を前記第1のユーザと関連付けるための手段と、
    を備える、情報処理装置。
  242. 電子機器であって、
    ディスプレイと、
    指紋センサと、
    タッチ感知面と、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項229〜236に記載の方法のいずれかを実行するための命令を含む、電子機器。
  243. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、ディスプレイと、タッチ感知面と、指紋センサと、を有する電子機器によって実行されたときに、請求項229〜236に記載の方法のいずれかを前記機器に実行させるための命令を備える、コンピュータ可読記憶媒体。
  244. ディスプレイと、タッチ感知面と、指紋センサと、メモリと、前記メモリに記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサと、を有する電子機器のグラフィカルユーザインタフェースであって、請求項229〜236に記載の方法のいずれかに従って表示されるユーザインタフェースを備える、グラフィカルユーザインタフェース。
  245. 電子機器であって、
    ディスプレイと、
    タッチ感知面と、
    指紋センサと、
    請求項229〜236に記載の方法のいずれかを実行するための手段と、を備える、電子機器。
  246. ディスプレイと、タッチ感知面と、指紋センサと、を有する電子機器で使用するための情報処理装置であって、
    請求項229〜236に記載の方法のいずれかを実行するための手段を備える、情報処理装置。
  247. 電子機器であって、
    1つ以上のユーザインタフェースオブジェクトを表示するように構成されたディスプレイユニットと、
    その上で接触を受け取るように構成されたタッチ感知面ユニットと、
    指紋センサユニットと、
    前記ディスプレイユニット及び前記指紋センサユニットに連結された処理ユニットであって、
    前記タッチ感知面ユニットの第1の領域を画定する前記タッチ感知面ユニットにおける第1の1つ以上の入力のセットを検出し、
    前記第1の1つ以上の入力のセットを検出した後に、
    前記第1の1つ以上の入力のセットが、第1のユーザと関連付けられた第1の指紋を含む、第1の接触を含んでいると判定し、
    前記第1の1つ以上の入力のセットが、前記第1のユーザと関連付けられた前記第1の指紋を含む、前記第1の接触を含んでいるという前記判定に少なくとも部分的に基づいて、前記タッチ感知面ユニットの前記第1の領域を前記第1のユーザと関連付ける、ように構成された処理ユニットと、
    を備える、電子機器。
  248. 前記タッチ感知面ユニットの前記第1の領域がタッチスクリーンディスプレイの領域である、請求項247に記載の電子機器。
  249. 前記処理ユニットが、前記タッチ感知面ユニットの前記第1の領域を前記第1のユーザと関連付けた後に、前記第1の領域の範囲の視覚的合図の表示を有効化するように構成されている、請求項247〜248のいずれか一項に記載の電子機器。
  250. 前記処理ユニットが、前記タッチ感知面ユニットの前記第1の領域が前記第1のユーザと関連付けられている間に、
    前記第1の領域内で第2の1つ以上の入力のセットを検出し、
    前記第2の1つ以上の入力のセットを前記第1のユーザに結び付ける、ように構成されている、請求項247〜249のいずれか一項に記載の電子機器。
  251. 前記処理ユニットが、
    前記タッチ感知面ユニットの前記第1の領域が前記第1のユーザと関連付けられている間に、第3の1つ以上の入力のセットを検出し、
    前記第3の1つ以上の入力のセットを検出したことに応じて、
    前記第3の1つ以上の入力のセットが前記第1の領域内で検出されたという判定に従って、第1の動作を実行し、
    前記第3の1つ以上の入力のセットが前記第1の領域外で検出されたという判定に従って、前記第1の動作とは異なる第2の動作を実行する、
    ように構成されている、請求項247〜250のいずれか一項に記載の電子機器。
  252. 前記処理ユニットが、
    前記タッチ感知面ユニットの前記第1の領域が前記第1のユーザと関連付けられている間に、前記タッチ感知面ユニットの第2の領域を画定する前記タッチ感知面ユニットにおける第4の1つ以上の入力のセットを検出し、
    前記第4の1つ以上の入力のセットが、第2のユーザと関連付けられた第2の指紋を含む、第2の接触を含んでいると判定し、
    前記第4の1つ以上の入力のセットが、前記第2のユーザと関連付けられた前記第2の指紋を含む、前記第2の接触を含んでいるという前記判定に少なくとも部分的に基づいて、前記タッチ感知面ユニットの前記第2の領域を前記第2のユーザと関連付ける、ように構成されている、請求項247〜251のいずれか一項に記載の電子機器。
  253. 前記処理ユニットが、
    前記タッチ感知面ユニットの前記第1の領域が前記第1のユーザと関連付けられ、かつ
    前記タッチ感知面ユニットの前記第2の領域が前記第2のユーザと関連付けられている間に、第5の1つ以上の入力のセットを検出し、
    前記第5の1つ以上の入力のセットを検出したことに応じて、
    前記第5の1つ以上の入力のセットが前記第1の領域内で検出されたという判定に従って、第1の動作を実行し、
    前記第5の1つ以上の入力のセットが前記第2の領域内で検出されたという判定に従って、前記第1の動作とは異なる第2の動作を実行する、
    ように構成されている、請求項252に記載の電子機器。
  254. 前記第1の領域が前記ディスプレイユニットの第1の縁に近く、
    前記第1の領域に表示された1つ以上の第1のユーザインタフェースオブジェクトが、前記ディスプレイユニットの底部として前記第1の縁を用いて方向付けられており、
    前記第2の領域が、前記ディスプレイユニットの前記第1の縁とは異なる前記ディスプレイユニットの第2の縁に近く、
    前記第2の領域に表示された1つ以上の第2のユーザインタフェースオブジェクトが、前記ディスプレイユニットの底部として前記第2の縁を用いて方向付けられている、請求項252〜253のいずれか一項に記載の電子機器。
  255. タッチ感知面とディスプレイとを有する電子機器において、
    それぞれのアクティブ化可能なユーザインタフェースオブジェクトを含む、ユーザインタフェースを表示するステップと、
    前記ディスプレイ上の前記それぞれのアクティブ化可能なユーザインタフェースオブジェクトの上にあるフォーカスセレクタに対応する前記タッチ感知面における接触の指紋模様を検出するステップと、
    前記ディスプレイ上の前記それぞれのアクティブ化可能なユーザインタフェースオブジェクトの上にある前記フォーカスセレクタに対応する前記タッチ感知面における前記接触の前記指紋模様を検出したことに応じて、
    前記タッチ感知面における前記接触の前記指紋模様を解析して、前記接触の1つ以上の指使い特性を判定するステップと、
    前記接触が既定の好適な指使い基準を満たしているかどうかを、前記1つ以上の指使い特性に基づいて判定するステップと、
    前記接触が前記好適な指使い基準を満たしていないという判定に従って、前記好適な指使い基準が満たされていないことを示すフィードバックを提供するステップと、
    前記接触が前記好適な指使い基準を満たしているという判定に従って、前記アクティブ化可能なユーザインタフェースオブジェクトと関連付けられた動作を実行するステップと、
    を含む、方法。
  256. 前記接触が前記好適な指使い基準を満たしていないという前記判定に従って、前記アクティブ化可能なユーザインタフェースオブジェクトと関連付けられた前記動作を実行するステップを含む、請求項255に記載の方法。
  257. 前記接触が前記好適な指使い基準を満たしていないという判定に従って、前記アクティブ化可能なユーザインタフェースオブジェクトと関連付けられた前記動作の実行を取り止めるステップを含む、請求項255に記載の方法。
  258. 前記接触が前記好適な指使い基準を満たしているという判定に従って、前記好適な指使い基準が満たされたことを示すフィードバックを提供するステップを含む、請求項255〜257のいずれか一項に記載の方法。
  259. 前記それぞれのアクティブ化可能なユーザインタフェースオブジェクトが、音楽用キーボードの描像におけるキーに対応する複数のアクティブ化可能なユーザインタフェースオブジェクトの1つである、請求項255〜258のいずれか一項に記載の方法。
  260. 前記それぞれのアクティブ化可能なユーザインタフェースオブジェクトが、文字入力キーボードの描像におけるキーに対応する複数のアクティブ化可能なユーザインタフェースオブジェクトの1つである、請求項255〜258のいずれか一項に記載の方法。
  261. 前記好適な指使い基準が、前記アクティブ化可能なユーザインタフェースオブジェクトをアクティブ化する目的で使用される前記接触の前記指紋模様に対応する指が前記アクティブ化可能なユーザインタフェースオブジェクトをアクティブ化するための既定の好適な手の指に一致する場合に満たされる基準を含む、請求項255〜260のいずれか一項に記載の方法。
  262. 前記好適な指使い基準が、前記タッチ感知面における前記接触の前記指紋模様が、前記アクティブ化可能なユーザインタフェースオブジェクトをアクティブ化するための好適初期仰角の既定範囲内にある、前記アクティブ化可能なユーザインタフェースオブジェクトをアクティブ化する目的で使用される指と前記アクティブ化可能なユーザインタフェースオブジェクトが表示される前記ディスプレイとの間の初期仰角に対応する場合に満たされる基準を含む、請求項255〜261のいずれか一項に記載の方法。
  263. 前記好適な指使い基準が、前記タッチ感知面における前記接触の前記指紋模様が前記アクティブ化可能なユーザインタフェースオブジェクトをアクティブ化するための好適動作の既定範囲内にある、前記アクティブ化可能なユーザインタフェースオブジェクトをアクティブ化する指の動きに対応する場合に満たされる基準を含む、請求項255〜262のいずれか一項に記載の方法。
  264. 前記好適な指使い基準が満たされていないことを示す前記フィードバックが、前記機器によって生成された可聴フィードバックを含む、請求項255〜263のいずれか一項に記載の方法。
  265. 前記好適な指使い基準が満たされていないことを示す前記フィードバックが、前記ディスプレイに表示された視覚フィードバックを含む、請求項255〜264のいずれか一項に記載の方法。
  266. 前記好適な指使い基準が満たされていないことを示す前記フィードバックが、前記機器によって生成された触覚フィードバックを含む、請求項255〜265のいずれか一項に記載の方法。
  267. 電子機器であって、
    ディスプレイと、
    タッチ感知面と、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、
    それぞれのアクティブ化可能なユーザインタフェースオブジェクトを含む、ユーザインタフェースを表示し、
    前記ディスプレイ上の前記それぞれのアクティブ化可能なユーザインタフェースオブジェクトの上にあるフォーカスセレクタに対応する前記タッチ感知面における接触の指紋模様を検出し、
    前記ディスプレイ上の前記それぞれのアクティブ化可能なユーザインタフェースオブジェクトの上にある前記フォーカスセレクタに対応する前記タッチ感知面における前記接触の前記指紋模様を検出したことに応じて、
    前記タッチ感知面における前記接触の前記指紋模様を解析して、前記接触の1つ以上の指使い特性を判定し、
    前記接触が既定の好適な指使い基準を満たしているかどうかを、前記1つ以上の指使い特性に基づいて判定し、
    前記接触が前記好適な指使い基準を満たしていないという判定に従って、前記好適な指使い基準が満たされていないことを示すフィードバックを提供し、
    前記接触が前記好適な指使い基準を満たしているという判定に従って、前記アクティブ化可能なユーザインタフェースオブジェクトと関連付けられた動作を実行する、
    ための命令を含む、電子機器。
  268. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、ディスプレイとタッチ感知面とを有する電子機器によって実行されたときに、前記機器に、
    それぞれのアクティブ化可能なユーザインタフェースオブジェクトを含む、ユーザインタフェースを表示させ、
    前記ディスプレイ上の前記それぞれのアクティブ化可能なユーザインタフェースオブジェクトの上にあるフォーカスセレクタに対応する前記タッチ感知面における接触の指紋模様を検出させ、
    前記ディスプレイ上の前記それぞれのアクティブ化可能なユーザインタフェースオブジェクトの上にある前記フォーカスセレクタに対応する前記タッチ感知面における前記接触の前記指紋模様を検出したことに応じて、
    前記タッチ感知面における前記接触の前記指紋模様を解析して、前記接触の1つ以上の指使い特性を判定させ、
    前記接触が既定の好適な指使い基準を満たしているかどうかを、前記1つ以上の指使い特性に基づいて判定させ、
    前記接触が前記好適な指使い基準を満たしていないという判定に従って、前記好適な指使い基準が満たされていないことを示すフィードバックを提供させ、
    前記接触が前記好適な指使い基準を満たしているという判定に従って、前記アクティブ化可能なユーザインタフェースオブジェクトと関連付けられた動作を実行させる、
    ための命令を備える、コンピュータ可読記憶媒体。
  269. ディスプレイと、タッチ感知面と、メモリと、前記メモリに記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサと、を有する電子機器のグラフィカルユーザインタフェースであって、
    それぞれのアクティブ化可能なユーザインタフェースオブジェクトを備え、
    前記ディスプレイ上の前記それぞれのアクティブ化可能なユーザインタフェースオブジェクトの上にあるフォーカスセレクタに対応する前記タッチ感知面における接触の指紋模様が検出され、
    前記ディスプレイ上の前記それぞれのアクティブ化可能なユーザインタフェースオブジェクトの上にある前記フォーカスセレクタに対応する前記タッチ感知面における前記接触の前記指紋模様を検出したことに応じて、
    前記接触の1つ以上の指使い特性を判定するために、前記タッチ感知面における前記接触の前記指紋模様が解析され、
    前記接触が既定の好適な指使い基準を満たしているかどうかが、前記1つ以上の指使い特性に基づいて判定され、
    前記接触が前記好適な指使い基準を満たしていないという判定に従って、前記好適な指使い基準が満たされていないことを示すフィードバックが提供され、
    前記接触が前記好適な指使い基準を満たしているという判定に従って、前記アクティブ化可能なユーザインタフェースオブジェクトと関連付けられた動作が実行される、
    グラフィカルユーザインタフェース。
  270. 電子機器であって、
    ディスプレイと、
    タッチ感知面と、
    それぞれのアクティブ化可能なユーザインタフェースオブジェクトを含む、ユーザインタフェースを表示するための手段と、
    前記ディスプレイ上の前記それぞれのアクティブ化可能なユーザインタフェースオブジェクトの上にあるフォーカスセレクタに対応する前記タッチ感知面における接触の指紋模様を検出するための手段と、
    前記ディスプレイ上の前記それぞれのアクティブ化可能なユーザインタフェースオブジェクトの上にある前記フォーカスセレクタに対応する前記タッチ感知面における前記接触の前記指紋模様を検出したことに応じて、
    前記タッチ感知面における前記接触の前記指紋模様を解析して、前記接触の1つ以上の指使い特性を判定し、
    前記接触が既定の好適な指使い基準を満たしているかどうかを、前記1つ以上の指使い特性に基づいて判定し、
    前記接触が前記好適な指使い基準を満たしていないという判定に従って、前記好適な指使い基準が満たされていないことを示すフィードバックを提供し、
    前記接触が前記好適な指使い基準を満たしているという判定に従って、前記アクティブ化可能なユーザインタフェースオブジェクトと関連付けられた動作を実行する手段と、
    を含む、電子機器。
  271. ディスプレイとタッチ感知面とを有する電子機器で使用するための情報処理装置であって、
    それぞれのアクティブ化可能なユーザインタフェースオブジェクトを含む、ユーザインタフェースを表示するための手段と、
    前記ディスプレイ上の前記それぞれのアクティブ化可能なユーザインタフェースオブジェクトの上にあるフォーカスセレクタに対応する前記タッチ感知面における接触の指紋模様を検出するための手段と、
    前記ディスプレイ上の前記それぞれのアクティブ化可能なユーザインタフェースオブジェクトの上にある前記フォーカスセレクタに対応する前記タッチ感知面における前記接触の前記指紋模様を検出したことに応じて、
    前記タッチ感知面における前記接触の前記指紋模様を解析して、前記接触の1つ以上の指使い特性を判定し、
    前記接触が既定の好適な指使い基準を満たしているかどうかを、前記1つ以上の指使い特性に基づいて判定し、
    前記接触が前記好適な指使い基準を満たしていないという判定に従って、前記好適な指使い基準が満たされていないことを示すフィードバックを提供し、
    前記接触が前記好適な指使い基準を満たしているという判定に従って、前記アクティブ化可能なユーザインタフェースオブジェクトと関連付けられた動作を実行する手段と、
    を含む、情報処理装置。
  272. 電子機器であって、
    ディスプレイと、
    タッチ感知面と、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項255〜266に記載の方法のいずれかを実行するための命令を含む、電子機器。
  273. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、ディスプレイとタッチ感知面とを有する電子機器によって実行されたときに、請求項255〜266に記載の方法のいずれかを前記機器に実行させるための命令を備える、コンピュータ可読記憶媒体。
  274. ディスプレイと、タッチ感知面と、メモリと、前記メモリに記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサと、を有する電子機器のグラフィカルユーザインタフェースであって、請求項255〜266に記載の方法のいずれかに従って表示されるユーザインタフェースを備える、グラフィカルユーザインタフェース。
  275. 電子機器であって、
    ディスプレイと、
    タッチ感知面と、
    請求項255〜266に記載の方法のいずれかを実行するための手段と、を備える、電子機器。
  276. ディスプレイとタッチ感知面とを有する電子機器で使用するための情報処理装置であって、
    請求項255〜266に記載の方法のいずれかを実行するための手段を備える、情報処理装置。
  277. 電子機器であって、
    ユーザインタフェースを表示するように構成されたディスプレイユニットと、
    ユーザ接触を受け取るように構成されたタッチ感知面ユニットと、
    前記ディスプレイユニット及び前記タッチ感知面ユニットに連結された処理ユニットであって、
    それぞれのアクティブ化可能なユーザインタフェースオブジェクトを含む、ユーザインタフェースの表示を有効化し、
    前記ディスプレイユニット上の前記それぞれのアクティブ化可能なユーザインタフェースオブジェクトの上にあるフォーカスセレクタに対応する前記タッチ感知面ユニットにおける接触の指紋模様を検出し、
    前記ディスプレイユニット上の前記それぞれのアクティブ化可能なユーザインタフェースオブジェクトの上にある前記フォーカスセレクタに対応する前記タッチ感知面ユニットにおける前記接触の前記指紋模様を検出したことに応じて、
    前記タッチ感知面ユニットにおける前記接触の前記指紋模様を解析して、前記接触の1つ以上の指使い特性を判定し、
    前記接触が既定の好適な指使い基準を満たしているかどうかを、前記1つ以上の指使い特性に基づいて判定し、
    前記接触が前記好適な指使い基準を満たしていないという判定に従って、前記好適な指使い基準が満たされていないことを示すフィードバックを提供し、
    前記接触が前記好適な指使い基準を満たしているという判定に従って、前記アクティブ化可能なユーザインタフェースオブジェクトと関連付けられた動作を実行する、ように構成された処理ユニットと、
    を備える、電子機器。
  278. 前記処理ユニットが、
    前記接触が前記好適な指使い基準を満たしていないという前記判定に従って、前記アクティブ化可能なユーザインタフェースオブジェクトと関連付けられた前記動作を実行するように更に構成されている、請求項277に記載の電子機器。
  279. 前記処理ユニットが、
    前記接触が前記好適な指使い基準を満たしていないという判定に従って、前記アクティブ化可能なユーザインタフェースオブジェクトと関連付けられた前記動作の実行を取り止めるように更に構成されている、請求項277に記載の電子機器。
  280. 前記処理ユニットが、
    前記接触が前記好適な指使い基準を満たしているという判定に従って、前記好適な指使い基準が満たされたことを示すフィードバックを提供するように更に構成されている、請求項277〜279のいずれか一項に記載の電子機器。
  281. 前記それぞれのアクティブ化可能なユーザインタフェースオブジェクトが、音楽用キーボードの描像におけるキーに対応する複数のアクティブ化可能なユーザインタフェースオブジェクトの1つである、請求項277〜280のいずれか一項に記載の電子機器。
  282. 前記それぞれのアクティブ化可能なユーザインタフェースオブジェクトが、文字入力キーボードの描像におけるキーに対応する複数のアクティブ化可能なユーザインタフェースオブジェクトの1つである、請求項277〜280のいずれか一項に記載の電子機器。
  283. 前記好適な指使い基準が、前記アクティブ化可能なユーザインタフェースオブジェクトをアクティブ化する目的で使用される前記接触の前記指紋模様に対応する指が前記アクティブ化可能なユーザインタフェースオブジェクトをアクティブ化するための既定の好適な手の指に一致する場合に満たされる基準を含む、請求項277〜282のいずれか一項に記載の電子機器。
  284. 前記好適な指使い基準が、前記アクティブ化可能なユーザインタフェースオブジェクトをアクティブ化するための好適初期仰角の既定範囲内にある、使用される指と、前記ユーザインタフェースオブジェクトが表示されるとの間の初期仰角に対応する場合に満たされる基準を含む、請求項277〜283のいずれか一項に記載の電子機器。
  285. 前記好適な指使い基準が、前記タッチ感知面ユニットにおける前記接触の前記指紋模様が前記アクティブ化可能なユーザインタフェースオブジェクトをアクティブ化するための好適動作の既定範囲内にある前記アクティブ化可能なユーザインタフェースオブジェクトをアクティブ化する指の動きに対応する場合に満たされる基準を含む、請求項277〜284のいずれか一項に記載の電子機器。
  286. 前記好適な指使い基準が満たされていないことを示す前記フィードバックが、前記機器によって生成された可聴フィードバックを含む、請求項277〜285のいずれか一項に記載の電子機器。
  287. 前記好適な指使い基準が満たされていないことを示す前記フィードバックが、前記ディスプレイユニットに表示された視覚フィードバックを含む、請求項277〜286のいずれか一項に記載の電子機器。
  288. 前記好適な指使い基準が満たされていないことを示す前記フィードバックが、前記機器によって生成された触覚フィードバックを含む、請求項277〜287のいずれか一項に記載の電子機器。
  289. タッチ感知面とディスプレイとを有する電子機器において、
    低感度動作モードになっている前記タッチ感知面の第1の領域における接触を検出するステップと、
    前記接触を検出したことに応じて、
    前記接触が1つ以上の指紋センサアクティブ化基準を満たしているかどうかを判定するステップと、
    前記接触が前記指紋センサアクティブ化基準を満たしているという判定に従って、前記タッチ感知面の前記第1の領域を高感度動作モードで動作させるステップと、
    前記接触が前記指紋センサアクティブ化基準を満たしていないという判定に従って、前記タッチ感知面の前記第1の領域を前記低感度動作モードで動作させ続けるステップと、
    を含む、方法。
  290. 前記タッチ感知面の前記第1の領域が前記高感度動作モードになっている間、前記機器が、前記第1の領域で検出された接触の指紋の詳細を検出することができ、
    前記タッチ感知面の前記第1の領域が前記低感度動作モードになっている間、前記機器が、前記第1の領域で検出された接触の指紋の詳細を検出することができない、請求項289に記載の方法。
  291. 前記タッチ感知面の前記第1の領域を前記高感度モードで動作させている間、
    前記接触の指紋の特徴を検出するステップと、
    前記接触の前記指紋の特徴を検出したことに応じて、前記指紋の特徴に従って動作を実行するステップと、を含む、請求項289〜290のいずれか一項に記載の方法。
  292. 前記タッチ感知面が複数の異なる領域を含み、前記機器が、前記複数の異なる領域の各々を前記低感度モードと前記高感度モードとの間で独立して遷移させるように構成されている、請求項289〜291のいずれか一項に記載の方法。
  293. 前記第1の領域を前記高感度モードで動作させている間、前記タッチ感知面の前記他の領域のうちの1つ以上を前記低感度モードで動作させるステップを含む、請求項289〜292のいずれか一項に記載の方法。
  294. 前記タッチ感知面の前記第1の領域を前記高感度モードで動作させると、前記タッチ感知面の前記第1の領域を前記低感度モードで動作させる場合よりも多くの電力を消費する、請求項289〜293のいずれか一項に記載の方法。
  295. 前記タッチ感知面の前記第1の領域よりも多くの領域を前記高感度モードで動作させると、前記タッチ感知面の前記第1の領域だけを前記高感度モードで動作させる場合よりも多くの電力を消費する、請求項289〜294のいずれか一項に記載の方法。
  296. 前記1つ以上の指紋センサアクティブ化基準が、指紋状の接触域が前記タッチ感知面の前記第1の領域で検出された場合に満たされる基準を含む、請求項289〜295のいずれか一項に記載の方法。
  297. 前記1つ以上の指紋センサアクティブ化基準が、指紋状の接触域が所定の閾値速度未満の速度で移動していることが検出された場合に満たされる基準を含む、請求項289〜296のいずれか一項に記載の方法。
  298. 前記1つ以上の指紋センサアクティブ化基準が、接触に対応するフォーカスセレクタが指紋感知ユーザインタフェース要素の上にある間に前記接触が前記タッチ感知面で検出された場合に満たされる基準を含む、請求項289〜297のいずれか一項に記載の方法。
  299. 電子機器であって、
    ディスプレイと、
    タッチ感知面と、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、
    低感度動作モードになっている前記タッチ感知面の第1の領域における接触を検出し、
    前記接触を検出したことに応じて、
    前記接触が指紋センサアクティブ化基準を満たしているかどうかを判定し、
    前記接触が前記指紋センサアクティブ化基準を満たしているという判定に従って、前記タッチ感知面の前記第1の領域を高感度動作モードで動作させ、
    前記接触が前記指紋センサアクティブ化基準を満たしていないという判定に従って、前記タッチ感知面の前記第1の領域を前記低感度動作モードで動作させ続ける、
    ための命令を含む、電子機器。
  300. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、ディスプレイとタッチ感知面とを有する電子機器によって実行されたときに、前記機器に、
    低感度動作モードになっている前記タッチ感知面の第1の領域における接触を検出させ、
    前記接触を検出したことに応じて、
    前記接触が指紋センサアクティブ化基準を満たしているかどうかを判定させ、
    前記接触が前記指紋センサアクティブ化基準を満たしているという判定に従って、前記タッチ感知面の前記第1の領域を高感度動作モードで動作させ、
    前記接触が前記指紋センサアクティブ化基準を満たしていないという判定に従って、前記タッチ感知面の前記第1の領域を前記低感度動作モードで動作させ続けさせる、
    ための命令を備える、コンピュータ可読記憶媒体。
  301. ディスプレイと、タッチ感知面と、メモリと、前記メモリに記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサと、を有する電子機器のグラフィカルユーザインタフェースであって、
    前記タッチ感知面のそれぞれの動作モードに従って表示される1つ以上のユーザインタフェースを備え、
    低感度動作モードになっている前記タッチ感知面の第1の領域における接触を検出したことに応じて、
    前記接触が指紋センサアクティブ化基準を満たしているかどうかが判定され、
    前記接触が前記指紋センサアクティブ化基準を満たしているという判定に従って、前記タッチ感知面の前記第1の領域を高感度動作モードで動作させ、
    前記接触が前記指紋センサアクティブ化基準を満たしていないという判定に従って、前記タッチ感知面の前記第1の領域を前記低感度動作モードで動作させ続ける、
    グラフィカルユーザインタフェース。
  302. 電子機器であって、
    ディスプレイと、
    タッチ感知面と、
    低感度動作モードになっている前記タッチ感知面の第1の領域における接触を検出するための手段と、
    前記接触を検出したことに応じた手段であって、
    前記接触が指紋センサアクティブ化基準を満たしているかどうかを判定するための手段と、
    前記接触が前記指紋センサアクティブ化基準を満たしているという判定に従って、前記タッチ感知面の前記第1の領域を高感度動作モードで動作させるための手段と、
    前記接触が前記指紋センサアクティブ化基準を満たしていないという判定に従って、前記タッチ感知面の前記第1の領域を前記低感度動作モードで動作させ続けるための手段とを含む、手段と、を備える、電子機器。
  303. ディスプレイとタッチ感知面とを有する電子機器で使用するための情報処理装置であって、
    低感度動作モードになっている前記タッチ感知面の第1の領域における接触を検出するための手段と、
    前記接触を検出したことに応じた手段であって、
    前記接触が指紋センサアクティブ化基準を満たしているかどうかを判定するための手段と、
    前記接触が前記指紋センサアクティブ化基準を満たしているという判定に従って、前記タッチ感知面の前記第1の領域を高感度動作モードで動作させるための手段と、
    前記接触が前記指紋センサアクティブ化基準を満たしていないという判定に従って、前記タッチ感知面の前記第1の領域を前記低感度動作モードで動作させ続けるための手段とを含む、手段と、
    を備える、情報処理装置。
  304. 電子機器であって、
    ディスプレイと、
    タッチ感知面と、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項289〜298に記載の方法のいずれかを実行するための命令を含む、電子機器。
  305. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、ディスプレイとタッチ感知面とを有する電子機器によって実行されたときに、請求項289〜298に記載の方法のいずれかを前記機器に実行させるための命令を備える、コンピュータ可読記憶媒体。
  306. ディスプレイと、タッチ感知面と、メモリと、前記メモリに記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサと、を有する電子機器のグラフィカルユーザインタフェースであって、請求項289〜298に記載の方法のいずれかに従って表示されるユーザインタフェースを備える、グラフィカルユーザインタフェース。
  307. 電子機器であって、
    ディスプレイと、
    タッチ感知面と、
    請求項289〜298に記載の方法のいずれかを実行するための手段と、を備える、電子機器。
  308. ディスプレイとタッチ感知面とを有する電子機器で使用するための情報処理装置であって、
    請求項289〜298に記載の方法のいずれかを実行するための手段を備える、情報処理装置。
  309. 電子機器であって、
    ディスプレイユニットと、
    接触を受け取るように構成されたタッチ感知面ユニットと、
    前記ディスプレイユニット及び前記タッチ感知面ユニットに連結された処理ユニットであって、
    低感度動作モードになっている前記タッチ感知面ユニットの第1の領域ユニットにおける接触を検出し、
    前記接触を検出したことに応じて、
    前記接触が指紋センサアクティブ化基準を満たしているかどうかを判定し、
    前記接触が前記指紋センサアクティブ化基準を満たしているという判定に従って、前記タッチ感知面ユニットの前記第1の領域を高感度動作モードで動作させ、
    前記接触が前記指紋センサアクティブ化基準を満たしていないという判定に従って、前記タッチ感知面ユニットの前記第1の領域を前記低感度動作モードで動作させ続ける、
    ように構成された処理ユニットと、を備える、電子機器。
  310. 前記タッチ感知面ユニットの前記第1の領域が前記高感度動作モードになっている間、前記処理ユニットが、前記第1の領域で検出された接触の指紋の詳細を検出することができ、
    前記タッチ感知面ユニットの前記第1の領域が前記低感度動作モードになっている間、前記処理ユニットが、前記第1の領域で検出された接触の指紋の詳細を検出することができない、請求項309に記載の機器。
  311. 前記タッチ感知面ユニットの前記第1の領域を前記高感度モードで動作させている間、前記処理ユニットが、
    前記接触の指紋の特徴を検出し、
    前記接触の前記指紋の特徴を検出したことに応じて、前記指紋の特徴に従って動作を実行する、ように構成されている、請求項309〜310のいずれか一項に記載の機器。
  312. 前記タッチ感知面ユニットが複数の異なる領域を含み、
    前記処理ユニットが、前記複数の異なる領域の各々を前記低感度モードと前記高感度モードとの間で独立して遷移させるように構成されている、請求項309〜311のいずれか一項に記載の機器。
  313. 前記第1の領域を前記高感度モードで動作させている間、前記処理ユニットが、前記タッチ感知面ユニットの前記他の領域のうちの1つ以上を前記低感度モードで動作させるように構成されている、請求項309〜312のいずれか一項に記載の機器。
  314. 前記タッチ感知面ユニットの前記第1の領域を前記高感度モードで動作させると、前記タッチ感知面ユニットの前記第1の領域を前記低感度モードで動作させる場合よりも多くの電力を消費する、請求項309〜313のいずれか一項に記載の機器。
  315. 前記タッチ感知面ユニットの前記第1の領域よりも多くの領域を前記高感度モードで動作させると、前記タッチ感知面ユニットの前記第1の領域だけを前記高感度モードで動作させる場合よりも多くの電力を消費する、請求項309〜314のいずれか一項に記載の機器。
  316. 前記1つ以上の指紋センサアクティブ化基準が、指紋状の接触域が前記タッチ感知面ユニットの前記第1の領域で検出された場合に満たされる基準を含む、請求項309〜315のいずれか一項に記載の機器。
  317. 前記1つ以上の指紋センサアクティブ化基準が、指紋状の接触域が所定の閾値速度未満の速度で移動していることが検出された場合に満たされる基準を含む、請求項309〜316のいずれか一項に記載の機器。
  318. 前記1つ以上の指紋センサアクティブ化基準が、接触に対応するフォーカスセレクタが指紋感知ユーザインタフェース要素の上にある間に接触が前記タッチ感知面ユニットで検出された場合に満たされる基準を含む、請求項309〜317のいずれか一項に記載の機器。
  319. タッチ感知面とディスプレイとを有する電子機器において、
    第1の指紋を第1の動作と関連付けるステップと、
    前記第1の動作以外の複数の動作を実行するためのアフォーダンスを含む、それぞれのユーザインタフェースを前記ディスプレイに表示するステップと、
    前記第1の動作以外の前記複数の動作を実行するためのアフォーダンスを含む、前記それぞれのユーザインタフェースを表示している間に、前記タッチ感知面における前記第1の指紋を検出することを含む、第1のジェスチャを検出するステップと、
    前記第1のジェスチャを検出したことに応じて、前記第1の動作を実行するステップと、を含む、方法。
  320. 前記タッチ感知面における前記第1の指紋を検出したことに応じて前記第1の動作が実行される、請求項319に記載の方法。
  321. 前記タッチ感知面からの前記第1の指紋のリフトオフを検出したことに応じて前記第1の動作が実行される、請求項319に記載の方法。
  322. 前記第1のジェスチャが向き固有のジェスチャであり、前記向き固有のジェスチャを検出するステップが、前記タッチ感知面における前記第1の指紋を所定の向きにて検出するステップを含む、請求項319〜321のいずれか一項に記載の方法。
  323. 前記第1のジェスチャがロケーション固有のジェスチャであり、前記ロケーション固有のジェスチャを検出するステップが、前記タッチ感知面ユニットにおける前記第1の指紋を所定ロケーションにて検出するステップを含む、請求項319〜322のいずれか一項に記載の方法。
  324. 前記第1のジェスチャが期間固有のジェスチャであり、前記期間固有のジェスチャを検出するステップが、少なくとも所定の時間にわたって前記タッチ感知面における前記第1の指紋を検出するステップを含む、請求項319〜323のいずれか一項に記載の方法。
  325. 前記それぞれのユーザインタフェースが、前記第1の動作を実行するための表示されたコントロールを含まない、請求項319〜324のいずれか一項に記載の方法。
  326. 前記それぞれのユーザインタフェースが、前記第1の動作を実行するように構成されていない第1のアプリケーションのユーザインタフェースであり、
    前記第1の動作が、前記第1のアプリケーションとは異なる第2のアプリケーションによって実行される、請求項325に記載の方法。
  327. 前記それぞれのユーザインタフェースが、前記第1の動作を実行するように構成されていないアプリケーション起動画面のユーザインタフェースであり、
    前記第1の動作が、前記アプリケーション起動画面とは異なるそれぞれのアプリケーションによって実行される、請求項325に記載の方法。
  328. 前記第1の動作が写真を撮影するステップを含む、請求項319〜327のいずれか一項に記載の方法。
  329. 前記第1の動作が映像を記録するステップを含む、請求項319〜328のいずれか一項に記載の方法。
  330. 前記第1の動作が通信インタフェースを表示するステップを含む、請求項319〜329のいずれか一項に記載の方法。
  331. 前記第1の動作がカメラインタフェースを表示するステップを含む、請求項319〜330のいずれか一項に記載の方法。
  332. 前記カメラインタフェースを表示している間に、
    メディアキャプチャ基準が満たされたかどうかを判定するステップと、
    前記メディアキャプチャ基準が満たされたという判定に従って、カメラでメディアをキャプチャし始めるステップと、
    前記メディアキャプチャ基準が満たされていないという判定に従って、カメラでメディアをキャプチャするのを取り止めるステップと、を含む、請求項331に記載の方法。
  333. 前記メディアキャプチャ基準が、前記第1の指紋に対応する接触がそれぞれの強度閾値を上回る強度を有する場合に満たされる基準を含む、請求項332に記載の方法。
  334. 前記メディアキャプチャ基準が、前記第1の指紋に対応する接触がそれぞれの時間閾値よりも長い時間にわたって連続的に検出された場合に満たされる基準を含む、請求項332に記載の方法。
  335. 少なくとも既定の時間にわたって前記第1の指紋を検出したことに応じて、カメラによってキャプチャされるメディアのプレビューを含む、カメラプレビューを表示するステップを含む、請求項319〜334のいずれか一項に記載の方法。
  336. 前記カメラプレビューを表示している間に、前記カメラプレビューに対応するメディアをキャプチャする要求に対応する入力を検出するステップと、
    前記カメラプレビューに対応するメディアをキャプチャする前記要求に対応する前記入力を検出したことに応じて、
    前記カメラプレビューに対応する静止画像をキャプチャするステップと、
    前記カメラプレビューを表示するのを中止するステップと、
    前記それぞれのユーザインタフェースを再表示するステップと、
    を含む、請求項335に記載の方法。
  337. 前記カメラプレビューを表示している間に、前記カメラプレビューに対応するメディアをキャプチャするステップと、
    前記カメラプレビューに対応する前記メディアをキャプチャしている間に、前記メディアをキャプチャするのを中止する要求に対応する入力を検出するステップと、
    前記メディアをキャプチャするのを中止する前記要求に対応する前記入力を検出したことに応じて、
    前記メディアをキャプチャするのを中止するステップと、
    前記カメラプレビューを表示するのを中止するステップと、
    前記それぞれのユーザインタフェースを再表示するステップと、
    を含む、請求項335に記載の方法。
  338. 前記タッチ感知面が、一体型指紋センサを有するタッチスクリーンディスプレイである、請求項319〜337のいずれか一項に記載の方法。
  339. 前記第1の指紋が以前に登録済みの指紋であり、
    前記第1のジェスチャを検出するステップが、検出された指紋を、前記検出された指紋の検出された特徴と、前記第1の指紋の以前に登録された特徴との比較に基づいて前記第1の指紋として特定するステップを含む、請求項319〜338のいずれか一項に記載の方法。
  340. 前記第1の指紋が既定の種類の指紋であり、
    前記第1のジェスチャを検出するステップが、検出された指紋を、前記検出された指紋の特徴と、前記既定の種類の指紋と関連付けられた特徴との比較に基づいて前記第1の指紋として特定するステップを含む、請求項319〜338のいずれか一項に記載の方法。
  341. 前記第1の指紋とは異なる第2の指紋を、前記第1の動作とは異なる第2の動作と関連付けるステップと、
    前記第2の動作を実行するためのアフォーダンスを含まない前記それぞれのユーザインタフェースを前記ディスプレイに表示するステップと、
    前記それぞれのユーザインタフェースを表示している間に、前記タッチ感知面における前記第2の指紋を検出するステップを含む、第2のジェスチャを検出するステップと、
    前記タッチ感知面における前記第2の指紋を含む、前記ジェスチャを検出したことに応じて、前記第2の動作を実行するステップと、を含む、請求項319〜340のいずれか一項に記載の方法。
  342. 前記第1の動作が、静止写真をキャプチャすることと関連付けられた動作であり、前記第2の動作が、映像をキャプチャすることと関連付けられた動作である、請求項341に記載の方法。
  343. 電子機器であって、
    ディスプレイと、
    タッチ感知面と、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、
    第1の指紋を第1の動作と関連付け、
    前記第1の動作以外の複数の動作を実行するためのアフォーダンスを含む、それぞれのユーザインタフェースを前記ディスプレイに表示し、
    前記第1の動作以外の前記複数の動作を実行するためのアフォーダンスを含む、前記それぞれのユーザインタフェースを表示している間に、前記タッチ感知面における前記第1の指紋を検出することを含めて、第1のジェスチャを検出し、
    前記第1のジェスチャを検出したことに応じて、前記第1の動作を実行する、ための命令を含む、電子機器。
  344. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、ディスプレイとタッチ感知面とを有する電子機器によって実行されたときに、前記機器に、
    第1の指紋を第1の動作と関連付けさせ、
    前記第1の動作以外の複数の動作を実行するためのアフォーダンスを含む、それぞれのユーザインタフェースを前記ディスプレイに表示させ、
    前記第1の動作以外の前記複数の動作を実行するためのアフォーダンスを含む、前記それぞれのユーザインタフェースを表示している間に、前記タッチ感知面における前記第1の指紋を検出することを含めて、第1のジェスチャを検出させ、
    前記第1のジェスチャを検出したことに応じて、前記第1の動作を実行させる、ための命令を備える、コンピュータ可読記憶媒体。
  345. ディスプレイと、タッチ感知面と、メモリと、前記メモリに記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサと、を有する電子機器のグラフィカルユーザインタフェースであって、
    第1の動作以外の複数の動作を実行するためのアフォーダンスを含む、それぞれのユーザインタフェースを備え、
    第1の指紋が前記第1の動作と関連付けられており、
    前記タッチ感知面における前記第1の指紋を検出したことを含めて、第1のジェスチャを検出したことに応じて、前記第1の動作以外の前記複数の動作を実行するためのアフォーダンスを含む、前記それぞれのユーザインタフェースを表示している間に、前記第1の動作が実行される、グラフィカルユーザインタフェース。
  346. 電子機器であって、
    ディスプレイと、
    タッチ感知面と、
    第1の指紋を第1の動作と関連付けるための手段と、
    前記第1の動作以外の複数の動作を実行するためのアフォーダンスを含む、それぞれのユーザインタフェースを前記ディスプレイに表示するための手段と、
    前記第1の動作以外の前記複数の動作を実行するためのアフォーダンスを含む、前記それぞれのユーザインタフェースを表示している間に、前記タッチ感知面における前記第1の指紋を検出することを含めて、第1のジェスチャを検出するための手段と、
    前記第1のジェスチャを検出したことに応じて、前記第1の動作を実行するための手段と、を備える、電子機器。
  347. ディスプレイとタッチ感知面とを有する電子機器で使用するための情報処理装置であって、
    第1の指紋を第1の動作と関連付けるための手段と、
    前記第1の動作以外の複数の動作を実行するためのアフォーダンスを含む、それぞれのユーザインタフェースを前記ディスプレイに表示するための手段と、
    前記第1の動作以外の前記複数の動作を実行するためのアフォーダンスを含む、前記それぞれのユーザインタフェースを表示している間に、前記タッチ感知面における前記第1の指紋を検出することを含めて、第1のジェスチャを検出するための手段と、
    前記第1のジェスチャを検出したことに応じて、前記第1の動作を実行するための手段と、を備える、情報処理装置。
  348. 電子機器であって、
    ディスプレイと、
    タッチ感知面と、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項319〜342に記載の方法のいずれかを実行するための命令を含む、電子機器。
  349. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、ディスプレイとタッチ感知面とを有する電子機器によって実行されたときに、請求項319〜342に記載の方法のいずれかを前記機器に実行させるための命令を備える、コンピュータ可読記憶媒体。
  350. ディスプレイと、タッチ感知面と、メモリと、前記メモリに記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサと、を有する電子機器のグラフィカルユーザインタフェースであって、請求項319〜342に記載の方法のいずれかに従って表示されるユーザインタフェースを備える、グラフィカルユーザインタフェース。
  351. 電子機器であって、
    ディスプレイと、
    タッチ感知面と、
    請求項319〜342に記載の方法のいずれかを実行するための手段を備える、電子機器。
  352. ディスプレイとタッチ感知面とを有する電子機器で使用するための情報処理装置であって、
    請求項319〜342に記載の方法のいずれかを実行するための手段を備える、情報処理装置。
  353. 電子機器であって、
    第1の動作以外の複数の動作を実行するためのアフォーダンスを含む、それぞれのユーザインタフェースを表示するように構成されたディスプレイユニットと、
    ジェスチャを受け取るように構成されたタッチ感知面ユニットと、
    前記ディスプレイユニット及び前記タッチ感知面ユニットに連結された処理ユニットであって、
    第1の指紋を前記第1の動作と関連付け、
    前記第1の動作以外の前記複数の動作を実行するためのアフォーダンスを含む、前記それぞれのユーザインタフェースの表示を有効化している間に、前記タッチ感知面における前記第1の指紋を検出することを含めて、第1のジェスチャを検出し、
    前記第1のジェスチャを検出したことに応じて、前記第1の動作を実行する、
    ように構成された処理ユニットと、を備える、電子機器。
  354. 前記タッチ感知面ユニットで前記第1の指紋を検出したことに応じて、前記第1の動作が実行される、請求項353に記載の機器。
  355. 前記タッチ感知面ユニットからの前記第1の指紋のリフトオフを検出したことに応じて、前記第1の動作が実行される、請求項353に記載の機器。
  356. 前記第1のジェスチャが向き固有のジェスチャであり、前記向き固有のジェスチャを検出することが、前記タッチ感知面ユニットにおける前記第1の指紋を所定の向きにて検出することを含む、請求項353〜355のいずれか一項に記載の機器。
  357. 前記第1のジェスチャがロケーション固有のジェスチャであり、前記ロケーション固有のジェスチャを検出することが、前記タッチ感知面ユニットにおける前記第1の指紋を所定ロケーションにて検出することを含む、請求項353〜356のいずれか一項に記載の機器。
  358. 前記第1のジェスチャが期間固有のジェスチャであり、前記期間固有のジェスチャを検出することが、少なくとも所定の時間にわたって前記タッチ感知面ユニットにおける前記第1の指紋を検出することを含む、請求項353〜357のいずれか一項に記載の機器。
  359. 前記それぞれのユーザインタフェースが、前記第1の動作を実行するための表示されたコントロールを含まない、請求項353〜358のいずれか一項に記載の機器。
  360. 前記それぞれのユーザインタフェースが、前記第1の動作を実行するように構成されていない第1のアプリケーションのユーザインタフェースであり、
    前記第1の動作が、前記第1のアプリケーションとは異なる第2のアプリケーションによって実行される、請求項359に記載の機器。
  361. 前記それぞれのユーザインタフェースが、前記第1の動作を実行するように構成されていないアプリケーション起動画面のユーザインタフェースであり、
    前記第1の動作が、前記アプリケーション起動画面とは異なるそれぞれのアプリケーションによって実行される、請求項359に記載の機器。
  362. 前記第1の動作が写真を撮影するステップを含む、請求項353〜361のいずれか一項に記載の機器。
  363. 前記第1の動作が映像を記録するステップを含む、請求項353〜362のいずれか一項に記載の機器。
  364. 前記第1の動作が、通信インタフェースの表示を有効化するステップを含む、請求項353〜363のいずれか一項に記載の機器。
  365. 前記第1の動作が、カメラインタフェースの表示を有効化するステップを含む、請求項353〜364のいずれか一項に記載の機器。
  366. 前記処理ユニットが、前記カメラインタフェースの表示を有効化している間に、
    メディアキャプチャ基準が満たされたかどうかを判定し、
    前記メディアキャプチャ基準が満たされたという判定に従って、カメラでメディアをキャプチャし始め、
    前記メディアキャプチャ基準が満たされていないという判定に従って、カメラでメディアをキャプチャするのを取り止める、ように構成されている、請求項365に記載の機器。
  367. 前記メディアキャプチャ基準が、前記第1の指紋に対応する接触がそれぞれの強度閾値を上回る強度を有する場合に満たされる基準を含む、請求項366に記載の機器。
  368. 前記メディアキャプチャ基準が、前記第1の指紋に対応する接触がそれぞれの時間閾値よりも長い時間にわたって連続的に検出された場合に満たされる基準を含む、請求項366に記載の機器
  369. 前記処理ユニットが、前記第1の指紋を少なくとも既定の時間にわたって検出したことに応じて、カメラによってキャプチャされるメディアのプレビューを含む、カメラプレビューの表示を有効化するように構成されている、請求項353〜368のいずれか一項に記載の機器。
  370. 前記処理ユニットが、
    前記カメラプレビューの表示を有効化している間に、前記カメラプレビューに対応するメディアをキャプチャする要求に対応する入力を検出し、
    前記カメラプレビューに対応するメディアをキャプチャする前記要求に対応する前記入力を検出したことに応じて、
    前記カメラプレビューに対応する静止画像をキャプチャし、
    前記カメラプレビューの表示を有効化するのを中止し、
    前記それぞれのユーザインタフェースの表示を再有効化する、
    ように構成されている、請求項369に記載の機器。
  371. 前記処理ユニットが、
    前記カメラプレビューの表示を有効化している間に、前記カメラプレビューに対応するメディアをキャプチャし、
    前記カメラプレビューに対応する前記メディアをキャプチャしている間に、前記メディアをキャプチャするのを中止する要求に対応する入力を検出し、
    前記メディアをキャプチャするのを中止する前記要求に対応する前記入力を検出したことに応じて、
    前記メディアをキャプチャするのを中止し、
    前記カメラプレビューの表示を有効化するのを中止し、
    前記それぞれのユーザインタフェースの表示を再有効化する、
    ように構成されている、請求項369に記載の機器。
  372. 前記タッチ感知面ユニットが、一体型指紋センサを有するタッチスクリーンディスプレイである、請求項353〜371のいずれか一項に記載の機器。
  373. 前記第1の指紋が以前に登録済みの指紋であり、前記第1のジェスチャを検出することが、検出された指紋を、前記検出された指紋の検出された特徴と前記第1の指紋の以前に登録された特徴との比較に基づいて、前記第1の指紋として特定することを含む、請求項353〜372のいずれか一項に記載の機器。
  374. 前記第1の指紋が既定の種類の指紋であり、
    前記第1のジェスチャを検出することが、検出された指紋を、前記検出された指紋の特徴と前記既定の種類の指紋と関連付けられた特徴との比較に基づいて、前記第1の指紋として特定することを含む、請求項353〜372のいずれか一項に記載の機器。
  375. 前記処理ユニットが、
    前記第1の指紋とは異なる第2の指紋を前記第1の動作とは異なる第2の動作と関連付け、
    前記第2の動作を実行するためのアフォーダンスを含まない前記それぞれのユーザインタフェースの表示を前記ディスプレイユニットにおいて有効化し、
    前記それぞれのユーザインタフェースの表示を有効化している間に、前記タッチ感知面ユニットで前記第2の指紋を検出することを含めて、第2のジェスチャを検出し、
    前記タッチ感知面ユニットにおける前記第2の指紋を含む前記ジェスチャを検出したことに応じて、前記第2の動作を実行する、ように構成されている、請求項353〜374のいずれか一項に記載の機器。
  376. 前記第1の動作が、静止写真をキャプチャすることと関連付けられた動作であり、前記第2の動作が、映像をキャプチャすることと関連付けられた動作である、請求項375に記載の機器。
  377. ディスプレイと、タッチ感知面と、指紋センサと、を有する電子機器において、
    前記ディスプレイにユーザインタフェースを表示するステップと、
    前記タッチ感知面上の前記ユーザインタフェースのそれぞれのコントロールを移動させることと関連付けられた第1の指紋を検出するステップであって、前記第1の指紋が、前記それぞれのコントロールを含まない前記ディスプレイ上の第1のロケーションにあるフォーカスセレクタに対応している、ステップと、
    前記第1の指紋を検出したことに応じて、前記ディスプレイ上の前記第1のロケーションで前記それぞれのコントロールを表示するステップと、を含む、方法。
  378. 前記それぞれのコントロールが、前記第1の指紋を検出する前に前記ディスプレイに表示されない、請求項377に記載の方法。
  379. 前記第1の指紋を検出する前に、前記第1のロケーションとは異なる以前のロケーションで前記それぞれのコントロールを表示するステップと、
    前記第1の指紋を検出したことに応じて、前記以前のロケーションにおける前記それぞれのコントロールを表示するのを中止するステップと、を含む、請求項377に記載の方法。
  380. 前記それぞれのコントロールが前記以前のロケーションに表示されると、前記機器が、前記それぞれのコントロールと関連付けられた動作を実行することにより、前記以前のロケーションに対応する入力に応答し、
    前記それぞれのコントロールが前記第1のロケーションに表示されると、前記機器が、前記それぞれのコントロールと関連付けられた動作を実行することにより、前記第1のロケーションに対応する入力に応答する、請求項379に記載の方法。
  381. 前記ディスプレイがタッチスクリーンディスプレイであり、
    前記それぞれのコントロールが表示される前記第1のロケーションが、前記タッチスクリーンディスプレイ上の前記第1の指紋のロケーションに対応する、請求項377〜380のいずれか一項に記載の方法。
  382. 前記第1の指紋のリフトオフを検出するステップと、
    前記第1の指紋のリフトオフを検出した後に、前記それぞれのコントロールの表示を前記ディスプレイ上の前記第1のロケーションに維持するステップと、を含む、請求項377〜381のいずれか一項に記載の方法。
  383. 前記ディスプレイ上の前記第1のロケーションに前記それぞれのコントロールを表示している間に、前記ディスプレイ上の第2のロケーションにあるフォーカスセレクタに対応するそれぞれの指紋を前記タッチ感知面において検出するステップであって、前記第2のロケーションが、前記第1のロケーションとは異なり、前記それぞれのコントロールを含まない、ステップと、
    前記それぞれの指紋を検出したことに応じて、前記それぞれの指紋が、前記タッチ感知面上の前記ユーザインタフェースの前記それぞれのコントロールを移動させることと関連付けられた前記第1の指紋であるという判定に従って、
    前記ディスプレイ上の前記第1のロケーションに前記それぞれのコントロールを表示するのを中止するステップと、
    前記ディスプレイ上の前記第2のロケーションに前記それぞれのコントロールを表示するステップと、
    を含む、請求項377〜382のいずれか一項に記載の方法。
  384. 前記それぞれの指紋を検出したことに応じて、前記それぞれの指紋が、前記第1の指紋とは異なる第2の指紋であり、前記タッチ感知面上の前記ユーザインタフェースの前記それぞれのコントロールを移動させることと関連付けられていないという判定に従って、前記ディスプレイ上の前記第1のロケーションにおける前記それぞれのコントロールの表示を維持するステップを含む、請求項383に記載の方法。
  385. 前記それぞれのコントロールが、ビデオゲームの方向制御パッドである、請求項377〜384のいずれか一項に記載の方法。
  386. 前記機器が、前記機器の前記ユーザインタフェースを再構成することと関連付けられていない通常の動作モードになっている間に、前記第1の指紋を検出したことに応じて、前記それぞれのコントロールが前記ディスプレイ上の前記第1のロケーションに表示される、請求項377〜385のいずれか一項に記載の方法。
  387. 電子機器であって、
    ディスプレイと、
    タッチ感知面と、
    指紋センサと、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、
    前記ディスプレイにユーザインタフェースを表示し、
    前記タッチ感知面上の前記ユーザインタフェースのそれぞれのコントロールを移動させることと関連付けられた第1の指紋を検出し、これにおいて前記第1の指紋が前記それぞれのコントロールを含まない前記ディスプレイ上の第1のロケーションにあるフォーカスセレクタに対応しており、
    前記第1の指紋を検出したことに応じて、前記ディスプレイ上の前記第1のロケーションで前記それぞれのコントロールを表示する、ための命令を含む、電子機器。
  388. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、ディスプレイと、タッチ感知面と、指紋センサと、を有する電子機器によって実行されたときに、前記機器に、
    前記ディスプレイにユーザインタフェースを表示させ、
    前記タッチ感知面上の前記ユーザインタフェースのそれぞれのコントロールを移動させることと関連付けられた第1の指紋を検出させ、これにおいて前記第1の指紋が前記それぞれのコントロールを含まない前記ディスプレイ上の第1のロケーションにあるフォーカスセレクタに対応しており、
    前記第1の指紋を検出したことに応じて、前記ディスプレイ上の前記第1のロケーションに前記それぞれのコントロールを表示させる、ための命令を備える、コンピュータ可読記憶媒体。
  389. ディスプレイと、タッチ感知面と、指紋センサと、メモリと、前記メモリに記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサと、を有する電子機器のグラフィカルユーザインタフェースであって、
    ユーザインタフェースを備え、
    前記タッチ感知面上の前記ユーザインタフェースのそれぞれのコントロールを移動させることと関連付けられた第1の指紋を検出したことに応じて、これにおいて前記第1の指紋が、前記それぞれのコントロールを含まない前記ディスプレイ上の第1のロケーションにあるフォーカスセレクタに対応しており、前記それぞれのコントロールが前記ディスプレイ上の前記第1のロケーションに表示される、グラフィカルユーザインタフェース。
  390. 電子機器であって、
    ディスプレイと、
    タッチ感知面と、
    指紋センサと、
    前記ディスプレイにユーザインタフェースを表示するための手段と、
    前記タッチ感知面上の前記ユーザインタフェースのそれぞれのコントロールを移動させることと関連付けられた第1の指紋を検出するための手段であって、前記第1の指紋が前記それぞれのコントロールを含まない前記ディスプレイ上の第1のロケーションにあるフォーカスセレクタに対応する、手段と、
    前記第1の指紋を検出したことに応じて、前記ディスプレイ上の前記第1のロケーションで前記それぞれのコントロールを表示するための手段と、を備える、電子機器。
  391. ディスプレイと、タッチ感知面と、指紋センサと、を有する電子機器で使用するための情報処理装置であって、
    前記ディスプレイにユーザインタフェースを表示するための手段と、
    前記タッチ感知面上の前記ユーザインタフェースのそれぞれのコントロールを移動させることと関連付けられた第1の指紋を検出するための手段であって、前記第1の指紋が前記それぞれのコントロールを含まない前記ディスプレイ上の第1のロケーションにあるフォーカスセレクタに対応する、手段と、
    前記第1の指紋を検出したことに応じて、前記ディスプレイ上の前記第1のロケーションで前記それぞれのコントロールを表示するための手段と、を備える、情報処理装置。
  392. 電子機器であって、
    ディスプレイと、
    指紋センサと、
    タッチ感知面と、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項377〜386に記載の方法のいずれかを実行するための命令を含む、電子機器。
  393. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、ディスプレイと、タッチ感知面と、指紋センサと、を有する電子機器によって実行されたときに、請求項377〜386に記載の方法のいずれかを前記機器に実行させるための命令を備える、コンピュータ可読記憶媒体。
  394. ディスプレイと、タッチ感知面と、指紋センサと、メモリと、前記メモリに記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサと、を有する電子機器のグラフィカルユーザインタフェースであって、請求項377〜386に記載の方法のいずれかに従って表示されるユーザインタフェースを備える、グラフィカルユーザインタフェース。
  395. 電子機器であって、
    ディスプレイと、
    タッチ感知面と、
    指紋センサと、
    請求項377〜386に記載の方法のいずれかを実行するための手段と、を備える、電子機器。
  396. ディスプレイと、タッチ感知面と、指紋センサと、を有する電子機器で使用するための情報処理装置であって、
    請求項377〜386に記載の方法のいずれかを実行するための手段を備える、情報処理装置。
  397. 電子機器であって、
    ユーザインタフェースを表示するように構成されたディスプレイユニットと、
    1つ以上の接触を受け取るように構成されたタッチ感知面ユニットと、
    指紋センサユニットと、
    前記ディスプレイユニット、前記タッチ感知面ユニット、及び前記指紋センサユニットに連結された処理ユニットであって、
    前記タッチ感知面ユニット上の前記ユーザインタフェースのそれぞれのコントロールを移動させることと関連付けられた第1の指紋を検出し、これにおいて前記第1の指紋が、前記それぞれのコントロールを含まない前記ディスプレイユニット上の第1のロケーションにあるフォーカスセレクタに対応しており、
    前記第1の指紋を検出したことに応じて、前記ディスプレイユニット上の前記第1のロケーションで前記それぞれのコントロールの表示を有効化する、
    ように構成された前記処理ユニットと、を備える、電子機器。
  398. 前記それぞれのコントロールが、前記第1の指紋を検出する前に前記ディスプレイユニットに表示されない、請求項397に記載の電子機器。
  399. 前記処理ユニットが、前記第1の指紋を検出する前に、第1のロケーションとは異なる以前のロケーションで前記それぞれのコントロールの表示を有効化し、
    前記第1の指紋を検出したことに応じて、前記以前のロケーションにおける前記それぞれのコントロールを表示するのを中止する、ように構成されている、請求項397に記載の電子機器。
  400. 前記処理ユニットが、前記それぞれのコントロールが前記以前のロケーションに表示されると、
    前記それぞれのコントロールと関連付けられた動作を実行することにより、前記以前のロケーションに対応する入力に応答し、
    前記それぞれのコントロールが前記第1のロケーションに表示されると、前記それぞれのコントロールと関連付けられた動作を実行することにより、前記第1のロケーションに対応する入力に応答する、ように構成されている、請求項399に記載の電子機器。
  401. 前記ディスプレイユニットがタッチスクリーンディスプレイユニットであり、
    前記それぞれのコントロールが表示される前記第1のロケーションが、前記タッチスクリーンディスプレイユニット上の前記第1の指紋のロケーションに対応する、請求項397〜400のいずれか一項に記載の電子機器。
  402. 前記処理ユニットが、
    前記第1の指紋のリフトオフを検出し、
    前記第1の指紋のリフトオフを検出した後に、前記それぞれのコントロールの表示を前記ディスプレイユニット上の前記第1のロケーションに維持する、ように更に構成されている、請求項397〜401のいずれか一項に記載の電子機器。
  403. 前記処理ユニットが、
    前記ディスプレイ上の第1のロケーションに前記それぞれのコントロールを表示している間に、前記ディスプレイ上の第2のロケーションにあるフォーカスセレクタに対応するそれぞれの指紋を前記タッチ感知面において検出し、これにおいて前記第2のロケーションが、前記第1のロケーションとは異なり、前記それぞれのコントロールを含まず、
    前記それぞれの指紋を検出したことに応じて、前記それぞれの指紋が、前記タッチ感知面ユニット上の前記ユーザインタフェースの前記それぞれのコントロールを移動させることと関連付けられた前記第1の指紋であるという判定に従って、
    前記ディスプレイユニット上の前記第1のロケーションに前記それぞれのコントロールを表示するのを中止し、
    前記ディスプレイユニット上の前記第2のロケーションにおける前記それぞれのコントロールの表示を有効化する、
    ように更に構成されている、請求項397〜402のいずれか一項に記載の電子機器。
  404. 前記それぞれの指紋を検出したことに応じて、かつ前記それぞれの指紋が前記第1の指紋とは異なる第2の指紋であり、前記タッチ感知面ユニット上の前記ユーザインタフェースの前記それぞれのコントロールを移動させることと関連付けられていないという判定に従って、前記処理ユニットが、前記ディスプレイユニット上の前記第1のロケーションでの前記それぞれのコントロールの表示を維持するように更に構成されている、請求項403に記載の電子機器。
  405. 前記それぞれのコントロールがビデオゲームの方向制御パッドである、請求項397〜404のいずれか一項に記載の電子機器。
  406. 前記機器が、前記機器の前記ユーザインタフェースを再構成することと関連付けられていない通常の動作モードになっている間に、前記処理ユニットが、前記第1の指紋を検出したことに応じて、前記ディスプレイユニット上の前記第1のロケーションにおける前記それぞれのコントロールの表示を有効化するように構成されている、請求項397〜405のいずれか一項に記載の電子機器。
  407. ディスプレイと指紋センサとを有する電子機器において、
    前記第1の電子機器の前記指紋センサにおいて第1の指紋を第1の時期に検出するステップであって、前記第1の指紋が、それぞれのユーザに登録されている、ステップと、
    前記第1の電子機器とは別の第2の電子機器から、前記第2の機器の指紋センサにおいて第2の指紋が第2の時期に検出されたことを示す情報を含む、通信情報を受信するステップと、
    前記第1の指紋を検出し、前記第2の電子機器から前記通信情報を受信したことに応じて、
    既定の補助ディスプレイ基準が満たされたかどうかを判定するステップであって、前記補助ディスプレイ基準が、前記第2の指紋が前記それぞれのユーザに登録されている場合に満たされる基準を含む、ステップと、
    前記補助ディスプレイ基準が満たされているという判定に従って、前記第2の電子機器を前記第1の電子機器の補助ディスプレイとして構成できるようにする応答を前記第2の電子機器に送信するステップと、
    前記補助ディスプレイ基準が満たされていないという判定に従って、前記第2の電子機器を前記第1の電子機器の前記補助ディスプレイとして構成できるようにする前記応答を前記第2の電子機器に送信するのを取り止めるステップと、
    を含む、方法。
  408. 前記補助ディスプレイ基準が、前記第1の時期が前記第2の時期から既定の時間内である場合に満たされる基準を含む、請求項407に記載の方法。
  409. 前記補助ディスプレイ基準が、前記第2の機器を補助ディスプレイとして構成することが要求されたという確認を前記第1の機器が受信した場合に満たされる基準を含む、請求項407〜408のいずれか一項に記載の方法。
  410. 前記第1の機器の前記ディスプレイに表示されたユーザインタフェースの向きが、前記第1の機器の前記ディスプレイの既定軸に対する前記第1の指紋の向きに従って判定され、
    前記第2の機器の前記ディスプレイに表示されたユーザインタフェースの向きが、前記第2の機器の前記ディスプレイの既定軸に対する前記第2の指紋の向きに従って判定される、請求項407〜409のいずれか一項に記載の方法。
  411. 前記第1の指紋のアイデンティティと前記第2の指紋のアイデンティティとのうちの少なくとも一方に従って、前記補助ディスプレイを有する前記第1の機器の前記ディスプレイに表示されたユーザインタフェースを拡張する方向を判定するステップを含む、請求項407〜410のいずれか一項に記載の方法。
  412. 第1のアプリケーションが前記第1の機器でアクティブなアプリケーションである間に、前記第1の指紋及び前記第2の指紋が検出され、
    前記第2の電子機器を前記第1の電子機器の補助ディスプレイとして構成できるようにする応答を前記第2の電子機器に送信した後に、
    前記第2の電子機器を前記第1の機器の補助ディスプレイとして構成し、
    前記第2の電子機器が前記第1の機器の補助ディスプレイとして構成されている間に、前記第2の機器が、前記第1のアプリケーションと関連付けられた1つ以上のユーザインタフェース要素のセットを表示できるようにするための命令を前記第2の機器に送信する、
    請求項407〜411のいずれか一項に記載の方法。
  413. 前記第1のアプリケーションと関連付けられた前記1つ以上のユーザインタフェース要素のセットが、前記第1のアプリケーションで動作を実行するための1つ以上のコントロールを含む、請求項412に記載の方法。
  414. 前記第1のアプリケーションと関連付けられた前記1つ以上のユーザインタフェース要素のセットが、前記第1の機器の前記ディスプレイに表示された作業空間の延長である作業空間の一部分を含む、請求項412に記載の方法。
  415. 前記第2の電子機器が前記第1の機器の前記補助ディスプレイとして構成されている間に、
    前記第2の機器によって検出された入力を示す入力データを受信するステップであって、前記入力が、前記第2の機器の前記ディスプレイに表示される前記第1のアプリケーションと関連付けられた前記ユーザインタフェース要素のうちの1つ以上との対話に対応する、ステップと、
    前記入力データに従って前記第1のアプリケーションと関連付けられた動作を実行するステップと、を含む、請求項412〜414のいずれか一項に記載の方法。
  416. 前記第2の電子機器が前記第1の機器の前記補助ディスプレイとして構成されている間に、
    前記第2の機器の前記ディスプレイに表示される前記第1のアプリケーションと関連付けられた前記ユーザインタフェース要素のうちの1つ以上との対話に対応する1つ以上の動作を指定する、動作データを前記第2の電子機器から受信するステップと、
    前記1つ以上の動作を実行するステップと、を含む、請求項412〜415のいずれか一項に記載の方法。
  417. 前記第2の電子機器が前記第1の機器の前記補助ディスプレイとして構成されている間に、
    前記第1の機器のタッチ感知面において第1のジェスチャを検出するステップと、前記第2の機器のタッチ感知面で検出された第2のジェスチャを表す前記第2の機器からの通信情報を受信するステップと、
    前記第1のジェスチャを検出し、前記第2のジェスチャを示す前記通信情報を受信したことに応じて、前記第1の機器の前記ディスプレイと前記第2の機器の前記ディスプレイとの間で、前記第1のアプリケーションと関連付けられたユーザインタフェースオブジェクトを移動させるステップと、を含む、請求項412〜416のいずれか一項に記載の方法。
  418. 電子機器であって、
    ディスプレイと、
    指紋センサと、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、
    前記第1の電子機器の前記指紋センサにおける第1の指紋を第1の時期に検出し、これにおいて前記第1の指紋が、それぞれのユーザに登録されており、
    前記第1の電子機器とは別の第2の電子機器から、前記第2の機器の指紋センサにおける第2の指紋が第2の時期に検出されたことを示す情報を含む、通信情報を受信し、
    前記第1の指紋を検出し、前記第2の電子機器から前記通信情報を受信したことに応じて、
    既定の補助ディスプレイ基準が満たされたかどうかを判定し、これにおいて前記補助ディスプレイ基準が、前記第2の指紋が前記それぞれのユーザに登録されている場合に満たされる基準を含んでおり、
    前記補助ディスプレイ基準が満たされているという判定に従って、前記第2の電子機器を前記第1の電子機器の補助ディスプレイとして構成できるようにする応答を前記第2の電子機器に送信し、
    前記補助ディスプレイ基準が満たされていないという判定に従って、前記第2の電子機器を前記第1の電子機器の前記補助ディスプレイとして構成できるようにする前記応答を前記第2の電子機器に送信するのを取り止める、
    ための命令を含む、電子機器。
  419. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、ディスプレイと指紋センサとを有する電子機器によって実行されたときに、前記機器に、
    前記第1の電子機器の前記指紋センサにおける第1の指紋を第1の時期に検出させ、これにおいて前記第1の指紋が、それぞれのユーザに登録されており、
    前記第1の電子機器とは別の第2の電子機器から、第2の指紋が第2の時期に前記第2の機器の指紋センサにおいて検出されたことを示す情報を含む、通信情報を受信させ、
    前記第1の指紋を検出し、前記第2の電子機器から前記通信情報を受信したことに応じて、
    既定の補助ディスプレイ基準が満たされたかどうかを判定させ、これにおいて前記補助ディスプレイ基準が、前記第2の指紋が前記それぞれのユーザに登録されている場合に満たされる基準を含んでおり、
    前記補助ディスプレイ基準が満たされているという判定に従って、前記第2の電子機器を前記第1の電子機器の補助ディスプレイとして構成できるようにする応答を前記第2の電子機器に対して送信させ、
    前記補助ディスプレイ基準が満たされていないという判定に従って、前記第2の電子機器を前記第1の電子機器の前記補助ディスプレイとして構成できるようにする前記応答を前記第2の電子機器に対して送信するのを取り止めさせる、
    ための命令を備える、コンピュータ可読記憶媒体。
  420. ディスプレイと、指紋センサと、メモリと、前記メモリに記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサと、を有する第1の電子機器のグラフィカルユーザインタフェースであって、
    第1のユーザインタフェースを備え、
    前記第1の電子機器の前記指紋センサにおける第1の指紋が第1の時期に検出され、これにおいて前記第1の指紋が、それぞれのユーザに登録されており、
    前記第1の電子機器とは別の第2の電子機器から、前記第2の機器の指紋センサにおける第2の指紋が第2の時期に検出されたことを示す情報を含む、通信情報が受信され、
    前記第1の指紋を検出し、前記第2の電子機器から前記通信情報を受信したことに応じて、
    既定の補助ディスプレイ基準が満たされたかどうかが判定され、これにおいて前記補助ディスプレイ基準が、前記第2の指紋が前記それぞれのユーザに登録されている場合に満たされる基準を含んでおり、
    前記補助ディスプレイ基準が満たされているという判定に従って、前記第2の電子機器を前記第1の電子機器の補助ディスプレイとして構成できるようにする応答が前記第2の電子機器に対して送信されて、前記第1のユーザインタフェースが前記第2の電子機器へと拡張され、
    前記補助ディスプレイ基準が満たされていないという判定に従って、前記第2の電子機器を前記第1の電子機器の補助ディスプレイとして構成できるようにする応答が前記第2の電子機器に対して送信されず、前記第1のユーザインタフェースが前記第2の電子機器へと拡張されない、
    グラフィカルユーザインタフェース。
  421. 電子機器であって、
    ディスプレイと、
    指紋センサと、
    前記第1の電子機器の前記指紋センサにおける第1の指紋を第1の時期に検出するための手段であって、前記第1の指紋が、それぞれのユーザに登録されている、手段と、
    前記第1の電子機器とは別の第2の電子機器から、前記第2の機器の指紋センサにおける第2の指紋が第2の時期に検出されたことを示す情報を含む、通信情報を受信するための手段と、
    前記第1の指紋を検出し、前記第2の電子機器から前記通信情報を受信したことに応じて、
    既定の補助ディスプレイ基準が満たされたかどうかを判定し、これにおいて前記補助ディスプレイ基準が、前記第2の指紋が前記それぞれのユーザに登録されている場合に満たされる基準を含んでおり、
    前記補助ディスプレイ基準が満たされているという判定に従って、前記第2の電子機器を前記第1の電子機器の補助ディスプレイとして構成できるようにする応答を前記第2の電子機器に対して送信し、
    前記補助ディスプレイ基準が満たされていないという判定に従って、前記第2の電子機器を前記第1の電子機器の前記補助ディスプレイとして構成できるようにする前記応答を前記第2の電子機器に対して送信するのを取り止める、ための手段と、を備える、電子機器。
  422. ディスプレイと指紋センサとを有する電子機器で使用するための情報処理装置であって、
    前記第1の電子機器の前記指紋センサにおける第1の指紋を第1の時期に検出するための手段であって、前記第1の指紋が、それぞれのユーザに登録されている、手段と、
    前記第1の電子機器とは別の第2の電子機器から、前記第2の機器の指紋センサにおける第2の指紋が第2の時期に検出されたことを示す情報を含む、通信情報を受信するための手段と、
    前記第1の指紋を検出し、前記第2の電子機器から前記通信情報を受信したことに応じて、
    既定の補助ディスプレイ基準が満たされたかどうかを判定し、これにおいて前記補助ディスプレイ基準が、前記第2の指紋が前記それぞれのユーザに登録されている場合に満たされる基準を含んでおり、
    前記補助ディスプレイ基準が満たされているという判定に従って、前記第2の電子機器を前記第1の電子機器の補助ディスプレイとして構成できるようにする応答を前記第2の電子機器に対して送信し、
    前記補助ディスプレイ基準が満たされていないという判定に従って、前記第2の電子機器を前記第1の電子機器の前記補助ディスプレイとして構成できるようにする前記応答を前記第2の電子機器に対して送信するのを取り止める、ための手段と、
    を備える、情報処理装置。
  423. 電子機器であって、
    ディスプレイと、
    指紋センサと、1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項407〜417に記載の方法のいずれかを実行するための命令を含む、電子機器。
  424. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、ディスプレイと指紋センサとを有する電子機器によって実行されたときに、請求項407〜417に記載の方法のいずれかを前記機器に実行させるための命令を備える、コンピュータ可読記憶媒体。
  425. ディスプレイと、指紋センサと、メモリと、前記メモリに記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサと、を有する電子機器のグラフィカルユーザインタフェースであって、請求項407〜417に記載の方法のいずれかに従って表示されるユーザインタフェースを備える、グラフィカルユーザインタフェース。
  426. 電子機器であって、
    ディスプレイと、
    指紋センサと、
    請求項407〜417に記載の方法のいずれかを実行するための手段と、を備える、電子機器。
  427. ディスプレイと指紋センサとを有する電子機器で使用するための情報処理装置であって、
    請求項407〜417に記載の方法のいずれかを実行するための手段を備える、情報処理装置。
  428. 第1の電子機器であって、
    ユーザインタフェースを表示するように構成されたディスプレイユニットと、
    指紋センサユニットと、
    前記ディスプレイユニット及び前記指紋センサユニットに連結された処理ユニットであって、
    前記第1の電子機器の前記指紋センサユニットにおける第1の指紋を第1の時期に検出し、これにおいて前記第1の指紋が、それぞれのユーザに登録されており、
    前記第1の電子機器とは別の第2の電子機器から、第2の指紋が第2の時期に前記第2の機器の指紋センサユニットにおいて検出されたことを示す情報を含む、通信情報を受信し、
    前記第1の指紋を検出し、前記第2の電子機器から前記通信情報を受信したことに応じて、
    既定の補助ディスプレイ基準が満たされたかどうかを判定し、これにおいて前記補助ディスプレイ基準が、前記第2の指紋が前記それぞれのユーザに登録されている場合に満たされる基準を含んでおり、
    前記補助ディスプレイ基準が満たされているという判定に従って、前記第2の電子機器を前記第1の電子機器の補助ディスプレイとして構成できるようにする応答を前記第2の電子機器に対して送信し、
    前記補助ディスプレイ基準が満たされていないという判定に従って、前記第2の電子機器を前記第1の電子機器の前記補助ディスプレイとして構成できるようにする前記応答を前記第2の電子機器に対して送信するのを取り止める、
    ように構成された処理ユニットと、を備える、第1の電子機器。
  429. 前記補助ディスプレイ基準が、前記第1の時期が前記第2の時期から既定の時間内である場合に満たされる基準を含む、請求項428に記載の電子機器。
  430. 前記補助ディスプレイ基準が、前記第2の機器を補助ディスプレイとして構成することが要求されたという確認を前記第1の機器が受信した場合に満たされる基準を含む、請求項428〜429のいずれか一項に記載の電子機器。
  431. 前記第1の機器の前記ディスプレイユニットに表示されたユーザインタフェースの向きが、前記第1の機器の前記ディスプレイユニットの既定軸に対する前記第1の指紋の向きに従って判定され、
    前記第2の機器の前記ディスプレイユニットに表示されたユーザインタフェースの向きが、前記第2の機器の前記ディスプレイユニットの既定軸に対する前記第2の指紋の向きに従って判定される、請求項428〜430のいずれか一項に記載の電子機器。
  432. 前記処理ユニットが、
    前記第1の指紋のアイデンティティと前記第2の指紋のアイデンティティとのうちの少なくとも一方に従って、前記補助ディスプレイを有する前記第1の機器の前記ディスプレイに表示されたユーザインタフェースを拡張する方向を判定する、
    ように更に構成されている、請求項428〜431のいずれか一項に記載の電子機器。
  433. 第1のアプリケーションが前記第1の機器でアクティブなアプリケーションである間に、前記第1の指紋及び前記第2の指紋が検出され、
    前記処理ユニットが、前記第2の電子機器を前記第1の電子機器の補助ディスプレイとして構成できるようにする応答を前記第2の電子機器に対して送信した後に、
    前記第2の電子機器を前記第1の機器の補助ディスプレイとして構成し、
    前記第2の電子機器が前記第1の機器の補助ディスプレイとして構成されている間に、前記第2の機器が前記第1のアプリケーションと関連付けられた1つ以上のユーザインタフェース要素のセットを表示できるようにするための前記第2の機器に対する命令を送信する、
    ように更に構成されている、請求項428〜432のいずれか一項に記載の電子機器。
  434. 前記第1のアプリケーションと関連付けられた前記1つ以上のユーザインタフェース要素のセットが、前記第1のアプリケーションで動作を実行するための1つ以上のコントロールを含む、請求項433に記載の電子機器。
  435. 前記第1のアプリケーションと関連付けられた前記1つ以上のユーザインタフェース要素のセットが、前記第1の機器の前記ディスプレイユニットに表示された作業空間の延長である作業空間の一部分を含む、請求項433〜434のいずれか一項に記載の電子機器。
  436. 前記第2の電子機器が前記第1の機器の前記補助ディスプレイとして構成されている間に、前記処理ユニットが、
    前記第2の機器によって検出された入力を示す入力データを受信し、これにおいて前記入力が、前記第2の機器の前記ディスプレイユニットに表示される前記第1のアプリケーションと関連付けられた前記ユーザインタフェース要素のうちの1つ以上との対話に対応しており、
    前記入力データに従って前記第1のアプリケーションと関連付けられた動作を実行する、ように更に構成されている、請求項433〜435のいずれか一項に記載の電子機器。
  437. 前記第2の電子機器が前記第1の機器の前記補助ディスプレイとして構成されている間に、前記処理ユニットが、
    前記第2の機器の前記ディスプレイユニットに表示される前記第1のアプリケーションと関連付けられた前記ユーザインタフェース要素のうちの1つ以上との対話に対応する1つ以上の動作を指定する、動作データを前記第2の電子機器から受信し、
    前記1つ以上の動作を実行する、ように更に構成されている、請求項433〜436のいずれか一項に記載の電子機器。
  438. 前記第2の電子機器が前記第1の機器の前記補助ディスプレイとして構成されている間に、前記処理ユニットが、
    前記第1の機器のタッチ感知面ユニットにおいて第1のジェスチャを検出し、
    前記第2の機器のタッチ感知面ユニットで検出された第2のジェスチャを表す前記第2の機器からの通信情報を受信し、
    前記第1のジェスチャを検出し、前記第2のジェスチャを示す前記通信情報を受信したことに応じて、前記第1の機器の前記ディスプレイユニットと前記第2の機器の前記ディスプレイユニットとの間で、前記第1のアプリケーションと関連付けられたユーザインタフェースオブジェクトを移動させる、ように更に構成されている、請求項433〜437のいずれか一項に記載の電子機器。
  439. ディスプレイと指紋センサとを有する電子機器において、
    第1の指紋が前記指紋センサにおいて第1の向きで検出されている間に、第1のビーム形成パラメータのセットに従って1つ以上の音声要素のセットを動作させるステップと、
    前記指紋センサにおいて前記第1の向きとは異なる第2の向きを有する以降の指紋を検出するステップであって、前記以降の指紋が、変更された向きを有する前記第1の指紋と、前記第1の指紋とは別の第2の指紋と、からなるセットから選択される、ステップと、
    前記指紋センサにおいて前記第2の向きを有する前記以降の指紋を検出したことに応じて、前記第1のビーム形成パラメータのセットとは異なる第2のビーム形成パラメータのセットに従って前記1つ以上の音声要素のセットを動作させるステップと、を含む、方法。
  440. 前記1つ以上の音声要素のセットが複数のスピーカを含む、請求項439に記載の方法。
  441. 前記1つ以上の音声要素のセットが複数のマイクロフォンを含む、請求項439に記載の方法。
  442. 前記1つ以上の音声要素のセットが1つ以上のマイクロフォンと1つ以上のスピーカとを含む、請求項439に記載の方法。
  443. 前記指紋センサにおいて前記第2の向きを有する前記以降の指紋を検出したことに応じて、対応する指紋の向きと関連付けられた複数の既定のビーム形成パラメータのセットから前記第2のビーム形成パラメータのセットを選択するステップを含む、請求項439〜442のいずれか一項に記載の方法。
  444. 前記第1のビーム形成パラメータのセットと前記第2のビーム形成パラメータのセットとの違いが、前記機器の前記音声要素に対する前記機器のユーザの口がある可能性の高いロケーションの変化を補償する、請求項439〜443のいずれか一項に記載の方法。
  445. 前記第1のビーム形成パラメータのセットと前記第2のビーム形成パラメータのセットとの違いが、前記機器の前記音声要素に対する前記機器のユーザの耳がある可能性の高いロケーションの変化を補償する、請求項439〜443のいずれか一項に記載の方法。
  446. 前記第1のビーム形成パラメータのセットと前記第2のビーム形成パラメータのセットとの違いが、前記機器の前記音声要素に対する前記機器のユーザの手がある可能性の高いロケーションの変化を補償する、請求項439〜443のいずれか一項に記載の方法。
  447. 電子機器であって、
    ディスプレイと、
    指紋センサと、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、
    第1の指紋が前記指紋センサにおける第1の向きで検出されている間に、第1のビーム形成パラメータのセットに従って1つ以上の音声要素のセットを動作させ、
    前記指紋センサにおける前記第1の向きとは異なる第2の向きを有する以降の指紋を検出し、これにおいて前記以降の指紋が、変更された向きを有する前記第1の指紋と、前記第1の指紋とは別の第2の指紋と、からなるセットから選択され、
    前記指紋センサにおける前記第2の向きを有する前記以降の指紋を検出したことに応じて、前記第1のビーム形成パラメータのセットとは異なる第2のビーム形成パラメータのセットに従って前記1つ以上の音声要素のセットを動作させる、ための命令を含む、電子機器。
  448. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、ディスプレイと指紋センサとを有する電子機器によって実行されたときに、前記機器に、
    第1の指紋が前記指紋センサにおける第1の向きで検出されている間に、第1のビーム形成パラメータのセットに従って1つ以上の音声要素のセットを動作させることと、
    前記指紋センサにおける前記第1の向きとは異なる第2の向きを有する以降の指紋を検出することであって、前記以降の指紋が、変更された向きを有する前記第1の指紋と、前記第1の指紋とは別の第2の指紋と、からなるセットから選択される、検出することと、
    前記指紋センサにおける前記第2の向きを有する前記以降の指紋を検出したことに応じて、前記第1のビーム形成パラメータのセットとは異なる第2のビーム形成パラメータのセットに従って前記1つ以上の音声要素のセットを動作させることと、
    を行わせるための命令を備える、コンピュータ可読記憶媒体。
  449. ディスプレイと、指紋センサと、メモリと、前記メモリに記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサと、を有する電子機器のグラフィカルユーザインタフェースであって、
    1つ以上のユーザインタフェースオブジェクトを備え、
    第1の指紋が前記指紋センサにおける第1の向きで検出されている間に、第1のビーム形成パラメータのセットに従って1つ以上の音声要素のセットが動作させられ、
    前記指紋センサにおいて前記第1の向きとは異なる第2の向きを有する以降の指紋が検出され、これにおいて前記以降の指紋が、変更された向きを有する前記第1の指紋と、前記第1の指紋とは別の第2の指紋と、からなるセットから選択され、
    前記指紋センサにおける前記第2の向きを有する前記以降の指紋を検出したことに応じて、前記第1のビーム形成パラメータのセットとは異なる第2のビーム形成パラメータのセットに従って前記1つ以上の音声要素のセットが動作させられる、グラフィカルユーザインタフェース。
  450. 電子機器であって、
    ディスプレイと、
    指紋センサと、
    第1の指紋が前記指紋センサにおいて第1の向きで検出されている間に、第1のビーム形成パラメータのセットに従って1つ以上の音声要素のセットを動作させるための手段と、
    前記指紋センサにおいて前記第1の向きとは異なる第2の向きを有する以降の指紋を検出するための手段であって、前記以降の指紋が、変更された向きを有する前記第1の指紋と、前記第1の指紋とは別の第2の指紋と、からなるセットから選択される、手段と、
    前記指紋センサにおいて前記第2の向きを有する前記以降の指紋を検出したことに応じて、前記第1のビーム形成パラメータのセットとは異なる第2のビーム形成パラメータのセットに従って前記1つ以上の音声要素のセットを動作させるための手段と、を備える、電子機器。
  451. ディスプレイと指紋センサとを有する電子機器で使用するための情報処理装置であって、
    第1の指紋が前記指紋センサにおいて第1の向きで検出されている間に、第1のビーム形成パラメータのセットに従って1つ以上の音声要素のセットを動作させるための手段と、
    前記指紋センサにおいて前記第1の向きとは異なる第2の向きを有する以降の指紋を検出するための手段であって、前記以降の指紋が、変更された向きを有する前記第1の指紋と、前記第1の指紋とは別の第2の指紋と、からなるセットから選択される、手段と、
    前記指紋センサにおいて前記第2の向きを有する前記以降の指紋を検出したことに応じて、前記第1のビーム形成パラメータのセットとは異なる第2のビーム形成パラメータのセットに従って前記1つ以上の音声要素のセットを動作させるための手段と、を備える、情報処理装置。
  452. 電子機器であって、
    ディスプレイと、
    指紋センサと、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項439〜446に記載の方法のいずれかを実行するための命令を含む、電子機器。
  453. 1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、ディスプレイと指紋センサとを有する電子機器によって実行されたときに、請求項439〜446に記載の方法のいずれかを前記機器に実行させるための命令を備える、コンピュータ可読記憶媒体。
  454. ディスプレイと、指紋センサと、メモリと、前記メモリに記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサとを有する電子機器のグラフィカルユーザインタフェースであって、請求項439〜446に記載の方法のいずれかに従って表示されるユーザインタフェースを備える、グラフィカルユーザインタフェース。
  455. 電子機器であって、
    ディスプレイと、
    指紋センサと、
    請求項439〜446に記載の方法のいずれかを実行するための手段と、を備える、電子機器。
  456. ディスプレイと指紋センサとを有する電子機器で使用するための情報処理装置であって、
    請求項439〜446に記載の方法のいずれかを実行するための手段を備える、情報処理装置。
  457. 電子機器であって、
    1つ以上のユーザインタフェースオブジェクトを表示するように構成されたディスプレイユニットと、
    指紋センサユニットと、
    音声信号を生成及び/又はキャプチャするように構成された1つ以上の音声ユニットのセットと、
    前記ディスプレイユニット、前記指紋センサユニット、及び前記1つ以上の音声ユニットのセットに連結された処理ユニットであって、
    第1の指紋が前記指紋センサユニットにおいて第1の向きで検出されている間に、第1のビーム形成パラメータのセットに従って前記1つ以上の音声ユニットのセットを動作させ、
    前記指紋センサユニットにおける前記第1の向きとは異なる第2の向きを有する以降の指紋を検出し、これにおいて前記以降の指紋が、変更された向きを有する前記第1の指紋と、前記第1の指紋とは別の第2の指紋と、からなるセットから選択され、
    前記指紋センサユニットにおける前記第2の向きを有する前記以降の指紋を検出したことに応じて、前記第1のビーム形成パラメータのセットとは異なる第2のビーム形成パラメータのセットに従って前記1つ以上の音声ユニットのセットを動作させる、
    ように構成された処理ユニットと、を備える、電子機器。
  458. 前記1つ以上の音声ユニットのセットが複数のスピーカを含む、請求項457に記載の電子機器。
  459. 前記1つ以上の音声ユニットのセットが複数のマイクロフォンを含む、請求項457に記載の電子機器。
  460. 前記1つ以上の音声ユニットのセットが1つ以上のマイクロフォンと1つ以上のスピーカとを含む、請求項457に記載の電子機器。
  461. 前記処理ユニットが、
    前記指紋センサユニットにおいて前記第2の向きを有する前記以降の指紋を検出したことに応じて、対応する指紋の向きと関連付けられた複数の既定のビーム形成パラメータのセットから前記第2のビーム形成パラメータのセットを選択する、ように更に構成されている、請求項457〜460のいずれか一項に記載の電子機器。
  462. 前記第1のビーム形成パラメータのセットと前記第2のビーム形成パラメータのセットとの違いが、前記1つ以上の音声ユニットに対する前記機器のユーザの口がある可能性の高いロケーションの変化を補償する、請求項457〜461のいずれか一項に記載の電子機器。
  463. 前記第1のビーム形成パラメータのセットと前記第2のビーム形成パラメータのセットとの違いが、前記1つ以上の音声ユニットに対する前記機器のユーザの耳がある可能性の高いロケーションの変化を補償する、請求項457〜461のいずれか一項に記載の電子機器。
  464. 前記第1のビーム形成パラメータのセットと前記第2のビーム形成パラメータのセットとの違いが、前記1つ以上の音声ユニットに対する前記機器のユーザの手がある可能性の高いロケーションの変化を補償する、請求項457〜461のいずれか一項に記載の電子機器。
JP2020128391A 2012-05-18 2020-07-29 指紋センサ入力に基づくユーザインタフェースを操作するための機器、方法、及びグラフィカルユーザインタ-フェース Active JP7345442B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201261649207P 2012-05-18 2012-05-18
US61/649,207 2012-05-18
US201261667926P 2012-07-03 2012-07-03
US61/667,926 2012-07-03
US201361794710P 2013-03-15 2013-03-15
US61/794,710 2013-03-15
JP2018120019A JP2018200696A (ja) 2012-05-18 2018-06-25 指紋センサ入力に基づくユーザインタフェースを操作するための機器、方法、及びグラフィカルユーザインタ−フェース

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018120019A Division JP2018200696A (ja) 2012-05-18 2018-06-25 指紋センサ入力に基づくユーザインタフェースを操作するための機器、方法、及びグラフィカルユーザインタ−フェース

Publications (3)

Publication Number Publication Date
JP2020198105A true JP2020198105A (ja) 2020-12-10
JP2020198105A5 JP2020198105A5 (ja) 2021-03-04
JP7345442B2 JP7345442B2 (ja) 2023-09-15

Family

ID=48576561

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2015512913A Active JP6023879B2 (ja) 2012-05-18 2013-05-20 指紋センサ入力に基づくユーザインタフェースを操作するための機器、方法、及びグラフィカルユーザインタ−フェース
JP2016199379A Active JP6360866B2 (ja) 2012-05-18 2016-10-07 指紋センサ入力に基づくユーザインタフェースを操作するための機器、方法、及びグラフィカルユーザインタ−フェース
JP2018120019A Pending JP2018200696A (ja) 2012-05-18 2018-06-25 指紋センサ入力に基づくユーザインタフェースを操作するための機器、方法、及びグラフィカルユーザインタ−フェース
JP2020128391A Active JP7345442B2 (ja) 2012-05-18 2020-07-29 指紋センサ入力に基づくユーザインタフェースを操作するための機器、方法、及びグラフィカルユーザインタ-フェース

Family Applications Before (3)

Application Number Title Priority Date Filing Date
JP2015512913A Active JP6023879B2 (ja) 2012-05-18 2013-05-20 指紋センサ入力に基づくユーザインタフェースを操作するための機器、方法、及びグラフィカルユーザインタ−フェース
JP2016199379A Active JP6360866B2 (ja) 2012-05-18 2016-10-07 指紋センサ入力に基づくユーザインタフェースを操作するための機器、方法、及びグラフィカルユーザインタ−フェース
JP2018120019A Pending JP2018200696A (ja) 2012-05-18 2018-06-25 指紋センサ入力に基づくユーザインタフェースを操作するための機器、方法、及びグラフィカルユーザインタ−フェース

Country Status (9)

Country Link
US (2) US11209961B2 (ja)
EP (1) EP2850510A2 (ja)
JP (4) JP6023879B2 (ja)
KR (1) KR101710771B1 (ja)
CN (4) CN111176516B (ja)
AU (4) AU2013262488A1 (ja)
BR (1) BR112014028774B1 (ja)
HK (1) HK1206452A1 (ja)
WO (1) WO2013173838A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023157648A1 (ja) * 2022-02-18 2023-08-24 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム

Families Citing this family (365)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0864145A4 (en) * 1995-11-30 1998-12-16 Virtual Technologies Inc TACTILE FEEDBACK FOR HUMAN / MACHINE INTERFACE
KR101615472B1 (ko) 2007-09-24 2016-04-25 애플 인크. 전자 장치 내의 내장형 인증 시스템들
US8594740B2 (en) 2008-06-11 2013-11-26 Pantech Co., Ltd. Mobile communication terminal and data input method
USD852838S1 (en) 2009-08-19 2019-07-02 Fadi Ibsies Display screen with transitional graphical user interface for dental software
US10254852B2 (en) 2009-08-19 2019-04-09 Fadi Ibsies Specialized keyboard for dental examinations
US10251735B2 (en) 2009-08-19 2019-04-09 Fadi Ibsies Specialized keyboard for dental examinations
USD775655S1 (en) * 2009-08-19 2017-01-03 Fadi Ibsies Display screen with graphical user interface for dental software
US8487759B2 (en) 2009-09-30 2013-07-16 Apple Inc. Self adapting haptic device
US8626530B1 (en) * 2010-08-27 2014-01-07 Walgreen Co. System and method for express refill
US10120446B2 (en) 2010-11-19 2018-11-06 Apple Inc. Haptic input device
US10275153B2 (en) * 2011-05-19 2019-04-30 Will John Temple Multidirectional button, key, and keyboard
CN103582873B (zh) 2011-06-05 2017-07-14 苹果公司 用于显示从多个应用接收到的通知的系统和方法
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US8769624B2 (en) 2011-09-29 2014-07-01 Apple Inc. Access control utilizing indirect authentication
US9002322B2 (en) 2011-09-29 2015-04-07 Apple Inc. Authentication with secondary approver
US9268991B2 (en) * 2012-03-27 2016-02-23 Synaptics Incorporated Method of and system for enrolling and matching biometric data
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
CN106201316B (zh) 2012-05-09 2020-09-29 苹果公司 用于选择用户界面对象的设备、方法和图形用户界面
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
EP3264252B1 (en) 2012-05-09 2019-11-27 Apple Inc. Device, method, and graphical user interface for performing an operation in accordance with a selected mode of operation
WO2013169853A1 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
JP6182207B2 (ja) 2012-05-09 2017-08-16 アップル インコーポレイテッド ユーザインタフェースオブジェクトのアクティブ化状態を変更するためのフィードバックを提供するためのデバイス、方法、及びグラフィカルユーザインタフェース
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
JP6002836B2 (ja) 2012-05-09 2016-10-05 アップル インコーポレイテッド ジェスチャに応答して表示状態間を遷移するためのデバイス、方法、及びグラフィカルユーザインタフェース
CN105260049B (zh) 2012-05-09 2018-10-23 苹果公司 用于响应于用户接触来显示附加信息的设备、方法和图形用户界面
US10817096B2 (en) 2014-02-06 2020-10-27 Apple Inc. Force sensor incorporated into display
DE112013005988B4 (de) 2012-12-14 2023-09-21 Apple Inc. Krafterfassung durch Kapazitätsänderungen
KR101435482B1 (ko) * 2012-12-17 2014-08-28 크루셜텍 (주) 지문 인식을 이용한 애플리케이션 실행 방법, 장치 및 컴퓨터 판독 가능 기록 매체
TWI540492B (zh) * 2012-12-20 2016-07-01 晨星半導體股份有限公司 電子裝置以及電子裝置控制方法
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
EP3435220B1 (en) 2012-12-29 2020-09-16 Apple Inc. Device, method and graphical user interface for transitioning between touch input to display output relationships
KR102000253B1 (ko) 2012-12-29 2019-07-16 애플 인크. 사용자 인터페이스 계층을 내비게이션하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
KR102001332B1 (ko) 2012-12-29 2019-07-17 애플 인크. 콘텐츠를 스크롤할지 선택할지 결정하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
WO2014105275A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
EP2939095B1 (en) 2012-12-29 2018-10-03 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
KR101755625B1 (ko) * 2013-01-07 2017-07-07 삼성전자주식회사 디스플레이 장치, 그의 ui 표시 방법 및 컴퓨터 판독가능 기록매체
KR101713784B1 (ko) * 2013-01-07 2017-03-08 삼성전자주식회사 전자 장치 및 그 제어 방법
WO2014124173A1 (en) 2013-02-08 2014-08-14 Changello Enterprise Llc Force determination based on capacitive sensing
WO2014143776A2 (en) 2013-03-15 2014-09-18 Bodhi Technology Ventures Llc Providing remote interactions with host device using a wireless device
US9851828B2 (en) 2013-03-15 2017-12-26 Apple Inc. Touch force deflection sensor
US20140283141A1 (en) 2013-03-15 2014-09-18 Apple Inc. Switching a Mobile Device from Operating in a Primary Access Mode to a Secondary Access Mode
US10229258B2 (en) * 2013-03-27 2019-03-12 Samsung Electronics Co., Ltd. Method and device for providing security content
WO2014157897A1 (en) * 2013-03-27 2014-10-02 Samsung Electronics Co., Ltd. Method and device for switching tasks
US20140359757A1 (en) * 2013-06-03 2014-12-04 Qualcomm Incorporated User authentication biometrics in mobile devices
FI20135621L (fi) * 2013-06-04 2014-12-05 Berggram Dev Oy Ristikkoon perustuva käyttöliittymä sointuesitystä varten kosketusnäyttölaitteessa
US10031586B2 (en) * 2013-06-12 2018-07-24 Amazon Technologies, Inc. Motion-based gestures for a computing device
US20140380198A1 (en) * 2013-06-24 2014-12-25 Xiaomi Inc. Method, device, and terminal apparatus for processing session based on gesture
US9846526B2 (en) * 2013-06-28 2017-12-19 Verizon and Redbox Digital Entertainment Services, LLC Multi-user collaboration tracking methods and systems
US9671889B1 (en) 2013-07-25 2017-06-06 Apple Inc. Input member with capacitive sensor
CN104461335A (zh) * 2013-09-25 2015-03-25 联想(北京)有限公司 一种数据处理方法及电子设备
CN105683865B (zh) 2013-09-30 2018-11-09 苹果公司 用于触觉响应的磁性致动器
US20150127505A1 (en) * 2013-10-11 2015-05-07 Capital One Financial Corporation System and method for generating and transforming data presentation
US9602576B2 (en) * 2013-10-16 2017-03-21 Empire Technology Development Llc Control redistribution among multiple devices
KR102158211B1 (ko) * 2013-10-18 2020-09-22 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
US10586028B2 (en) * 2013-10-21 2020-03-10 Purdue Research Foundation Customized biometric data capture for improved security
US9317118B2 (en) 2013-10-22 2016-04-19 Apple Inc. Touch surface for simulating materials
KR102217858B1 (ko) * 2013-11-13 2021-02-19 삼성전자주식회사 지문 인증 방법과 이를 수행하는 지문 인증 장치 및 이동 단말기
WO2015088491A1 (en) 2013-12-10 2015-06-18 Bodhi Technology Ventures Llc Band attachment mechanism with haptic response
US9705676B2 (en) * 2013-12-12 2017-07-11 International Business Machines Corporation Continuous monitoring of fingerprint signature on a mobile touchscreen for identity management
US9536130B2 (en) * 2013-12-30 2017-01-03 Google Technology Holdings LLC Electronic device with a fingerprint reader and method for operating the same
USD755809S1 (en) * 2013-12-30 2016-05-10 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
TWI539318B (zh) * 2013-12-31 2016-06-21 茂丞科技股份有限公司 具有多功能感測器的電子裝置及運作方法
US20150202533A1 (en) * 2014-01-21 2015-07-23 Nvidia Corporation Mapping touchscreen gestures to ergonomic controls across application scenes
KR102187219B1 (ko) * 2014-01-22 2020-12-04 삼성전자주식회사 지문 센서를 이용하여 제어 기능을 제공하기 위한 전자 장치 및 방법
US20150205464A1 (en) * 2014-01-22 2015-07-23 Microsoft Corporation Updating a user interface to a service
AU2015217268B2 (en) 2014-02-12 2018-03-01 Apple Inc. Force determination employing sheet sensor and capacitive array
KR102177150B1 (ko) * 2014-02-19 2020-11-10 삼성전자 주식회사 지문인식 장치 및 방법
WO2015143011A1 (en) 2014-03-19 2015-09-24 Bidirectional Display Inc. Image sensor panel and method for capturing graphical information using same
US9122349B1 (en) 2014-03-19 2015-09-01 Bidirectional Display Inc. Image sensor panel and method for capturing graphical information using same
USD738910S1 (en) * 2014-03-19 2015-09-15 Wargaming.Net Llp Display screen with animated graphical user interface
JP5926788B2 (ja) * 2014-04-03 2016-05-25 神盾股▲ふん▼有限公司 Tft指紋センサーの装置と方法
WO2015163842A1 (en) 2014-04-21 2015-10-29 Yknots Industries Llc Apportionment of forces for multi-touch input devices of electronic devices
US10198123B2 (en) 2014-04-21 2019-02-05 Apple Inc. Mitigating noise in capacitive sensor
US10845982B2 (en) 2014-04-28 2020-11-24 Facebook, Inc. Providing intelligent transcriptions of sound messages in a messaging application
US10064060B2 (en) * 2014-05-05 2018-08-28 Apple Inc. Fingerprint activation of a panic mode of operation for a mobile device
US9990483B2 (en) 2014-05-07 2018-06-05 Qualcomm Incorporated Dynamic activation of user profiles based on biometric identification
JP6328797B2 (ja) 2014-05-30 2018-05-23 アップル インコーポレイテッド 1つのデバイスの使用から別のデバイスの使用への移行
US9967401B2 (en) 2014-05-30 2018-05-08 Apple Inc. User interface for phone call routing among devices
US9811707B2 (en) * 2014-06-04 2017-11-07 Lenovo (Singapore) Pte. Ltd. Fingerprint reader on a portion of a device for changing the configuration of the device
USD762711S1 (en) * 2014-06-06 2016-08-02 Le Shi Internet Information Technology Corp. Beijing Display screen with an animated graphical user interface
USD762234S1 (en) * 2014-06-06 2016-07-26 Le Shi Zhi Electronic Technology (Tianjin) Limited Display screen with an animated graphical user interface
US10867149B2 (en) * 2014-06-12 2020-12-15 Verizon Media Inc. User identification through an external device on a per touch basis on touch sensitive devices
CN105260043A (zh) * 2014-06-13 2016-01-20 宸鸿科技(厦门)有限公司 具有指纹识别功能的触控面板
CN105468187A (zh) * 2014-06-18 2016-04-06 宸鸿科技(厦门)有限公司 具有指纹识别功能的触控面板
JP2016006613A (ja) 2014-06-20 2016-01-14 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
KR102264808B1 (ko) * 2014-06-23 2021-06-14 삼성전자주식회사 지문 처리 방법 및 그 전자 장치
US20150379160A1 (en) * 2014-06-29 2015-12-31 Yaniv AVRAHAM Apparatus and methods for transferring focus control and related return content within a graphical user interface
CN105278799B (zh) * 2014-07-02 2020-04-07 腾讯科技(深圳)有限公司 界面切换方法及装置
TWI549504B (zh) * 2014-08-11 2016-09-11 宏碁股份有限公司 影像擷取裝置及其自動對焦補償方法
US9740839B2 (en) 2014-08-13 2017-08-22 Google Technology Holdings LLC Computing device chording authentication and control
US10339293B2 (en) 2014-08-15 2019-07-02 Apple Inc. Authenticated device used to unlock another device
CN104199602B (zh) * 2014-08-26 2018-11-09 联想(北京)有限公司 一种信息处理方法及电子设备
US10289260B2 (en) * 2014-08-27 2019-05-14 Honda Motor Co., Ltd. Systems and techniques for application multi-tasking
US9864979B2 (en) * 2014-08-29 2018-01-09 Panasonic Intellectual Property Management Co., Ltd. Transaction terminal device
US20160063645A1 (en) * 2014-08-29 2016-03-03 Hrb Innovations, Inc. Computer program, method, and system for detecting fraudulently filed tax returns
US9465930B2 (en) 2014-08-29 2016-10-11 Dropbox, Inc. Fingerprint gestures
USD762663S1 (en) * 2014-09-02 2016-08-02 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
KR102019505B1 (ko) 2014-09-02 2019-09-06 애플 인크. 햅틱 통지
DE202015006141U1 (de) 2014-09-02 2015-12-14 Apple Inc. Elektronische Touch-Kommunikation
USD766325S1 (en) * 2014-09-02 2016-09-13 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD766267S1 (en) * 2014-09-02 2016-09-13 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
CN115756154A (zh) 2014-09-02 2023-03-07 苹果公司 用于可变触觉输出的语义框架
CN108133742B (zh) 2014-09-02 2020-04-14 苹果公司 身体活动和健身监视器
CN104202486A (zh) * 2014-09-26 2014-12-10 上海华勤通讯技术有限公司 移动终端及其屏幕解锁方法
USRE49437E1 (en) * 2014-09-30 2023-02-28 Apple Inc. Audio driver and power supply unit architecture
KR101973488B1 (ko) 2014-09-30 2019-04-29 애플 인크. 표면 반사에 의해 야기되는 오디오 칼라레이션이 감소된 라우드스피커
WO2016051986A1 (ja) * 2014-09-30 2016-04-07 アルプス電気株式会社 操作装置
US20160098087A1 (en) * 2014-10-07 2016-04-07 Schneider Electric Buildings, Llc Systems and methods for gesture recognition
CN104331653A (zh) * 2014-10-20 2015-02-04 深圳市汇顶科技股份有限公司 指纹解密方法及装置
US9349034B2 (en) * 2014-10-28 2016-05-24 Rovi Guides, Inc. Methods and systems for invoking functions based on whether a partial print or an entire print is detected
US9721141B2 (en) * 2014-10-30 2017-08-01 Polar Electro Oy Wrist-worn apparatus control with fingerprint data
WO2016073640A1 (en) * 2014-11-06 2016-05-12 Alibaba Group Holding Limited Method and system for controlling display direction of content
CN105630345B (zh) * 2014-11-06 2019-02-19 阿里巴巴集团控股有限公司 一种控制显示方向的方法和设备
US9588643B2 (en) * 2014-12-18 2017-03-07 Apple Inc. Electronic devices with hand detection circuitry
CN105807981A (zh) * 2014-12-31 2016-07-27 中兴通讯股份有限公司 一种用户终端及其工作方法
US10878715B2 (en) 2015-02-05 2020-12-29 Type A+ LLC Finger recognition system and method for use in typing
KR102338864B1 (ko) 2015-02-12 2021-12-13 삼성전자주식회사 전자 장치 및 전자 장치에서의 지문 등록 방법
US10395089B2 (en) * 2015-02-15 2019-08-27 Huawei Technologies Co., Ltd. Application and picture display verification methods, apparatuses, and electronic device
US9329831B1 (en) * 2015-02-25 2016-05-03 Sonos, Inc. Playback expansion
US9940502B2 (en) 2015-02-27 2018-04-10 Idex Asa Pre-match prediction for pattern testing
US10157306B2 (en) 2015-02-27 2018-12-18 Idex Asa Curve matching and prequalification
US10528789B2 (en) 2015-02-27 2020-01-07 Idex Asa Dynamic match statistics in pattern matching
JP2016162331A (ja) * 2015-03-04 2016-09-05 セイコーエプソン株式会社 情報処理装置
US10006937B2 (en) 2015-03-06 2018-06-26 Apple Inc. Capacitive sensors for electronic devices and methods of forming the same
US10353467B2 (en) 2015-03-06 2019-07-16 Apple Inc. Calibration of haptic devices
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9542037B2 (en) * 2015-03-08 2017-01-10 Apple Inc. Device, method, and user interface for processing intensity of touch contacts
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
CN106155504B (zh) * 2015-03-26 2019-09-10 小米科技有限责任公司 模组唤醒方法及装置
US9927892B2 (en) 2015-03-27 2018-03-27 International Business Machines Corporation Multiple touch selection control
US10296141B2 (en) 2015-03-31 2019-05-21 Huawei Technologies Co., Ltd. Device, and adjustable parameter adjustment method for device
US10067653B2 (en) 2015-04-01 2018-09-04 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
KR102093196B1 (ko) * 2015-04-16 2020-04-14 삼성전자주식회사 지문 인식 기반 조작 방법 및 장치
AU2016100399B4 (en) 2015-04-17 2017-02-02 Apple Inc. Contracting and elongating materials for providing input and output for an electronic device
KR102396514B1 (ko) 2015-04-29 2022-05-11 삼성전자주식회사 지문 정보 처리 방법 및 이를 지원하는 전자 장치
KR102348486B1 (ko) * 2015-04-29 2022-01-07 삼성전자 주식회사 전자 장치
US9753622B2 (en) 2015-05-06 2017-09-05 James L. Moran Customized interactive computing environment
TWI575464B (zh) * 2015-06-04 2017-03-21 指紋卡公司 用於基於指紋的導移的方法及系統
US9940637B2 (en) 2015-06-05 2018-04-10 Apple Inc. User interface for loyalty accounts and private label accounts
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
AU2016231472B1 (en) * 2015-06-07 2016-11-10 Apple Inc. Devices and methods for navigating between user interfaces
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10271084B2 (en) 2015-06-07 2019-04-23 Apple Inc. Video recording and replay
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
WO2016204528A1 (ko) * 2015-06-16 2016-12-22 남기원 스마트 간편 결제장치 및 그 시스템
KR102342267B1 (ko) * 2015-06-22 2021-12-22 삼성전자주식회사 휴대 장치 및 휴대 장치의 화면 변경방법
JP6140773B2 (ja) * 2015-06-26 2017-05-31 京セラ株式会社 電子機器及び電子機器の動作方法
US10600219B2 (en) 2015-06-26 2020-03-24 Idex Asa Pattern mapping
CN104915063B (zh) * 2015-06-29 2018-09-04 努比亚技术有限公司 控制智能终端的方法和装置
KR102508147B1 (ko) 2015-07-01 2023-03-09 엘지전자 주식회사 디스플레이 장치 및 제어 방법
US10621765B2 (en) 2015-07-07 2020-04-14 Idex Asa Image reconstruction
TWI547884B (zh) * 2015-07-09 2016-09-01 金佶科技股份有限公司 指紋辨識模組
US9544701B1 (en) 2015-07-19 2017-01-10 Sonos, Inc. Base properties in a media playback system
USD848458S1 (en) * 2015-08-03 2019-05-14 Google Llc Display screen with animated graphical user interface
USD849027S1 (en) * 2015-08-03 2019-05-21 Google Llc Display screen with animated graphical user interface
US9715301B2 (en) 2015-08-04 2017-07-25 Apple Inc. Proximity edge sensing
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US11343101B2 (en) * 2015-08-11 2022-05-24 Vescel, Llc Authentication through verification of an evolving identity credential
CN107533596B (zh) 2015-08-19 2019-11-29 华为技术有限公司 指纹识别方法及移动终端
EP4327731A3 (en) 2015-08-20 2024-05-15 Apple Inc. Exercise-based watch face
CN105045519B (zh) * 2015-08-27 2018-06-26 广东欧珀移动通信有限公司 一种用户终端的屏幕控制方法及用户终端
US10001965B1 (en) 2015-09-03 2018-06-19 Sonos, Inc. Playback system join with base
US11099650B1 (en) 2015-09-07 2021-08-24 Oliver Markus Haynold Camera with improved shutter button
WO2017044618A1 (en) 2015-09-08 2017-03-16 Apple Inc. Linear actuators for use in electronic devices
USD786907S1 (en) * 2015-09-08 2017-05-16 Apple Inc. Display screen or portion thereof with graphical user interface
US10249002B2 (en) 2015-09-11 2019-04-02 Bank Of America Corporation System for dynamic visualization of individualized consumption across shared resource allocation structure
US20170076366A1 (en) * 2015-09-11 2017-03-16 Bank Of America Corporation Universal tokenization system
KR101781909B1 (ko) * 2015-09-15 2017-09-26 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR102399764B1 (ko) * 2015-09-22 2022-05-19 삼성전자 주식회사 전자 장치 및 촬영 방법
CN106547338A (zh) * 2015-09-22 2017-03-29 小米科技有限责任公司 指令生成方法及装置
US10725801B2 (en) 2015-09-23 2020-07-28 IntegenX, Inc. Systems and methods for live help
KR101677392B1 (ko) * 2015-09-25 2016-11-17 엘지전자 주식회사 결제 기능을 가지는 이동 단말기
US20180253717A1 (en) * 2015-09-25 2018-09-06 Lg Electronics Inc. Terminal apparatus and control method for terminal apparatus
US10331873B1 (en) * 2015-10-09 2019-06-25 United Services Automobile Association (“USAA”) Graphical event-based password system
CN114675771A (zh) 2015-10-29 2022-06-28 创新先进技术有限公司 一种服务调用方法及装置
US9639620B1 (en) 2015-11-13 2017-05-02 Thunder Power Hong Kong Ltd. Vehicle fingerprint bookmark
US9701202B2 (en) 2015-11-13 2017-07-11 Thunder Power New Energy Vehicle Development Company Limited Vehicle fingerprint bookmark
US9851806B2 (en) 2015-11-24 2017-12-26 International Business Machines Corporation Gesture recognition and control based on finger differentiation
US20180356945A1 (en) * 2015-11-24 2018-12-13 California Labs, Inc. Counter-top device and services for displaying, navigating, and sharing collections of media
WO2017113119A1 (zh) * 2015-12-29 2017-07-06 华为技术有限公司 一种关联应用程序和生物特征的方法、装置以及移动终端
CN105677220A (zh) * 2015-12-31 2016-06-15 联想(北京)有限公司 一种信息处理方法及电子设备
CN109241714A (zh) * 2016-01-06 2019-01-18 阿里巴巴集团控股有限公司 一种信息图像显示方法及装置
KR102509018B1 (ko) 2016-01-11 2023-03-14 삼성디스플레이 주식회사 표시 장치 및 그의 구동방법
US10039080B2 (en) 2016-03-04 2018-07-31 Apple Inc. Situationally-aware alerts
US10043051B2 (en) 2016-03-07 2018-08-07 Microsoft Technology Licensing, Llc Triggered image sensing with a display
US10387710B2 (en) 2016-03-07 2019-08-20 Microsoft Technology Licensing, Llc Image sensing with a waveguide display
AT518250B1 (de) * 2016-03-17 2017-09-15 Bernecker + Rainer Industrie-Elektronik Ges M B H Touchscreen
KR20170109408A (ko) * 2016-03-21 2017-09-29 삼성전자주식회사 전자 장치 및 전자 장치 제어 방법
US10007343B2 (en) 2016-03-31 2018-06-26 Apple Inc. Force sensor in an input device
US10268272B2 (en) 2016-03-31 2019-04-23 Apple Inc. Dampening mechanical modes of a haptic actuator using a delay
TWI622893B (zh) * 2016-04-11 2018-05-01 宏碁股份有限公司 電子裝置、及其控制方法與製造方法
CN105868608B (zh) 2016-04-12 2018-01-23 广东欧珀移动通信有限公司 一种指纹解锁的方法及终端
US10298789B2 (en) * 2016-05-11 2019-05-21 Kabushiki Kaisha Toshiba System and method for field customization of multifunction peripherals
USD795907S1 (en) * 2016-05-11 2017-08-29 Jan Magnus Edman Display screen with graphical user interface
USD795908S1 (en) * 2016-05-11 2017-08-29 Jan Magnus Edman Display screen with graphical user interface
DK179186B1 (en) 2016-05-19 2018-01-15 Apple Inc REMOTE AUTHORIZATION TO CONTINUE WITH AN ACTION
US10346599B2 (en) 2016-05-31 2019-07-09 Google Llc Multi-function button for computing devices
KR102561736B1 (ko) * 2016-06-01 2023-08-02 삼성전자주식회사 터치 디스플레이를 가지는 전자 장치 및 이의 지문을 이용한 기능 실행 방법
US10637986B2 (en) 2016-06-10 2020-04-28 Apple Inc. Displaying and updating a set of application views
DK201770423A1 (en) 2016-06-11 2018-01-15 Apple Inc Activity and workout updates
DK179823B1 (en) 2016-06-12 2019-07-12 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR PROVIDING HAPTIC FEEDBACK
US11580608B2 (en) 2016-06-12 2023-02-14 Apple Inc. Managing contact information for communication applications
DK201670622A1 (en) 2016-06-12 2018-02-12 Apple Inc User interfaces for transactions
DK201670737A1 (en) 2016-06-12 2018-01-22 Apple Inc Devices, Methods, and Graphical User Interfaces for Providing Haptic Feedback
US11216119B2 (en) 2016-06-12 2022-01-04 Apple Inc. Displaying a predetermined view of an application
US20170364158A1 (en) * 2016-06-20 2017-12-21 Apple Inc. Localized and/or Encapsulated Haptic Actuators and Elements
CN107590373A (zh) * 2016-07-06 2018-01-16 成都锐成芯微科技股份有限公司 移动终端指纹识别系统及方法
CN106201273A (zh) * 2016-07-27 2016-12-07 维沃移动通信有限公司 一种移动终端控制方法及移动终端
CN106462293B (zh) * 2016-08-08 2022-04-29 北京小米移动软件有限公司 终端、触控响应方法及装置
WO2018027857A1 (zh) * 2016-08-11 2018-02-15 张焰焰 匹配文本格式时的信息推送方法和文本系统
WO2018027856A1 (zh) * 2016-08-11 2018-02-15 张焰焰 根据指纹匹配文本格式的方法和文本系统
FR3055158B1 (fr) * 2016-08-19 2019-11-08 Ontracks Systeme d'aide a la navigation visuelle et lateralisee
DK179278B1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, methods and graphical user interfaces for haptic mixing
WO2018048632A1 (en) * 2016-09-06 2018-03-15 Apple Inc. Devices, methods, and graphical user interfaces for providing feedback during interaction with an intensity-sensitive button
CN111414081B (zh) * 2016-09-06 2022-03-22 苹果公司 用于提供触觉反馈的设备、方法和图形用户界面
DK201670720A1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs
DK201670728A1 (en) 2016-09-06 2018-03-19 Apple Inc Devices, Methods, and Graphical User Interfaces for Providing Feedback During Interaction with an Intensity-Sensitive Button
US10466891B2 (en) 2016-09-12 2019-11-05 Apple Inc. Special lock mode user interface
US10736543B2 (en) 2016-09-22 2020-08-11 Apple Inc. Workout monitor interface
US10911863B2 (en) * 2016-09-23 2021-02-02 Apple Inc. Illuminated user interface architecture
EP3516493A1 (en) * 2016-09-23 2019-07-31 Apple Inc. Device, method, and graphical user interface for annotating text
JP6078684B1 (ja) * 2016-09-30 2017-02-08 グリー株式会社 プログラム、制御方法、および情報処理装置
US10055818B2 (en) 2016-09-30 2018-08-21 Intel Corporation Methods, apparatus and articles of manufacture to use biometric sensors to control an orientation of a display
KR102578253B1 (ko) * 2016-10-21 2023-09-12 삼성전자 주식회사 전자 장치 및 전자 장치의 지문 정보 획득 방법
CN109844693A (zh) * 2016-10-24 2019-06-04 索尼公司 信息处理设备、信息处理方法以及程序
US20180173867A1 (en) * 2016-11-11 2018-06-21 Samsung Electronics Co., Ltd. Method and electronic device for providing multi-level security
US10402161B2 (en) 2016-11-13 2019-09-03 Honda Motor Co., Ltd. Human-vehicle interaction
KR102616793B1 (ko) * 2016-11-15 2023-12-26 삼성전자 주식회사 전자 장치 및 전자 장치의 화면 제공 방법
US10599823B2 (en) * 2016-11-18 2020-03-24 Invensense, Inc. Systems and methods for coordinating applications with a user interface
CN106778156A (zh) * 2016-11-23 2017-05-31 苏州新捷毅贸易有限公司 具有密码组合的指纹锁设置方法及指纹解锁方法
KR102564267B1 (ko) 2016-12-01 2023-08-07 삼성전자주식회사 전자 장치 및 그 동작 방법
CN106775084B (zh) 2016-12-16 2019-04-16 Oppo广东移动通信有限公司 一种触摸屏的防误触方法、装置及移动终端
JP6434480B2 (ja) 2016-12-19 2018-12-05 ファナック株式会社 制御装置
CN108475179B (zh) * 2016-12-27 2020-10-23 华为技术有限公司 指纹采集方法、指纹采集器件和终端
USD831053S1 (en) * 2016-12-30 2018-10-16 Lyft, Inc. Display screen with animated graphical user interface
US10877574B2 (en) * 2017-01-09 2020-12-29 Inventec Appliances (Pudong) Corporation Computer mouse, touchpad, input suite, and mobile device
CN108304085B (zh) * 2017-01-11 2021-01-01 神盾股份有限公司 判断手指位移方向的方法和电子装置
US20180206120A1 (en) * 2017-01-16 2018-07-19 International Business Machines Corporation Indicating actual person sending a message based on physical validation
CN108319886B (zh) * 2017-01-17 2020-07-21 北京小米移动软件有限公司 指纹识别方法及装置
US20180200623A1 (en) * 2017-01-19 2018-07-19 Machine Zone, Inc. System and method for controlling game play using fingerprint recognition
KR102070407B1 (ko) * 2017-01-31 2020-01-28 삼성전자주식회사 전자장치 및 이를 사용하여 디스플레이에 연동된 생체 센서의 제어 방법
WO2018144014A1 (en) 2017-02-03 2018-08-09 Hewlett-Packard Development Company, L.P. Biometrics to launch a camera application
US10546109B2 (en) * 2017-02-14 2020-01-28 Qualcomm Incorporated Smart touchscreen display
KR102365678B1 (ko) * 2017-03-29 2022-02-21 삼성전자주식회사 외부 장치를 이용한 화면 출력 방법 및 이를 지원하는 전자 장치
CN108664177B (zh) * 2017-03-29 2021-11-12 上海耕岩智能科技有限公司 一种基于指纹识别开启应用的方法和装置
KR102331464B1 (ko) * 2017-04-18 2021-11-29 삼성전자주식회사 디스플레이 영역에 형성된 생체 정보 센싱 영역을 이용한 생체 정보 획득 방법 및 이를 지원하는 전자 장치
US11431836B2 (en) 2017-05-02 2022-08-30 Apple Inc. Methods and interfaces for initiating media playback
US10992795B2 (en) 2017-05-16 2021-04-27 Apple Inc. Methods and interfaces for home media control
WO2018207953A1 (ko) * 2017-05-08 2018-11-15 (주)인스타페이 터치 입력에 기반한 프로세스 처리 방법 및 시스템
US10845955B2 (en) 2017-05-15 2020-11-24 Apple Inc. Displaying a scrollable list of affordances associated with physical activities
CN111343060B (zh) 2017-05-16 2022-02-11 苹果公司 用于家庭媒体控制的方法和界面
US10365814B2 (en) * 2017-05-16 2019-07-30 Apple Inc. Devices, methods, and graphical user interfaces for providing a home button replacement
CN111694486B (zh) * 2017-05-16 2023-08-22 苹果公司 用于在用户界面之间导航的设备、方法和图形用户界面
US10203866B2 (en) 2017-05-16 2019-02-12 Apple Inc. Devices, methods, and graphical user interfaces for navigating between user interfaces and interacting with control objects
US20220279063A1 (en) 2017-05-16 2022-09-01 Apple Inc. Methods and interfaces for home media control
US11036387B2 (en) 2017-05-16 2021-06-15 Apple Inc. Devices, methods, and graphical user interfaces for navigating between user interfaces and interacting with control objects
DK201770372A1 (en) 2017-05-16 2019-01-08 Apple Inc. TACTILE FEEDBACK FOR LOCKED DEVICE USER INTERFACES
EP3631665A4 (en) 2017-05-23 2021-03-03 Fingerprint Cards AB METHOD AND ELECTRONIC DEVICE FOR AUTHENTICATING A USER
US10614279B2 (en) * 2017-06-02 2020-04-07 Samsung Electronics Co., Ltd. Apparatus and method for driving fingerprint sensing array provided in touchscreen, and driver integrated circuit for driving the touchscreen including the fingerprint sensing array
US10951043B2 (en) * 2017-06-04 2021-03-16 Apple Inc. Multi-device charging user interface
US10360428B2 (en) 2017-06-28 2019-07-23 Synaptics Incorporated Fingerprint sensor to support wake on finger and navigation
SE1750836A1 (en) * 2017-06-28 2018-12-29 Fingerprint Cards Ab Fingerprint sensor module comprising antenna and method for manufacturing a fingerprint sensor module
US10622538B2 (en) 2017-07-18 2020-04-14 Apple Inc. Techniques for providing a haptic output and sensing a haptic input using a piezoelectric body
CN107395889B (zh) * 2017-07-28 2020-01-21 Oppo广东移动通信有限公司 降低移动终端功耗的方法、装置、存储介质及移动终端
CN109843399B (zh) * 2017-08-03 2020-07-21 腾讯科技(深圳)有限公司 用于提供游戏控制的设备、方法和图形用户界面
WO2019050212A1 (ko) 2017-09-07 2019-03-14 삼성전자 주식회사 지문을 인식하기 방법, 전자 장치 및 저장 매체
CN107918563A (zh) 2017-09-30 2018-04-17 华为技术有限公司 一种复制和粘贴的方法、数据处理装置和用户设备
SE1751288A1 (en) 2017-10-17 2019-04-18 Fingerprint Cards Ab Method of controlling an electronic device
US10852836B2 (en) * 2017-11-30 2020-12-01 Microsoft Technology Licensing, Llc Visual transformation using a motion profile
CN107861824A (zh) * 2017-11-30 2018-03-30 努比亚技术有限公司 一种文本处理方法、移动终端以及计算机可读存储介质
USD845337S1 (en) 2017-12-01 2019-04-09 Nasdaq, Inc. Display screen or portion thereof with animated graphical user interface
CN108351707B (zh) * 2017-12-22 2021-07-30 达闼机器人有限公司 人机交互方法、装置、终端设备及计算机可读存储介质
JP2018045729A (ja) * 2017-12-25 2018-03-22 キヤノン株式会社 情報処理装置、情報処理方法、コンピュータプログラム、及び記録媒体
KR102543104B1 (ko) * 2018-01-18 2023-06-14 삼성전자주식회사 전자 장치 및 그의 동작 방법
CN108334228B (zh) * 2018-01-30 2021-03-16 厦门天马微电子有限公司 触控屏及其驱动方法、触控装置
US11132106B2 (en) * 2018-03-13 2021-09-28 Vmware, Inc. User-specific applications for shared devices
CN108647032B (zh) * 2018-03-29 2022-03-01 珠海市魅族科技有限公司 应用加载方法及装置、计算机装置和计算机可读存储介质
CN108549518B (zh) * 2018-04-17 2020-09-25 Oppo广东移动通信有限公司 一种音乐信息显示的方法、装置及终端设备
CN108628644A (zh) * 2018-04-19 2018-10-09 维沃移动通信有限公司 一种应用的启动方法、装置和移动终端
US10733468B2 (en) * 2018-04-23 2020-08-04 Novatek Microelectronics Corp. Finger stability detecting method and fingerprint sensing device
US11317833B2 (en) 2018-05-07 2022-05-03 Apple Inc. Displaying user interfaces associated with physical activities
DK201870378A1 (en) 2018-05-07 2020-01-13 Apple Inc. DISPLAYING USER INTERFACES ASSOCIATED WITH PHYSICAL ACTIVITIES
DK180316B1 (en) 2018-06-03 2020-11-06 Apple Inc Devices and methods for interacting with an application switching user interface
US11893228B2 (en) 2018-06-03 2024-02-06 Apple Inc. Devices and methods for interacting with an application switching user interface
US10956029B1 (en) 2018-06-08 2021-03-23 Facebook, Inc. Gesture-based context switching between applications
CN112313623A (zh) 2018-06-25 2021-02-02 华为技术有限公司 一种终端的用户界面显示方法和终端
US10656827B2 (en) 2018-06-29 2020-05-19 Synaptics Incorporated Sensor device scanning techniques to determine fast and/or slow motions
US10990260B2 (en) 2018-08-23 2021-04-27 Motorola Mobility Llc Electronic device control in response to finger rotation upon fingerprint sensor and corresponding methods
US10866683B2 (en) 2018-08-27 2020-12-15 Apple Inc. Force or touch sensing on a mobile device using capacitive or pressure sensing
CN109284060A (zh) * 2018-08-30 2019-01-29 Oppo(重庆)智能科技有限公司 显示控制方法及相关装置
US11249598B2 (en) * 2018-09-13 2022-02-15 Boe Technology Group Co., Ltd. Integrated fingerprint detection touch control display apparatus and integrated method of fingerprint detection, touch control, and image display
US10691211B2 (en) 2018-09-28 2020-06-23 Apple Inc. Button providing force sensing and/or haptic output
US10599223B1 (en) 2018-09-28 2020-03-24 Apple Inc. Button providing force sensing and/or haptic output
US10953307B2 (en) 2018-09-28 2021-03-23 Apple Inc. Swim tracking and notifications for wearable devices
USD916135S1 (en) 2018-10-11 2021-04-13 Masimo Corporation Display screen or portion thereof with a graphical user interface
USD998630S1 (en) * 2018-10-11 2023-09-12 Masimo Corporation Display screen or portion thereof with a graphical user interface
USD917550S1 (en) * 2018-10-11 2021-04-27 Masimo Corporation Display screen or portion thereof with a graphical user interface
USD999246S1 (en) 2018-10-11 2023-09-19 Masimo Corporation Display screen or portion thereof with a graphical user interface
USD917564S1 (en) 2018-10-11 2021-04-27 Masimo Corporation Display screen or portion thereof with graphical user interface
USD998631S1 (en) 2018-10-11 2023-09-12 Masimo Corporation Display screen or portion thereof with a graphical user interface
CN111124236B (zh) 2018-10-30 2023-04-28 斑马智行网络(香港)有限公司 一种数据处理方法、装置和机器可读介质
US10965863B2 (en) * 2018-11-01 2021-03-30 Lenovo (Singapore) Pte. Ltd. Changing settings based on a fingerprint
CN109542315B (zh) * 2018-11-22 2021-05-25 维沃移动通信有限公司 移动终端的控制方法及系统
US11770579B2 (en) 2018-12-21 2023-09-26 Streamlayer, Inc. Method and system for providing interactive content delivery and audience engagement
USD947233S1 (en) 2018-12-21 2022-03-29 Streamlayer, Inc. Display screen or portion thereof with transitional graphical user interface
USD997952S1 (en) 2018-12-21 2023-09-05 Streamlayer, Inc. Display screen with transitional graphical user interface
CN109683766B (zh) * 2018-12-28 2021-08-03 努比亚技术有限公司 交互界面控制方法、移动终端及计算机可读存储介质
CN109675308A (zh) * 2019-01-10 2019-04-26 网易(杭州)网络有限公司 游戏中的显示控制方法、装置、存储介质、处理器及终端
CN111488761B (zh) 2019-01-25 2024-04-26 北京小米移动软件有限公司 指纹识别方法、装置、电子设备和计算机可读存储介质
CN111695382B (zh) 2019-03-14 2024-02-13 北京小米移动软件有限公司 指纹采集区域确定方法和指纹采集区域确定装置
DK201970532A1 (en) 2019-05-06 2021-05-03 Apple Inc Activity trends and workouts
DK201970531A1 (en) 2019-05-06 2021-07-09 Apple Inc Avatar integration with multiple applications
CN110351424A (zh) 2019-05-30 2019-10-18 华为技术有限公司 手势交互方法和终端
KR20240049648A (ko) 2019-05-31 2024-04-16 애플 인크. 오디오 미디어 제어를 위한 사용자 인터페이스
US11010121B2 (en) 2019-05-31 2021-05-18 Apple Inc. User interfaces for audio media control
CN113892077A (zh) 2019-06-01 2022-01-04 苹果公司 多模式活动跟踪用户界面
EP3981170A1 (en) 2019-06-07 2022-04-13 Sonos, Inc. Automatically allocating audio portions to playback devices
USD922402S1 (en) * 2019-07-10 2021-06-15 CyCarrier Technology Co., Ltd. Display screen or portion thereof with animated graphical user interface
USD919635S1 (en) * 2019-07-10 2021-05-18 Cycraft Singapore Pte. Ltd. Display screen or portion thereof with graphical user interface
KR102248984B1 (ko) * 2019-07-24 2021-05-07 어보브반도체 주식회사 고감도 터치 센서
US11551466B2 (en) * 2019-08-21 2023-01-10 Novatek Microelectronics Corp. Control circuit and related method for controlling display panel
CN114223022A (zh) 2019-09-18 2022-03-22 索尼集团公司 指纹认证装置、指纹认证方法和程序
US11380470B2 (en) 2019-09-24 2022-07-05 Apple Inc. Methods to control force in reluctance actuators based on flux related parameters
CN110795012A (zh) * 2019-10-31 2020-02-14 华为技术有限公司 电子设备的控制方法、电子设备以及计算机可读存储介质
US11023124B1 (en) * 2019-12-18 2021-06-01 Motorola Mobility Llc Processing user input received during a display orientation change of a mobile device
USD949188S1 (en) * 2020-01-07 2022-04-19 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
EP4102348A4 (en) * 2020-02-03 2023-04-05 Sony Group Corporation ELECTRONIC DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
KR20210103317A (ko) 2020-02-13 2021-08-23 삼성전자주식회사 지문-터치 복합 센서 및 이를 포함하는 전자 장치
DK202070613A1 (en) 2020-02-14 2021-10-15 Apple Inc User interfaces for workout content
US11418713B2 (en) * 2020-04-02 2022-08-16 Qualcomm Incorporated Input based launch sequences for a camera application
US11556095B2 (en) * 2020-04-15 2023-01-17 Apple Inc. Modular sensing assembly for an electronic device
US11039074B1 (en) 2020-06-01 2021-06-15 Apple Inc. User interfaces for managing media
CN113778574B (zh) * 2020-06-08 2022-11-29 荣耀终端有限公司 卡片分享方法、电子设备及通信系统
US11163970B1 (en) * 2020-06-16 2021-11-02 Google Llc Optical fingerprint system with varying integration times across pixels
US11381676B2 (en) * 2020-06-30 2022-07-05 Qualcomm Incorporated Quick launcher user interface
DE102020003923B3 (de) * 2020-06-30 2021-11-04 Daimler Ag Bedieneinheit mit einer berührungssensitiven Bedienfläche
US11409410B2 (en) 2020-09-14 2022-08-09 Apple Inc. User input interfaces
US11491909B2 (en) 2020-09-16 2022-11-08 Waymo Llc External facing communications for autonomous vehicles
US11392291B2 (en) 2020-09-25 2022-07-19 Apple Inc. Methods and interfaces for media control with dynamic feedback
KR20230135126A (ko) * 2021-01-22 2023-09-22 오키드 사운드 테크놀로지스 엘엘씨 초음파 센서를 구비한 시스템
CN112799578B (zh) * 2021-01-26 2022-06-17 挂号网(杭州)科技有限公司 键盘绘制方法、装置、电子设备和存储介质
US11977683B2 (en) 2021-03-12 2024-05-07 Apple Inc. Modular systems configured to provide localized haptic feedback using inertial actuators
US11449188B1 (en) 2021-05-15 2022-09-20 Apple Inc. Shared-content session user interfaces
WO2022245669A1 (en) 2021-05-15 2022-11-24 Apple Inc. User interfaces for group workouts
US11907605B2 (en) 2021-05-15 2024-02-20 Apple Inc. Shared-content session user interfaces
US11847378B2 (en) 2021-06-06 2023-12-19 Apple Inc. User interfaces for audio routing
US11561612B1 (en) * 2021-08-10 2023-01-24 Synaptics Incorporated AR/VR navigation with authentication using an integrated scrollwheel and fingerprint sensor user input apparatus
US11809631B2 (en) 2021-09-21 2023-11-07 Apple Inc. Reluctance haptic engine for an electronic device
US11704928B1 (en) * 2022-02-17 2023-07-18 Qualcomm Incorporated Force-based finger detection for fingerprint sensor systems
US11977729B2 (en) 2022-06-05 2024-05-07 Apple Inc. Physical activity information user interfaces
US11896871B2 (en) 2022-06-05 2024-02-13 Apple Inc. User interfaces for physical activity information

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006301785A (ja) * 2005-04-18 2006-11-02 Toshiba Corp 情報処理装置およびプログラム
US20100225607A1 (en) * 2009-03-06 2010-09-09 Lg Electronics Inc. Mobile terminal and method of controlling the mobile terminal
WO2011103218A2 (en) * 2010-02-19 2011-08-25 Microsoft Corporation Off-screen gestures to create on-screen input
WO2011126502A1 (en) * 2010-04-07 2011-10-13 Apple Inc. Gesture based graphical user interface for managing concurrently open software applications
WO2012117652A1 (ja) * 2011-02-28 2012-09-07 シャープ株式会社 画像表示装置セット

Family Cites Families (598)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPQ055999A0 (en) 1999-05-25 1999-06-17 Silverbrook Research Pty Ltd A method and apparatus (npage01)
US4353056A (en) 1980-06-05 1982-10-05 Siemens Corporation Capacitive fingerprint sensor
US4805222A (en) 1985-12-23 1989-02-14 International Bioaccess Systems Corporation Method and apparatus for verifying an individual's identity
DE3880695T2 (de) 1987-10-02 1993-09-23 Daya Ranjit Senanayake System und verfahren zur persoenlichen identifizierung.
US4993068A (en) 1989-11-27 1991-02-12 Motorola, Inc. Unforgeable personal identification system
GB2244164A (en) 1990-05-18 1991-11-20 Philips Electronic Associated Fingerprint sensing
JPH04158434A (ja) 1990-10-23 1992-06-01 Toshiba Corp ディスプレイ装置のポインティングデバイス
US5131038A (en) 1990-11-07 1992-07-14 Motorola, Inc. Portable authentification system
US6850252B1 (en) 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
US5280527A (en) 1992-04-14 1994-01-18 Kamahira Safe Co., Inc. Biometric token for authorizing access to a host system
EP0593386A3 (en) 1992-10-16 1996-07-31 Ibm Method and apparatus for accessing touch screen desktop objects via fingerprint recognition
JP2813728B2 (ja) 1993-11-01 1998-10-22 インターナショナル・ビジネス・マシーンズ・コーポレイション ズーム/パン機能付パーソナル通信機
US5526428A (en) 1993-12-29 1996-06-11 International Business Machines Corporation Access control apparatus and method
US5469506A (en) 1994-06-27 1995-11-21 Pitney Bowes Inc. Apparatus for verifying an identification card and identifying a person by means of a biometric characteristic
US5659626A (en) 1994-10-20 1997-08-19 Calspan Corporation Fingerprint identification system
US5805719A (en) 1994-11-28 1998-09-08 Smarttouch Tokenless identification of individuals
US6154879A (en) 1994-11-28 2000-11-28 Smarttouch, Inc. Tokenless biometric ATM access system
US5615277A (en) 1994-11-28 1997-03-25 Hoffman; Ned Tokenless security system for authorizing access to a secured computer system
US6366682B1 (en) 1994-11-28 2002-04-02 Indivos Corporation Tokenless electronic transaction system
US5870723A (en) 1994-11-28 1999-02-09 Pare, Jr.; David Ferrin Tokenless biometric transaction authorization method and system
US6950810B2 (en) 1994-11-28 2005-09-27 Indivos Corporation Tokenless biometric electronic financial transactions via a third party identicator
US7613659B1 (en) 1994-11-28 2009-11-03 Yt Acquisition Corporation System and method for processing tokenless biometric electronic transmissions using an electronic rule module clearinghouse
US6269348B1 (en) 1994-11-28 2001-07-31 Veristar Corporation Tokenless biometric electronic debit and credit transactions
US5613012A (en) 1994-11-28 1997-03-18 Smarttouch, Llc. Tokenless identification system for authorization of electronic transactions and electronic transmissions
US5591949A (en) 1995-01-06 1997-01-07 Bernstein; Robert J. Automatic portable account controller for remotely arranging for payment of debt to a vendor
US5838306A (en) 1995-05-05 1998-11-17 Dell U.S.A., L.P. Mouse with security feature
US5724492A (en) * 1995-06-08 1998-03-03 Microsoft Corporation Systems and method for displaying control objects including a plurality of panels
JP3316725B2 (ja) 1995-07-06 2002-08-19 三菱電機株式会社 顔画像撮像装置
JPH09146708A (ja) 1995-11-09 1997-06-06 Internatl Business Mach Corp <Ibm> タッチパネルの駆動方法及びタッチ入力方法
CH690048A5 (fr) 1995-11-28 2000-03-31 C Sam S A En Formation C O Jue Dispositif de sécurité commandant l'accès à un ordinateur ou à un terminal de réseau.
US5857028A (en) 1996-01-11 1999-01-05 Frieling; Edward Computer access control by finger anatomy and comprehension testing
US5828773A (en) 1996-01-26 1998-10-27 Harris Corporation Fingerprint sensing method with finger position indication
US5963679A (en) 1996-01-26 1999-10-05 Harris Corporation Electric field fingerprint sensor apparatus and related methods
AUPN802296A0 (en) * 1996-02-12 1996-03-07 Fingerscan Pty Limited An input device for controlling a pointer on the screen of a computer
GB2312040A (en) 1996-04-13 1997-10-15 Xerox Corp A computer mouse
US5933134A (en) 1996-06-25 1999-08-03 International Business Machines Corporation Touch screen virtual pointing device which goes into a translucent hibernation state when not in use
US5856824A (en) 1996-06-25 1999-01-05 International Business Machines Corp. Reshapable pointing device for touchscreens
JP3711633B2 (ja) 1996-06-27 2005-11-02 カシオ計算機株式会社 タッチパネル制御装置
US6219793B1 (en) 1996-09-11 2001-04-17 Hush, Inc. Method of using fingerprints to authenticate wireless communications
US6181803B1 (en) 1996-09-30 2001-01-30 Intel Corporation Apparatus and method for securely processing biometric information to control access to a node
US6268788B1 (en) 1996-11-07 2001-07-31 Litronic Inc. Apparatus and method for providing an authentication system based on biometrics
US6367017B1 (en) 1996-11-07 2002-04-02 Litronic Inc. Apparatus and method for providing and authentication system
US6598023B1 (en) 1996-11-27 2003-07-22 Diebold, Incorporated Automated banking machine system using internet address customer input
US6901382B1 (en) 1996-11-27 2005-05-31 Diebold, Incorporated Automated banking machine and system
US6498861B1 (en) 1996-12-04 2002-12-24 Activcard Ireland Limited Biometric security encryption system
US6111517A (en) 1996-12-30 2000-08-29 Visionics Corporation Continuous video monitoring using face recognition for access control
US5952998A (en) 1997-01-15 1999-09-14 Compaq Computer Corporation Transparent touchpad with flat panel display for personal computers
JP3469031B2 (ja) 1997-02-18 2003-11-25 株式会社東芝 顔画像登録装置及びその方法
JPH10269358A (ja) 1997-03-25 1998-10-09 Sony Corp 物体認識装置
US6901154B2 (en) 1997-04-16 2005-05-31 Activcard Ireland Limited Method of detecting authorised biometric information sensor
US6193153B1 (en) 1997-04-16 2001-02-27 Francis Lambert Method and apparatus for non-intrusive biometric capture
US5991408A (en) 1997-05-16 1999-11-23 Veridicom, Inc. Identification and security using biometric measurements
US5920640A (en) 1997-05-16 1999-07-06 Harris Corporation Fingerprint sensor and token reader and associated methods
CA2208179A1 (en) 1997-06-18 1998-12-18 Roland S. Walch Pointing device with optical fingerprint recognition and tracking capability
KR19990009965A (ko) 1997-07-14 1999-02-05 정명식 타자 패턴을 이용한 사용자 인증 방법
GB2329497B (en) 1997-09-19 2001-01-31 Ibm Method for controlling access to electronically provided services and system for implementing such method
US6611681B2 (en) 1997-09-26 2003-08-26 Daniel A. Henderson Method and apparatus for an improved call interrupt feature in a cordless telephone answering device
US5974150A (en) 1997-09-30 1999-10-26 Tracer Detection Technology Corp. System and method for authentication of goods
US6037882A (en) 1997-09-30 2000-03-14 Levy; David H. Method and apparatus for inputting data to an electronic system
US6084968A (en) 1997-10-29 2000-07-04 Motorola, Inc. Security token and method for wireless applications
US20020097145A1 (en) 1997-11-06 2002-07-25 David M. Tumey Integrated vehicle security system utilizing facial image verification
BR9714648B1 (pt) 1997-11-07 2010-11-03 processo para determinação da autenticidade de um usuário ou de um grupo de usuários de um aparelho terminal de comunicação, e dispositivo móvel para a telefonia por meio de rádio.
US6185316B1 (en) 1997-11-12 2001-02-06 Unisys Corporation Self-authentication apparatus and method
US6501846B1 (en) 1997-11-25 2002-12-31 Ethentica, Inc. Method and system for computer access and cursor control using a relief object image generator
US6490680B1 (en) 1997-12-04 2002-12-03 Tecsec Incorporated Access control and authorization system
GB9725571D0 (en) 1997-12-04 1998-02-04 Philips Electronics Nv Electronic apparatus comprising fingerprint sensing devices
JPH11175478A (ja) 1997-12-10 1999-07-02 Nec Corp 本人認証システム
US6038666A (en) 1997-12-22 2000-03-14 Trw Inc. Remote identity verification technique using a personal identification device
US6041410A (en) 1997-12-22 2000-03-21 Trw Inc. Personal identification fob
JPH11185016A (ja) 1997-12-24 1999-07-09 Sharp Corp 情報処理装置
US20070177804A1 (en) 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
US7840912B2 (en) * 2006-01-30 2010-11-23 Apple Inc. Multi-touch gesture dictionary
JPH11242745A (ja) 1998-02-25 1999-09-07 Victor Co Of Japan Ltd 顔画像の計測・処理方法
US6181328B1 (en) 1998-03-02 2001-01-30 International Business Machines Corporation Method and system for calibrating touch screen sensitivities according to particular physical characteristics associated with a user
US6141436A (en) 1998-03-25 2000-10-31 Motorola, Inc. Portable communication device having a fingerprint identification system
US6618806B1 (en) 1998-04-01 2003-09-09 Saflink Corporation System and method for authenticating users in a computer network
US6167517A (en) 1998-04-09 2000-12-26 Oracle Corporation Trusted biometric client authentication
US6880750B2 (en) 1998-04-17 2005-04-19 Randolph M. Pentel Remote ordering device
US20010044906A1 (en) 1998-04-21 2001-11-22 Dimitri Kanevsky Random visual patterns used to obtain secured access
EP1074158B1 (de) 1998-04-23 2008-09-10 Siemens Home and Office Communication Devices GmbH & Co. KG Funkgerät mit erweiterten nutzerauthentfizierungsmöglichkeiten
US6484260B1 (en) 1998-04-24 2002-11-19 Identix, Inc. Personal identification system
JP2002513969A (ja) * 1998-05-07 2002-05-14 エイアールティー−アドヴァンスト・レコグニション・テクノロジーズ・リミテッド 車両のコンポーネントの手書きおよび音声制御
US6353889B1 (en) 1998-05-13 2002-03-05 Mytec Technologies Inc. Portable device and method for accessing data key actuated devices
US6421453B1 (en) 1998-05-15 2002-07-16 International Business Machines Corporation Apparatus and methods for user recognition employing behavioral passwords
US6400836B2 (en) 1998-05-15 2002-06-04 International Business Machines Corporation Combined fingerprint acquisition and control device
US6263447B1 (en) 1998-05-21 2001-07-17 Equifax Inc. System and method for authentication of network users
US6573883B1 (en) 1998-06-24 2003-06-03 Hewlett Packard Development Company, L.P. Method and apparatus for controlling a computing device with gestures
US6870946B1 (en) 1998-08-06 2005-03-22 Secugen Corporation Compact optical fingerprint capturing and recognition system
US6636973B1 (en) 1998-09-08 2003-10-21 Hewlett-Packard Development Company, L.P. Secure and dynamic biometrics-based token generation for access control and authentication
JP2000090052A (ja) 1998-09-10 2000-03-31 Toshiba Corp コンピュータ装置
US6292173B1 (en) 1998-09-11 2001-09-18 Stmicroelectronics S.R.L. Touchpad computer input system and method
JP2000090273A (ja) 1998-09-16 2000-03-31 Nec Corp 指紋識別を用いた情報処理装置および情報処理方法
US6950539B2 (en) 1998-09-16 2005-09-27 Digital Persona Configurable multi-function touchpad device
US6256022B1 (en) 1998-11-06 2001-07-03 Stmicroelectronics S.R.L. Low-cost semiconductor user input device
US6532298B1 (en) 1998-11-25 2003-03-11 Iridian Technologies, Inc. Portable authentication device and method using iris patterns
GB2344670B (en) 1998-12-12 2003-09-03 Ibm System, apparatus and method for controlling access
US6560612B1 (en) 1998-12-16 2003-05-06 Sony Corporation Information processing apparatus, controlling method and program medium
JP2000339097A (ja) 1998-12-16 2000-12-08 Sony Corp 情報処理装置およびその制御方法、並びに記録媒体
US6317835B1 (en) 1998-12-23 2001-11-13 Radiant Systems, Inc. Method and system for entry of encrypted and non-encrypted information on a touch screen
US6671808B1 (en) 1999-01-15 2003-12-30 Rainbow Technologies, Inc. USB-compliant personal key
US6317834B1 (en) 1999-01-29 2001-11-13 International Business Machines Corporation Biometric authentication system with encrypted models
US6028950A (en) 1999-02-10 2000-02-22 The National Registry, Inc. Fingerprint controlled set-top box
JP2000250862A (ja) 1999-03-03 2000-09-14 Toshiba Corp プロセス監視制御システム
US6529885B1 (en) 1999-03-18 2003-03-04 Oracle Corporation Methods and systems for carrying out directory-authenticated electronic transactions including contingency-dependent payments via secure electronic bank drafts
US6898577B1 (en) 1999-03-18 2005-05-24 Oracle International Corporation Methods and systems for single sign-on authentication in a multi-vendor e-commerce environment and directory-authenticated bank drafts
JP2000276445A (ja) 1999-03-23 2000-10-06 Nec Corp バイオメトリクス識別を用いた認証方法、装置、認証実行機、認証プログラムを記録した記録媒体
JP2000276245A (ja) 1999-03-23 2000-10-06 Matsushita Electric Ind Co Ltd 端末装置の操作者自動判別認識方法及び装置
JP3663075B2 (ja) 1999-04-05 2005-06-22 シャープ株式会社 情報処理装置
US7039221B1 (en) 1999-04-09 2006-05-02 Tumey David M Facial image verification utilizing smart-card with integrated video camera
US6615264B1 (en) 1999-04-09 2003-09-02 Sun Microsystems, Inc. Method and apparatus for remotely administered authentication and access control
US6337919B1 (en) 1999-04-28 2002-01-08 Intel Corporation Fingerprint detecting mouse
JP2000315118A (ja) 1999-05-06 2000-11-14 Canon Inc 情報処理装置、情報処理装置制御方法、情報処理装置制御プログラムを格納した記憶媒体
US6282304B1 (en) 1999-05-14 2001-08-28 Biolink Technologies International, Inc. Biometric system for biometric input, comparison, authentication and access control and method therefor
US6957768B1 (en) 1999-05-25 2005-10-25 Silverbrook Research Pty Ltd Computer system control via interface surface
JP2001014051A (ja) 1999-06-25 2001-01-19 Matsushita Electric Ind Co Ltd ユーザー認証装置
US6886104B1 (en) 1999-06-25 2005-04-26 Cross Match Technologies Rechargeable mobile hand-held fingerprint scanner with a data and power communication interface
US6639584B1 (en) 1999-07-06 2003-10-28 Chuang Li Methods and apparatus for controlling a portable electronic device using a touchpad
US6681034B1 (en) 1999-07-15 2004-01-20 Precise Biometrics Method and system for fingerprint template matching
US6609198B1 (en) 1999-08-05 2003-08-19 Sun Microsystems, Inc. Log-on service providing credential level change without loss of session continuity
US6719200B1 (en) 1999-08-06 2004-04-13 Precise Biometrics Ab Checking of right to access
US6459424B1 (en) 1999-08-10 2002-10-01 Hewlett-Packard Company Touch-sensitive input screen having regional sensitivity and resolution properties
JP2001092554A (ja) 1999-09-21 2001-04-06 Seiko Instruments Inc 情報処理装置
US6728881B1 (en) 1999-10-01 2004-04-27 The United States Of America As Represented By The Secretary Of The Army Fingerprint and signature identification and authorization card and pen
US7030860B1 (en) 1999-10-08 2006-04-18 Synaptics Incorporated Flexible transparent touch sensing system for electronic devices
AU780674B2 (en) 1999-10-27 2005-04-07 Keyless Systems Ltd. Integrated keypad system
KR200184982Y1 (ko) 1999-11-08 2000-06-15 삼성전자주식회사 지문인식기능을 가지는 디스플레이장치
JP3738629B2 (ja) 1999-11-25 2006-01-25 三菱電機株式会社 携帯型電子機器
AU4137601A (en) 1999-11-30 2001-06-12 Barry Johnson Methods, systems, and apparatuses for secure interactions
US6443359B1 (en) 1999-12-03 2002-09-03 Diebold, Incorporated Automated transaction system and method
US6735695B1 (en) 1999-12-20 2004-05-11 International Business Machines Corporation Methods and apparatus for restricting access of a user using random partial biometrics
WO2001048681A2 (en) 1999-12-23 2001-07-05 National University Of Singapore Automated fingerprint identification system
US6871287B1 (en) 2000-01-21 2005-03-22 John F. Ellingson System and method for verification of identity
US6721738B2 (en) 2000-02-01 2004-04-13 Gaveo Technology, Llc. Motion password control system
KR100325381B1 (ko) 2000-02-11 2002-03-06 안준영 지문입력기를 이용한 터치패드 구현방법 및지문입력기능을 하는 터치패드 장치
US6668332B1 (en) 2000-02-15 2003-12-23 International Business Machines Corporation Functional clock observation controlled by JTAG extensions
GB2365676B (en) * 2000-02-18 2004-06-23 Sensei Ltd Mobile telephone with improved man-machine interface
GB0004287D0 (en) 2000-02-23 2000-04-12 Leeper Kim System and method for authenticating electronic documents
US6766456B1 (en) 2000-02-23 2004-07-20 Micron Technology, Inc. Method and system for authenticating a user of a computer system
JP2001236324A (ja) 2000-02-24 2001-08-31 Fujitsu Ltd バイオメトリクス情報による個人認証機能を有する携帯電子装置
CN1263324A (zh) 2000-03-20 2000-08-16 后健慈 指纹辨识键盘装置及其辨识方法
DE60119418T2 (de) 2000-03-22 2007-05-24 Kabushiki Kaisha Toshiba, Kawasaki Gesichtsbildaufnehmendes Erkennungsgerät und Passüberprüfungsgerät
AU2001245936A1 (en) 2000-03-23 2001-10-03 Cross Match Technologies, Inc. Piezoelectric identification device and applications thereof
US7086085B1 (en) 2000-04-11 2006-08-01 Bruce E Brown Variable trust levels for authentication
AU2001249968A1 (en) 2000-04-18 2001-10-30 Bioconx, Inc. System for logging into multiple network systems
US6775776B1 (en) 2000-06-27 2004-08-10 Intel Corporation Biometric-based authentication in a nonvolatile memory device
US6720860B1 (en) 2000-06-30 2004-04-13 International Business Machines Corporation Password protection using spatial and temporal variation in a high-resolution touch sensitive display
JP4221220B2 (ja) 2000-07-24 2009-02-12 株式会社ディー・ディー・エス 指紋照合装置、指紋照合方法及び指紋照合プログラム
CN101025778A (zh) 2000-07-25 2007-08-29 有限会社信息安全 保密信息记录媒介、保护方法、保护存储方法及信息访问报警系统
JP4469476B2 (ja) 2000-08-09 2010-05-26 パナソニック株式会社 眼位置検出方法および眼位置検出装置
KR20020022295A (ko) 2000-09-19 2002-03-27 장기화 3차원 정보를 이용한 얼굴 인식 장치 및 방법
US6766040B1 (en) 2000-10-02 2004-07-20 Biometric Solutions, Llc System and method for capturing, enrolling and verifying a fingerprint
US7012936B2 (en) 2000-10-05 2006-03-14 Matsushita Electric Industrial Co., Ltd. Initializing method and data transmitter
US6585591B1 (en) * 2000-10-12 2003-07-01 Igt Gaming device having an element and element group selection and elimination bonus scheme
US6819219B1 (en) 2000-10-13 2004-11-16 International Business Machines Corporation Method for biometric-based authentication in wireless communication for access control
JP2002159052A (ja) 2000-11-17 2002-05-31 Nec Kofu Ltd 指紋認証機能付き移動端末
US7346778B1 (en) 2000-11-29 2008-03-18 Palmsource, Inc. Security method and apparatus for controlling the data exchange on handheld computers
US6871193B1 (en) 2000-11-29 2005-03-22 Verizon Corporate Services Group Method and system for partitioned service-enablement gateway with utility and consumer services
DE60037898T2 (de) 2000-12-22 2009-01-22 Ford Global Technologies, LLC, Dearborn Fernsteuer- und Kommunikationssystem zur Anwendung in Fahrzeugen und Schlüsselanhängereinheit dafür
US7921297B2 (en) 2001-01-10 2011-04-05 Luis Melisendro Ortiz Random biometric authentication utilizing unique biometric signatures
US20020091937A1 (en) 2001-01-10 2002-07-11 Ortiz Luis M. Random biometric authentication methods and systems
JP2002207525A (ja) 2001-01-10 2002-07-26 Matsushita Electric Ind Co Ltd 指紋センサ付き携帯情報端末
US20020095588A1 (en) 2001-01-12 2002-07-18 Satoshi Shigematsu Authentication token and authentication system
US7124300B1 (en) 2001-01-24 2006-10-17 Palm, Inc. Handheld computer system configured to authenticate a user and power-up in response to a single action by the user
US6871784B2 (en) 2001-02-07 2005-03-29 Trijay Technologies International Corporation Security in mag-stripe card transactions
US7030861B1 (en) * 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
US20020122026A1 (en) 2001-03-01 2002-09-05 Bergstrom Dean Warren Fingerprint sensor and position controller
JP2002269046A (ja) 2001-03-09 2002-09-20 Sharp Corp 情報処理装置
TWI282941B (en) 2001-03-15 2007-06-21 Toshiba Corp Entrance management apparatus and entrance management method by using face features identification
US6848052B2 (en) 2001-03-21 2005-01-25 Activcard Ireland Limited High security personalized wireless portable biometric device
US6877097B2 (en) 2001-03-21 2005-04-05 Activcard, Inc. Security access method and apparatus
US6603462B2 (en) * 2001-03-21 2003-08-05 Multidigit, Inc. System and method for selecting functions based on a finger feature such as a fingerprint
US6920236B2 (en) 2001-03-26 2005-07-19 Mikos, Ltd. Dual band biometric identification system
US20020141586A1 (en) 2001-03-29 2002-10-03 Aladdin Knowledge Systems Ltd. Authentication employing the bluetooth communication protocol
US6850147B2 (en) 2001-04-02 2005-02-01 Mikos, Ltd. Personal biometric key
US20020146157A1 (en) 2001-04-09 2002-10-10 Goodman Mitchell E. Fingerprint acquisition assembly using prism and camera
US6724370B2 (en) 2001-04-12 2004-04-20 International Business Machines Corporation Touchscreen user interface
US20040085300A1 (en) * 2001-05-02 2004-05-06 Alec Matusis Device and method for selecting functions based on intrinsic finger features
EP1257111A1 (de) 2001-05-08 2002-11-13 Siemens Schweiz AG Mobiles Terminal mit rückseitig angeordnetem Bedienfeld
US6832317B1 (en) 2001-05-10 2004-12-14 Advanced Micro Devices, Inc. Personal computer security mechanism
KR20020087665A (ko) 2001-05-15 2002-11-23 엘지전자 주식회사 개인휴대용 통신단말기의 분실모드에 따른 동작방법
US7730401B2 (en) 2001-05-16 2010-06-01 Synaptics Incorporated Touch screen with user interface enhancement
US20050024341A1 (en) 2001-05-16 2005-02-03 Synaptics, Inc. Touch screen with user interface enhancement
WO2002096181A2 (en) 2001-05-25 2002-12-05 Biometric Informatics Technology, Inc. Fingerprint recognition system
JP2002358162A (ja) 2001-06-01 2002-12-13 Sony Corp 画像表示装置
US20020190960A1 (en) * 2001-06-15 2002-12-19 Shyh-Ren Kuo Method for controlling computer cursor based on identification of user fingerprint
US7203347B2 (en) 2001-06-27 2007-04-10 Activcard Ireland Limited Method and system for extracting an area of interest from within a swipe image of a biological surface
US6836843B2 (en) 2001-06-29 2004-12-28 Hewlett-Packard Development Company, L.P. Access control through secure channel using personal identification system
KR20030005535A (ko) * 2001-07-09 2003-01-23 엘지전자 주식회사 지문인식을 이용한 이동통신 단말기의 사용 제한 장치 및방법
US20030115475A1 (en) 2001-07-12 2003-06-19 Russo Anthony P. Biometrically enhanced digital certificates and system and method for making and using
US7536556B2 (en) 2001-07-27 2009-05-19 Yulia Vladimirovna Fedorova Method and device for entering a computer database password
US6757411B2 (en) 2001-08-16 2004-06-29 Liska Biometry Inc. Method and system for fingerprint encoding and authentication
US20030048260A1 (en) * 2001-08-17 2003-03-13 Alec Matusis System and method for selecting actions based on the identification of user's fingers
JP2003067343A (ja) 2001-08-23 2003-03-07 Toshiba Tec Corp 業務端末装置
US20030188183A1 (en) 2001-08-27 2003-10-02 Lee Lane W. Unlocking method and system for data on media
EP1293874A3 (en) 2001-09-06 2006-08-02 Nippon Telegraph and Telephone Corporation Authentication method, authentication system, and authentication token
US20030046557A1 (en) 2001-09-06 2003-03-06 Miller Keith F. Multipurpose networked data communications system and distributed user control interface therefor
JP2003085540A (ja) 2001-09-11 2003-03-20 Sony Corp ユーザインターフェース、認証装置、デバイス、携帯型情報端末
US7027619B2 (en) 2001-09-13 2006-04-11 Honeywell International Inc. Near-infrared method and system for use in face detection
US20060095369A1 (en) 2001-10-15 2006-05-04 Eyal Hofi Device, method and system for authorizing transactions
JP2003143290A (ja) 2001-10-30 2003-05-16 Sanyo Electric Co Ltd 携帯電話機
DE10153591A1 (de) 2001-11-02 2003-05-22 Rene Baltus Wiedererkennung einer Person durch die Erfassung und dem Vergleich der personentypischen Betätigungsdynamik an einem Joystick
US6735287B2 (en) 2001-11-16 2004-05-11 Sbc Technology Resources, Inc. Method and system for multimodal presence detection
US6985502B2 (en) 2001-11-19 2006-01-10 Hewlett-Packard Development Company, L.P. Time-division multiplexed link for use in a service area network
US8504652B2 (en) 2006-04-10 2013-08-06 Portulim Foundation Llc Method and system for selectively supplying media content to a user and media storage device for use therein
US8266212B2 (en) 2001-11-23 2012-09-11 Igt Game talk service bus
US7137553B2 (en) 2001-12-31 2006-11-21 Digital Data Research Company Security clearance card, system and method of reading a security clearance card
US7394346B2 (en) 2002-01-15 2008-07-01 International Business Machines Corporation Free-space gesture recognition for transaction security and command processing
US6883709B2 (en) 2002-02-12 2005-04-26 Famous Horse, Inc. Biometric identification and security system associated with cash register
US6879243B1 (en) 2002-02-14 2005-04-12 Penco Products, Inc. Electronically-controlled locker system
JP2003298689A (ja) * 2002-04-02 2003-10-17 Canon Inc 携帯電話
JP4022861B2 (ja) 2002-04-10 2007-12-19 日本電気株式会社 指紋認証システム、指紋認証方法及び指紋認証プログラム
US6980081B2 (en) 2002-05-10 2005-12-27 Hewlett-Packard Development Company, L.P. System and method for user authentication
US6853739B2 (en) 2002-05-15 2005-02-08 Bio Com, Llc Identity verification system
US7543156B2 (en) 2002-06-25 2009-06-02 Resilent, Llc Transaction authentication card
KR20040000954A (ko) 2002-06-26 2004-01-07 삼성전자주식회사 이동통신단말기에 있어서 지문인식 방향 선택 방법
US7243239B2 (en) 2002-06-28 2007-07-10 Microsoft Corporation Click passwords
US20040104268A1 (en) 2002-07-30 2004-06-03 Bailey Kenneth Stephen Plug in credit card reader module for wireless cellular phone verifications
KR20040025004A (ko) 2002-09-18 2004-03-24 주식회사 현대오토넷 지문이 조합된 비밀번호 인증시스템
FI20021682A (fi) 2002-09-20 2004-03-21 Nokia Corp Menetelmä laitteen lukitustilan avaamiseksi ja elektroninen laite
HK1062117A2 (en) 2002-09-25 2004-09-17 Univ Hong Kong Polytechnic Method of palm print identification using geometry, line and/or texture features
US20040229560A1 (en) 2002-10-10 2004-11-18 Maloney William C. Methods of tracking and verifying human assets
US7194105B2 (en) 2002-10-16 2007-03-20 Hersch Roger D Authentication of documents and articles by moiré patterns
JP2004151862A (ja) 2002-10-29 2004-05-27 Oki Electric Ind Co Ltd 来店受付システム並びにその来店受付装置およびそのプログラム
US6886101B2 (en) 2002-10-30 2005-04-26 American Express Travel Related Services Company, Inc. Privacy service
US7676748B1 (en) 2002-11-04 2010-03-09 Sun Microsystems, Inc. System graphics for security shield
JP2004157821A (ja) 2002-11-07 2004-06-03 Nec Fielding Ltd 認証システム
US6886096B2 (en) 2002-11-14 2005-04-26 Voltage Security, Inc. Identity-based encryption system
JP2004172851A (ja) 2002-11-19 2004-06-17 Mitsubishi Electric Corp 通信端末並びに撮影倍率の制御方法をコンピュータに実行させるプログラム
US7102617B2 (en) 2002-12-30 2006-09-05 Motorola, Inc. Compact optical pointing apparatus and method
US7116805B2 (en) 2003-01-07 2006-10-03 Avagotechnologies Ecbu Ip (Singapore) Pte. Ltd. Fingerprint verification device
US7542945B2 (en) 2003-01-15 2009-06-02 Sanmina-Sci Corporation Authentication device, system and methods
EP1594085A4 (en) 2003-02-13 2008-02-27 Nec Corp DEVICE AND METHOD FOR DETECTING UNEMPLOYED PERSONS
KR20040076639A (ko) 2003-02-26 2004-09-03 에스케이텔레텍주식회사 지문인식을 이용하여 단축 다이얼링을 하기 위한 이동통신단말기 및 방법
US20040172562A1 (en) 2003-03-01 2004-09-02 Vladimir Berger System and method for identity recognition of an individual for enabling an access to a secured system
JP4296008B2 (ja) 2003-03-04 2009-07-15 日本信号株式会社 個人認証システム
US20040198486A1 (en) * 2003-03-04 2004-10-07 Walker Jay S. Method and apparatus for determining and presenting outcomes at a gaming device
JP2004297468A (ja) 2003-03-27 2004-10-21 Lg Electronics Inc リモコン装置
US20040196400A1 (en) 2003-04-07 2004-10-07 Stavely Donald J. Digital camera user interface using hand gestures
US20040201595A1 (en) 2003-04-11 2004-10-14 Microsoft Corporation Self-orienting display
JP2004313459A (ja) 2003-04-16 2004-11-11 Seiko Epson Corp 指紋照合装置、電子機器及び指紋の照合方法
US7274808B2 (en) * 2003-04-18 2007-09-25 Avago Technologies Ecbu Ip (Singapore)Pte Ltd Imaging system and apparatus for combining finger recognition and finger navigation
US20040250138A1 (en) 2003-04-18 2004-12-09 Jonathan Schneider Graphical event-based password system
JP2004334788A (ja) 2003-05-12 2004-11-25 Minoru Ikeda 個人認証システム、認証装置、個人認証方法、プログラム、および、記録媒体
AU2003902422A0 (en) 2003-05-19 2003-06-05 Intellirad Solutions Pty. Ltd Access security system
US6888445B2 (en) 2003-05-20 2005-05-03 Bradley L. Gotfried Vehicle identification system
KR20070026808A (ko) 2003-05-21 2007-03-08 가부시키가이샤 히다치 하이테크놀로지즈 지문센서내장 휴대 단말장치
US7783892B2 (en) * 2003-05-30 2010-08-24 Privaris, Inc. System and methods for assignation and use of media content subscription service privileges
JP2005004490A (ja) 2003-06-12 2005-01-06 Murata Mach Ltd 文書処理装置及びそのプログラム
WO2004111940A1 (ja) 2003-06-16 2004-12-23 Yokohama Tlo Co., Ltd. 個人認証装置、及び個人認証装置を備えるシステム
US7474772B2 (en) * 2003-06-25 2009-01-06 Atrua Technologies, Inc. System and method for a miniature user input device
US7057607B2 (en) 2003-06-30 2006-06-06 Motorola, Inc. Application-independent text entry for touch-sensitive display
KR100613697B1 (ko) 2003-07-18 2006-08-21 학교법인연세대학교 손가락의 슬라이딩/롤링에 따른 지문영상획득방법
JP4551635B2 (ja) 2003-07-31 2010-09-29 ソニー株式会社 パイプライン処理システムおよび情報処理装置
JP2005056152A (ja) 2003-08-05 2005-03-03 Ricoh Co Ltd 電子投票システム、方法、プログラム、及び記録媒体
WO2005020190A2 (en) 2003-08-11 2005-03-03 Virtualblue, Llc Rectractable flexible digital display apparatus
US20050044387A1 (en) 2003-08-18 2005-02-24 Ozolins Helmars E. Portable access device
US20040230843A1 (en) 2003-08-20 2004-11-18 Wayne Jansen System and method for authenticating users using image selection
JP4633347B2 (ja) 2003-08-27 2011-02-16 ソニー株式会社 電子機器
CN1820288A (zh) 2003-08-29 2006-08-16 诺基亚公司 用于定制的基于图片的用户标识和认证方法和设备
JP4086740B2 (ja) 2003-09-09 2008-05-14 日本電気株式会社 端末利用者監視システム
US20050052427A1 (en) * 2003-09-10 2005-03-10 Wu Michael Chi Hung Hand gesture interaction with touch surface
EP1521161A3 (en) 2003-09-25 2006-03-15 Matsushita Electric Industrial Co., Ltd. An apparatus and a method for preventing unauthorized use and a device with a function of preventing unauthorized use
JP4495545B2 (ja) 2003-09-25 2010-07-07 パナソニック株式会社 不正使用防止装置及び方法
US7280677B2 (en) * 2003-10-10 2007-10-09 Authentec, Inc. Electronic device including fingerprint sensor and display having selectable menu items and associated methods
US7492472B2 (en) 2003-10-30 2009-02-17 Xerox Corporation Multimedia communications/collaboration hub
JP4448000B2 (ja) 2003-11-05 2010-04-07 キヤノン株式会社 情報送信装置および情報送信宛先指定方法および記憶媒体およびプログラム
JP4387764B2 (ja) 2003-11-10 2009-12-24 富士通株式会社 認証装置および認証システム
US7597250B2 (en) 2003-11-17 2009-10-06 Dpd Patent Trust Ltd. RFID reader with multiple interfaces
KR100580630B1 (ko) 2003-11-19 2006-05-16 삼성전자주식회사 적외선을 이용한 사람 식별 장치 및 방법
TW200517975A (en) 2003-11-20 2005-06-01 Lightuning Tech Inc Sweep-type fingerprint sensor device capable of guiding a finger in a fixed sweeping direction
US20050114686A1 (en) 2003-11-21 2005-05-26 International Business Machines Corporation System and method for multiple users to securely access encrypted data on computer system
JP4131229B2 (ja) 2003-11-25 2008-08-13 日本電気株式会社 折り畳み式携帯電話機及び折り畳み式携帯電話機のロック解除方法
JP2005175555A (ja) 2003-12-08 2005-06-30 Hitachi Ltd 携帯通信機器
CN1627317A (zh) 2003-12-12 2005-06-15 北京阳光奥森科技有限公司 利用主动光源获取人脸图像的方法
KR100554129B1 (ko) 2003-12-19 2006-02-20 노틸러스효성 주식회사 인체의 열정보를 이용한 개인인증장치와 그 방법
CN100421058C (zh) * 2003-12-23 2008-09-24 奥森泰克公司 具有用于字符输入的手指传感器的电子设备和相关方法
JP4468896B2 (ja) 2004-01-13 2010-05-26 富士通株式会社 生体情報による認証装置
JP2005202578A (ja) 2004-01-14 2005-07-28 Toshiba Corp コミュニケーション装置およびコミュニケーション方法
US7697729B2 (en) 2004-01-29 2010-04-13 Authentec, Inc. System for and method of finger initiated actions
JP2005219630A (ja) 2004-02-05 2005-08-18 Pioneer Electronic Corp 操作制御装置、処理制御装置、操作制御方法、そのプログラム、および、そのプログラムを記録した記録媒体
TWI231689B (en) 2004-02-27 2005-04-21 Htc Corp Handheld electronic device
KR100652624B1 (ko) 2004-03-02 2006-12-06 엘지전자 주식회사 이동통신단말기의 대기화면 표시방법
JP2005275488A (ja) 2004-03-23 2005-10-06 Nippon Telegr & Teleph Corp <Ntt> 入力支援方法およびプログラム
US7693308B2 (en) 2004-03-24 2010-04-06 Fujifilm Corporation Authentication system, authentication method, machine readable medium storing thereon authentication program, certificate photograph taking apparatus, and certificate photograph taking method
US7542592B2 (en) 2004-03-29 2009-06-02 Siemesn Corporate Research, Inc. Systems and methods for face detection and recognition using infrared imaging
US7378939B2 (en) 2004-03-30 2008-05-27 Sengupta Uttam K Method and apparatus for providing proximity based authentication, security, and notification in a wireless system
JP4059224B2 (ja) 2004-04-13 2008-03-12 株式会社デンソー 運転者の外観認識システム
US8165355B2 (en) * 2006-09-11 2012-04-24 Validity Sensors, Inc. Method and apparatus for fingerprint motion tracking using an in-line array for use in navigation applications
US8175345B2 (en) * 2004-04-16 2012-05-08 Validity Sensors, Inc. Unitized ergonomic two-dimensional fingerprint motion tracking device and method
US8358815B2 (en) * 2004-04-16 2013-01-22 Validity Sensors, Inc. Method and apparatus for two-dimensional finger motion tracking and control
WO2005106774A2 (en) 2004-04-23 2005-11-10 Validity Sensors, Inc. Methods and apparatus for acquiring a swiped fingerprint image
FR2869723A1 (fr) * 2004-04-29 2005-11-04 Thomson Licensing Sa Element de transition sans contact entre un guide d'ondes et une ligne mocroruban
JP2005324450A (ja) 2004-05-14 2005-11-24 Canon Inc 画像形成装置および情報処理装置およびジョブ表示制御方法およびコンピュータが読み取り可能なプログラムを格納した記憶媒体およびプログラム
JP4321350B2 (ja) 2004-05-14 2009-08-26 パナソニック株式会社 パラメタ推定方法、パラメタ推定装置および照合方法
JP2005339425A (ja) 2004-05-31 2005-12-08 Sanyo Electric Co Ltd 本人認証装置
US8684839B2 (en) 2004-06-18 2014-04-01 Igt Control of wager-based game using gesture recognition
US20060021003A1 (en) 2004-06-23 2006-01-26 Janus Software, Inc Biometric authentication system
TWI267789B (en) 2004-06-30 2006-12-01 Au Optronics Corp Transparent touch panel for recognizing fingerprint
JP2006018613A (ja) 2004-07-02 2006-01-19 Oki Electric Ind Co Ltd 自動取引装置
KR20060003689A (ko) 2004-07-07 2006-01-11 엘지전자 주식회사 지문인식 통신단말기의 메뉴 선택 장치 및 방법
US8190907B2 (en) 2004-08-11 2012-05-29 Sony Computer Entertainment Inc. Process and apparatus for automatically identifying user of consumer electronics
US7328850B2 (en) 2004-08-12 2008-02-12 Codecard, Inc. Financial and similar identification cards and methods relating thereto
JP2006072872A (ja) 2004-09-06 2006-03-16 Matsushita Electric Ind Co Ltd 携帯型情報処理装置、情報処理装置の画面回転方法および合成データ回転方法
KR20060022001A (ko) 2004-09-06 2006-03-09 현대모비스 주식회사 카오디오 버튼 설치구조
JP4699139B2 (ja) 2004-09-14 2011-06-08 富士フイルム株式会社 セキュリティシステム
JP2006085559A (ja) 2004-09-17 2006-03-30 Canon Inc 個人認証装置および個人認証方法および記憶媒体
US20060075250A1 (en) 2004-09-24 2006-04-06 Chung-Wen Liao Touch panel lock and unlock function and hand-held device
JP4266363B2 (ja) 2004-09-27 2009-05-20 日本開閉器工業株式会社 感圧式指紋センサ
JP4351982B2 (ja) 2004-10-07 2009-10-28 株式会社東芝 個人認証方法、装置及びプログラム
JP2006107366A (ja) 2004-10-08 2006-04-20 Fujitsu Ltd 生体情報入力装置,生体認証装置,生体情報処理方法,生体情報処理プログラムおよび同プログラムを記録したコンピュータ読取可能な記録媒体
ATE392785T1 (de) 2004-10-11 2008-05-15 Swisscom Mobile Ag Identifizierungs- und/oder authentifizierungsmethode anhand von fingerabdrücken
JP4442385B2 (ja) 2004-10-13 2010-03-31 株式会社カシオ日立モバイルコミュニケーションズ 携帯端末装置およびプログラム
JP2006121334A (ja) 2004-10-20 2006-05-11 Vodafone Kk 情報通信端末及び通信管理システム
JP2006119920A (ja) 2004-10-21 2006-05-11 Matsushita Electric Ind Co Ltd 情報端末装置
KR20060038274A (ko) 2004-10-29 2006-05-03 엘지전자 주식회사 지문 인식 센서 및 이를 이용한 이동 통신 단말기의 지문인식 장치
US20060093192A1 (en) 2004-11-03 2006-05-04 Bechtel J S Finger guide device
KR100682898B1 (ko) 2004-11-09 2007-02-15 삼성전자주식회사 적외선을 이용한 영상 장치 및 그의 영상 식별 방법
US7469060B2 (en) 2004-11-12 2008-12-23 Honeywell International Inc. Infrared face detection and recognition system
US7602942B2 (en) 2004-11-12 2009-10-13 Honeywell International Inc. Infrared and visible fusion face recognition system
ES2760474T3 (es) 2004-11-12 2020-05-14 Koninkl Philips Electronics Nv Identificacion distinctiva de los usuarios y autenticacion para el acceso de multiples usuarios a dispositivos de visualizacion.
US7138905B2 (en) 2004-11-18 2006-11-21 Honeywell International Inc. Controlled environment thermal image detection system and methods regarding same
JP2006146579A (ja) 2004-11-19 2006-06-08 Olympus Corp データ検索再生装置、情報入力記録装置、及び操作装置
JP2006157154A (ja) 2004-11-25 2006-06-15 Canon Inc 情報入力装置、カメラ
US20060115130A1 (en) 2004-11-29 2006-06-01 Douglas Kozlay Eyewear with biometrics to protect displayed data
US8224753B2 (en) 2004-12-07 2012-07-17 Farsheed Atef System and method for identity verification and management
US20060136734A1 (en) 2004-12-21 2006-06-22 Eastman Kodak Company Identification display device
JP2006189999A (ja) 2005-01-04 2006-07-20 Fujitsu Ltd セキュリティ管理方法、プログラム及び情報機器
JP2006191245A (ja) 2005-01-05 2006-07-20 Nec Corp ダイヤルロック機能認証装置及びその方法並びにそれを用いた携帯端末
KR100729280B1 (ko) 2005-01-08 2007-06-15 아이리텍 잉크 스테레오 카메라를 장착한 이동단말기를 이용한 홍채인식시스템 및 그 방법
US8438400B2 (en) 2005-01-11 2013-05-07 Indigo Identityware, Inc. Multiple user desktop graphical identification and authentication
US8700729B2 (en) 2005-01-21 2014-04-15 Robin Dua Method and apparatus for managing credentials through a wireless network
JP2006215705A (ja) 2005-02-02 2006-08-17 Sony Ericsson Mobilecommunications Japan Inc 情報通信装置及び情報通信システム、情報記録装置及び情報再生装置
US8145912B2 (en) 2005-03-01 2012-03-27 Qualcomm Incorporated System and method for using a visual password scheme
JP4702598B2 (ja) 2005-03-15 2011-06-15 オムロン株式会社 監視システム、監視装置および方法、記録媒体、並びにプログラム
JP4734980B2 (ja) 2005-03-15 2011-07-27 オムロン株式会社 顔認証装置およびその制御方法、顔認証装置を備えた電子機器、顔認証装置制御プログラム、ならびに該プログラムを記録した記録媒体
JP4696608B2 (ja) 2005-03-15 2011-06-08 オムロン株式会社 被写体認証装置、携帯電話、及び被写体認証プログラム
US7561145B2 (en) * 2005-03-18 2009-07-14 Microsoft Corporation Systems, methods, and computer-readable media for invoking an electronic ink or handwriting interface
JP4739787B2 (ja) 2005-03-28 2011-08-03 富士通株式会社 電子機器
EP1865404A4 (en) * 2005-03-28 2012-09-05 Panasonic Corp USER INTERFACE SYSTEM
US7725511B2 (en) 2005-03-31 2010-05-25 Intel Corporation Bio-metric input mechanism
JP2006303701A (ja) 2005-04-18 2006-11-02 Fujitsu Ltd 電子機器、その動作抑止制御方法及び動作抑止制御プログラム
JP2006301201A (ja) 2005-04-19 2006-11-02 Canon Inc 光学装置およびカメラシステム
US7590269B2 (en) 2005-04-22 2009-09-15 Microsoft Corporation Integrated control for navigation, authentication, power on and rotation
JP2006308375A (ja) 2005-04-27 2006-11-09 Matsushita Electric Ind Co Ltd 赤外線利用型目位置検出装置
TWI267791B (en) 2005-05-13 2006-12-01 Lite On Semiconductor Corp Handheld device for acquiring fingerprint information
US7929946B2 (en) 2005-05-24 2011-04-19 Rathus Spencer A Remote subscriber identification (RSID) system and method
EP1892611A4 (en) 2005-05-27 2013-03-06 Sharp Kk DISPLAY DEVICE
US7347361B2 (en) 2005-06-13 2008-03-25 Robert Lovett System, method and program product for account transaction validation
US7810720B2 (en) 2005-06-13 2010-10-12 Robert Lovett Account payment using barcode information exchange
US20060284853A1 (en) * 2005-06-16 2006-12-21 Xm Satellite Radio, Inc. Context sensitive data input using finger or fingerprint recognition
US8370639B2 (en) 2005-06-16 2013-02-05 Sensible Vision, Inc. System and method for providing secure access to an electronic device using continuous facial biometrics
KR100713494B1 (ko) 2005-06-20 2007-04-30 삼성전자주식회사 카메라부를 이용한 사용자 인증 방법 및 이를 위한이동통신단말기
US20060289638A1 (en) 2005-06-27 2006-12-28 Schilling Donald L Voting verification system and method
JP2007011420A (ja) 2005-06-28 2007-01-18 Konami Co Ltd 認証装置及びこれを備えるゲーム装置
JP2007011667A (ja) 2005-06-30 2007-01-18 Matsushita Electric Ind Co Ltd 虹彩認証装置および虹彩認証方法
US20070016958A1 (en) 2005-07-12 2007-01-18 International Business Machines Corporation Allowing any computer users access to use only a selection of the available applications
JP4774245B2 (ja) 2005-07-15 2011-09-14 日立オムロンターミナルソリューションズ株式会社 生体認証対応自動取引装置
JP2007036928A (ja) 2005-07-29 2007-02-08 Sharp Corp 携帯情報端末装置
JP4646734B2 (ja) 2005-08-17 2011-03-09 シャープ株式会社 携帯情報端末装置
JP2007058397A (ja) 2005-08-23 2007-03-08 Konica Minolta Holdings Inc 認証システム、登録システム及び証明用媒体
US20070061126A1 (en) * 2005-09-01 2007-03-15 Anthony Russo System for and method of emulating electronic input devices
WO2007029710A1 (ja) 2005-09-07 2007-03-15 Matsushita Electric Industrial Co., Ltd. 携帯処理装置
US20070287540A1 (en) * 2005-09-08 2007-12-13 Brahmandam Kiran Soft key hot spot activation system and method
CN101305375A (zh) 2005-09-12 2008-11-12 沙盒技术有限公司 用于控制电子信息的分发的系统和方法
US8090945B2 (en) 2005-09-16 2012-01-03 Tara Chand Singhal Systems and methods for multi-factor remote user authentication
US7633076B2 (en) 2005-09-30 2009-12-15 Apple Inc. Automated response to and sensing of user activity in portable devices
JP2007097820A (ja) 2005-10-04 2007-04-19 Sumitomo Electric Ind Ltd 生体検査システムおよび生体検査方法
US7484173B2 (en) 2005-10-18 2009-01-27 International Business Machines Corporation Alternative key pad layout for enhanced security
KR100663437B1 (ko) 2005-11-01 2007-01-02 삼성전자주식회사 지문 인식 센서를 이용한 원격 입력 방법
JP2007128288A (ja) * 2005-11-04 2007-05-24 Fuji Xerox Co Ltd 情報表示システム
US7847787B1 (en) * 2005-11-12 2010-12-07 Navisense Method and system for directing a control action
JP2007135149A (ja) 2005-11-14 2007-05-31 Nec Corp 移動携帯端末
US7868874B2 (en) 2005-11-15 2011-01-11 Synaptics Incorporated Methods and systems for detecting a position-based attribute of an object using digital codes
GB0523995D0 (en) 2005-11-25 2006-01-04 Ibm Method,system and computer program product for access control
JP2007148801A (ja) 2005-11-28 2007-06-14 Yamatake Corp 指紋照合装置
SG133415A1 (en) 2005-12-12 2007-07-30 Syed Mahtab Uddin Mahmood Antiphishing login techniques
US8509494B2 (en) 2005-12-21 2013-08-13 Koninklijke Philips N.V. Biometric information detection using sweep-type imager
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
JP2007172508A (ja) * 2005-12-26 2007-07-05 Sony Corp 着脱式記憶装置及び認証方法
JP4252994B2 (ja) 2005-12-26 2009-04-08 株式会社日立製作所 携帯電話機
JP2007179213A (ja) 2005-12-27 2007-07-12 Kosugi Masami ネット機密情報管理システム
US8018440B2 (en) 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
US7860536B2 (en) 2006-01-05 2010-12-28 Apple Inc. Telephone interface for a portable communication device
CN100999961A (zh) 2006-01-14 2007-07-18 姜仁忠 新科技密码锁及钥匙的设计方法
KR20070081773A (ko) 2006-02-13 2007-08-17 스마트 와이어레스 가부시키가이샤 적외선 얼굴 인증장치, 이를 구비하는 휴대 단말기 및보안장치
US20070208743A1 (en) 2006-02-14 2007-09-06 Narayan Sainaney System and Method For Searching Rights Enabled Documents
US20070204037A1 (en) 2006-02-27 2007-08-30 Microsoft Corporation Multiuser Web Service Sign-In
US7630522B2 (en) 2006-03-08 2009-12-08 Microsoft Corporation Biometric measurement using interactive display systems
JP4853063B2 (ja) 2006-03-15 2012-01-11 オムロン株式会社 利用者機器、通信機器、認証システム、認証方法、認証プログラムおよび記録媒体
KR100746874B1 (ko) * 2006-03-16 2007-08-07 삼성전자주식회사 이동 단말기에서 터치패드를 이용한 서비스 제공 장치 및방법
CA2647194C (en) 2006-03-20 2016-08-16 Gerald R. Black Mobile communication device
JP4669423B2 (ja) * 2006-03-20 2011-04-13 富士通株式会社 電子機器、スクロール制御装置、およびプログラム
US20070226778A1 (en) 2006-03-22 2007-09-27 Jorg Pietruszka Bluetooth theft protection
US9395905B2 (en) 2006-04-05 2016-07-19 Synaptics Incorporated Graphical scroll wheel
US9195428B2 (en) 2006-04-05 2015-11-24 Nvidia Corporation Method and system for displaying data from auxiliary display subsystem of a notebook on a main display of the notebook
KR100847532B1 (ko) 2006-04-06 2008-07-21 재단법인서울대학교산학협력재단 사용자의 행동 패턴 정보를 이용한 사용자 인증에 사용되는사용자 단말기 및 인증 장치
JPWO2007119818A1 (ja) 2006-04-14 2009-08-27 日本電気株式会社 機能ロック解除システム、機能ロック解除方法、および機能ロック解除用プログラム
US8683362B2 (en) * 2008-05-23 2014-03-25 Qualcomm Incorporated Card metaphor for activities in a computing device
US8296684B2 (en) * 2008-05-23 2012-10-23 Hewlett-Packard Development Company, L.P. Navigating among activities in a computing device
JP2007293628A (ja) 2006-04-25 2007-11-08 Toshiba Corp 情報処理装置
US9152241B2 (en) * 2006-04-28 2015-10-06 Zienon, Llc Method and apparatus for efficient data input
JP4177858B2 (ja) 2006-05-18 2008-11-05 株式会社カシオ日立モバイルコミュニケーションズ 指紋認証機能付き携帯端末装置及びプログラム
US20070277224A1 (en) 2006-05-24 2007-11-29 Osborn Steven L Methods and Systems for Graphical Image Authentication
US20070273658A1 (en) 2006-05-26 2007-11-29 Nokia Corporation Cursor actuation with fingerprint recognition
US8970502B2 (en) 2006-05-26 2015-03-03 Touchtable Ab User identification for multi-user touch screens
CN101461219A (zh) 2006-06-09 2009-06-17 诺基亚公司 由指纹激活的快速功能选择
JP4185533B2 (ja) 2006-06-15 2008-11-26 株式会社カシオ日立モバイルコミュニケーションズ 認証機能付き携帯端末装置及びプログラム
KR101277256B1 (ko) * 2006-06-16 2013-07-05 삼성전자주식회사 사용자 인터페이스를 위한 장치 및 방법
KR100856203B1 (ko) * 2006-06-27 2008-09-03 삼성전자주식회사 지문 인식 센서를 이용한 사용자 입력 장치 및 방법
US8095634B2 (en) 2006-08-15 2012-01-10 Hewlett-Packard Development Company, L.P. Device management system for mobile devices that supports multiple-point transport
US7849321B2 (en) 2006-08-23 2010-12-07 Authernative, Inc. Authentication method of random partial digitized path recognition with a challenge built into the path
US7978091B2 (en) 2006-08-24 2011-07-12 Navisense Method and device for a touchless interface
US8395658B2 (en) 2006-09-07 2013-03-12 Sony Computer Entertainment Inc. Touch screen-like user interface that does not require actual touching
US20080069412A1 (en) 2006-09-15 2008-03-20 Champagne Katrina S Contoured biometric sensor
US8452978B2 (en) 2006-09-15 2013-05-28 Identity Metrics, LLC System and method for user authentication and dynamic usability of touch-screen devices
US20080084400A1 (en) * 2006-10-10 2008-04-10 Outland Research, Llc Touch-gesture control of video media play on handheld media players
KR100783552B1 (ko) * 2006-10-11 2007-12-07 삼성전자주식회사 휴대 단말기의 입력 제어 방법 및 장치
TWM317045U (en) 2006-10-20 2007-08-11 Techine Technology Co Ltd Mobile apparatus using human face features identification as access control
US8280118B2 (en) 2006-11-21 2012-10-02 Hitachi, Ltd. Biometrics authentication device and portable terminal
JP4946383B2 (ja) 2006-11-22 2012-06-06 富士通株式会社 情報処理装置、情報処理装置の異常検出方法及び制御プログラム
US8970503B2 (en) 2007-01-05 2015-03-03 Apple Inc. Gestures for devices having one or more touch sensitive surfaces
US7877707B2 (en) * 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
US8519963B2 (en) * 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display
US8607359B2 (en) 2007-01-22 2013-12-10 Dell Products L.P. Removable hard disk with front panel input
US7770136B2 (en) * 2007-01-24 2010-08-03 Microsoft Corporation Gesture recognition interactive feedback
JP4679529B2 (ja) 2007-01-31 2011-04-27 Necカシオモバイルコミュニケーションズ株式会社 入力装置、移動体通信端末、および、プログラム
CN101035335A (zh) 2007-02-13 2007-09-12 中电通信科技有限责任公司 一种手机私密保护方法
US7941834B2 (en) 2007-04-05 2011-05-10 Microsoft Corporation Secure web-based user authentication
US8111879B2 (en) 2007-04-05 2012-02-07 Honeywell International Inc. Face and iris imaging system and method
US8471689B2 (en) 2007-05-11 2013-06-25 Philippe Stanislas Zaborowski Touch-sensitive motion device
US8681104B2 (en) 2007-06-13 2014-03-25 Apple Inc. Pinch-throw and translation gestures
CN101075174A (zh) * 2007-06-15 2007-11-21 魏新成 通过电脑屏幕左边缘的扩展任务栏进行功能操作的方法
US8733632B2 (en) 2007-06-22 2014-05-27 Visa U.S.A. Inc. Mobile subscriber device for financial transaction tokens
US8302033B2 (en) * 2007-06-22 2012-10-30 Apple Inc. Touch screen device, method, and graphical user interface for providing maps, directions, and location-based information
US8171432B2 (en) * 2008-01-06 2012-05-01 Apple Inc. Touch screen device, method, and graphical user interface for displaying and selecting application options
US8027518B2 (en) 2007-06-25 2011-09-27 Microsoft Corporation Automatic configuration of devices based on biometric data
US7835999B2 (en) 2007-06-27 2010-11-16 Microsoft Corporation Recognizing input gestures using a multi-touch input device, calculated graphs, and a neural network with link weights
US20090006846A1 (en) 2007-06-27 2009-01-01 Apple Inc. Bluetooth device as security access key
US8127254B2 (en) 2007-06-29 2012-02-28 Nokia Corporation Unlocking a touch screen device
US9772751B2 (en) 2007-06-29 2017-09-26 Apple Inc. Using gestures to slide between user interfaces
US8023700B2 (en) * 2007-07-26 2011-09-20 Nokia Corporation Apparatus, method, computer program and user interface for enabling access to functions
US20090037742A1 (en) 2007-07-31 2009-02-05 International Business Machines Corporation Biometric authentication device, system and method of biometric authentication
US20090043180A1 (en) 2007-08-08 2009-02-12 Nonin Medical, Inc. Sensor and system providing physiologic data and biometric identification
US20080042979A1 (en) 2007-08-19 2008-02-21 Navid Nikbin Method and apparatus for executing commands or inputting data based on finger's characteristics and Multi-Finger key
US20090063352A1 (en) 2007-08-29 2009-03-05 Lance Kaufman Methods and systems for monetary exchange and transfer
US20090058595A1 (en) 2007-08-30 2009-03-05 Atmel Corporation Biometric Control Device
EP2187333A4 (en) 2007-09-05 2011-09-07 Panasonic Corp ELECTRONIC DEVICE, PASSWORD CONTROL METHOD AND PROGRAM
US20090067685A1 (en) 2007-09-07 2009-03-12 Authentec, Inc. Finger sensing apparatus using template watermarking and associated methods
KR101615472B1 (ko) 2007-09-24 2016-04-25 애플 인크. 전자 장치 내의 내장형 인증 시스템들
CN101415075A (zh) * 2007-10-16 2009-04-22 佛山普立华科技有限公司 具指纹识别功能的数码相机及其使用方法
US8358200B2 (en) * 2007-10-23 2013-01-22 Hewlett-Packard Development Company Method and system for controlling computer applications
US20090125296A1 (en) * 2007-11-08 2009-05-14 Popcap Games, Inc. Methods and systems for using domain specific rules to identify words
JP4744503B2 (ja) 2007-11-30 2011-08-10 シャープ株式会社 操作処理装置
US8416198B2 (en) * 2007-12-03 2013-04-09 Apple Inc. Multi-dimensional scroll wheel
KR101387527B1 (ko) 2007-12-06 2014-04-23 엘지전자 주식회사 단말기 및 그 메뉴 아이콘 디스플레이 방법
US8881049B2 (en) * 2007-12-14 2014-11-04 Apple Inc. Scrolling displayed objects using a 3D remote controller in a media system
US8244590B2 (en) * 2007-12-21 2012-08-14 Glyde Corporation Software system for decentralizing ecommerce with single page buy
US20090169070A1 (en) * 2007-12-28 2009-07-02 Apple Inc. Control of electronic device by using a person's fingerprints
US8972299B2 (en) 2008-01-07 2015-03-03 Bally Gaming, Inc. Methods for biometrically identifying a player
KR100817767B1 (ko) 2008-01-14 2008-03-31 알서포트 주식회사 아이콘 암호를 이용한 인증방법
JP2009171234A (ja) 2008-01-16 2009-07-30 Sony Ericsson Mobilecommunications Japan Inc 通信端末、通信システム及び通信方法
US8803797B2 (en) * 2008-01-18 2014-08-12 Microsoft Corporation Input through sensing of user-applied forces
US9552155B2 (en) 2008-02-04 2017-01-24 Microsoft Technology Liecsnsing, LLC Dynamic soft keyboard
US9785330B1 (en) * 2008-02-13 2017-10-10 Apple Inc. Systems for and methods of providing inertial scrolling and navigation using a fingerprint sensor calculating swiping speed and length
US20090224874A1 (en) * 2008-03-05 2009-09-10 International Business Machines Corporation Apparatus, system, and method for providing authentication and activation functions to a computing device
US9274681B2 (en) * 2008-03-26 2016-03-01 Lg Electronics Inc. Terminal and method of controlling the same
US7486810B1 (en) 2008-04-24 2009-02-03 International Business Machines Corporation On-type biometrics fingerprint soft keyboard
JP5173566B2 (ja) * 2008-05-07 2013-04-03 キヤノン株式会社 画像処理装置及びその制御方法、プログラム
US9035891B2 (en) * 2008-05-16 2015-05-19 International Business Machines Corporation Multi-point touch-sensitive sensor user interface using distinct digit identification
US8169414B2 (en) * 2008-07-12 2012-05-01 Lim Seung E Control of electronic games via finger angle using a high dimensional touchpad (HDTP) touch user interface
US8345014B2 (en) * 2008-07-12 2013-01-01 Lester F. Ludwig Control of the operating system on a computing device via finger angle using a high dimensional touchpad (HDTP) touch user interface
US8482381B2 (en) * 2008-07-31 2013-07-09 Palm, Inc. Multi-purpose detector-based input feature for a computing device
US8604364B2 (en) * 2008-08-15 2013-12-10 Lester F. Ludwig Sensors, algorithms and applications for a high dimensional touchpad
TW201009650A (en) * 2008-08-28 2010-03-01 Acer Inc Gesture guide system and method for controlling computer system by gesture
JP5317590B2 (ja) 2008-09-01 2013-10-16 キヤノン株式会社 ジョブ処理装置及びその制御方法、並びに記憶媒体及びプログラム
KR101571723B1 (ko) 2008-09-02 2015-11-25 엘지전자 주식회사 단말기 및 그 제어 방법
CN101382977B (zh) * 2008-09-18 2010-09-01 杭州晟元芯片技术有限公司 基于生物认证启闭计算机软硬件系统的控制装置及方法
US20100076823A1 (en) 2008-09-24 2010-03-25 Yasha Feldman Voting system and method of voting
WO2010051563A1 (en) * 2008-11-03 2010-05-06 Novarra, Inc. Methods and systems for providing navigation bars in a browser
JP4752900B2 (ja) * 2008-11-19 2011-08-17 ソニー株式会社 画像処理装置、画像表示方法および画像表示プログラム
KR20100059698A (ko) * 2008-11-25 2010-06-04 삼성전자주식회사 유저인터페이스 제공 장치, 제공방법, 및 이를 기록한 컴퓨터 판독 가능한 기록매체
US9477396B2 (en) * 2008-11-25 2016-10-25 Samsung Electronics Co., Ltd. Device and method for providing a user interface
EP2192511B1 (en) 2008-12-01 2013-09-11 BlackBerry Limited Simplified biometric character sequence entry
KR20100066036A (ko) * 2008-12-09 2010-06-17 삼성전자주식회사 휴대 단말기 운용 방법 및 장치
JP5212640B2 (ja) 2008-12-18 2013-06-19 シャープ株式会社 インターフェイス装置、およびgui構成方法
CN101770299B (zh) * 2008-12-26 2013-11-06 深圳富泰宏精密工业有限公司 导航键功能实现系统及方法
US20100180136A1 (en) 2009-01-15 2010-07-15 Validity Sensors, Inc. Ultra Low Power Wake-On-Event Mode For Biometric Systems
US20100208953A1 (en) 2009-02-17 2010-08-19 Validity Sensors, Inc. Illuminated Fingerprint Sensor and Method
US8605960B2 (en) * 2009-03-02 2013-12-10 Avago Technologies General Ip (Singapore) Pte. Ltd. Fingerprint sensing device
KR101549557B1 (ko) * 2009-03-10 2015-09-03 엘지전자 주식회사 휴대 단말기 및 그 제어방법
US8566045B2 (en) * 2009-03-16 2013-10-22 Apple Inc. Event recognition
US20100237991A1 (en) 2009-03-17 2010-09-23 Prabhu Krishnanand Biometric scanning arrangement and methods thereof
KR101549558B1 (ko) 2009-03-18 2015-09-03 엘지전자 주식회사 휴대 단말기 및 그 제어방법
US8605961B2 (en) 2009-03-30 2013-12-10 Motorola Mobility Llc Method and apparatus for determining a physiological parameter using a fingerprint sensor on a portable electronic device
KR20100111121A (ko) 2009-04-06 2010-10-14 뮤텔테크놀러지 주식회사 무선 홈네트워크 시스템 및 그 구성 방법
US8300023B2 (en) 2009-04-10 2012-10-30 Qualcomm Incorporated Virtual keypad generator with learning capabilities
US20100265204A1 (en) * 2009-04-21 2010-10-21 Sony Ericsson Mobile Communications Ab Finger recognition for authentication and graphical user interface input
CN102422304A (zh) * 2009-04-29 2012-04-18 惠普发展公司,有限责任合伙企业 指纹扫描器
US8269175B2 (en) * 2009-05-22 2012-09-18 Motorola Mobility Llc Electronic device with sensing assembly and method for detecting gestures of geometric shapes
KR20100134948A (ko) * 2009-06-16 2010-12-24 삼성전자주식회사 터치스크린을 구비하는 장치의 메뉴 표시 방법
US8407613B2 (en) * 2009-07-13 2013-03-26 Apple Inc. Directory management on a portable multifunction device
JP2011022687A (ja) 2009-07-14 2011-02-03 Fujitsu Ltd 認証機能を有する電子機器および認証方法
US20110022307A1 (en) * 2009-07-27 2011-01-27 Htc Corporation Method for operating navigation frame, navigation apparatus and recording medium
US20110039602A1 (en) * 2009-08-13 2011-02-17 Mcnamara Justin Methods And Systems For Interacting With Content On A Mobile Device
US9152317B2 (en) * 2009-08-14 2015-10-06 Microsoft Technology Licensing, Llc Manipulation of graphical elements via gestures
JP5371626B2 (ja) * 2009-08-18 2013-12-18 キヤノン株式会社 表示制御装置、表示制御装置の制御方法、プログラム及び記憶媒体
JP2011048523A (ja) 2009-08-26 2011-03-10 Kyocera Corp 携帯無線端末
JP2011053974A (ja) * 2009-09-02 2011-03-17 Sony Corp 操作制御装置、操作制御方法およびコンピュータプログラム
US8413065B2 (en) * 2009-09-07 2013-04-02 Qualcomm Incorporated User interface methods for ending an application
JP5589326B2 (ja) 2009-09-08 2014-09-17 ヤマハ株式会社 電子音楽装置およびその制御方法を実現するためのプログラム
CA2775007A1 (en) * 2009-09-23 2011-03-31 Dingnan Han Method and interface for man-machine interaction
KR101648747B1 (ko) 2009-10-07 2016-08-17 삼성전자 주식회사 복수의 터치 센서를 이용한 ui 제공방법 및 이를 이용한 휴대 단말기
KR101640464B1 (ko) * 2009-10-26 2016-07-18 삼성전자 주식회사 터치스크린 기반의 ui 제공방법 및 이를 이용한 휴대 단말기
US8581847B2 (en) * 2009-10-29 2013-11-12 Pixart Imaging Inc. Hybrid pointing device
US9336428B2 (en) * 2009-10-30 2016-05-10 Synaptics Incorporated Integrated fingerprint sensor and display
US9174123B2 (en) * 2009-11-09 2015-11-03 Invensense, Inc. Handheld computer systems and techniques for character and command recognition related to human movements
US8436821B1 (en) * 2009-11-20 2013-05-07 Adobe Systems Incorporated System and method for developing and classifying touch gestures
KR101649638B1 (ko) 2009-11-26 2016-08-19 엘지전자 주식회사 이동 단말기 및 그 제어 방법
EP2360665A3 (en) * 2009-11-26 2012-03-28 LG Electronics Mobile terminal and control method thereof
US20110138313A1 (en) * 2009-12-03 2011-06-09 Kevin Decker Visually rich tab representation in user interface
US8433110B2 (en) 2009-12-11 2013-04-30 Sonavation, Inc. Pulse-rate detection using a fingerprint sensor
KR101604843B1 (ko) * 2009-12-30 2016-03-21 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US9785341B2 (en) * 2009-12-31 2017-10-10 Verizon Patent And Licensing Inc. Inter-application navigation apparatuses, systems, and methods
US8736561B2 (en) 2010-01-06 2014-05-27 Apple Inc. Device, method, and graphical user interface with content display modes and display rotation heuristics
US8862576B2 (en) * 2010-01-06 2014-10-14 Apple Inc. Device, method, and graphical user interface for mapping directions between search results
KR101631958B1 (ko) * 2010-01-14 2016-06-20 엘지전자 주식회사 입력 장치 및 이를 구비하는 이동 단말기
US10007393B2 (en) * 2010-01-19 2018-06-26 Apple Inc. 3D view of file structure
US8581842B2 (en) 2010-01-19 2013-11-12 Avaya Inc. Detection of a rolling motion or sliding motion of a body part on a surface
US20110285648A1 (en) 2010-01-22 2011-11-24 Lester Ludwig Use of fingerprint scanning sensor data to detect finger roll and pitch angles
US8677268B2 (en) * 2010-01-26 2014-03-18 Apple Inc. Device, method, and graphical user interface for resizing objects
KR101690786B1 (ko) 2010-02-12 2016-12-28 삼성전자주식회사 멀티태스킹 수행 장치 및 방법
US8799827B2 (en) * 2010-02-19 2014-08-05 Microsoft Corporation Page manipulations using on and off-screen gestures
US9965165B2 (en) * 2010-02-19 2018-05-08 Microsoft Technology Licensing, Llc Multi-finger gestures
JP2011180843A (ja) * 2010-03-01 2011-09-15 Sony Corp 情報処理装置、情報処理方法、およびプログラム
KR20110103598A (ko) 2010-03-15 2011-09-21 주식회사 엘지유플러스 단말기의 잠금 해제 시스템 및 방법
WO2011125905A1 (ja) 2010-03-31 2011-10-13 シャープ株式会社 テレビ受信機の動作モード自動設定装置、動作モード自動設定装置を備えたテレビ受信機、動作モード自動設定方法
KR101678812B1 (ko) * 2010-05-06 2016-11-23 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US8856682B2 (en) * 2010-05-11 2014-10-07 AI Squared Displaying a user interface in a dedicated display area
US20110287741A1 (en) * 2010-05-18 2011-11-24 Prabhu Krishnanand Secure application control in mobile terminal using biometric sensor
EP2388734A1 (en) 2010-05-21 2011-11-23 Research In Motion Limited Fingerprint scanning with a camera
US20110296351A1 (en) * 2010-05-26 2011-12-01 T-Mobile Usa, Inc. User Interface with Z-axis Interaction and Multiple Stacks
US8860672B2 (en) * 2010-05-26 2014-10-14 T-Mobile Usa, Inc. User interface with z-axis interaction
WO2011153623A2 (en) * 2010-06-08 2011-12-15 Aastra Technologies Limited Method and system for video communication
CN201765630U (zh) 2010-06-28 2011-03-16 杭州晟元芯片技术有限公司 一种基于指纹认证的支付装置
US8972903B2 (en) * 2010-07-08 2015-03-03 Apple Inc. Using gesture to navigate hierarchically ordered user interface screens
EP2599009A4 (en) * 2010-07-29 2017-10-11 QUALCOMM Incorporated Device and method of controlling a computer using centroids
US20120030624A1 (en) * 2010-07-30 2012-02-02 Migos Charles J Device, Method, and Graphical User Interface for Displaying Menus
KR20130129914A (ko) * 2010-08-12 2013-11-29 구글 인코포레이티드 터치스크린 상에서의 손가락 인식
US9626099B2 (en) * 2010-08-20 2017-04-18 Avaya Inc. Multi-finger sliding detection using fingerprints to generate different events
US9671924B2 (en) * 2010-08-20 2017-06-06 Sony Corporation Integrated scrollbar options menu and related methods, devices, and computer program products
KR20120018685A (ko) 2010-08-23 2012-03-05 주식회사 팬택 복수 사용자의 입력을 인식할 수 있는 단말기 및 그 제어방법
US8311514B2 (en) 2010-09-16 2012-11-13 Microsoft Corporation Prevention of accidental device activation
JP5615642B2 (ja) 2010-09-22 2014-10-29 京セラ株式会社 携帯端末、入力制御プログラム及び入力制御方法
EP2619646B1 (en) * 2010-09-24 2018-11-07 BlackBerry Limited Portable electronic device and method of controlling same
EP3451123B8 (en) * 2010-09-24 2020-06-17 BlackBerry Limited Method for conserving power on a portable electronic device and a portable electronic device configured for the same
DE112011103173T5 (de) * 2010-09-24 2013-08-14 Qnx Software Systems Limited Übergangsansicht auf einer tragbaren elektronischen Vorrichtung
KR101741519B1 (ko) 2010-09-30 2017-06-01 삼성전자주식회사 3d 안경 및 그의 제어 방법
US8749484B2 (en) 2010-10-01 2014-06-10 Z124 Multi-screen user interface with orientation based control
US20120086629A1 (en) * 2010-10-07 2012-04-12 Thoern Ola Electronic device having movement-based user input and method
US20120092279A1 (en) 2010-10-18 2012-04-19 Qualcomm Mems Technologies, Inc. Touch sensor with force-actuated switched capacitor
WO2012053875A2 (ko) 2010-10-23 2012-04-26 Kim Nam Hyun 지문 정보를 통한 데이터 송신 수신 장치 및 시스템
US8564314B2 (en) 2010-11-02 2013-10-22 Atmel Corporation Capacitive touch sensor for identifying a fingerprint
WO2012068551A1 (en) 2010-11-18 2012-05-24 Google Inc. Surfacing off-screen visible objects
US20120127179A1 (en) * 2010-11-19 2012-05-24 Nokia Corporation Method, apparatus and computer program product for user interface
US9201539B2 (en) * 2010-12-17 2015-12-01 Microsoft Technology Licensing, Llc Supplementing a touch input mechanism with fingerprint detection
US9423878B2 (en) * 2011-01-06 2016-08-23 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9310940B2 (en) * 2011-01-17 2016-04-12 Pixart Imaging Inc. Capacitive touchscreen or touch panel with fingerprint reader
US8291349B1 (en) * 2011-01-19 2012-10-16 Google Inc. Gesture-based metadata display
US20120226979A1 (en) * 2011-03-04 2012-09-06 Leica Camera Ag Navigation of a Graphical User Interface Using Multi-Dimensional Menus and Modes
US8904305B2 (en) * 2011-03-11 2014-12-02 Google Inc. Automatically hiding controls
US20120266079A1 (en) * 2011-04-18 2012-10-18 Mark Lee Usability of cross-device user interfaces
US20120268485A1 (en) * 2011-04-22 2012-10-25 Panasonic Corporation Visualization of Query Results in Relation to a Map
US8938101B2 (en) * 2011-04-26 2015-01-20 Sony Computer Entertainment America Llc Apparatus, system, and method for real-time identification of finger impressions for multiple users
US20120280927A1 (en) * 2011-05-04 2012-11-08 Ludwig Lester F Simple touch interface and hdtp grammars for rapid operation of physical computer aided design (cad) systems
KR101250250B1 (ko) * 2011-05-18 2013-04-03 한국과학기술연구원 콘텐츠 표시 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
US20120297324A1 (en) * 2011-05-18 2012-11-22 Microsoft Corporation Navigation Control Availability
CN102281539B (zh) * 2011-08-29 2014-10-29 惠州Tcl移动通信有限公司 移动终端及其应用程序登录方法
US9348364B2 (en) * 2011-09-09 2016-05-24 Facebook, Inc. Content scrolling and transitioning using touchpad input
US9779112B2 (en) * 2011-09-12 2017-10-03 Here Global B.V. Method and apparatus for providing list-based exploration of mapping data
US8610684B2 (en) * 2011-10-14 2013-12-17 Blackberry Limited System and method for controlling an electronic device having a touch-sensitive non-display area
US8711116B2 (en) * 2011-10-17 2014-04-29 Facebook, Inc. Navigating applications using side-mounted touchpad
KR101160681B1 (ko) 2011-10-19 2012-06-28 배경덕 이동 통신 단말기의 활성화 시에 특정 동작이 수행되도록 하기 위한 방법, 이동 통신 단말기 및 컴퓨터 판독 가능 기록 매체
US20130129162A1 (en) * 2011-11-22 2013-05-23 Shian-Luen Cheng Method of Executing Software Functions Using Biometric Detection and Related Electronic Device
US8836472B2 (en) * 2011-11-23 2014-09-16 Blackberry Limited Combining navigation and fingerprint sensing
US8572515B2 (en) * 2011-11-30 2013-10-29 Google Inc. Turning on and off full screen mode on a touchscreen
US20130173925A1 (en) * 2011-12-28 2013-07-04 Ester Yen Systems and Methods for Fingerprint-Based Operations
US8890825B2 (en) * 2012-02-20 2014-11-18 Nokia Corporation Apparatus and method for determining the position of user input
US9817568B2 (en) * 2012-02-29 2017-11-14 Blackberry Limited System and method for controlling an electronic device
TW201339917A (zh) * 2012-03-30 2013-10-01 Hon Hai Prec Ind Co Ltd 用於電子裝置中的操控方法及系統
US9348987B2 (en) * 2012-04-19 2016-05-24 Apple Inc. Electronic device including finger-operated input device based biometric matching and related methods
US20130307788A1 (en) * 2012-05-16 2013-11-21 Motorola Solutions, Inc. Device and method for automated use of force sensing touch panels
KR20130136173A (ko) * 2012-06-04 2013-12-12 삼성전자주식회사 지문 기반 단축키를 제공하는 방법, 기계로 읽을 수 있는 저장 매체 및 휴대 단말
US9152842B2 (en) * 2012-06-29 2015-10-06 Apple Inc. Navigation assisted fingerprint enrollment
US8464181B1 (en) * 2012-07-03 2013-06-11 Google Inc. Floor selection on an interactive digital map
US9201585B1 (en) * 2012-09-17 2015-12-01 Amazon Technologies, Inc. User interface navigation gestures
US9141259B2 (en) * 2013-01-21 2015-09-22 International Business Machines Corporation Pressure navigation on a touch sensitive user interface
US9645651B2 (en) * 2013-09-24 2017-05-09 Microsoft Technology Licensing, Llc Presentation of a control interface on a touch-enabled device based on a motion or absence thereof
US9705676B2 (en) * 2013-12-12 2017-07-11 International Business Machines Corporation Continuous monitoring of fingerprint signature on a mobile touchscreen for identity management

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006301785A (ja) * 2005-04-18 2006-11-02 Toshiba Corp 情報処理装置およびプログラム
US20100225607A1 (en) * 2009-03-06 2010-09-09 Lg Electronics Inc. Mobile terminal and method of controlling the mobile terminal
WO2011103218A2 (en) * 2010-02-19 2011-08-25 Microsoft Corporation Off-screen gestures to create on-screen input
WO2011126502A1 (en) * 2010-04-07 2011-10-13 Apple Inc. Gesture based graphical user interface for managing concurrently open software applications
WO2012117652A1 (ja) * 2011-02-28 2012-09-07 シャープ株式会社 画像表示装置セット

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023157648A1 (ja) * 2022-02-18 2023-08-24 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム

Also Published As

Publication number Publication date
JP2015520456A (ja) 2015-07-16
CN111310619A (zh) 2020-06-19
WO2013173838A2 (en) 2013-11-21
JP6360866B2 (ja) 2018-07-18
CN106133748A (zh) 2016-11-16
HK1206452A1 (en) 2016-01-08
KR20150021943A (ko) 2015-03-03
US20150135108A1 (en) 2015-05-14
EP2850510A2 (en) 2015-03-25
CN111176516B (zh) 2023-10-20
US11209961B2 (en) 2021-12-28
BR112014028774B1 (pt) 2022-05-10
CN111310619B (zh) 2021-06-04
CN111178332A (zh) 2020-05-19
US20220066604A1 (en) 2022-03-03
JP7345442B2 (ja) 2023-09-15
CN111176516A (zh) 2020-05-19
AU2016219716A1 (en) 2016-09-15
AU2013262488A1 (en) 2014-12-18
JP2018200696A (ja) 2018-12-20
AU2020200397A1 (en) 2020-02-13
AU2020200397B2 (en) 2021-03-11
JP6023879B2 (ja) 2016-11-09
CN106133748B (zh) 2020-01-31
KR101710771B1 (ko) 2017-02-27
AU2018204174A1 (en) 2018-06-28
BR112014028774A2 (pt) 2017-06-27
JP2017062800A (ja) 2017-03-30
AU2018204174B2 (en) 2019-11-07

Similar Documents

Publication Publication Date Title
JP7345442B2 (ja) 指紋センサ入力に基づくユーザインタフェースを操作するための機器、方法、及びグラフィカルユーザインタ-フェース
JP7014878B2 (ja) 別デバイスのロック解除に使用される認証済みデバイス
JP6718824B2 (ja) タッチ感知デバイス上におけるインタラクティブ通知の表示
US10620794B2 (en) Device, method, and graphical user interface for switching between two user interfaces
JP7032572B2 (ja) ユーザアカウントに対する認証資格証明を管理するためのデバイス、方法、及びグラフィカルユーザインターフェース
US20170199631A1 (en) Devices, Methods, and Graphical User Interfaces for Enabling Display Management of Participant Devices
EP3729781B1 (en) Secure login with authentication based on a visual representation of data
WO2012088474A2 (en) Device, method, and graphical user interface for switching between two user interfaces

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200826

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200826

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210120

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210726

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211022

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220126

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220610

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221006

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221006

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221017

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20221021

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20221125

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20221202

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20221202

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20230224

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20230331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230905

R150 Certificate of patent or registration of utility model

Ref document number: 7345442

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150