JP2014102838A - 着用式電子デバイスでのgui転移 - Google Patents

着用式電子デバイスでのgui転移 Download PDF

Info

Publication number
JP2014102838A
JP2014102838A JP2013240449A JP2013240449A JP2014102838A JP 2014102838 A JP2014102838 A JP 2014102838A JP 2013240449 A JP2013240449 A JP 2013240449A JP 2013240449 A JP2013240449 A JP 2013240449A JP 2014102838 A JP2014102838 A JP 2014102838A
Authority
JP
Japan
Prior art keywords
user
display
gesture
screen
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013240449A
Other languages
English (en)
Other versions
JP6553328B2 (ja
Inventor
Mistry Pranav
プラナフ・ミストリー
Sadi Sajid
サジド・サディ
Yao Lining
リンイン・ヤオ
Snavely John
ジョン・スナヴェリー
Offenberg Eva-Maria
エヴァ−マリア・オッフェンバーグ
Huang Link
リンク・ファン
Kim Cathy
キャシー・キム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2014102838A publication Critical patent/JP2014102838A/ja
Application granted granted Critical
Publication of JP6553328B2 publication Critical patent/JP6553328B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/04Input or output devices integrated in time-pieces using radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/02Digital computers in general; Data processing equipment in general manually operated with input through keyboard and computation using a built-in program, e.g. pocket calculators
    • G06F15/0208Digital computers in general; Data processing equipment in general manually operated with input through keyboard and computation using a built-in program, e.g. pocket calculators for combination with other devices having a different main function, e.g. watches, pens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0362Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 1D translations or rotations of an operating part of the device, e.g. scroll wheels, sliders, knobs, rollers or belts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/5044Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering hardware capabilities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/509Offload
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】着用式電子デバイスでのGUI転移を提供する。
【解決手段】一実施形態において、装置は、1つ以上のプロセッサと、プロセッサに接続されたメモリとを含み、メモリは、プロセッサによって実行されるインストラクションを含む。インストラクションを実行する時、プロセッサは、グラフィカル・ユーザ・インターフェースの第1スクリーンを装置のディスプレイに提供する。第1スクリーンは、1つ以上の第1エレメントを含む。プロセッサは、グラフィカル・ユーザ・インターフェースで転移を示すユーザ入力を受信し、そのユーザ入力に応答して、第1スクリーンからグラフィカル・ユーザ・インターフェースの第2スクリーンに転移し、1つ以上の視覚的転移効果を転移に適用する。第2スクリーンは、1つ以上の第2エレメントを含む。
【選択図】図1

Description

本願は、2012年11月20日に出願された米国特許仮出願第61/728765号、2012年11月20日に出願された米国特許仮出願第61/728770号、2013年3月6日に出願された米国特許仮出願第61/773803号、2012年11月20日に出願された米国特許仮出願第61/728773号、2013年3月7日に出願された米国特許仮出願第61/773813号、2013年3月7日に出願された米国特許仮出願第61/773815号、2013年3月7日に出願された米国特許仮出願第61/773817号、2013年3月11日に出願された米国特許仮出願第61/775688号、2013年3月11日に出願された米国特許仮出願第61/775687号、2013年3月11日に出願された米国特許仮出願第61/775686号、及び2013年8月30日に出願された米国特許出願第14/015890号に対する優先権を米国特許法(35U.S.C.)§119(e)に基づいて主張するものである。これら仮出願は、参照によって本願に含まれる。
本明細書は、全般的に着用式電子デバイスに関する。
モバイル電子デバイスは、ユーザが多様な場所の周辺で移動するときも、コンピューティング能力(computing capabilities)に対するアクセス(access)をそのユーザに提供する。モバイル電子デバイスの例は、モバイルフォン、メディアプレーヤ、ラップトップ、タブレット、PDA、またはこのタイプの多数のデバイスが有する機能性を備えたハイブリッドデバイス(hybrid device)を含む。
モバイル電子デバイスは、LAN(local area network)、WAN(wide area network)、セルラーネットワーク、インターネット、またはその他の適切なネットワークのような通信ネットワークの一部でありうる。モバイル電子デバイスは、例えば、遠隔保存されたデータにアクセスしたり、遠隔プロセッシングパワー(remote processing power)にアクセスしたり、遠隔ディスプレイにアクセスしたり、局所的に保存された(locally-stored)データを提供したり、ローカルプロセッシングパワーを提供したり、またはローカルディスプレイにアクセスするように、他の電子デバイスと通信するために、通信ネットワークを使用しうる。例えば、ネットワークは、ユーザがモバイル電子デバイスを経由して、アクセスしたり、活用することができるアプリケーション、コンテンツ及びサービスをホストすることができるサーバに、通信経路とリンクとを提供することができる。コンテンツは、テキスト、ビデオデータ、オーディオデータ、ユーザ設定、または他のタイプのデータを含むことができる。ネットワークは、モバイル電子デバイス間の通信を支援するために、例えば、ブルートゥース(bluetooth(登録商標))、IEEE WI-FI(802.11a/b/g/n/ac)、またはTCP/IPのようなすべての適切な通信プロトコル、または技術を使用しうる。
本発明が解決しようとする技術的課題は、着用式電子デバイスでのGUI転移を提供することである。
前記技術的課題を解決するための本発明の一実施態様の特徴は、1つ以上のプロセッサと、前記1つ以上のプロセッサによって実行可能なインストラクションを含む、前記1つ以上のプロセッサに接続されたメモリとを含む装置において、前記1つ以上のプロセッサは、インストラクションを実行する時、1つ以上の第1エレメントを含むグラフィカル・ユーザ・インターフェースの第1スクリーンを、前記装置のディスプレイに提供し、前記グラフィカル・ユーザ・インターフェースで転移(transition)を示すユーザ入力を受信し、前記ユーザ入力に応答して、前記グラフィカル・ユーザ・インターフェースの前記第1スクリーンから、1つ以上の第2エレメントを含む第2スクリーンに転移し、1つ以上の視覚的転移効果を、前記転移に適用するように動作するものである。
前記技術的課題を解決するための本発明の別の実施態様の特徴は、方法として、1つ以上の第1エレメントを含むグラフィカル・ユーザ・インターフェースの第1スクリーンをコンピューティング・デバイスのディスプレイに提供する段階と、前記グラフィカル・ユーザ・インターフェースで転移を示すユーザ入力を受信する段階と、前記コンピューティング・デバイスによって、前記ユーザ入力に応答して、前記グラフィカル・ユーザ・インターフェースの前記第1スクリーンから、1つ以上の第2エレメントを含む第2スクリーンに転移し、1つ以上の視覚的転移効果を前記転移に適用する段階と、を含むことである。
前記技術的課題を解決するための本発明のさらに別の実施態様の特徴は、ソフトウェアを含んでいる1つ以上のコンピュータ可読非一時的(non−transitory)記録媒体において、前記ソフトウェアが実行される時、1つ以上の第1エレメントを含む、グラフィカル・ユーザ・インターフェースの第1スクリーンをコンピューティング・デバイスのディスプレイに提供し、前記グラフィカル・ユーザ・インターフェースで転移を示すユーザ入力を受信し、前記ユーザ入力に応答し、前記グラフィカル・ユーザ・インターフェースの前記第1スクリーンから、1つ以上の第2エレメントを含む第2スクリーンに転移し、1つ以上の視覚的転移効果を前記転移に適用するものである。
着用式電子デバイスの一実施例を示す図面である。 デバイスの積層例を示す図面である。 デバイスのフォームファクター例を示す図面である。 デバイスのフォームファクター例を示す図面である。 デバイスのフォームファクター例を示す図面である。 デバイスのフォームファクター例を示す図面である。 デバイスのフォームファクター例を示す図面である。 デバイス本体の断面図の例を示す図面である。 デバイスのエレメント間の接続例を示す図面である。 デバイスのエレメント間の接続例を示す図面である。 デバイスのディスプレイ例を示す図面である。 デバイスのディスプレイ例を示す図面である。 デバイスのディスプレイ例を示す図面である。 デバイスのディスプレイ例を示す図面である。 デバイスのディスプレイ例を示す図面である。 デバイスのディスプレイ例を示す図面である。 デバイスディスプレイの断面図の例を示す図面である。 デバイスディスプレイの断面図の例を示す図面である。 デバイスディスプレイの断面図の例を示す図面である。 デバイスの本体周辺外側エレメントの例を示す図面である。 デバイスの本体周辺外側エレメントの例を示す図面である。 デバイスの本体周辺外側エレメントの例を示す図面である。 デバイスの本体周辺外側エレメントの例を示す図面である。 デバイスの本体周辺外側エレメントの例を示す図面である。 デバイスの本体周辺外側エレメントの例を示す図面である。 デバイスの本体周辺外側エレメントの例を示す図面である。 デバイスの封止リングの例を示す図面である。 デバイスの保持リングの例を示す図面である。 デバイスを着用する多様な実施例を示す図面である。 デバイス本体に取り付けたバンドを示す図面である。 デバイス本体に取り付けたバンドを示す図面である。 デバイスのバンドをはめたり、または取り付けたりする実施例を示す図面である。 デバイスのバンドをはめたり、または取り付けたり実施例を示す図面である。 デバイスのバンドをはめたり、または取り付けたり実施例を示す図面である。 デバイスのバンドをはめたり、または取り付けたり実施例を示す図面である。 デバイスのバンドをはめたり、または取り付けたり実施例を示す図面である。 デバイスのバンドをはめたり、または取り付けたり実施例を示す図面である。 デバイスのバンドをはめたり、または取り付けたり実施例を示す図面である。 デバイスのバンドをはめたり、または取り付けたり実施例を示す図面である。 デバイスのバンドをはめたり、または取り付けたり実施例を示す図面である。 デバイス上のカメラの例示的配置を示す図面である。 デバイス上のカメラの例示的配置を示す図面である。 デバイス上のカメラの例示的配置を示す図面である。 デバイス上のカメラの例示的配置を示す図面である。 バンドと光学センサーとを備えた例示的デバイスを示す図面である。 ユーザ、デバイス及びオブジェクトを含む三角形の例を示す図面である。 デバイスの光学センサーに対する視野角の例を示す図面である。 デバイス内の光学センサーの例を示す図面である。 デバイス内の光学センサーの例を示す図面である。 デバイスのセンサー検出システムの例を示す図面である。 デバイスと共に動作する充電器の例を示す図面である。 デバイスと共に動作する充電器の例を示す図面である。 デバイスと共に動作する充電器の例を示す図面である。 デバイスと共に動作する充電器の例を示す図面である。 デバイスと共に動作する充電器の例を示す図面である。 デバイスと共に動作する充電ユニットの例を示す図面である。 デバイスと共に動作する充電ユニットの例を示す図面である。 デバイスと共に動作する充電ユニットのための充電計画の例を示す図面である。 デバイスと共に動作する充電ユニットのための充電計画の例を示す図面である。 デバイスと充電ユニットで、エネルギー保存と充電との実施例を示す図面である。 デバイスと充電ユニットで、エネルギー保存と充電との実施例を示す図面である。 デバイスと充電ユニットで、エネルギー保存と充電との実施例を示す図面である。 デバイスと充電ユニットで、エネルギー保存と充電との実施例を示す図面である。 デバイスと充電ユニットで、エネルギー保存と充電との実施例を示す図面である。 充電ユニット構造の例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスと共に使用するためのジェスチャーの例を示す図面である。 デバイスに対するユーザ入力の例を示す図面である。 デバイスに対するユーザ入力の例を示す図面である。 デバイスに対するユーザ入力の例を示す図面である。 デバイスに対するユーザ入力の例を示す図面である。 デバイスに対するユーザ入力の例を示す図面である。 デバイスに対するユーザタッチ入力の例を示す図面である。 デバイスに対するユーザタッチ入力の例を示す図面である。 デバイスに対するユーザタッチ入力の例を示す図面である。 デバイスに対するユーザタッチ入力の例を示す図面である。 デバイスのグラフィカルユーザインターフェースモデルの例を示す図面である。 デバイスのグラフィカルユーザインターフェースモデルの例を示す図面である。 デバイスのグラフィカルユーザインターフェースモデルの例を示す図面である。 デバイスのグラフィカルユーザインターフェースモデルの例を示す図面である。 デバイスのグラフィカルユーザインターフェースモデルの例を示す図面である。 デバイスのグラフィカルユーザインターフェースモデルの例を示す図面である。 デバイスのグラフィカルユーザインターフェースモデルの例を示す図面である。 デバイスのグラフィカルユーザインターフェースモデルの例を示す図面である。 デバイスのグラフィカルユーザインターフェースモデルの例を示す図面である。 デバイスのグラフィカルユーザインターフェースモデルの例を示す図面である。 デバイスのグラフィカルユーザインターフェースモデルの例を示す図面である。 デバイスのグラフィカルユーザインターフェースモデルの例を示す図面である。 デバイスのグラフィカルユーザインターフェースモデルの例を示す図面である。 デバイスのグラフィカルユーザインターフェースモデルの例を示す図面である。 デバイスのグラフィカルユーザインターフェースの例示的スクリーンを示す図面である。 デバイスのグラフィカルユーザインターフェースの例示的スクリーンを示す図面である。 デバイスのグラフィカルユーザインターフェースの例示的スクリーンを示す図面である。 デバイスのグラフィカルユーザインターフェースの例示的スクリーンを示す図面である。 デバイスのグラフィカルユーザインターフェースの例示的スクリーンを示す図面である。 デバイスのグラフィカルユーザインターフェースの例示的スクリーンを示す図面である。 デバイスのグラフィカルユーザインターフェースの例示的スクリーンを示す図面である。 デバイスのグラフィカルユーザインターフェースの例示的スクリーンを示す図面である。 デバイスのグラフィカルユーザインターフェースの例示的スクリーンを示す図面である。 デバイスのグラフィカルユーザインターフェースの例示的スクリーンを示す図面である。 デバイスのグラフィカルユーザインターフェースの例示的メニューを示す図面である。 デバイスのグラフィカルユーザインターフェースの例示的メニューを示す図面である。 デバイスのグラフィカルユーザインターフェースの例示的メニューを示す図面である。 デバイスのグラフィカルユーザインターフェースの例示的メニューを示す図面である。 デバイスのグラフィカルユーザインターフェースの例示的メニューを示す図面である。 デバイスのグラフィカルユーザインターフェースの例示的メニューを示す図面である。 デバイスのグラフィカルユーザインターフェースの例示的メニューを示す図面である。 デバイスのグラフィカルユーザインターフェースの例示的メニューを示す図面である。 デバイスのグラフィカルユーザインターフェースの例示的メニューを示す図面である。 デバイスのグラフィカルユーザインターフェースの例示的メニューを示す図面である。 デバイスのグラフィカルユーザインターフェースの例示的メニューを示す図面である。 デバイスのグラフィカルユーザインターフェースの例示的メニューを示す図面である。 デバイスのグラフィカルユーザインターフェースの例示的メニューを示す図面である。 デバイスのグラフィカルユーザインターフェースの例示的メニューを示す図面である。 デバイスのグラフィカルユーザインターフェースの例示的メニューを示す図面である。 デバイスのグラフィカルユーザインターフェース内のスクローリングの例を示す図面である。 デバイスのグラフィカルユーザインターフェース内のスクローリングの例を示す図面である。 デバイスのグラフィカルユーザインターフェース内のスクローリングの例を示す図面である。 デバイスのグラフィカルユーザインターフェース内のスクローリングの例を示す図面である。 デバイスのグラフィカルユーザインターフェース内のスクローリングの例を示す図面である。 デバイスのグラフィカルユーザインターフェース内のオーバレイ及び背景コンテンツの例を示す図面である。 デバイスのグラフィカルユーザインターフェース内のオーバレイ及び背景コンテンツの例を示す図面である。 デバイスのグラフィカルユーザインターフェース内のオーバレイ及び背景コンテンツの例を示す図面である。 デバイスのグラフィカルユーザインターフェース内のオーバレイ及び背景コンテンツの例を示す図面である。 デバイスのグラフィカルユーザインターフェース内の視覚的転移効果の例を示す図面である。 デバイスのグラフィカルユーザインターフェース内の視覚的転移効果の例を示す図面である。 デバイスのグラフィカルユーザインターフェース内の視覚的転移効果の例を示す図面である。 デバイスのグラフィカルユーザインターフェース内の視覚的転移効果の例を示す図面である。 デバイスのグラフィカルユーザインターフェース内の視覚的転移効果の例を示す図面である。 デバイスのグラフィカルユーザインターフェース内の視覚的転移効果の例を示す図面である。 デバイスのグラフィカルユーザインターフェース内の視覚的転移効果の例を示す図面である。 デバイスのグラフィカルユーザインターフェース内の視覚的転移効果の例を示す図面である。 デバイスのグラフィカルユーザインターフェース内の視覚的転移効果の例を示す図面である。 デバイスのグラフィカルユーザインターフェース内の視覚的転移効果の例を示す図面である。 デバイスのグラフィカルユーザインターフェース内の視覚的転移効果の例を示す図面である。 デバイスのグラフィカルユーザインターフェース内の視覚的転移効果の例を示す図面である。 デバイスのグラフィカルユーザインターフェース内の視覚的転移効果の例を示す図面である。 デバイスのグラフィカルユーザインターフェース内の視覚的転移効果の例を示す図面である。 デバイスのグラフィカルユーザインターフェース内の視覚的転移効果の例を示す図面である。 デバイスのグラフィカルユーザインターフェース内の視覚的転移効果の例を示す図面である。 デバイスのグラフィカルユーザインターフェース内の視覚的転移効果の例を示す図面である。 デバイスのグラフィカルユーザインターフェース内の視覚的転移効果の例を示す図面である。 デバイスのグラフィカルユーザインターフェース内の視覚的転移効果の例を示す図面である。 デバイスのグラフィカルユーザインターフェース内の物理モデルの使用例を示す図面である。 デバイスのグラフィカルユーザインターフェースの例示的スクリーンを示す図面である。 デバイスのグラフィカルユーザインターフェースの例示的スクリーンを示す図面である。 デバイスの自動カメラ活性化のための例示的方法を示す図面である。 デバイスによる委任方法の例を示す図面である。 デバイスを含む例示的委任モデルを示す図面である。 デバイスによる委任方法の例を示す図面である。 デバイスのモード例を示す図面である。 デバイスのモード例を示す図面である。 デバイスのモード例を示す図面である。 デバイスのモード例を示す図面である。 デバイスのモード例を示す図面である。 デバイスのモード例を示す図面である。 デバイスのモード例を示す図面である。 デバイスのモード例を示す図面である。 デバイスのモード例を示す図面である。 拡張現実機能をデバイスに提供する例示的方法を示す図面である。 デバイスが動作可能な例示的ネットワーク環境を示す図面である。 デバイスとターゲットデバイスとをペアリングする例を示す図面である。 デバイスをターゲットデバイスとペアリングする例示的方法を示す図面である。 デバイスのグラフィカルユーザインターフェースの例示的スクリーンを示す図面である。 デバイスを含む例示的コンピュータシステムを示す図面である。
図1は、着用式電子デバイス100の一例を示す。デバイス100は、該デバイス100の回路、構造及びディスプレイのうちの一部、または全部を収容する本体105を含む。例えば、本体105は、デバイス100のプロセッシングコンポーネント(processing component)、データ保存コンポーネント、メモリ、センサー、配線、または通信コンポーネントのうちの一部、または全部を含むことができる。特定の実施例において、デバイス100は、ディスプレイを含むことができる。ディスプレイは、例えば、円形ディスプレイ110によって例示されたように、円形のような任意の適切な形状、または形を取ることができる。本明細書に使われたように、適切な場合に、“円形ディスプレイ”は、実質的(substantial)円形ディスプレイ、または円形と類似したディスプレイ(circular-like display;例えば、楕円形ディスプレイ)を含む。特定の実施例において、デバイス100は、ディスプレイの周囲にエレメントを含むことができる。本明細書で使われたように、ディスプレイの周囲のエレメントは、ディスプレイ、または本体(この本体の上または内にディスプレイが置かれる)を取り囲む回転型エレメント(rotatable element)を含む。一例として、エレメントは、円形ディスプレイ110の周囲の外郭リング115である。特定の実施例において、ディスプレイ周辺のこのエレメントは、ディスプレイ、または本体に相対的に移動することができる。例えば、外郭リング115は、以下でさらに詳細に説明されるように、デバイス100の本体に相対的に回転する。特定の実施例において、デバイス100は、本体105に取り付けたバンド120を含むことができる。特定の実施例において、デバイス100は、例えばカメラモジュール125のようなセンサーモジュールを含むことができる。カメラモジュール125は、さらに詳細に後述されるように、本体105、またはバンド125の内部、または表面に取り付けられるカメラを収容する。
着用式電子デバイスの特定の実施例は、スタックアップ(stack-up)を含み、このスタックアップを通じてプロセッシング及びディスプレイシステムの一部、または全部がそのデバイスの本体内に収容される。該本体は、ユーザをしてデバイスと相互作用させる少なくとも1つの方法を提供する外郭リングのようなエレメントによって取り囲まれてもよい。追加して、または代案として、特定の実施例は、詳細に後述されるように、追加的機能性のためにバンドに一体化される外部コンポーネントを含むことができる。図2は、着用式電子デバイスのスタックアップ200の例を示す。図2に示されたように、スタックアップ200の一部、またはすべてのコンポーネントは、デバイスの形態(図2の例では、円形)を採択することができる。スタックアップ200は、保護ガラス(または、他の適切な透明固体材料)の層205を含むことができる。他のコンポーネントは、保護ガラス205に積層されたり、基台(base)245に取り付けられる。追加して、または代案として、保護層205は、外郭リング235、またはデバイス本体の任意の他の適切なコンポーネントに機械的に連結されてもよい。保護ガラス205の真下には、タッチ・センシティブ・レイヤ210が位置しうる。タッチ・センシティブ・レイヤ210は、任意の適切な材料で構成され、また、例えば、抵抗性、表面弾性波、容量性(相互容量性、または自己容量性を含む)、赤外、光学、分散性(dispersive)、またはその他の適切なタイプのような任意の適切なタイプである。タッチ・センシティブ・レイヤ210は、保護ガラス205に直接塗布されたり、保護ガラス205上に積層されたり、または物理的に取り付けられる。タッチ・センシティブ・レイヤ210は、完全な2次元タッチ表面であるか、またはタッチ・センシティブ領域(例えば、多数の容量性ボタン、または領域)で構成されてもよい。タッチ・センシティブ・レイヤ210は、詳細に後述されるように、タッチ表面の縁部で可撓性(flexible)コネクタを通じてプロセッシングボード225に連結されてもよい。
円形ディスプレイ215は、タッチ・センシティブ・レイヤ210の下に位置しうる。円形ディスプレイ215は、任意の先行または先立つ層に積層されたり、機械的に取り付けられる。特定の実施例において、積層は、内部反射を減少させ、グレア(glare)を減少させて、ディスプレイ視認性(display legibility)を改善することができる。以下で詳細に説明されるように、ディスプレイ215は、対称、または非対称である外郭不活性領域を有することがある。ディスプレイ215は、視覚的に対称である表示(presentation)のために保護層205に対して同軸になるように位置してもよい。ディスプレイ215は、例えば、LED(light-emitting diode)、OLED(organic light emitting diode)、またはLCD(liquid crystal display)のような任意の適切なタイプである。特定の実施例において、ディスプレイ215は、可撓性である。特定の実施例において、ディスプレイ215は、部分透明でありうる。特定の実施例において、ディスプレイ215は、半透明である。
ディスプレイ215の下にバッテリー220が位置し、特定の実施例において、バッテリーは、基台245の直径がバッテリーのサイズに影響を与えずに、縮小可能に位置してもよい。バッテリー220は、例えば、リチウム-イオン基盤のような任意の適切なタイプである。バッテリー220は、デバイスの円形を採択したり、または任意の他の適切な形状(例えば、図示されたように、長方形)を採択することができる。特定の実施例において、バッテリー220は、デバイス内で浮上している。例えば、熱膨張を勘案して、バッテリー上下、または周囲に空間があり得る。特定の実施例において、例えば、触覚アクチュエータ(haptic actuator)、またはその他の電子部品のように高い高さのコンポーネントは、コンポーネントの最適パッキングのために、バッテリー縁部を越えて付加空間(additional area)に位置してもよい。特定の実施例において、プロセッシングボード225からのコネクタは、デバイスの全高を減少させるために、この付加空間に配置されてもよい。
バッテリー220の下に、プロセッシングボード225が位置しうる。プロセッシングボード225は、例えば、1つ以上のプロセッシングユニット、ドライブユニット、感知ユニット、キャッシュ(cache)、メモリエレメント、または集積回路のような任意の適切なコンポーネントを含みうる。プロセッシングボード225は、1つ以上のプロセッシングボードコンポーネントの温度を監視して制御するために、1つ以上の熱センサー、または冷却ユニット(例えば、ファン)を含むことができる。特定の実施例において、デバイスの本体105は、ヒートシンクとして動作することができる。
プロセッシングボードの下に、1つ以上の外郭リング235によって取り囲まれたエンコーダ230が位置しうる。以下で詳細に説明されるように、エンコーダ230は、任意の適切なタイプであり、外郭リング235の一部、または図2に図示されたように、個別コンポーネントでありうる。特定の実施例において、外郭リング235は、該外郭リング戻り止めの触覚(haptic feel of detent of the outerring)を提供したり、またはその外郭リング235の位置感知を提供することができる。エンコーダ230が、図2に例示されたように、デバイス本体と分離された機械的エンコーダであれば、エンコーダは、外郭リング235を支持することができる。例えば、特定の実施例において、エンコーダ230は、基台245に搭載され、基台245、またはバンド240との連結は、エンコーダの一部(例えば、エンコーダの中央部)を貫くことができる。特定の実施例において、プロセッシングボード225とその上の1つ以上の層は、エンコーダ230を貫く中央柱に取り付けられる。デバイスのコンポーネントに作用する機械的力は、該柱に転移されることがあるので、プロセッシングボードとディスプレイのようなコンポーネントは、エンコーダではない、柱によって支持され、エンコーダに作用するストレイン(strain)が減少する。特定の実施例において、外郭リング235は、エンコーダの可動部(movable portion)に分枝(prong)、またはその他の適切な連結を通じて取り付けられる。
デバイス本体は、基台245でもって仕上げられる。基台245は、デバイスの1つ以上の回転型コンポーネント(例えば、外郭リング235)に対して固定されてもよい。基台245は、詳細に後述されるように、バンド240に連結される。連結は、例えば、有線通信コンポーネントをプロセッシングボード225にリンクする回路の一部のように機械的であるか、電気的でありうる。特定の実施例において、コネクタは、エンコーダ及びバンド用アンカーポイント(anchor point)を回避するように位置される。特定の実施例において、バンド240は、基台245に着脱自在に設けられる。以下で詳細に説明されるように、バンド240は、1つ以上の内部コネクタ250、1つ以上の光学感知モジュール255、または1つ以上の他のセンサーを含むことができる。特定の実施例において、デバイスの内部、またはその内部の一部は、外部環境から密封されてもよい。
本明細書は、着用式電子デバイス100のスタックアップ200内コンポーネントの特定例、及びかようなコンポーネントの形状、大きさ、順序、接続及び機能性についての特定例を説明しているが、本明細書は、デバイス100のような着用式電子デバイスが任意の適切な方式で連結または通信する任意の適切な形状、大きさ、順序の適切なコンポーネントを含むことができるとする。単に一例として、バッテリー220は、図2の例示よりも、スタックアップの底に向かって配置されてもよい。他の例として、デバイス本体は、任意の適切なフォームファクターを取ることができる。例えば、フォームファクターは、図3Aの例で図示したように、楕円形またはディスク型、図3Bの例で図示したように、一端がテーパ状、または傾斜した縁部315を例示する図3C〜図3Dの例で図示したように、1つ以上の縁部が傾斜したり、丸状でありうる。図3Eは、デバイス本体のフォームファクターの例を追加的に例示する。例えば、例示的本体320A〜Eは、平坦な保護カバーリングやディスプレイ、または湾曲した保護カバーリングやディスプレイを備えた多角状である。他の例として、本体325A〜Dは、平坦な保護カバーリングやディスプレイ、または湾曲した保護カバーリングやディスプレイを備えた部分湾曲状である。本体330A〜Cは、湾曲状である。デバイス本体の1つ以上の内部コンポーネント(例えば、1つ以上の内部コンポーネント)は、該コンポーネントが置かれる本体に適した任意のフォームファクターを取ることができる。
図4Aは、デバイス本体の断面の例を示す。図示されたように、デバイス本体の幅はD1(例えば、略43mm)である。特定の実施例において、外郭リングとOLEDディスプレイとの間に若干の間隙D4(例えば、最大0.3mm)があり得る。同様に、外郭リングとガラス保護カバーリング(例えば、略42.6mmである幅D3を有する)の間に、例えば、0.2mmのような距離がさらにある。特定の実施例において、ガラス保護カバーリングと外郭リングとの間隙は、ディスプレイと外郭リングとの間隙よりも大きい。外郭リング(鋸歯を含む)は、例えば、1.0mmの幅D2を有することができる。図4B〜図4Cは、デバイスのコンポーネント間の連結の例示的セットを示す。図4Bは、ディスプレイ410の上のタッチガラス405を示す。ディスプレイは、例えば、接着性密閉剤425で内部本体(inner body)440の上部に取り付けられる。ディスプレイ可撓性印刷回路(Display flexible printed circuit)430は、ディスプレイをデバイス本体内の電子部品に連結する。接着性密閉膜(adhesive sealing membrane)445は、バンド450のデバイスへの連結に用いられ、1つ以上の保持リング435は、外郭リング415を内部本体に連結するのに用いられる。特定の実施例において、保持リングは、外郭リングのその垂直軸への反りを抑制し、かつ外郭リングとガラスカバーリングとの間に物理的空間を設けられる。保護ガラス層が内部本体の上部に置かれて環境密閉(environmental seal)を提供することができる。特定の実施例において、保持リングはまた、内部本体に対して環境密閉を提供することができる。例えば、図4Cは、デバイス本体に外郭リングを取り付けて、外郭リングと内部本体との間に環境密閉を提供する保持リング465の例を示す。追加して、または代案として、例えば、TEFLON(登録商標)のような疏水性物質(hydrophobe)でコーディングされるフロックタイプ(flock-type)材料は、水と埃との空洞への侵入を防止するために使用される。他の例として、外郭リングは、金属、またはプラスチックのリングによって内部本体に対して密閉され、したがって、空気(すなわち、水蒸気または他の粒子)が外郭リングと内部本体との間の空洞を介した移動が防止される。間隙455によって、外郭リングは、内部デバイス本体に対して移動(例えば、回転)することができる。接着性密閉剤460は、ディスプレイを本体に取り付け、また、ディスプレイと内部本体コンポーネントとの間に環境密閉を提供する。
特定の実施例において、デバイスのディスプレイは、円形または楕円形であり、円形ディスプレイユニット(例えば、LCDディスプレイ及びOLEDディスプレイ)を収容する。ディスプレイユニットは、可視領域がディスプレイモジュール内で中央に位置するように、搭載されてもよい。ディスプレイユニットが、オフセットデザイン(offset design)を有する場合、円形及び正確に位置した視覚アウトライン(visual outline)を生成するために、ディスプレイの一部を遮蔽するのに1つ以上の適切なマスキング(masking)が使用される。
特定の実施例において、ディスプレイモジュールは、デバイスのユーザインタフェースの一部である外郭リングを有する。外郭リングは、バンドがデバイスの底部と内部とを安定して保持する間に回転することができる。図5Aは、他のデバイスコンポーネントに係わるデバイスディスプレイを上から見た一例を示す。外郭リング510は、デバイス508の前面512に取り付けられたり、または前面512と別個でありうる。特定の実施例において、ディスプレイ506は、該ディスプレイ506を取り囲む外郭リング510が回転しても、回転しない。これは、バンド502に取り付けられたディスプレイモジュールの部分504にディスプレイ506を取り付けたり、またはディスプレイされるコンテンツが、ディスプレイユニットの回転中に停止状態を保持するように、プログラミングすることによって達成される。後者の場合、ディスプレイされたコンテンツは、ディスプレイユニットによってディスプレイされたイメージの視覚的垂直軸がバンドに常に平行を保持するように回転する。
ディスプレイモジュールは、1つ以上のセンサーをディスプレイと同一表面や付近に付加的に含むことができる。例えば、ディスプレイモジュールは、カメラ、またはその他の光学センサー、マイクロホン、またはアンテナを含むことができる。1つ以上の光学センサーは、ディスプレイの不活性領域に配置されてもよい。例えば、図5Bは、ディスプレイ520の下にあるバッテリーと同一平面に配置されたカメラモジュール516、及びディスプレイ520の鮮明部(clear section)の下に位置した光学開口(optical opening)514を備えたデバイス522を示す。カメラモジュール516は、ディスプレイ520用のグリッドラインコネクタ(grid line connectors)518間に配置されてもよい。任意のカメラ、またはその他の適切なセンサー(例えば、図5Cで、不活性領域526に配置されたアンテナ524)は、ディスプレイと同一平面に配置されてもよい。追加して、または代案として、以下に詳細に説明されるように、センサーは、ディスプレイの上または下に配置され、デバイス外部本体に、またはその内部の任意適切な位置に配置され、デバイスバンドに、またはその内部の任意適切な位置に配置され、これらの任意適切な組合わせで配置されてもよい。例えば、前面カメラは、ディスプレイの下に、ディスプレイに、またはディスプレイの下に配置されてもよい。
特定の実施例において、円形ディスプレイのパッケージングは、図5Dに図示されたように、不活性領域を含む。伝統的なディスプレイで、ディスプレイに電力を供給するロウドライブライン(row drive line)は、最も近接した側面縁部にルートされ(routed)、その後、不活性領域に沿って下にルートされたり、またはその側面縁部に沿ってドライバーICに直接連結される。多数の接近法がディスプレイのために、不活性領域の量を減少させようとして選択されてもよい。例えば、特定の実施例において、ディスプレイに電力を提供するグリッドコントロールライン(grid control line)を、そのディスプレイの一縁部にリルートすることによって、不活性領域の大きさが減少する。図5Dは、ディスプレイの一縁部にルートされ、コネクタ538に連結された格子コントロールライン532を示す。コネクタ538は、格子コントロールラインをデバイス528のプロセッシングセンターにルートする。かような構成で、不活性領域530は、最小化されてもよい。
図5Eは、1つ以上のマスク550で中央がマスクされた円形領域と共に、多角形ディスプレイアウトライン(polygonal-type display outline)を生成することによって、デバイス540のディスプレイ554内の不活性領域を減少させる他の実施例を示す。コネクタ552は、多角デザイン(polygonal design)で配列される。グラインドラインのロウ546とカラム542は、最も近接したコネクタ552にルートされる。特定の実施例において、コネクタ552は、ディスプレイの後ろにあり、ドライバーチップを有する可撓性回路に連結される。連結密度が減少するので、図5Eの電子部品は、可撓性印刷回路板(FPC board)に簡単に連結されることにより、収率が増加する。また、ドライバーICをディスプレイの後に移動させることによって、集積回路を安定かつ扁平な表面に留まるようにしつつも、1つ以上の不活性領域をさらに減少させることができる。このデザインは、OLEDディスプレイに特に適合するが、FPCボードの連結前に、バックライトユニット(BLU)がデバイスに積層されるならば、LCDにも使用される。前述した例は、コネクタの多角配列を例示しているが、コネクタの他の適切な配列も、グリッドラインがすべてのピクセルに到達できる限り、使用することができる。
図5Fは、デバイスディスプレイの物理的配置と大きさの例を示す。デバイスの直径は、D4(例えば、約41.1mm)である。デバイスは、幅がD3(例えば、約1.55mm)である1つ以上の不活性領域を含む。デバイスは、直径がD2(例えば、38mm)である可視領域を含む。デバイスは、カラムライン564、及びロウライン566用のコネクタ568を含む。コネクタ568は、1つ以上のFPCボードによってデバイスに結合される。FPCボードの幅は、D1(例えば、約0.2mm)である。コネクタ568の幅はD5(例えば、約6mm)である。ディスプレイコネクタFPC556は、ディスプレイの電子部品(例えば、コネクタ568からの回路)を、ドライバーチップ558に連結するのに使用される。ドライバーチップ558は、ディスプレイの下に、あるいは、デバイス本体の背面にある。
図6A〜図6Cは、デバイスの製造に含まれるデバイスディスプレイの例示的断面図を示す。図6Aで、熱融着ナイフ(hotbar knife)は、ディスプレイの電子部品をデバイスの処理電子部品に連結する可撓性印刷回路(flexible printed circuit;FPC)610を半田付けするために、使用される。この工程中にFPC650を安定化するために支持体615が使用される。図6Bは、連結されたFPC620を示す。このFPC620は、折畳まれた後(部分625)、ディスプレイの背面に接着剤630を用いて取り付けられる。図6Cは、仕上げられたディスプレイの例を示す。FPC645は、保護ディスプレイガラス635の背面に積層され、ガラス635の前面に折り曲げられた後、マイクロボンド(mircobond)619によってガラス635の前面に取り付けられる。接着剤650がFPC645とデバイスとを接続する。デバイスに接着体650で接続されたドライバーチップ655上にFPCが通る。
特定の実施例において、すべてのプロセッシング及びRFコンポーネントは、デバイスの本体内に位置され、これは、デバイスの外にRF信号を通過させるのに難点が引き起こせる。FPCボードは、ディスプレイに対する連結のない多角形の側面に、追加的に取り付けられ、これによって、図5Cに図示されたように、ストリップライン(strip line)、スタブ(stub)、セラミック、または他のアンテナ(または、その他の適切なセンサー)がディスプレイと同一平面に搭載されてもよい。図5Cのアンテナがディスプレイと同一平面にあるので、ディスプレイでワイヤリングの密集メッシュ(dense mesh;例えば、図5Eの図示と同様)に起因した干渉が減少する。
特定の実施例において、金属遮蔽(metal shield)を使用し、ディスプレイをメインプロセッシングボードとの電磁気干渉から遮蔽することができる。特定の実施例において、この金属遮蔽は、バッテリー用のヒートシンクとして使用されることにより、バッテリーの充電、または放電レートを改善することができる。
特定の実施例において、着用式電子デバイスは、デバイス本体の周囲に1つ以上の外部エレメント(outer element;任意形状である)を含むことができる。図7Aは、ディスプレイ705の周囲の例示的外郭リング710によって外部エレメントを図示している。外郭リングは、任意の適切な材料(例えば、ステンレススチール、またはアルミニウム)で構成されてもよい。特定の実施例において、外郭リング710は、一方向または双方向に回転できるか、または例えばスイッチに基づいた両構成(configuration)で使用される。特定の実施例において、第1外郭リング710は、一方向に回転でき、第2外郭リング710は、逆方向に回転することができる。外郭リング710は、保持リング715によってデバイスの基台720に連結されてもよい。図7Bは、デルリンリング(Delrin ring)715a、またはスプリントスチール保持リング(sprint steel retention ring)715bによって基台720に取り付けられた外郭リング710を示す。バネまたはクリップ725は、リングを基台720に取り付ける。図7C及び図7Dは、ネジ釘725を通じて基台720に取り付けられた保持リング715を図示し、このネジ釘は、基台720の対応する支柱に螺合される(screwed)。デバイスは、図7Cに図示されたように、ファスナー/スペーサ(fastener/spacer)730を含むことができる。
特定の実施例において、外部エレメントの戻り止め(detent)、またはエンコーダ(両者は適切な場合、相互交換的に使用される)は、ユーザに触覚フィードバック(例えば、触覚クリック)を提供し、この触覚フィードバックは、例えば、ユーザに、エレメントが1“ステップ(step)”または“増分(increment)"移動した時を判断するようにする戻り止めを提供する。このクリックは、機械的リンケージ(mechanical linkage;例えば、バネメカニズム)を通じて直接生成されたり、または触覚アクチュエータ(例えば、モータ、またはピエゾ(piezo)アクチュエータ)を通じて電子的に生成されてもよい。例えば、モータは、短絡(being shorted)されて抵抗(resistance)を提供し、短絡しないようにされてさらに小さい抵抗を提供するように、抵抗をリングの動きに対して提供し、機械的戻り止めシステムが提供する相対的に高いトルクと低いトルクとをシミュレーションすることができる。他の例として、磁気システムが戻り止めの触覚を提供するために使用される。例えば、ソレノイド(solenoid)メカニズムは、戻り止めバネまたは脱進機(escapement)を、必要に応じて解放するために使用される。バネまたは脱進機は、実際の機械的フィードバックを提供する。しかし、この配置を通じてデバイスは、大きさが変更されたような戻り止めの感覚を作るために、正確な間隔で戻り止めを再び噛み合わせつつ、必要に応じて多数の戻り止めを省略することができる。他の例として、回転型外部エレメント(例えば、外郭リング)は、例えば、リングを“止め”位置に引き寄せるのに使用される電磁石によって磁化され、トルクを増加させて戻り止めフィードバックをシミュレーションすることができる。さらに他の例として、回転型外部エレメントは、デバイス本体内の相応する磁気ポール(magnetic poles)を押し出して引き寄せる交互北・南ポール(alternating north-south poles)を有することができる。さらに他の例として、常磁石(permanent magnet)は、電磁石が使われない所にリングの固定のために使われて、フリーホイリング(free wheeling)を防止することができる。さらに他の例として、電磁石の代わりに、簡単に磁化される強磁性合金がソレノイド内に使用される。これにより、ソレノイドの電磁場(electromagnetic field)は、コアの磁気オリエンテーション(magnetic orientation)を“再プログラム(reprogram)"して、ソレノイド自体が解放された(disengaged)場合にも、磁気駆動効果を保持することができる。本明細書は、戻り止め、戻り止め型システム、及びエンコーダの特定例を提供するが、本明細書は、任意の適切な戻り止め、戻り止め型システム、及びエンコーダを考慮している。
図8Aは、外郭リング805を示し、この外郭リング805の内面には、バネ基盤の戻り止めシステム用ノッチ(notch)がエッチング(etch)されている。バネ820は、バネ柱810に取り付けられる。保持リング815は、デルリン(Derlin)、スチール、またはその他の適切な材料からなり、分割されたり(segmented)、固形/連続体(sold/continuous)でありうる。図8Bは、小さいノッチ830を備えた例示的外郭リングを示し、このノッチは、図示された戻り止めから触覚フィードバックを提供するために、バネ付きエレメント(spring-loaded element)と噛み合う。電子フィードバックシステムの場合、フィードバックは、リングの動きに高速同期して生成され、リングの連続した動きが互いに区分されるように、十分な攻撃及び減衰率(attack and decay rate)を有さねばならない。特定の実施例において、外郭リングは、いかなるクリッキング(clicking)やステッピング(stepping)もなしに自由に(連続して)回転することができる。特定の実施例において、リングは、例えば、外郭リングがなければならない回転モードを示すユーザからの入力に基づいて連続して回転したり、または段階/増分式(insteps/increments)で回転することができる。付加的に、または代案的に、リングは、一方向には自由に回転し、他方向には増分式で回転することができる。使われた回転モードに基づいて、異なる機能が存在することができる。例えば、連続モード回転は、ボリュームやズーミング(zooming)のような連続パラメータを変更し、増分モード回転は、メニューアイテムやリストの連絡先のような離散パラメータを変更することができる。これらは詳細に後述する。特定の実施例において、自由に回転する時、リングは、ユーザに触覚フィードバックを提供し、この触覚フィードバックは、例えば、リングが粘性媒体(viscous media;例えば、リングがさらに速く回転するほど、媒体は回転に対してさらに多く抵抗する)に回転するように見えるように印加された力と同一である。特定の実施例において、外郭リングは、例えば、ジェスチャーの一部として、または回転モードを変更するために、その外郭リングの回転軸方向に持ち上げられたり、押さえられる。特定の実施例において、外郭リングは、タッチ感知部を有することができる。
特定の実施例において、エンコーダまたは戻り止めは、デバイス本体に対する外郭リングの位置を判断するのに使用される。特定の実施例において、図2のエンコーダ230で図示されたように、デバイス本体に取り付けられたエンコーダが活用される。特定の実施例において、エンコーダは、図8Bの印刷光学エレメント825で図示されたように、外郭リング自体の内面の一部である。これら実施例において、外郭リングは、エンコーダの回転部として直接動作する。光学エンコーダパターンは、内面に印刷され、プロセッシングボードの光学モジュールによって読出される。外郭リング内側のエンコーダは、検出器のために、十分な光学コントラストを有さねばならず、例えば、印刷またはレーザエッチングによって外郭リングにエッチングされる。内部リングと外郭リングは、テフロン(登録商標)またはデルリンのような材料からなる低摩擦リング(例えば、図8Cのリング840)により環境的に密閉され、この低摩擦リングは、汚染物質のデバイス内部への流入を防止しつつ、係合(tight fit)を保持する。特定の実施例において、内部リングのフレームは、外郭リングの類似フレームと噛み合って、二つのリングは依然として自由に回転するが、1つに結合される。内部リングの底フレームは、下からの環境的有害物を偏向させて追加的密閉を提供する。図9に示されたように、特定の実施例において、密閉リング915は、基台の溝905に係合される。この基台は、グリップ領域910を含むことができる。
特定の実施例において、外郭リングをデバイス本体に連結する保持リングは、該外郭リングに対する圧力を検出するために、ストレインゲージ(strain gauges)を具備することができる。一例として、図10は、4個のストレインゲージ(これらは、内部本体にも連結される)に連結された保持リングを示し、これらゲージは、保持リング周囲に対称に配置される。本明細書に使用されたように、4個のストレインゲージは、ストレインを検出する電子コンポーネントでもある。対称配置の結果として、外郭リングの正常動きまたは外郭リングとの接触は、該外郭リングに最も非対称的ストレインを引き起こすが、外郭リングは、単にそのリングの平面でデバイスに対して移動し、よって、図10の上部リングによって図示したように、一短は圧縮され、多端は伸張されるためである。対照的に、外郭リングの大きい部分を握ると、対称的ストレインがストレインゲージの対向する対に生成される(例えば、圧力を受けたリングの伸張のためである)。2対のストレインゲージ間の相対的差は外郭リングを意図的に押さえることを、外郭リングの正常動きや外郭リングとの接触から区分する。本明細書は、保持リング内のストレインゲージの個数と配置について特定例を説明しているが、本明細書は、コンポーネントに対する圧力を検出するために、任意の適切な個数のストレインゲージをデバイスの任意の適切なコンポーネント内に配置することを考慮している。一例として、ストレインゲージは、デバイスのバンドまたは外郭リングに配置されてもよい。
ストレインゲージ、またはその他の適切なストレインまたは圧力検出システムを備えたコンポーネントにストレインが生じれば、その検出されたストレインは、任意の適切な機能性(functionality)に帰結される。例えば、ユーザが外郭リングを押さえてストレインがその外郭リングに生じれば、ユーザにフィードバックが提供される。フィードバックは、例えば、触覚フィードバック(例えば、振動、振れ、または加熱/冷却)、聴覚フィードバック(例えば、ビープ、特定ユーザ定義トーンの再生)、視覚フィードバック(例えば、デバイスのディスプレイによる)、またはその他の適切なフィードバック、またはこれらの組合わせのような任意の形態を取ることができる。リングを押さえることと関連した機能性はさらに詳細に説明され、本明細書は、任意の適切なコンポーネントに生じ、検出されるストレイン、または圧力から得られる任意の適切な機能性を考慮する。
着用式電子デバイスは、デバイスをユーザに固定するバンドに取り付けられる。本明細書で、“バンド”と言及したのは、図14Aに例示されたように、ユーザの足、腰、手首、または腕に巻かれる伝統的なバンド1405;図14Bに例示されたように、服の一部に固定されるクリップ1415;図14cに例示されたように、ネックレスまたは腕輪1420の構成;図14Dに例示されたように、例えば、ユーザの財布にデバイスを安全に保管するためのキーホルダー1425、またはその他のアクセサリー構成、またはその他の適切な構成のように、デバイスをユーザに固定する任意の適切な装置を包括する。これら実施例それぞれは、デバイス、バンド、または本体に位置したカメラ1410を含むことができる。図11は、デバイスを着用する多様な例を示す。例えば、デバイスは、1105で例示されたように、首の周囲に;115で例示されたように、ベルトに、身体器官に(例えば、1120で例示された腕)、1125で例示された腰に、または1130で例示された財布に着用されたり、服に固定(例えば、1110で例示されたように、胸)しうる。本明細書は、デバイスをユーザに固定する特定バンドの例と方式とを説明しているが、本明細書は、デバイスをユーザに固定する任意の適切なバンドまたは方式を考慮している。
特定の実施例において、センサー及び相応する電子部品は、望ましくは、バンドに取り付けられる。例えば、図14A〜図14cのバンドは、光学センサーの収容に適する。あらゆる例示された特定の実施例は、タッチ・センシティブ領域を含むのに適する。本明細書は、例えば、通信コンポーネント(例えば、アンテナ)、環境センサー、または慣性センサーのような任意の適切なセンサー、または電子部品を含むことができる。特定の実施例において、バンドは、デバイスに着脱可能であり、デバイスに取り付けられていなければ、そのデバイスと遠隔通信することができる。特定の実施例において、バンドの電気コンポーネントと関連した配線は、例えば、デバイスの体積を最小化したり、または、内部デバイスコンポーネントとの電磁気干渉を最小化するために、そのバンド内にさらに収容されてもよい。例えば、高いレベルの内部EMIを引き起こすデバイス(例えば、カメラまたは通信システム)、追加体積を必要とするデバイス(例えば、バッテリー、またはスピーカ)、主本体の環境的密閉を必要とするデバイス(例えば、電力/データコネクタ)、または、ユーザの皮膚と追加的接触を必要とするデバイス(例えば、生体測定センサー)は、電子部品の少なくとも一部を、そのデバイスのバンド内に収容することによって、利得を得ることができる。特定の実施例において、配線がバンドに収容されれば、ディスプレイモジュールは、バンドに対する電子接続、またはバンドを通じた電子接続が外郭リングの回転時にもつれないように、バンドに取り付けられる。ユーザが自分の意志通り、ディスプレイモジュール、またはデバイス本体を着脱可能に、ディスプレイモジュールは、ユーザが取り外し可能なコネクタを使用しうる。デバイスに対するバンドの取り付け例として、図12Aに例示されたバンド1215を1つ以上の柱1205上に配置した後、ファスナー(例えば、ネジ釘)1210を用いて、これら柱に固定することによって、このバンド1215を本体に取り付けしうる。特定の実施例において、ファスナーと柱に付け加えて、保持板(retention plate)1215を使用し、図12Bに例示されたように、バンドをデバイス1225に固定することができる。本明細書は、バンドとデバイスとの間に適切なインターフェースを考慮している。例えば、USBインターフェースは、例えば、デバイスとバンドとの間で、またはデバイスのコンポーネントとバンドのコンポーネントとの間でデータを通信するために、バンドとデバイス本体との間に提供されてもよい。特定の実施例において、インターフェースによってデバイスのユーザは、容易にデバイスのバンドを脱着したり、変更することができる。
本明細書は、図14Aに例示されたようなバンドを、例えば、ユーザが着用すれば、そのバンド自体に連結する任意の適切な構造を予想する。例えば、図13Aは、カメラモジュール1310を備えたバンド1305をデバイス1300の着用者に着用させる構造の例を示す。ファスナーは、1つ以上のスナップ(snap)1315、孔1320と1335、及び相応するコンポーネント、掛け金(clasp)1340、または押しボタン1330を有するクリップ1325を含むことができる。図13Bは、クリップ1311及び1303を用いて着用者にバンド1301を固定する例示的メカニズムを示す。コンポーネント1309は、コンポーネント1307の他面にある空洞に挿入されてバンド1301を締める。図13Bは、クリップ1303、1311に対する例示的内部メカニズムを示す。クリップ1313(クリップ1311に相応)のコンポーネント1317は、1つ以上の磁石部(magnetic portion)を含み、この磁石部は、空洞1323の磁石側に引き寄せられる。例えば、コンポーネント1317は、該外側端に磁石部を含み、コンポーネント1317の磁石を引き寄せるために反対極性の磁石がバネ1319の前面に配置されてもよい。それにより、コンポーネント1317は、空洞1323を埋め込み(fill)、磁石結合によってクリップ1313をクリップ1303に締めることができる。挿入されれば、コンポーネント1321は、空洞1323の外でコンポーネント1317に力を加えるバネ1319と噛み合うように使用される。クリップ1313は、クリップ1303から分離することができる。コンポーネント1317上の磁石と空洞1323内の磁石に付け加えて、さらに磁石がクリップ1313内に配置され、例えば、バネ1319と噛み合う時、クリップ1313の除去に一助したり、またはクリップ1303に締結されていない時、コンポーネント1317のクリップ1313の内外への摺動を防止することができる。例えば、1つ以上の磁石は、コンポーネント1317と同一平面でコンポーネント1317から等距離であるクリップ1313の中央に配置され、各コンポーネントの磁石(すなわち、コンポーネント自体)をクリップ1313の中央に向かって引き寄せることができる。
図13Cは、ファスナー1333、1331を用いてバンド1327を固定する構造の例を示す。例えば、空洞1329、及びコンポーネント1337、1341を用いて固定することができる。図13Cは、ファスナー1331、1333の内部構造を示す。ファスナー1339(ファスナー1333に相応する)は、コンポーネント1337を含む。ファスナー1343(ファスナー1331に相応)がファスナー1339に挿入されれば、コンポーネント1341は、コンポーネント1337に取り付けられ、ファスナー1339のフレームを越えて伸張して固定されてもよい。ファスナー1339が上側に引き上げられれば、そのフレームは、コンポーネント1337に外側への作用力を徐々に加えて、コンポーネント1341をファスナー1339のフレームを超えて移動させて、ファスナー1339をファスナー1343から除去させる。特定の実施例において、ファスナー1333とファスナー1331とを共に締結するために、磁石がそのファスナー内に、または上に配置してもよい。例えば、磁石は、各コンポーネント1341、1337の縁部に配置されてもよい。ファスナー1343がファスナー1337内に移動すれば(または、その反対に移動)、磁石は、コンポーネント1341を、コンポーネント1337に引き寄せて固定する。さらに、磁石はファスナー1343に配置されて、例えば、コンポーネント1341を、コンポーネント1337から除去するのに一助したり、またはファスナー1343がファスナー1339に固定されていない時、コンポーネント1341がファスナー1343の内外への摺動を防止することができる。例えば、1つ以上の磁石は、コンポーネント1341と同一平面でコンポーネント1341から等距離であるファスナー1343の中央に配置され、各コンポーネントの一端にある磁石(すなわち、コンポーネント自体)をファスナー1343の中央に向かって引き寄せることができる。
図13Dは、ファスナー1349、1353を用いてバンド1351を固定する交互配置を示す。固定された時、コンポーネント1359(丸状であ得る)を空洞1363から分離し、ファスナー1361(ファスナー1349に相応)をファスナー1357から除去させるために(または、その逆も可能)、ファスナー1357(ファスナー1353に相応)を捻る(twist)ことができる。特定の実施例において、ファスナー1357、1361を互いに接続及び/または離脱させるために、1つ以上の磁石が使用される。例えば、磁石は、空洞1363に配置され、またコンポーネント1359の外側(凸状)縁部に配置され、コンポーネント1359を空洞1363に引き寄せ、またファスナー1361をファスナー1357に固定させることができる。他の例として、磁石は、コンポーネント1359の内側(凹状)縁部(すなわち、コンポーネント1359の凹面)に配置されてコンポーネント1359をファスナー1361に引き寄せて、例えば、コンポーネント1359を空洞1363から除去するのに一助となるか、またはファスナー1361がファスナー1357に固定されていない時、コンポーネント1359のファスナー1361の内外への摺動を防止することができる。相応する磁石は、コンポーネント1359が空洞1363内に伸張していない時、そのコンポーネント1359と接触するファスナー1361の内面に配置されてもよい。すなわち、この磁石は、コンポーネント1359の内面にある磁石を引き寄せ(及び、特定の実施例において、その内面にある磁石と究極的に直接接触する)、コンポーネント1359をファスナー1361に固定させる。
図13E〜図13Gは、カメラモジュール1373を備えたバンド1369を、例えば、デバイス1367のユーザが着用する時、そのバンドをバンド自体に固定する実施例を示す。図13Eで、バンド1369の一面にある1つ以上の磁石1371は、バンド1369の他面にある1つ以上の磁石1379に引き寄せられる。磁石は、図13Hに磁石ストリップ(strip)1307で例示されたように、バンドを部分的にクロス(cross)する磁石材料のストリップであり、図13Iに磁石ストリップ1321、1327で例示されたように、バンドを完全にクロスする磁石材料のストリップであり、図13Fに例示されたように、磁石材料の領域でありうる。磁石1371、1379に加えて、バンド1369は、孔1391、及び1つ以上の柱1377を含み、バンド1369をデバイス1367の着用者に固定することができる。図13Gは、孔1383(1398)を用いてデバイス1367の着用者にバンド1381を取り付けるために、ファスナー(例えば、カバーリング1395を備えたナット)1371に固定されるファスナー(例えば、ネジ釘1396)1387を示す。
特定の実施例において、電気コンポーネントを含んでいるバンドは、図2のコネクタ250で例示したように、伝統的な物理的接触コネクタも含むことができる。このコネクタは、例えば、充電、システムアップデート、デバッギング、またはデータ伝送のために、デバイスとの接続を可能にする。かようなコネクタは、色とりどりのポゴ(pogo)であるか、メッキされた表面であり、この表面に対して充電ケーブルは、接触してインターフェースすることができる。かようなコネクタは、環境や人間の体からの湿気に露出されて発生する腐食を防止するために、貴金属でメッキされる。特定の実施例において、物理的コネクタは、電源用にのみ使用され、データは、ブルートゥース、近接場通信(NFC)技術、またはWI-FIのような近距離通信様式を用いて伝送されてもよい。
特定の実施例において、デバイスのエネルギー保存を増加させるために、可撓性バッテリー(例えば、リチウム基盤バッテリー)を収容するのにバンドが使用される。エネルギー保存容量は、総体積に関連しているので、バンド内部のバッテリーは、デバイス本体の総サイズに影響を与えず、体積が制限された着用式デバイス用の保存容量を増加させる。
以下で詳細に説明されたように、着用式電子デバイスは、1つ以上のセンサーを、そのデバイス上、またはその内部に含むことができる。例えば、着用式電子デバイスは、1つ以上の光学センサー、または深さセンサー(depth sensor)を含むことができる。光学センサーは、例えば、デバイスの表面、ユーザの体から外に向くバンド、デバイス表面の反対側に向かうバンド、ユーザの体側に向くバンド、またはこれらの任意適切な組合わせのような任意の適切な位置に配置されてもよい。図15は、バンドを備えたデバイス1500を示し、このバンドは、外側に向かう光学センサー1505を有する。光学センサーをバンドに配置することによって、ケース内部の高周波信号を減少させることによって、デバイス本体内でさらに軽い遮蔽(lighter shielding)が可能となって、重さと体積とを節約することができる。図14Aないし図14Dは、着用式電子デバイスの互いに異なる実施例に対する例示的カメラ配置を示す。特定の実施例において、カメラ入力を処理するような電子部品は、図1のハウジング125によって例示されたように、カメラを収容する“火山”形状内に位置してもよく、かつバンド内に位置してもよい。特定の実施例において、他のセンサーは、例えば、デバイスのバンドにある光学センサーと同じハウジング内で光学センサー付近に配置されてもよい。例えば、深さセンサーは、光学カメラと共に使われて、デバイス環境の検出やディスプレイを向上させたり、ユーザがジェスチャーを通じて指していたり、相互作用しているオブジェクトを判断することができる。
特定の実施例において、バンド上の光学センサーの配置は、あらかじめ決定された範囲内でユーザが調整することができる。特定の実施例において、バンド上光学センサーの配置は、ユーザがセンサーを便利に照準可能に最適化される。例えば、図15に例示されたように、ユーザが手首にデバイスを着用すれば、光学センサー1505は、ユーザの手の平が地面と略平行である時、その光学センサーがユーザの体から外側を照準するように、外側に向かう方式で配置される。
特定の実施例において、光学センサーは、そのセンサーがユーザの体から外側に向かっている間、ユーザがデバイスのディスプレイを見られるように配置されてもよい。したがって、ユーザは、図16で視野三角形で例示したように、センサーがキャプチャーしている実際の景色に対するユーザの視野が遮断されずに、光学センサーがキャプチャーし、デバイスがディスプレイするコンテンツが見られる。デバイス1600のディスプレイ1620は、関連した視野円錐(associated viewing cone)を有することができる。視野円錐は、例えば、ディスプレイを合理的に見ることができる体積(volume)である。ユーザ1615は、(1)実際のトロフィー1610を見て、(2)センサー1605で実際のトロフィーを照準することによって、ディスプレイ1620の視野円錐内からデバイス1600のディスプレイ1620上でトロフィーのイメージを見る。センサー1605は、体積に相応する関連した視野角を有し、そのセンサー1605は、該体積内でイメージを合理的にキャプチャーすることができる。図16の例で、ユーザを見る方向にデバイス1600のディスプレイ1620を保持しつつ、ユーザがセンサー1605を外側に便利に照準でき、かつ、かような照準がトロフィー1610に対するユーザの視野をデバイス1600が遮断せずに達成されるように、センサー1605が配置される。
図17は、光学センサーの例示的視野角を示す。オブジェクト1725が光学センサー1705の視野角内にあれば、ユーザは、オブジェクト1725及びデバイス1700にディスプレイされるそのオブジェクト1725のイメージ1710、または1715をいずれも見ることができる。例えば、ユーザの手1720が視野角内にあれば、ユーザは、オブジェクト1725、手1720及びデバイスのディスプレイ1700上のオブジェクト1725と手1720のイメージ1710を見ることができる。対照的に、手1720がセンサー1705の視野角内になければ、ディスプレイ1700にあるイメージ1715によってディスプレイされない。ユーザが着用した時、デバイスのセンサーは、同一、または異なるセンサーがキャプチャーするジェスチャー(例えば、ピンチング(pinching)、タッピング(tapping)、前方引き(pulling toward)、または押し出し(pushing away)のようにデバイスの視野角内でオブジェクトを選択するジェスチャー)を、ユーザが行う間に、そのセンサーの視野角内でユーザの手/腕/指をキャプチャーすることができる。センサーとディスプレイは、ユーザによって着用された時、デバイスがオブジェクトに対するユーザの視野角を遮断せず、ユーザの視線がデバイスディスプレイの視野円錐内にあるが、ディスプレイにディスプレイされるオブジェクトは、デバイスの視野角内にあるように、オリエント(oriented)される。特定の実施例において、ユーザは、センサーによってキャプチャーされたり、またはデバイスにディスプレイされたイメージと、例えば、イメージがディスプレイされるディスプレイの部分、またはその付近をタッピングしたり、センサーの視野角内でジェスチャーをしたり、またはその他の適切な方法で、相互作用することができる。かような相互作用は、例えば、オブジェクトの写真をキャプチャーすることによって、またはオブジェクトがペアリング/通信能力(pairing/communication capability)を有していれば、そのオブジェクトとペアリングしたり、通信することによって、オブジェクトを識別(identify)し、そのオブジェクトに関する情報を決め、その情報の少なくとも一部をディスプレイにディスプレイするようなオブジェクトと関連した一部の機能性を提供することができる。
特定の実施例において、光学または深さセンサーモジュール(これらは望ましくは、互換的に使用される)は、図18Aに図示されたように、主印刷回路基板(PCB)に直接搭載された場合、光学センサーが使用するバスを単に拡張することによって、デバイスと通信することができる。図18Aで、光学センサー1825は、可撓性印刷回路、または配線1820を通じてデータを統合コントロール(integrated control)1810に伝送し、この統合コントロールは、図18Aの例で、デバイス1805の内部、または表面に位置し、デバイス1805は、主印刷回路基板を収容する。図18Bは、光学センサーモジュール1860の内部、または表面にある光学センサー集積回路1850を図示し、このモジュール1860は、光学センサー1855も収容する。デバイス1830の主印刷回路基板とカメラモジュール1860の電子部品との通信は、可撓性印刷回路1845を通じてなされる。図18Bの配置を通じて、集積回路は、データを圧縮し、他の処理を行った後、さらに少ない信号線を要求したり、さらに少ないデータ伝送を要求する方法を通じて送信することができる。これは有益であるが、ユーザがデバイスを着用する時、バンドは必ず柔軟でなければならず、よってさらに少ない数のラインが望ましいからである。かような接近法は、ライン数を1本、または2本の信号線と、2本の電源線に縮小することができ、これはパッケージング、モールディング及び信頼性面で望ましい。特定の実施例において、前述した1つ以上の電子部品は、長い高周波ケーブルから電磁気干渉を防止するために、必ず遮蔽されねばならない。かような場合、並列バスの使用が一般的であるが、この使用はさらに大きなケーブルまたはFPCの使用を要求することができる。
一実施例において、カメラ制御集積回路は、図18A及び図18Bに図示されたように、光学モジュールにある小さい回路ボード上に直接搭載されてもよい。着用式電子デバイスは、任意の適切なセンサーを含むことができる。特定の実施例において、1つ以上のセンサー、またはこれらの相応する電子コンポーネントは、デバイスのバンド表面に、デバイスの本体内部、または表面に、または両方ともに位置してもよい。センサーは、例えば、直接電気連結、NFC、またはブルートゥースのような任意の適切な有線、または無線連結を通じて、互いに通信でき、かつプロセッシング及びメモリコンポーネントと通信することができる。センサーは、デバイスのコンテキスト(context;例えば、環境)、または状態、ユーザ、アプリケーション、または他のデバイス、または他のデバイスで実行中であるアプリケーションを検出することができる。本明細書は、任意の適切なセンサーの構成(configuration)を任意適切な位置に含む着用式電子デバイスを考慮している。また、本明細書は、詳細な説明に記述された任意の適切な入力を受信したり、詳細な説明に記述された任意の適切な機能性、またはサービスの提供を開示したり、その提供に関連したり、またはその提供と関連した任意のセンサーを考慮する。例えば、接触感知センサーは、以下で詳細に説明されるように、デバイスにディスプレイされたグラフィカルユーザインターフェース間の遷移(transition)に係わる。本明細書は、着用式デバイスと関連した機能性、センサーの活性化/非活性化、センサーの感度、または、センサープロセッシングの優先順位は、望ましくは、ユーザカスタマイズ型(user-customizable)である可能性があるということをさらに考慮する。
図19は、例示的センサー検出システムを示し、また、着用式電子デバイスのための例示的センサーを示す。センサーは、データをセンサー特定データフォーマット(sensor-specific data format)でデバイスのセンサーハブサブシステム(sensor hub subsystem)に送信する。例えば、例示的センサーモジュール1924に図示されたセンサー19aは、次の1つ以上を含むことができる:顔検出カメラ1902、外向き(outward-facing)カメラ1904、顔近接センサー1906、顔タッチセンサー1908、バンドタッチセンサー1910、音響皮膚タッチセンサー(acoustic skin touch sensors)1912、慣性測定システム(IMU)1914、重力ベクトルセンサー1916、タッチセンサー1918、1920、及びその他の適切なセンサー1922.センサーからのデータは、例示的センサーハブモジュール1944に図示されたセンサーハブ19bに送信される。データは、必要に応じて段階1928と段階1930とで調整されて(conditioned)ノイズが除去され、段階1942でロック状態検出器(locked-state detector)に伝送される。ロック状態検出器は、デバイスの非活性時を検出し、デバイスを再活性化するジェスチャー、またはその他の適切な入力に対するセンサーデータを監視しつつ、必要に応じてセンサーを使用できなくして電力を保存する。例えば、数値ジェスチャー検出器(numeric gesture detector)は、センサー出力を受信し、その出力を1つ以上の数値臨界と比較して結果を決定する。ヒューリスティックジェスチャー検出器(heuristic gesture detector)は、センサー出力を受信し、例えば、1つ以上の臨界に適用されるアンディング規則(ANDing rules)のような1つ以上の判断ツリー(decision tree)に基づいて判断する。パターン基盤のジェスチャー検出器1938は、例えば、ジェスチャーが行われた時、センサー出力の実験的評価によって決定されたパターンのようなジェスチャーパターン1940のあらかじめ決定されたライブラリーに対してセンサー入力を評価する。1つ以上のジェスチャー優先順位デコーダ1948は、検
出されたジェスチャーのうち、いずれか(もし、存在するならば)が特定のアプリケーション、またはシステムレベルプロセスに機能性を提供するために活用されねばらないかを判断するために、ジェスチャー検出器、ロック状態検出器、または両者からの出力を評価する。さらに広くは、特定の実施例において、デバイスが活性化すれば、アプリケーション要請(application-requested)、またはシステム要請(system-requested)センサー検出器が順に活性化され、それらのデータをセンサー優先順位デコーダに提供する。特定の実施例において、優先順位デコーダは、複数のセンサー入力のうち、いずれか(もし、存在するならば)を処理するか否かを判断し、本明細書は、多重センサーからの連合入力(combined input)が機能性と関連することを考慮するが、この機能性は、個別的なセンサー入力それぞれと関連した機能性と異なる。デコーダは、十分に確実にセンサーが検出された時を決定し、センサーデータをセンサーハブドライバーに提供する。センサーハブドライバーは、アプリケーション・プログラミング・インターフェース(API)を末端アプリケーション(the end application)とシステムコントローラとに提供し、これらは順に必要な出力、及びナビゲーション(navigation)を生成する。例えば、図19は、例示的センサーハブドライバー1950、アプリケーションAPIs 1952、例えば、適切なシステム機能性(例えば、デバイスのグラフィカルユーザインターフェースを通じたシステムレベルナビゲーション1962)を判断するためのシステムナビゲーションコントローラ1954、及びアプリケーションのためのアプリケーション-レベルジェスチャー優先順位検出器1956を示す。図19のセンサーハブ19bとアプリケーションプロセッサ19c(例示的アプリケーションプロセッサモジュール1964に図示)は、別体として図示されるが、少なくとも一部の同一または類似したコンポーネントによって(及び実行される機能によって)表現されてもよい。特定の実施例において、センサーハブとアプリケーションプロセッサのコンポーネント及び機能を限定する境界は、多少包括的である。図19に示された境界は、単に1つの実施例である。センサーそれ自体に対して、センサーハブシステムとアプリケーションプロセッサが実行する機能、及びこれらのコンポーネントは、デバイス本体、バンド、または両方ともで発生したり、存在することができる。特定の実施例において、1つ以上のセンサーハブ、またはアプリケーションプロセッサ、またはそれらの内にあるコンポーネントを使用し、センサーデータを受信して処理することができる。
センサーは、センサーデータを内部的に生成し、このセンサーデータは、例えば、検出器、またはデータ調整器(conditioner)により単純にフィルタリングされたり、再フォーマット(reformatted)される。データフォーマッタは、ローデータ(Raw data)を、アプリケーションAPIが収容可能な均一フォーマット(uniform format)にフォーマットすることができる。認識装置(recognizer)は、数値モデル(例えば、判断ツリー)、ヒューリスティックモデル、パターン認識、またはその他の適切なハードウェア、ソフトウェア、及び例えば、ジェスチャー入力のようなセンサーデータを検出する技術を使用しうる。認識装置は、APIによって使用可能、または使用不能になる。かような場合、関連したセンサーは、認識装置がセンサーからデータを受信していないか、センサーデータを認識できなければ、使用不能になる。
デバイスは、センサー出力のデータベースを含み、このデータベースによって同一検出器は、多くの互いに異なるセンサー出力を検出することができる。APIが生成した要請によって、センサー優先順位デコーダは、提供された判断基準に基づいてセンサー出力を遮断したり、通過させることができる。判断基準は、APIデザインの関数でもある。特定の実施例において、認識装置は、センサー出力を検出するために、1つ以上センサーの出力を受容することができる。
特定の実施例において、多重センサーは、類似の情報を検出するために使用される。例えば、正常(normal)感知カメラ及び深さ感知カメラは、いずれも指の検出に使用することができ、ジャイロスコープ及び磁気計(magnetometer)は、いずれもオリエンテーションの検出に使用することができる。望ましくは、センサー情報に依存したり、センサー情報を活用する機能性は、費用、エネルギー使用、または使用頻度のような実現及びランタイム考慮事項(implementation and runtime consideration)に基づいて、センサーを代替したり、センサーのうちから選択することができる。
センサーは、任意適切なタイプであり、本明細書に説明されたように、デバイス本体の内部または表面に、バンドの内部または表面に、またはこれらの適切な組合わせで位置される。特定の実施例において、センサーは、例えば、赤外センサー、光学センサー、音響センサー、またはその他の適切な深さセンサー、または近接センサーのような、1つ以上の深さまたは近接のセンサー(本明細書で、望ましくは、これら用語は互換的に使用される)を含むことができる。例えば、深さセンサーは、デバイスのディスプレイの上に、または付近に配置され、例えば、ユーザの手、指、または顔がディスプレイ付近にくる時は、検出することができる。他の例として、深さセンサーは、以下で詳細に説明されるように、その深さセンサーの視野角内にあるユーザの指が指す任意オブジェクトを検出することができる。代案的に、または付加的に、深さセンサーは、さらに詳細に説明されるように、デバイスのバンド上に位置してもよい。特定の実施例において、センサーは、1つ以上のタッチ・センシティブ領域をデバイス本体上に、バンド上に、または両方ともの上に含むことができる。タッチ・センシティブ領域は、例えば、抵抗性、表面弾性波(surface acoustic wave)、容量性(相互容量性、または自己容量性を含む)、赤外、光学、分散性、または任意その他の技術のような任意の適切なタッチ・センシティブ技術を活用することができる。タッチ・センシティブ領域は、スワイプ(swipes)、タップ(taps)、1つ以上の特定ポイント、または1つ以上の特定領域との接触、またはマルチ・タッチ接触(例えば、ディスプレイ上で2本以上の指をピンチング(pinching)するか、またはディスプレイ上で2本以上の指を回転すること)のような任意の適切な接触を検出することができる。さらに詳細に説明されるように、タッチ・センシティブ領域は、ディスプレイデバイス、リング、またはバンドの少なくとも一部を含むことができる。他のセンサーに対して同様に、特定の実施例において、タッチ・センシティブ領域は、例えば、コンテキスト、電力考慮事項、または、ユーザ設定に基づいて活性化、または非活性化されてもよい。例えば、リングのタッチ・センシティブ部分は、リングが“ロックされれば(locked)”(すなわち、回転しない)活性化され、リングが自由に回転すれば、非活性化される。特定の実施例において、センサーは、例えば、適切なカメラ、または光学深さセンサーのような1つ以上の光学センサーを含むことができる。
特定の実施例において、センサーは、例えば、加速度計、ジャイロスコープ、磁気計、GPSチップ、またはコンパスのような1つ以上の慣性センサー、またはオリエンテーションセンサーを含むことができる。特定の実施例において、慣性、またはオリエンテーションセンサーからの出力は、デバイスを活性化、またはロック解除(unlock)したり、1つ以上のジェスチャーを検出したり、デバイスのディスプレイスクリーン、またはペアリングされたデバイスのディスプレイスクリーン上のコンテンツと相互作用したり、特定データに接近したり、またはデバイスやペアリングされたデバイスの特定機能を活性化したり、デバイス本体とバンドとの通信、またはデバイスとペアリングされたデバイスとの通信を開始したり、またはその他の適切な機能性を開始するのに使用される。特定の実施例において、センサーは、例えば、デバイスのコンテキストを決定するために、ユーザの音声、周辺音を検出する1つ以上のマイクロホンを含むことができる。さらに、特定の実施例において、1つ以上のスピーカをデバイス本体やバンド上に含むことができる。
特定の実施例において、センサーは、ネットワークデバイス(例えば、サーバ、またはルータ)、スマートフォン、コンピューティングデバイス、ディスプレイデバイス(例えば、テレビ、またはキオスク(kiosks))、またはオーディオシステム、ビデオシステム、その他の着用式電子デバイスのような他のデバイスと通信したり、またはバンドとデバイス本体との間で通信するためのコンポーネントを含むことができる。かようなセンサーは、NFCリーダ/ビーコン(readers/beacons)、ブルートゥース技術、または任意適切な周波数で送受信するためのアンテナを含むことができる。
特定の実施例において、センサーは、デバイスのユーザから触覚入力を受信、または検出するセンサー(例えば、圧電、圧力センサー、力センサー、慣性センサー(上述の通りである)、ストレイン/ストレスセンサー、または機械的アクチュエータ)を含むことができる。かようなセンサーは、デバイス上で任意の適切な位置に置かれる。特定の実施例において、デバイスのコンポーネントは、ユーザに触覚フィードバックをさらに提供する。例えば、1つ以上のリング、表面、またはバンドは振動したり、光を生成したり、またはオーディオを生成することができる。
特定の実施例において、着用式電子デバイスは、周辺環境に対して1つ以上のセンサー(例えば、温度センサー、湿度センサー、または高度計)を含む。特定の実施例において、着用式電子デバイスは、着用式デバイスユーザの身体的特徴を感知する1つ以上のセンサーを含むことができる。かようなセンサーは、例えば、デバイスのバンド上、または、ユーザの皮膚と接触するデバイスの基台(base)のような任意の適切な領域に位置してもよい。例えば、センサーは、着用式デバイス付近の皮膚(または、皮膚を覆う服)をこする時にデバイス付近の皮膚をタップする時、または、ユーザの腕の上下にデバイスを移動させる時、発生するようなユーザ皮膚の振動を検出する音響センサーを含むことができる。追加的な例として、センサーは、1つ以上の身体温度センサー、パルスオキシメータ(pulse oximeter)、電気皮膚反応(galvanic-skin-response)センサー、容量性イメージング(capacitive imaging)センサー、筋電図(electromyography)センサー、バイオメトリックデータリーダ(例えば、指紋、または目)、及びその他の適切なセンサーを含むことができる。かようなセンサーは、ユーザにユーザ状態に関するフィードバックを提供し、既定の機能性(例えば、糖尿に対してインスリンのような特定薬品を摂取せよとの警告)の開示に使用され、感知された情報を遠隔デバイス(例えば、病院の端末)に通信することができる。
着用式電子デバイスは、そのデバイスを充電したり、電力を提供するための1つ以上の充電コンポーネントを含むことができる。充電コンポーネントは、例えば、容量性充電、電磁気充電、トリクル(trickle)充電、直接電気接触による充電、太陽、キネティック(kinetic)、誘導、または知能型充電(例えば、バッテリーの状態、または条件に基づいて充電し、それにより充電動作を変更する)のような任意の適切な充電方法を活用することができる。充電コンポーネントは、例えば、デバイスの内部、または表面、またはデバイスバンドの内部、または表面のようにデバイスの任意適切な部分に位置してもよい。例えば、図20Aは、スロット2005を備えた充電器2000を図示し、このスロットは、充電コンポーネントを充電器に連結する。例えば、スロット2005は、摩擦、機械的構造(例えば、ラッチ、またはスナップ)、磁性(magnetism)、または充電コンポーネントの分枝(prong)と充電器2000とが直接電気接触するように、この分枝を収容及び固定する、その他の適切な技術を使用しうる。図20Cは、バンド2010上にある分枝2015を図示し、この分枝は、充電器2022とバンド2010との間にコンタクト(contact)2020を通じて回路接続を作るために、ポゴスタイル(pogo-style)コネクタを活用する。特定の実施例において、分枝2015は、充電器2022上にあり、図20Aのスロット2005は、バンド上にあるか、または着用式デバイスの本体上にある。特定の実施例において、コンタクト2020(例えば、ポゴ-スタイルコネクタ)は、デバイス本体上にあり、このコンタクトは、デバイスを充電する充電器とバンドとの間に回路を作るのに使用される。図20Aの充電器は、任意の適切な電源(例えば、交流(AC)コンセントからの電力、またはコンピューティングデバイス上のUSBポートからの直流(DC)電力)に、任意の適切な有線、または無線連結によって連結されてもよい。
充電器2000は、アクリル(acrylic)のような任意の適切な材料からなり、特定の実施例において、例えば、ゴムのように滑らない材料が充電器の背板に使用される。特定の実施例において、充電器2000は、表面に取り付け、または固定されてもよい。例えば、図20Bに図示されたように、壁に取り付けられる。取り付けは、例えば、機械式、磁石式、または接着式のような任意の適切な技術を用いてなされる。特定の実施例において、着用式電子デバイスは、充電器に取り付けられた間には、完全に使用可能である。例えば、充電コンポーネントがデバイス本体上に位置すれば、デバイスは、ユーザがデバイスと相互作用する間、またはそのデバイスと通信中である他のデバイスと相互作用する間に充電器内に置かれていても良い。
着用式電子デバイス内の充電コンポーネントの他の例として、図21A及び図21Bは、例えば、誘導(inductive)充電器を使用するさらなる例示的充電器を示す。図21A及び図21Bに図示されたように、バンドは、1つ以上の充電コイル2110を含むことができる。上述したように、本明細書は、デバイスのバンドに追加して、または代案として、デバイスの本体内に、または上に含まれた充電コイル(または、任意の他の適切な充電コンポーネント)を考慮する。例えば、充電面(charging surface)2115、または充電面2120が生成した磁界2105は、充電コイル2110を通過する。図21Bの充電面2120は、充電コイル2110を通過した磁界2105の密度を充電面2115に比べて改善し、また、充電面2115よりも精密な配置を可能にし、システムの電荷伝送率(charge transfer rate)を改善する。本明細書は、望ましくは、充電がデバイス本体上、または、内部のコンポーネント、バンド上、または、内部のコンポーネント、または両者に対して電力を供給することを考慮する。
特定の実施例において、バンド、またはデバイスは、無線充電ソリューション(solution)のためのアンテナを実現することができる。無線充電は、鉄金属(ferrous metal)のない所で最適に動作するので、コイルが、充電ドライバーと単に同一平面にあるより、その充電ドライバーの極(poles)の間に保持されるように許容することによって(上述の通りである)、改善された無線充電伝送容量を可能にしつつも、デバイスの本体に対する材料選択の幅を広げることができる。前述し、かつ図2に示されたように、能動バンド(active band)は、伝統的な内部物理コンタクトコネクタ250も含むことができる。
特定の実施例において、内部電荷保存所を備えた充電ユニットは、着用式電子デバイスと関連する。壁にプラグインされれば、充電ユニットは、接続されたデバイス及び充電ユニットの内部保存所をいずれも充電することができる。プラグインされていない時、充電ユニットは、接続されたデバイスをそのユニットの電力保存所が枯渇するまで、その保存所から充電することができる。ただ充電器のみがデバイスなしに電源に連結されれば、充電器は自ら充電することによって、以後時点で追加電力をデバイスに提供しうる。したがって、本明細書に説明された充電ユニットは、電源にプラグインされても、されなくても、有用であるが、この充電ユニットは、例えば、旅行中、飛行機搭乗中、駅、野外のようにユーザが電源に連結できない時、または、ユーザがデバイスの充電を所望するが、電源にアクセスできないすべての所で、任意の部分充電されたデバイスにしばらく電力を提供できるからである。デバイスは、充電器がそのデバイスを充電する間、待機状態、または使用状態(in-use)であり、対象(target)デバイスのソフトウェアやハードウェアの修正が要求されない。本発明の1つ以上の実施例の追加的利点は、ユーザが携帯せねばばならないアイテムの個数を減少させること、充電器及びパワーパック(power pack)両者の利点を提供すること、移動時に充電器の携帯を有用にすること、ユーザが自分のデバイスのバッテリー寿命を延ばすために、携帯せねばならないケーブルとコネクタとの数を減少させることを含む。本明細書は、かような充電ユニットが任意の適切な電子デバイス(着用式電子デバイスを含むが、これに限らない)に適用される可能性があることを考慮する。
図22A及び図22Bは、デバイス2200に対する接続2205、及び接続2215及び2220を備えた例示的充電ユニット2210の特定の実施例を示す。例えば、図22Aは、充電ユニット2210からデバイス2200に、及び外部電源へのケーブル連結を示す。他の例として、図22Bは、デバイス2200からのケーブル連結及び電源への直接連結を備えた充電ユニット2210を示す。本明細書は、デバイス、充電ユニット、この充電ユニットを充電する電源間の任意の適切な連結を考慮する。例えば、デバイスへの連結と電源への連結の両者は、直接連結であるか、ケーブルを通じた連結であるか、無線連結である。
上述したように、充電ユニットは、外部電源に連結されていない時にも、充電ユニット内の電荷保存所からデバイスを充電することができ、外部電源に連結された時、それ自体で、連結されたデバイス、または両方ともを充電することができる。本明細書は、充電ユニットとデバイスとの間に充電を割り当てる任意の適切な方式を考慮する。かような割当て方式は、デバイスの内部充電量、充電ユニットの内部充電量、デバイスが消費する電力量、外部電源の充電容量、またはこれらの適切な組合わせによって決定されてもよい。追加して、または代案として、充電臨界(charging threshold)は、いかなる割当て方式を使用するのかを決定しうる。例えば、一充電方式は、デバイスがほぼ満充電付近にあり、充電ユニットはほとんど電荷を有していない時に使用され、他の充電方式は、デバイスが残された電荷をほとんど有していない時に使用される。図23及び図24は、充電ユニット及び連結されたデバイスのための例示的充電方式を示す。例えば、図24に示されたように、デバイスが段階2400で充電器に連結されれば、段階2500でデバイスが満充電されたか否かが判断される。“はい”であれば、追加の充電動作はない。“いいえ”であれば、段階2410で充電器が外部電源(例えば、電源電圧(line voltage))に連結されたか否かが判断される。連結と判断されれば、デバイスは、段階2425で外部電源から充電される。連結と判断されなければ、段階2415で、充電器が、残された電力を有しているか否かが判断され、有していると判断されれば、デバイスは、段階2420で充電器の内部電源で充電され、充電ユニットが電源電圧に連結されれば、充電ユニットの保存所よりは、電源電圧から充電される。図23は、類似した決定ツリーを示す。電源に連結された充電器にデバイスが連結されれば(段階2300)、段階2310でデバイスが満充電されたか否かが判断され、満充電でなければデバイスは、充電器が連結された電源から充電される(段階2315)。同様に、段階2320で、充電器が満充電されたか否かが判断され、満充電でなければ、充電器ユニットは、段階2325で電源から充電される。特定の実施例において、使われた割当て方式は、ユーザが決定するか、カスタマイズすることができる。
図25Aないし図25Eは、デバイスと充電ユニットでエネルギー保存と充電に関する例示的実施例を示す。図示された実施例の図25Aで、デバイスの電荷保存所2500と充電ユニットの電荷保存所2520がいずれも枯渇する。図25B及び図25Cは、充電ユニットが外部電源2510に連結された後、デバイスの電荷保存所2500とデバイスの電荷保存所2505とを充電することを示す。短い時間後、充電ユニットとデバイスはいっせいに充電されて、充電はそれぞれに総充電容量の同一パーセントが与えられるように配分される。図25cに図示されたように、デバイスの電荷保存所2500と充電ユニットの電荷保存所2505は、一定時間後に完全に充電される。本明細書に説明されたように、デバイスや充電ユニットに割り当てられた充電量は、任意の適切な充電割当て計画に基づいて変化する。例えば、充電ユニットの電力変換能力が制限され、充電ユニットの保存所がほぼフルになり(nearly full)、デバイスの電荷保存所がほぼ空いたり、またはデバイスのエネルギー要求が非常に高ければ、充電ユニットは、該内部保存所を充電する前に、デバイスの充電に優先順位を置くことができる。他の例として、あらかじめ決定された臨界に充電が到達するまで、充電ユニットを充電し続けることができる。
図25D及び図25Eは、充電ユニットが外部電源に連結されていない時、充電ユニットとデバイスとの間の電荷伝送を示す。図25Dに示されたように、保存所2500に電荷がほぼ残っていないデバイスは、保存所2505が満充電された充電ユニットに連結される。上述したように、本明細書は、充電器が外部電源に連結されていない時、デバイスと充電器との間に任意の適切な充電割当て方式を考慮する。この割当て方式は、充電ユニットが外部電源に連結された時、使用される割当て方式と同一であるか、互いに異なる。例えば、図25Eは、デバイス内の電荷保存所2500の充電を最大化する割当て方式を示す。充電ユニットが電荷を有している限り、デバイスが満充電されたり、または充電器の電荷保存所2505が完全に枯渇するまで、充電ユニットは、デバイスを充電し続ける。
図26は、例示的充電ユニット2600の例示的内部構造を示す。電源電圧変換器2605は、高電圧ライン電流2610から低電圧直流を生産する。この電圧は、バッテリー充電器/レギュレーター2630及びコネクタ2615にいずれも供給され、コネクタ2615には、充電のためにデバイスが連結2620を通じて接続されてもよい。バッテリー充電器2630は、電源電圧変換器2605からの使用可能電力を用いてエネルギー保存所(バッテリー2635)を充電する。バッテリー充電器は、デバイスと同じ電力シェア(share of the power)を取り、デバイスの要求が高い時(デバイス優先順位が高い)より小さいシェアを取り、内部電力備蓄(internal power reserves)が低い時(充電器優先順位が高い)より大きいシェアを取ることができる。ユーザは、これら優先順位を選択することができる。
図26の例を継続する。電源電圧変換器2605が電力を供給しない時、充電器/レギュレーター2630は、バッテリー2635の電力から適切な充電電圧を生成する。レギュレーター2630は、常にオン(on)であるか、デバイスへの接続によって、または、ユーザがデバイスの充電を所望することを示すボタンが押されれば、オンにスイッチされる。活性化されれば、レギュレーター2630は、内部備蓄が枯渇するまでデバイスを充電する。この際、一部電荷は、バッテリー寿命を延ばすために、バッテリー2635に残り続けることができるが、この電荷は、ユーザが使用することができない。デバイスは、非常モード(emergency mode)を含み、このモードでは、バッテリー寿命を犠牲にして最小量の非常使用時間を得るために、このエネルギーの一部にアクセスすることができる。レギュレーター2630は、デバイスがアンプラグされるまで、またはデバイスが最小エネルギー量のみを引き出す(これは充電完了を示す)まで、エネルギーを提供し続けることができる。最後に、充電器/レギュレーター2630は、残余備蓄エネルギー量をユーザに示すオンデマンド式(on-demand)ディスプレイを含むことができる。ディスプレイは、一般的にエネルギーを使用するので、ボタンやその他の入力が限定された時間の間にディスプレイをトリガー(trigger)するために使用される。図26は、例示的充電ユニット2600の例示的内部構造を示しているが、本明細書は、ここに説明された任意の適切な充電ユニットの任意の適切な内部構造を考慮し、また、かような充電ユニットは、任意の適切な大きさと形状とを有する可能性があることを考慮する。
特定の実施例において、例えば、センサーのようなデバイスの機能性、またはコンポーネントは、例えば、電力を保存するか、所望しない機能性を縮小、または除去するために活性化及び非活性化されてもよい。例えば、ロック状態検出器は、デバイスが非活性化された時を検出し、ジェスチャーに対するセンサーデータを監視する間、またはその他の適切な入力がデバイスを再活性化できる間、必要に応じて、センサーを使用不能にして電力を保存する。デバイスは、スリープモード(sleep mode)、または完全活性モード(fully active mode)のような1つ以上の電力モードを含むことができる。一例として、特定の実施例において、デバイスは、腕に着用され、デバイスのタッチ面は通常の使用中に事物や人と接触することができる。偶然な活性化を防止するために、デバイスの本体やバンド内にある加速度計、またはその他の慣性センサーが、地球重力に対してデバイスの概略的位置を測定するのに使用される。デバイスの側面に向かう重力ベクトルが検出されれば(例えば、ユーザの側面にデバイスがあると判断されたり、またはディスプレイがユーザに向かっていないと判断される)、エネルギー使用を減少させるために、タッチスクリーンはロックされ、ディスプレイは使用不能になる。重力ベクトルがデバイスの下を指すと判断されれば(例えば、デバイスは、略水平であり、よってユーザがデバイスを見たり、または使用すると判断される)、システムは、ディスプレイに電力を供給し、追加的相互作用のために、タッチスクリーンを使用可能にしうる。特定の実施例において、デバイスを始動するか、ロック解除する重力ベクトルの方向に追加的に、またはその方向に代案的に、方向の変化率(a rate of change of the direction)、または重力ベクトルの大きさが、デバイスを始動するか、ロック解除するのに使用される。例えば、重力ベクトルの変化率があらかじめ決定された時間0であれば(すなわち、デバイスは、あらかじめ決定された時間の間、特定の姿勢で保持される)、デバイスは、始動されるか、ロック解除されてもよい。他の例として、デバイス内の1つ以上の慣性センサーは、ディスプレイ、またはその他の適切なコンポーネント、またはアプリケーションを活性化するための特定ジェスチャー、またはジェスチャーのシーケンス(sequence of gestures)を検出することができる。特定の実施例において、デバイスのエンコーダは、偶発的活性化に強健であり(robust)、活性状態を保持することができ、よってユーザは、デバイスを視野角側に持ってくる間に選択を変更することができる。他の実施例において、エンコーダは、コンテキスト、またはユーザ入力に基づいて非活性化されてもよい。
電力保存に追加して、または代案として、特定の実施例において、1つ以上のユーザにセキュリティー(security)を提供するために、1つ以上のセンサー、特定機能性、または特定アプリケーションをロックすることができる。適切なセンサーは、デバイスのセキュリティー様相(secure aspect)、または着用式デバイスとペアリングされたり、通信する他のデバイスのセキュリティー様相の活性化、またはロック解除を検出することができる。例えば、デバイスと共に実行されたり、またはデバイスのタッチ・センシティブ領域で実行された特定ジェスチャーは、該デバイスが有する1つ以上のセキュリティー様相をロック解除させることができる。他の例として、デバイスの回転型リングの特定回転や回転のシーケンスはそれ自体で、または他のユーザ入力との組合わせで、そのデバイスが有する1つ以上のセキュリティー様相をロック解除させることができる。例えば、ユーザは、数字や写真のようなシンボルの固有シーケンス(unique sequence)で回転型リングを回すことができる。回転型リングを回すのに使われた回転入力シーケンスの受信に応答して、ディスプレイは、以下に詳細に説明されるように、各回転入力に相応する特定シンボルをディスプレイすることができる。特定の実施例において、使われたシンボルは、ユーザ-特定(例えば、デバイスに保存されたり、デバイスがアクセスしうるユーザ写真、または、ユーザがあらかじめ選択したシンボル)でありうる。特定の実施例において、互いに異なるシンボルがあらかじめ決定されたロック解除回数後、またはあらかじめ決定された時間後、ユーザに提示されてもよい。前述した例示的入力は、デバイスの様相、特定アプリケーション、または特定データに対するアクセスを活性化/非活性化させるのに追加的に、または代案的に使用される。本明細書は、デバイスのセキュリティー様相をロック解除する特定ユーザ入力を説明しているが、本明細書は、デバイスの任意セキュリティー様相をロック解除する任意の適切な入力、または入力の組合わせを考慮する。本明細書は、デバイスのセキュリティー様相をロック解除したり、またはデバイスのコンポーネントを活性化/非活性化する入力、またはその他の適切なパラメータをユーザがカスタマイズしうることを考慮する。
特定の実施例において、着用式電子デバイスは、デバイスと共に、またはデバイス上で実行される1つ以上のジェスチャーを検出することができる。ジェスチャーは、任意の適切なタイプでもあり、任意の適切なセンサー(例えば、慣性センサー、タッチセンサー、カメラ、または深さセンサー)により検出されもし、任意の適切な機能性と関連する。例えば、1つ以上の深さセンサーは、ジェスチャーをキャプチャーするために、1つ以上のカメラと共に使用される。特定の実施例において、多数の深さセンサー、またはカメラは、ジェスチャー、またはジェスチャーと関連した背景(background)を検出する正確度を向上させるために使用される。望ましくは、ジェスチャー(または、ジェスチャーと関連した機能性の開示に使われたプロセッシング)の検出に用いられるセンサーは、以下に詳細に説明されるように、電力を保存したり、セキュリティーを提供するために活性化、または非活性化されてもよい。上述したように、図19は、例示的センサー検出システムを示し、ジェスチャー検出、処理及び優先順位付け(prioritization)の具体例を提供する。特定の実施例において、特定アプリケーションは、特定ジェスチャー、またはすべての可用ジェスチャーに加入(subscribe to)できるか;または、ユーザは、どのジェスチャーがどのアプリケーションによって検出されねばならないのかを選択することができる。特定の実施例において、ジェスチャーは、着用式デバイスを使いつつ、他のデバイスを操作(manipulation)することを含む。例えば、ジェスチャーは、着用式デバイスを照準したり、移動させたり、または異ならせて(otherwise)活用しつつ、他の(another)デバイスを揺することを含む。本明細書は、望ましくは、ここに説明された任意のジェスチャーが他のデバイスの操作を含みうることを考慮する。後述される実施例と図示は、ジェスチャーの特定様相、または属性(attribute)を含むが、本明細書は、ここに説明されたジェスチャーとセンサーの任意の適切な様相、または属性を組み合わせることを考慮する。
特定の実施例において、ジェスチャーは、ユーザの少なくとも1つの手、及びデバイスが着用される身体器官(例えば、ユーザの他の手首)を参与させる(involve)ジェスチャーを含む。例えば、特定の実施例において、ユーザは、デバイスが着用される手/腕を、デバイスの光学センサー(例えば、カメラ、または深さセンサー)を適切に照準するために使用でき、また、特定ジェスチャーを行うために、他の腕/手/指を移動させたり、位置させることができる。ここで説明され、図16〜図17に示されたように、特定の実施例において、視野角内にある場合、ユーザが実際の場面(scene)、デバイスにディスプレイされた場面、及びユーザの手/腕/指をいずれも見られるように、照準された場面がデバイスのディスプレイにディスプレイされてもよい。特定の実施例において、ディスプレイされた場面は、センサーによって検出され、ジェスチャーを行うために使われた手/指/腕を含むことができる。図27及び図28は、例示的ジェスチャーを示し、このジェスチャーでユーザがデバイス上(例えば、図面に示されたように、デバイスのバンド上にある)の外向き(例えば、ユーザの体から遠ざかる)センサーを照準し、ジェスチャーを行うためにその他の腕/手/指を移動、または位置させる。例えば、図27で、外向きセンサーは、センサーの視野角内のオブジェクトを検出し(2705)、外向きセンサー(これは、オブジェクトを検出するセンサーと同一であり得る)は、オブジェクトを示す1本以上の指を検出し(2710)、指す指が動かないと判断されれば(2715)、ジェスチャーが検出される(2720)。図19を参照すれば、外向きカメラがキャプチャーしたロージェスチャーデータ(raw gesture data)は調整され、ノイズが除去され、そのデータは、ヒューリスティックジェスチャー検出器に送信されてもよい。ジェスチャー優先順位デコーダは、ジェスチャーデータを処理し、十分な正確度でジェスチャーが識別された時を判断する。ジェスチャーが識別された時、そのジェスチャーは、末端アプリケーションとシステムコントローラにAPIを提供するセンサーハブドライバーに送信される。
このジェスチャーと関連した機能性の例として、カメラは、オブジェクトに焦点を合わせ、検出され、指されたオブジェクトは、その後にディスプレイに示され、そのオブジェクトに関する情報がディスプレイに示され、ディスプレイされたコンテンツは、他のデバイスのディスプレイに伝送されてもよい(例えば、そのオブジェクトが異なるデバイスである時)。図28は、図27のジェスチャーに類似した例示的ジェスチャーを示す。しかし、図示されたジェスチャーは指(例えば、指は、センサーから遠ざかるように移動)の“タッピング”モーションを検出する外向きセンサーを含む。例えば、図28のジェスチャーは、段階2805でカメラ(または、その他の適切なセンサー)の場面内のオブジェクトを検出し、段階2810で、その場面内の指を検出し、段階2815で、その指の横方向移動がないということを検出し、段階2820で、センサーからさらに遠ざかる側に移動する指先(finger tip)を検出し、及び段階2825で、ジェスチャーを検出することを含むことができる。図28に示されたジェスチャーは、任意の適切な機能性を提供することができる。例えば、“タッピングされた”オブジェクトは、ディスプレイスクリーンにディスプレイされたオブジェクトから選択されてもよい。
図29及び図30は、ユーザの指及び手の移動と共にオブジェクトが外向きセンサーとして検出される例示的ジェスチャーを示す。例えば、図29は、広げた2本の指を検出し(2915)、ピンチインされた2本の指(例えば、ピンチングモーション(pinching motion))を検出し(2920)、次いで、ピンチインされた指をセンサーに向かって移動させることを検出(2925)する外向きセンサーを示す。ピンチインされてセンサーに向かって移動する指のモーションは、同時に、または順次に発生し、順次に段階を行うこと(シーケンスの各段階の間に時間がある)と同時に、段階を行うことは、互いに異なるジェスチャーになる。図30で、示された2本の指は、初期には互いに近く(3010)、外向きセンサーは、広げられる指を検出し(3020)、また遠ざかる手を検出する(3015)。図30で、指と手は同時に移動したり、または任意の適切なシーケンスに移動することができる。また、図29及び図30の様相は、ジェスチャーを形成するために結合される。例えば、指を、共にピンチングし、センサーから遠ざかる側に移動させるのは、固有のジェスチャーになる。特定の実施例において、検出された指、または手は、他のデバイスを操作でき、かような操作は、ジェスチャーの一部を形成することができる。ここに説明されるすべてのジェスチャーに対して、本明細書は、図29及び図30に示されたジェスチャーと関連した任意の適切な機能性を考慮する。
図31及び図32は、図29及び図30に類似した例示的ジェスチャーを示す。ここでは、すべての指がジェスチャーを行うために使用される点が、図29及び図30と異なる。図31で、すべての指は、最初には共に握った状態(例えば、こぶし)として検出され(3105)、センサーから遠ざかる側に移動するこぶしが検出され(3110)、センサーは、こぶしを広げることを検出する(3115)。また、図示された段階のシーケンスは、任意の適切な順序で発生しうる。図32は、図31の逆(reverse)を示す。図31及び図32は、任意の適切な機能性と関連する。図31は、デバイスにディスプレイされたコンテンツの全部、または一部を、図31に示されたテレビのような他のデバイスに送信する例を示す。同様に、図32のジェスチャーは、他のデバイスにディスプレイされたコンテンツの全部、または一部を着用式デバイスのディスプレイにドラッグすることができる。例えば、図31及び図32のジェスチャーは、ユーザが、例えば、スマートフォン、タブレット、個人コンピューティングデバイス、スマート家電製品(例えば、冷蔵庫、温度計、または洗濯機)、またはその他の適切なデバイスのような他のデバイスの付近で、着用式デバイスでジェスチャーする時、具現されてもよい。説明された機能性は、図31及び図32に示されたジェスチャーと関連する機能性の例に過ぎず、本明細書は、他の適切なジェスチャーが説明された機能性が行えるということを考慮する。
図33ないし図37は、センサーの前でスワイピングされる(swiping)腕の一部、または手を検出する外向きセンサー(outward-facing sensor)を示す。特定の実施例において、手の平でスワイプすることは、手の甲でスワイプすることと異なるジェスチャーになる。図33及び図34は、センサーの視野角を横切って右側から左側に(3310-3315)、及び左側から右側に(3410-3415)スワイピングされる手を示し、また、図35ないし図37は、センサーの視野角を横切って下から上へ(3510〜3515、及び3735〜3740)、及び上から下に(3610〜3615及び3710〜3715)スワイピングされる手を示す。図示されたように、手は、初めには視野角内から始まって、視野角を通過して、視野角を出て行き(図36に示された通りである)、視野角の外から始まって、視野角を通過して、視野角を出て行き(図37に示された通りである)、視野角の外から始まって、視野角の一部を通過して、視野角に留まることができ(図33ないし図35に示された通りである)、または視野角内から始まって、視野角の一部を通過して、視野角に留まることができる。本明細書は、例えば、デバイスに対して45°下でその右側に入り、デバイスの上部に対して45°角度でその左に出て行くような異なる角度でスワイピングされる手を考慮する。また、本明細書は、曲線スワイプ、または三角スワイプのような直線ではないモーションの手スワイプを検出することも考慮する。本明細書は、図33ないし図37に示されたジェスチャーの一部、または全部と関連した任意の適切な機能性(例えば、デバイスにディスプレイされたユーザインタフェース間の転移(transition)、またはデバイスにディスプレイされて活性であるアプリケーション間の転移、アプリケーションの開閉、またはディスプレイされたコンテンツのスクローリング)も考慮する。他の所で繰り返されるように、本明細書は、図33ないし図37と関連して説明された機能性と関連した任意の適切なジェスチャーを考慮する。
図38及び図39は、外向きセンサーが視野角内のユーザの手を検出し(3805)、また、一方向を示す1本以上の指(特定の実施例において、ユーザの手、または腕の一部と共に)を検出する(3815)という例示的ジェスチャーを示す。検出されたジェスチャーは、検出された指または検出された指が指す方向により異なりうる。例えば、図38に示されたように、指は、上方を指す親指であり(3820)、図39で、指は、下方を指す親指でもある(3920)。ファイルをデバイス、または関連デバイスに局所的に保存したり、削除すること、または設定、または他のコンテンツに対してなされた変更を承認したり、拒否するような任意の適切な機能性が、図38及び図39に示されたジェスチャーと関連する。
図40は、外向きセンサーの視野角内で多数の指、または手の一部で作った形状を伴う例示的ジェスチャーを示す。図40に示されたように、形状は、リングであり(4010)、ジェスチャーは、特定方向に指す形状に関連していない指を含むことができる(4015)。図40に示されたように、ジェスチャーは、あらかじめ決定された時間形状(及び可能な残りの指)を保持することを含むことができる(4020)。
図41及び図42は、外向きセンサーの全部、または一部をユーザの指や手でカバーすることを含むジェスチャーを示す。図41に示されたように、デバイスの上から親指を下に向けたタイプのジェスチャー(a thumbs-down type gesture)でセンサーをカバーすること(4105)は、デバイスの底から、またはデバイスの側面からセンサーをカバーすること(4210、図42に示された通りである)とは異なるジェスチャーになる。カバーリング方向は、例えば、手がデバイスをカバーする時、その手の形状によって検出されたり、手がデバイスをカバーする時、その手のオリエンテーションによって検出されたり、外向きセンサーがカバーされている方向を指す他のセンサー(例えば、外向き-センサー及びディスプレイがカバーされていることを検出する)からのデータ、またはその他の適切な技術によって検出されてもよい。
図43及び図44は、例示的ジェスチャーを示し、ここで、1つ以上のユーザの指、または手/腕の一部が外向きセンサーの視野角内で検出され(4305/4405)、その後、この指、または手/腕の一部は、視野角(または“フレーム”)内で移動(4310/4320/4410/4420)して特定ジェスチャーを行う。特定の実施例において、ジェスチャーは、任意の適切な移動になるか、特定パターンの移動になる。特定の実施例において、ジェスチャーは、検出された手/腕の一部、または指と関連する。例えば、1本の指示指がジェスチャーと関連するか(4305、図43に示された通りである)、または多数の指/1つの手の平がジェスチャーと関連する(4405、図44に示された通りである)。特定の実施例において、手の平の方向(例えば、前面、背面、傾斜する)は検出されて、ジェスチャーと関連する。
図45は、ユーザの手/腕、または多数の指で作った形状を検出し(4505)、視野角内でその形状の移動を検出する(4510/4520)ことを含む例示的ジェスチャーを示す。図45は、外向きセンサーの視野角を通じて移動する図40の形状を示す。
図46は、1本以上の指(ユーザ手/腕の一部、または全部)及びそれらの初期オリエンテーションを検出し、次いで、オリエンテーションの変化、またはオリエンテーションの時間変化率を検出することを含む例示的ジェスチャーを示す。例えば、図46は、視野角内で2本の指を検出し(段階4605)、視野角内でその指及び手の端を検出し(段階4610)、“C"形状をなす指を検出し(段階4615)、“C"形状の初期オリエンテーションをデコーディングし(段階4620)、“C"形状のオリエンテーション変化をデコーディングし(段階4625)、“C"形状の相対回転値を判断し(段階4630)、及びジェスチャーを検出する(段階4635)ことを示す。本明細書は、ユーザの指/手/腕で作った任意の適切な形状を考慮する。
図47は、外向きセンサーの視野角内の特定位置にある多数の指を検出することを含む例示的ジェスチャーを示す。例えば、図47は、例えば、1本の差し延ばした親指(one outstretched thumb)、1本の差し延ばした親指と1本の指、または1本の差し延ばした親指と2本の指のように視野角内で指先を検出(段階4705)する。段階4710で、特定の指先オリエンテーション配置(specific fingertip orientation configuration)が検出され、段階4715で、その配置が指の少なくとも数値カウント(at least a numeric count of the fingers)にマッピングされ、段階4725でジェスチャーが検出される。ディスプレイされたイメージそれぞれは異なるジェスチャーでありうる。本明細書は、ジェスチャーを構成する任意の適切な指位置を考慮する。ここで説明されるすべてのその他の例示的ジェスチャーと関連して、本明細書は、そのジェスチャーと関連した任意の適切な機能性を考慮する。例えば、図47のジェスチャーそれぞれは、電話、電子メール、または文字転送する連絡先と関連し、検出されたジェスチャーは、該ジェスチャーに割り当てられた連絡先に、電話、電子メールまたは文字転送することを活性化しうる。特定の実施例において、手/腕/指の位置は、ジェスチャーと関連した連絡先に如何なる連絡方法が使われねばならないかを示すことができる。
図48及び図49は、デバイス上の二重センサーを含む例示的ジェスチャーを示す。例えば、図48は、デバイスの底バンド部にあるセンサーを示す。このセンサーは、デバイスに対するユーザの他の手の位置を検出し、センサーからその手の分離(separation)を検出する。特定の実施例において、ジェスチャーは、例えば、デバイス内の1つ以上の慣性センサーによって供給される付加情報によって、または場面の変化を通じてデバイスの移動を検出する内向き(inward-facing;例えば、ユーザの体に向かう)カメラによって供給される付加情報によって両手の移動を判断することを含むことができる。例えば、図48で、手は視野角内で検出される(段階4805)。センサーは、手がピンチされた形状であることを検出し(段階4810)、同一、または異なるセンサーは、デバイスが水平オリエンテーションにあることを検出する(段階4815)。センサーは、デバイスに対して移動する手を検出し(段階4820)、また、相手の位置を推定する(段階4825)。ジェスチャーは、段階4830で検出される。同様に、図49は、視野角内にあり、その後でデバイスセンサーから遠ざかる側に移動するユーザの手を検出することも含む例示的ジェスチャーを示す。しかし、図49において、デバイスセンサーは、デバイスの表面に位置される(例えば、前向きセンサー(front-facing sensor))。例えば、前向きカメラの視野角内で手が検出される(段階4905)。この手は、ピンチされた形状として検出され(段階4910)、デバイスは、水平オリエンテーションとして検出される(段階4915)。手は、デバイスに近づく側に、または遠ざかる側に移動し(段階4920)、相対位置推定が実行され(段階4925)、この時点でジェスチャーが検出される(段階4930)。
図50ないし図58は、少なくとも1つの前向きセンサー(例えば、デバイスの表面にあるセンサー)が検出した例示的ジェスチャーを示す。図50ないし図58の任意のジェスチャーは、他の適切な位置にあるセンサー(例えば、上述したように外向き)により検出され、他の位置にあるセンサーによって検出された任意のジェスチャーは、望ましくは、前向きセンサーによって検出されてもよい。図50は、デバイス上をホバリングする(hovering)1本以上の指先を含む例示的ジェスチャーを示し、前向きセンサーは、指先を検出し(段階5005)、指先の位置、または指先のモーション(または、モーションなし)を検出し(段階5010、5015)、ジェスチャーを検出する(段階5020)。図51は、段階5105と5110とが段階5005と5010とでそれぞれ同じ例示的ジェスチャーを示す。しかし、検出された指先は、前向きセンサーから遠ざかる側に移動し(段階5115)、特定の実施例において、ジェスチャーは、例えば、段階5120で互いに離れるように、互いに位置を変更する1本以上の指先を検出することを含むことができる。図52は、センサーによって指先が検出され(段階5205)、指先がピンチインされ(段階5210)、指がデバイスに向かって移動し(段階5215)、及び移動モーションがしばらく持続し(段階5220)、ジェスチャーが検出(段階5225)されることを示す。図53に示されたように、特定の実施例において、ジェスチャーは、センサーに向かう指先のモーションに加えて、指先の相対位置変化を検出することを含むことができる。例えば、1本以上の指が前面で検出され(段階5305)、上方、または下方に移動する指先が検出され(段階5310)、ジェスチャーが検出される(段階5315)。特定の実施例において、図50ないし図52のジェスチャー持続期間によって、ジェスチャーの検出有無が判断可能であるか、または異なる持続期間は、異なるジェスチャーを含むことができる。
図54ないし図57は、デバイスの表面を横切る(すなわち、前向きセンサーを横切る)、1本以上の指のモーション、または手/腕一部のモーションを含む例示的ジェスチャーを示す。図示されたように、ジェスチャーは、使われた指の本数(例えば、2本の指vs.全体手の平)、デバイス表面を横切るモーションの方向(例えば、下から上へ、左側から右側に)、デバイス表面を横切るモーションの持続期間、検出された指、または手/腕のデバイス表面に対する近接度;デバイスの表面の部分(例えば、全部、または一部、及びその部分の相手の位置(例えば、底の半分))、または検出された部分が、初期に前向きセンサーの視野角内にあるか、外にあるか、末期に視野角内にあるか、または外にあるかによって異なる。例えば、図54のジェスチャーは、前面で検出された1本、または2本の指を検出し(段階5405)、左側に移動する指を検出し(段階5410)、ジェスチャーを検出(段階5415)することを含むことができる。他の例として、図55は、前面で検出された1本、または2本の指を検出し(段階5505)、右側に移動する指を検出し(段階5510)、ジェスチャーを検出(段階5515)することを含むことができる。他の例として、図56は、指を検出できず(段階5605)、左側から視野角に入場(enter)する多数の指を検出し、カバーされた前面を検出し、フレームを出て行く指を検出し(段階5620)、及びジェスチャーを検出(段階5625)することを含むことができる。さらに他の例として、図57は、指を検出できず(段階5705)、右側から視野角に入場する多数の指を検出し(段階5710)、完全にカバーされた前面を検出し(段階5715)、フレームを出て行く指を検出し(段階5720)、及びジェスチャーを検出(段階5725)することを含むことができる。ここに説明されたすべてのジェスチャーと関連して、これら因子(及びジェスチャーと関連したその他の適切な因子)の任意の適切な組合わせは、ジェスチャー、またはそのジェスチャーに相応する機能性を決定するために使用される。例えば、グラフィカルユーザインターフェーススクリーンの間で転移、ディスプレイされたコンテンツを通じたスクローリング、または通信/ペアリングするためのデバイスや可用アプリケーションを通じたスクローリングのような任意の適切な機能性は、ジェスチャーと関連する。
図58は、デバイスの縁部で検出された1本以上の指を含む例示的ジェスチャーを示し、このジェスチャーは、デバイスのエッジ一部、または全部に沿って、これら指を移動させることを含むことができる。例えば、図58に例示されたように、ジェスチャーは、指を検出できず(段階5805)、前面の縁部で、1本の指を検出し(段階5810)、エッジに沿って移動する指を検出し(段階5815)、デバイスに対する指の角度モーション(angular motion)をデコーディングし(段階5820)、及びジェスチャーを検出する(段階5825)ことを含むことができる。このジェスチャーと関連した機能性の例として、指の移動は、デバイスにディスプレイされた一部、またはすべてのコンテンツを回転させることができる。
特定の実施例において、ジェスチャーは、着用式デバイス(例えば、腕に着用するデバイス)のモーションを含むことができる。モーションは、任意の適切なセンサー(例えば、慣性センサー、オリエンテーションセンサー、またはこれらセンサーの任意の適切な組合わせ)により検出されてもよい。図59ないし図66は、デバイスに対して重力ベクトル(例えば、デバイス前面の方向を指すか、または基台を通じて下方を差す)を検出し、その重力ベクトルに対するデバイスの後続モーションを検出することを含む例示的ジェスチャーを示す。例えば、図59は、前面を通じて下方を指す重力ベクトルを検出し(段階5905)、重力ベクトルが指すところと同軸に沿うデバイスの加速を検出し(段階5910)、デバイスの加速がしばらく保持されることを検出し(段階5915)、ジェスチャーを検出する(段階5920)ことを含むことができる。図60は、重力ベクトルが基台(前面ではない)を通じて下方を示すこと(段階6005)を除き、図59のジェスチャーと非常に類似している。図61は、デバイスのオリエンテーション/位置(例えば、デバイスがユーザの体の側にない)を決定するために、重力ベクトルを使用するジェスチャーを示す。検出されたオリエンテーションからデバイスのモーション(例えば、重力ベクトルに垂直である)が検出され、ジェスチャーになる。例えば、検出された重力オリエンテーションは、腕が体の側面に位置しないと示すことができ(段階6105)、デバイスの横加速が検出され(段階6110)、この加速がしばらく検出され(段階6115)、ジェスチャーが検出される(段階6120)。図59ないし図61が示すように、モーションの様相(例えば、加速の持続期間)を検出するのは、ジェスチャーをトリガー(trigger)することができ、様相の範囲(例えば、モーション持続期間の範囲)は、互いに異なるジェスチャーにそれぞれ相応することができる。図62及び図63は、デバイスの回転モーションを示す。図61に示されたように、デバイスの初期オリエンテーション、または位置の検出は、ジェスチャー検出の一部になることができる。例えば、図62のジェスチャーは、腕が体の側面に位置しないと重力ベクトルが示すことを検出し(段階6205)、一部の回転モーションを検出し(段階6210)、回転モーションの半径がエルボーモーションに対して十分に大きいのかを推定し(段階6215)、相対回転を検出し(段階6220)、ジェスチャーを検出すること(段階6225)を含むことができる。他の例として、図63のジェスチャーは、腕が体の側面に位置しないと重力ベクトルが示すことを検出し(段階6305)、一部の回転モーションを検出し(段階6310)、回転モーションの半径が手首モーションに対して十分に小さいのかを推定し(段階6315)、相対回転を検出し(段階6320)、ジェスチャーを検出すること(段階6325)を含むことができる。図62及び図63に示されたように、ジェスチャーは、例えば、主に肩での回転(図62)、主にエルボーでの回転、またはその他の適切な回転のようなデバイスの回転タイプを推定することを含むことができる。回転半径に追加して、または代案として、ジェスチャーは、回転量、回転持続期間、回転の放射加速(radial acceleration)、その他の適切な回転様相、またはこれらの適切な組合わせを検出することを含むことができる。
図61ないし図63のように、図64は、デバイスの初期オリエンテーション、または位置を検出することを含むジェスチャーを示す。例えば、図64のジェスチャーは、腕が体の側面に位置しないということを、重力ベクトルが示すことを検出し(段階6405)、腕の軸に沿う腕の横加速を検出し(段階6410)、加速がしばらく保持されることを検出し(段階6415)、ジェスチャーを検出すること(段階6420)を含むことができる。図65は、デバイスを着用する身体器官の軸に沿うデバイスのモーション(例えば、前記軸に沿うデバイスの加速)を含みうるジェスチャーを示す。ジェスチャーは、モーションの経路に沿うインパクト(impact、例えば、手が停止したり、オブジェクトと接触することによって引き起こされる)、後続するモーションの反転(reversal of motion)を含むことができる。前後モーション(back-and-forth motion)は、該モーションが停止したり、手がある位置(例えば、ユーザの側面)に戻る前まで繰り返されてもよい。特定の実施例において、他のジェスチャーは、前後モーションの回数や頻度に基づくことができる。例えば、図65のジェスチャーは、腕が体の側面に位置しないと重力ベクトルが示すことを検出し(段階6505)、手がモーション中であることを検出し(段階6510)、モーションの経路に沿う衝撃(インパクト)を検出し(段階6515)、同一線形経路に沿って、手がモーションを反転したことを検出し(段階6520)、段階6515及び6520を適切に繰り返して、モーションがしばらく停止していることを検出し(段階6525)、及びジェスチャーを検出すること(段階6630)を含むことができる。
図66ないし図68は、所定のモーションテンプレート(template)とマッチするモーションの検出に基づく例示的ジェスチャーを示し、このモーションテンプレートは、ユーザが作ったり、カスタマイズすることができる。特定の実施例において、カスタマイズ可能なジェスチャーは、デバイスの初期位置、またはオリエンテーション、特定方向でのモーション、またはモーションの様相、モーションの開始と停止、モーションの持続期間、またはその他の適切なパラメータを含むことができる。このパラメータの一部、または全部は、特定の実施例において、ユーザがカスタマイズすることができる。特定の実施例において、検出されたモーションを最も近接した使用可能モーションテンプレート(the closet available motion template)にマッチングして検出ジェスチャーを決定してもよい。例えば、図66ないし図68に示されたように、ジェスチャーは腕、または指の水平位置、またはモーションに相応する。例えば、図66に示されたように、ジェスチャーは、デバイスの基台の底を通じて、下向き(oriented)重力ベクトルを検出し(段階6605)、前方及び内側へのモーションを検出し(段階6610)、モーションテンプレートをマッチングし(段階6615、例えば、図19のヒューリスティック、数値、またはパターン基盤のジェスチャー認識モジュールを使用する)、及びジェスチャーを検出すること(段階6620)を含むことができる。図67は、デバイスの基台の底を通じて側面に指向された重力ベクトルを検出し(段階6705)、前方及び内側へのモーションを検出し(段階6710)、モーションテンプレートをマッチングし(段階6715、例えば、図19のヒューリスティック、数値、またはパターン基盤のジェスチャー認識モジュールを使用する)、ジェスチャーを検出すること(段階6720)を含むことができる。図68は、腕が体の側面に位置しないと、重力ベクトルが示すことを検出し(段階6805)、デバイスのモーションを検出し(段階6810)、モーション停止を検出し(段階6815)、モーションテンプレートをマッチし(段階6820)、最適のモーションテンプレートマッチを選択し(段階6825)、ジェスチャーを検出すること(段階6830)を含むことができる。図66ないし図68は、特定モーションテンプレートに相応するカスタマイズ可能なジェスチャーの具体例を図示しているが、本明細書は、任意の適切なセンサーが検出する任意の適切なジェスチャー(または、ジェスチャーの任意様相)を考慮して、任意の適切なセンサーは、デバイスのユーザがカスタマイズすることができる。
特定の実施例において、ジェスチャーは、一部の非モーション(non-motion)、または非オリエンテーション(non-orientation)入力を検出することを選択的に含むことができる。例えば、図69ないし図71は、音響の検出を含むジェスチャーを示すが、示されたジェスチャーは、そのような検出を要求はしない。図69は、デバイスの一部のモーション後(例えば、ユーザの顔側でデバイスを持っていく)、音響出力(例えば、着信、または発信電話呼出し音)、または応答を示す。例えば、オーディオ応答、または出力が開始され(段階6905)、上向きモーションが検出され(段階6910)、上向きモーションの停止が検出され(段階6915)、重力ベクトルが所定のウインドウ内にあり(段階6920)、ジェスチャーが検出される(段階6925)。特定の実施例において、ジェスチャーは、図示されたように、特定オリエンテーション、またはオリエンテーションウインドウ内の重力ベクトルを検出することを含むことができる。図69のジェスチャーは、ユーザの手/指の位置を検出することも含むことができる。図69に示されたジェスチャーと関連する機能性の例として、指が指された位置から耳、または顔付近に来ると、ユーザは電話をかけたり、電話呼び出しに答えることができる。図70の段階7005〜7025は、図69に対する説明と類似した属性を有するが、ユーザの手/指のオリエンテーションが異なる例示的ジェスチャーを示す。図71は、ユーザが作った(例えば、ユーザが指をスナッピンング(snapping)する)音響を含む例示的ジェスチャーを示し、この音響は、デバイスと関連したマイクロホンによって検出される。例えば、図71は、腕が体の側面に位置しないということを示す重力ベクトルを検出し(段階7105)、相対的に加速度が高いモーションを検出し(段階7110)、1つ以上の音響周波数の突然変化を検出し(段階7115)、及びジェスチャーを検出すること(段階7120)を含むことができる。図71に示されたように、スナップモーションは、スナップのみで生成されたモーションによって(例えば、ユーザの手/皮膚の振動によって、またはスナップに起因した回転の変化程度、または回転変化率による)検出されるか、またはモーションとスナップによって生成された聴覚入力の組合わせによって検出される。特定の実施例において、聴覚確認(auditory confirmation)は、ジェスチャーが検出されるために、モーションの所定時間内に検出されねばならない。
図72及び図73は、デバイスの周期的モーション(例えば、デバイスがある腕を横方向、または垂直方向に振る)を含む例示的ジェスチャーを示す。図72は、腕が体の側に位置しないと示す重力ベクトルを検出し(段階7205)、軸上で横側前方に移動するデバイスを検出し(段階7210)、同一軸上で後方に移動するデバイスを検出し(段階7215)、段階7210と7215を所望するところのままに繰り返して、ジェスチャーを検出すること(段階7220)を含むジェスチャーを示す。図73は、腕が体の側に位置しないと示す重力ベクトルを検出し(段階7305)、軸上で垂直前方(vertically forward)に移動するデバイスを検出し(段階7310)、同一軸上で後方に移動するデバイスを検出し(段階7315)、段階7310と7315とを所望の通りに繰り返して、ジェスチャーを検出すること(段階7320)を含むジェスチャーを示す。図74は、ユーザの体に対してデバイスの位置/オリエンテーションを調整することを含む例示的ジェスチャーを示す。例えば、図74のジェスチャーは、腕が体の側にあると示す重力ベクトルを検出し(段階7405)、腕が体の側に位置しないと示す重力ベクトルを検出し(段階7410)、及びジェスチャーを検出すること(段階7415)を含むことができる。例えば、デバイスを低電力状態からの始動のような任意の適切な機能性が、図72ないし図75のジェスチャーと関連する。図75は、デバイスの開始から停止までデバイスの高さ(height)、またはデバイス高の相対的変化を含む例示的ジェスチャーを示す。デバイスの高さに加えて、ジェスチャーは、該ジェスチャーの前、中間、後のデバイスオリエンテーションを含むことができる。例えば、ジェスチャーは、腕が体の側に位置しないと示す重力ベクトルを検出し(段階7505)、上向きモーションを検出し(段階7510)、上向きモーションの中断(halt)を検出し(段階7515)、重力ベクトルがデバイス基台の側面を通じて示していることを検出し(段階7520)、及びジェスチャーを検出すること(段階7525)を含むことができる。例えば、デバイスとペアリングされた装備(equipment)を活性化すること、部屋にある1つ以上の電球をつけること、またはデバイスの付近の装備を活性化するような任意の適切な機能性が、図75のジェスチャーと関連する。
特定の実施例において、ジェスチャーは、着用式デバイスの本体、またはバンドと直接相互作用することを含むことができる。例えば、図76は、ユーザ手首の周囲に着用されたバンドのタッチ・センシティブ領域とのコンタクトを含むジェスチャーを示す。ジェスチャーは、デバイスがロック状態でないということを検出し(段階7605)、バンドに対するタッチがないということを検出し(段階7610)、バンドに対するタッチを検出し(段階7615)、タッチの位置をデコーディングし(段階7620)、ジェスチャーを検出すること(段階7625)を含むことができる。図77は、多数の位置でタッチが単一ジェスチャー(例えば、デバイス、またはそのデバイスの様相をロック解除するためのジェスチャー)として判断される可能性があることを示す。ジェスチャーは、デバイスがロック状態でないということを検出し(段階7705)、バンドに対するタッチがないということを検出し(段階7710)、バンドに対するタッチを検出し(段階7715)、タッチの位置をデコーディングし(段階7720)、アクションをデコーディングし(段階7725)、ジェスチャーを検出すること(段階7730)を含むことができる。図78は、デバイスのタッチ・センシティブ領域とコンタクトし、そのデバイスとのコンタクトを保持しつつ、タッチ・センシティブ領域を横切って摺動を含みうるジェスチャーを示す。ジェスチャーは、デバイスがロック状態でないということを検出し(段階7805)、バンドに対するタッチがないということを検出し(段階7810)、バンドに対するタッチを検出し(段階7815)、タッチポイントの移動を検出し(段階7820)、相対モーションをデコーディングし(段階7825)、ジェスチャーを検出すること(段階7830)を含むことができる。特定の実施例において、ジェスチャーは、コンタクトの持続期間、コンタクトの物理的領域(例えば、1本、または2本の指でコンタクト)、コンタクトのシーケンス、コンタクトによって生成された圧力、またはその他の適切なコンタクト-関連属性を含むことができる。図76ないし図78は、バンドにあるタッチ・センシティブ領域とのコンタクトを示しているが、本明細書は、ジェスチャーがデバイスの任意の適切な位置(例えば、デバイスバンド、リング、ディスプレイ、またはそれらの適切な組合わせ)にあるタッチ・センシティブ領域とのコンタクトを含む可能性があることを考慮する。例えば、図79及び図80は、図77〜78のジェスチャーと同様に、デバイスリングにあるタッチ・センシティブ領域とのコンタクトを示す。例えば、ジェスチャーは、デバイスがロック状態でないということを検出し(段階7905)、リングに対するタッチがないということを検出し(段階7915)、リングに対するタッチを検出し(段階7920)、及びジェスチャーを検出すること(段階7925)を含むことができる。他の例として、ジェスチャーは、デバイスがロック状態でないということを検出し(段階8005)、リングに対するタッチがないということを検出し(段階8010)、リングに対するタッチを検出し(段階8015)、タッチポイントの移動を検出し(段階8020)、相対モーションをデコーディングし(段階8025)、ジェスチャーを検出すること(段階8030)を含むことができる。図81は、デバイス表面のタッチ・センシティブ領域とマルチ・タッチコンタクトと、コンタクトポイントの後続移動を検出することを含むジェスチャーを示す。ここで、後続移動は、例えば、タッチ・センシティブ領域とコンタクトする指のモーションによって、またはデバイスが着用された手首/手の移動によって引き起こされる。ジェスチャーは、デバイスがロック状態でないということを検出し(段階8105)、表面に対するタッチがないということを検出し(段階8110)、表面にタッチする少なくとも2本の指を検出し(段階8115)、タッチポイントの移動を検出し(段階8120)、相対モーションをデコーディングし(段階8125)、ジェスチャーを検出すること(段階8130)を含むことができる。手首/手の移動は、例えば、デバイスの慣性センサーによって検出され、この検出によって、タッチポイントを移動させる他の方式が2個の区別されるジェスチャーになる。図82は、デバイスとの初期コンタクトを含むジェスチャーを示し、このコンタクトは、デバイス内部、または表面にある1つ以上の近接センサー、またはデバイスにあるか、その付近にある慣性センサーによって検出されてもよい。ジェスチャーは、例えば、ユーザがデバイスを着用したことを示す持続コンタクトを検出することを含むことができる。例えば、ジェスチャーは、後方、またはバンド近接センサーとコンタクトがないということを検出し(段階8205)、近接センサーによるコンタクトを検出し(段階8210)、コンタクトが持続することを検出し(段階8215)、ジェスチャーを検出すること(段階8220)を含むことができる。図82のジェスチャーは、スリーピング(sleeping)デバイスをロック解除したり、そのデバイスに電力を供給することができ、またはその他の適切な機能性を提供することができる。
特定の実施例において、ジェスチャーは、デバイス付近の皮膚とのコンタクトを含むことができる。図83は、デバイスが着用された付近の皮膚をタッピングすることを含むジェスチャーを示す。タッピングは、デバイスの振動センサーによって検出されてもよい。タッピングモーションは、例えば、タッピングジェスチャーが作るサウンドを検出する1つ以上の音響センサーによって確認(confirmed)することができる。例えば、ジェスチャーは、デバイスがロック解除されているということを検出し(段階8305)、相対的に大きい加速度のモーションを検出し(段階8310)、例えば、タップのサウンドを検出し(段階8315)、モーション、またはサウンドをパターンにマッチし(段階8320)、ジェスチャーを検出すること(段階8325)を含むことができる。図84は、デバイス付近の皮膚をスワイプすることを含むジェスチャーを示し、このスワイプは、前記図83に説明されたセンサーによって検出及び確認されてもよい。例えば、ジェスチャーは、デバイスがロック解除されているということを検出し(段階8405)、相対的に大きい加速度のモーションを検出し(段階8410)、例えば、タップのサウンドを検出し(段階8415)、皮膚上で横移動の振動、またはサウンドを検出し(段階8420)、そのモーション、またはサウンドをパターンとマッチさせ(段階8425)、及びジェスチャーを検出すること(段階8430)を含むことができる。
特定の実施例において、ジェスチャーは、デバイスを着用していない手で行った隠喩的ジェスチャー(metaphoric gesture)を検出することを含むことができる。例えば、かようなジェスチャーは、デバイスのディスプレイ上に、または付近にある任意の前向きセンサーによって検出され、前向きセンサーの視野角内にデバイスを着用していない手が位置するように、このデバイスは指向される。図85は、前向きセンサーが多数の指のモーション(例えば、指のタッピング)を検出することを含む例示的ジェスチャーを示す。例えば、ジェスチャーは、デバイスが所定オリエンテーションにあるということを検出し(段階8505)、指先を検出し(段階8510)、指先のモーションを検出したり(段階8515)、またはタップサウンドを検出し(段階8525)、1つ以上のジェスチャーを検出すること(段階8520及び8530)を含む。図86は、単一指のモーションを含む例示的ジェスチャーを示す。例えば、ジェスチャーは、デバイスが所定オリエンテーションにあるということを検出し(段階8605)、指先を検出し(段階8610)、指先のモーションを検出したり(段階8615)、またはタップサウンドを検出し(段階8625)、及び1つ以上のジェスチャーを検出すること(段階8620)を含むことができる。図87は、オブジェクトを取った手の移動を検出し、オブジェクトのモーションを検出し、オブジェクトを追跡して(locking on to the object)、及びオブジェクトの後続モーションを検出することを含むジェスチャーを示す。具体例として、ジェスチャーは、デバイスが所定オリエンテーションにあるということを検出し(段階8705)、手を検出し(段階8710)、手のモーションを検出し(段階8715)、手と共に移動する追加オブジェクトを検出し(段階8720)、オブジェクトを追跡し(段階8725)、オブジェクトのモーションを検出し(段階8730)、ジェスチャーを検出すること(段階8735)を含むことができる。例えば、オブジェクトは、ペン、またはその他のスタイラス型道具(stylus-like implement)であって、デバイス上の前向きセンサーは、道具の筆記モーションを検出し、例えば、テキストをデバイス上に、または着用式デバイスと通信する他のデバイス上に生成/保存することができる。図87の例で、ユーザは、ディスプレイ、または他の筆記面(writing surface)に筆記コンテンツを実際に生成せずとも、絵、ノート、または他の筆記コンテンツを生成することができる。ここでさらに詳細に説明されるように、任意の適切なジェスチャー、またはジェスチャーの組合わせは、拡張現実(augmented-reality;“AR”)機能性をインパクト、または開始するのに使用され、また、AR機能性を使用するタスク(task)を行うのに使用される。例えば、図85ないし図87のジェスチャーは、仮想キーボード、仮想マウス、または仮想タッチスクリーンとのユーザ相互作用をキャプチャーするのに使用され、これら相互作用は、着用式デバイス、またはその他のペアリングされたデバイスに対する入力を生成することができる。本明細書は、隠喩的ジェスチャー及びオブジェクト検出(及び関連機能性)の具体例を説明しているが、本明細書は、任意の適切な隠喩的ジェスチャー、任意適切なオブジェクトの検出、及び任意適切な機能性と関連した、かようなジェスチャーを考慮する。
特定の実施例において、ジェスチャーは、デバイスが取り付けられたり、着用される身体器官全体を含むことができる。例えば、図88ないし図92は、デバイスが着用される腕のモーションを含む例示的ジェスチャーを示す。ジェスチャーは、腕の初期位置を検出し(例えば、重力ベクトルの方向を検出する加速度計を通じる)、デバイスのモーション(腕を通じる)を検出し、重力ベクトルの相応する変化を検出し、腕が動きを停止したことを検出することを含むことができる。かようなジェスチャーは、移動の持続期間、移動量(例えば、大きい半径のモーションを検出し、腕全体が移動したことを確認する)、移動加速度、またはその他の適切な移動関連属性を検出することも含むことができる。図88ないし図92で図示したように、ジェスチャーは、頭の上に、前方に、サイドに、後方に、または初期-高い開始位置から下方に腕の移動を検出することを含むことができる。例えば、ジェスチャーは、手が体の側面にあると示す重力ベクトルを検出し(段階8805)、手の上向き移動を検出し(段階8810)、手が頭の上にあると重力ベクトルが示すことを検出し(段階8815)、移動停止した手を検出し(段階8820)、ジェスチャーを検出すること(段階8825)を含むことができる。他の例として、ジェスチャーは、手が体の側面にあると示す重力ベクトルを検出し(段階8905)、手の上方及び前方移動を検出し(段階8910)、手が水平であると重力ベクトルが指すことを検出し(段階8915)、手の移動停止を検出し(段階8920)、ジェスチャーを検出すること(段階8925)を含むことができる。さらに他の例として、ジェスチャーは、手が水平であると示す重力ベクトルを検出し(段階9005)、下方及び後方に移動する手を検出し(段階9010)、手が側面にあると重力ベクトルが示すことを検出し(段階9015)、移動停止した手を検出し(段階9020)、ジェスチャーを検出すること(段階9025)を含むことができる。さらに他の例として、ジェスチャーは、手が体の側面にあると示す重力ベクトルを検出し(段階9105)、上方及び後方に移動する手を検出し(段階9110)、手が水平であると重力ベクトルが示すことを検出し(段階9115)、移動停止した手を検出し(段階9120)、ジェスチャーを検出すること(段階9125)を含むことができる。さらに他の例として、ジェスチャーは、手が体の側面にあると示す重力ベクトルを検出し(段階9205)、上方及び外方(outward)に移動する手を検出し(段階9210)、手が水平であると重力ベクトルが示すことを検出し(段階9215)、移動停止した手を検出し(段階9220)、ジェスチャーを検出すること(段階9225)を含むことができる。特定の実施例において、ジェスチャーは、デバイスが着用された身体器官のみならず、体全体のモーションを含むことができる。
特定の実施例において、ユーザは、例えば、外郭リング、タッチ・センシティブインターフェース(例えば、タッチ・センシティブ層)、ユーザのジェスチャー(後述される)、または音声インターフェース(例えば、テキスト入力、通信、または検索を含むアプリケーション用の音声入力及びスピーチ認識(voice input and speech recognition)を含む)を含む多様な入力メカニズム、またはタイプを通じてデバイスと相互作用する。追加的に、特定の実施例において、ユーザは、任意の入力メカニズム、またはタイプを通じて、デバイスの円形ディスプレイに提示されたグラフィカルユーザインターフェースと相互作用することができる。
着用式電子デバイスのユーザは、外郭リングを用いてそのデバイス(例えば、円形ディスプレイ上に提示されたグラフィカルユーザインターフェースを含む)と相互作用することができる。特定の実施例において、外郭リングは、タッチ・センシティブであり、よって外郭リングの1つ以上の部分をユーザがタッチすれば、そのタッチは、デバイスに対する入力として検出されて解釈され、1つ以上のアクションをデバイスが取るように(例えば、デバイスのグラフィカルユーザインターフェース内で)することができる。例えば、タッチ・センシティブ外郭リングは、容量性リング、または誘導性リングであり、デバイスのユーザは、該デバイスへの入力を提供するために、タッチ・センシティブリングで任意の適切なジェスチャーを行うことができる。入力は、例えば、1本の指でリングをスワイプすること、2本以上の指でリングをスワイプすること、1本以上の指で回転型ジェスチャー(rotational gesture)を行うこと、またはリングを握ることを含むことができる。特定の実施例において、外郭リングは、リングの物理的回転がデバイスに対する入力として機能可能なように回転自在になり得る。付加的に、特定の実施例において、外郭リングは、クリックされたり(例えば、押圧(presseddown))、押さえられる。外郭リングがタッチ・センシティブ、回転自在型、クリック可能型(または押圧可能型)、または押さえ可能型(squeezable)のうち、1つ以上になるように、外郭リングの任意実施例は、適切に組合わせることができる。外郭リングの互いに異なる様式から入力(例えば、タッチ、回転、クリッキングまたは押圧、または押さえ)は、例えば、ユーザが提供した入力様式の組合わせによって異なって解釈されてもよい。例えば、外郭リングの回転は、リングのクリッキングまたは押圧と組合わせた回転とは異なる入力を示すことができる。また、ユーザが外郭リングを通じて入力を提供すれば、例えば、ここに説明された触覚フィードバック、オーディオフィードバック、または視覚フィードバックを含むフィードバックがそのユーザに提供されてもよい。
図93Aは、ユーザが外郭リングをクリッキング(例えば、押圧)する例を示し、矢印9310で示す。図93Bは、ユーザが外郭リングを押さえる例を示し、矢印9320で示す。図94Aは、デバイスグラフィカルユーザインターフェースのコンテンツ9410が回転(例えば、右回転)により変化するように、ユーザが外郭リングを回転させる例を示す。図94Bは、デバイスグラフィカルユーザインターフェースのコンテンツ9420が回転(例えば、右回転)により変化するように、リングそれ自体の回転なしに、ユーザがタッチ・センシティブリングで回転ジェスチャーを行う例を示す。図94Cは、デバイスグラフィカルユーザインターフェースのコンテンツ9430が回転(例えば、右回転)、及び押圧(またはクリッキング)により変化するように、ユーザが外郭リングをクリッキングまたは押圧と同時に、その外郭リングを回転させる例を示す。
特定の実施例において、デバイスのタッチ・センシティブインターフェース(例えば、タッチ・センシティブ層)は、ユーザのタッチ入力を受け、デバイスに、ユーザタッチのx-y座標を判断し、多数のタッチ・コンタクトポイント(例えば、タッチ・センシティブ層の互いに異なる領域)を識別し、タッチ相互作用の互いに異なる時間の長さの間を区別(例えば、スワイピング、単一タッピング、またはダブルタッピングを含むジェスチャーを区別する)させうる。タッチジェスチャー(ここで説明される)は、多方向(multi-directional)スワイピング、またはドラッグ(dragging)、ピンチング、ダブル・タッピング、デバイスで押圧または押出(これは、上方に、または下方にデバイスの物理的移動を引き起こせる)、長い押圧(long pressing)、マルチ・タッチ(例えば、タッチ・センシティブインターフェース上の任意の所をタッチしたり、そこでジェスチャーを行うために、多数の指、または道具を使用する)、または回転タッチジェスチャーを含むことができる。図95Aは、デバイスにユーザ入力を提供するために、タッチ・センシティブインターフェース(例えば、タッチ・センシティブ層)をユーザがタッピング9510する例を示す。デバイスは、タッチ・センシティブインターフェース(例えば、タッチ・センシティブ層)から入力を通じて、ユーザタッピングの精密なx-y座標を決定することができる。図95Bは、ユーザが時計周り方向の回転ジェスチャー9515、逆時計周り方向の回転ジェスチャー9520、垂直スワイプジェスチャー9525、及び水平スワイプジェスチャー9530をそれぞれ行う例を示す。図95Cは、ユーザがそれぞれ1つ、2つ、または3つのコンタクトポイント9535(例えば、1本、2本、または三本の指、または道具による)を同時に使ってディスプレイ(マルチ・タッチセンシング機能を備えたタッチ・センシティブ層を含む)をタッチする例を示す。図95Dは、ユーザがタッチ・センシティブインターフェースと多数のコンタクトポイントを有するジェスチャーを行う例を示す。本例で、ユーザは2本の指で、拡張(expanding)ジェスチャー9540、ピンチングジェスチャー9545、時計周り方向の回転ジェスチャー9550、または逆時計周り方向ジェスチャー9555を行う。
特定の実施例において、デバイスのグラフィカルユーザインターフェースは、相互作用及び転移モデル(an interaction and transition model)によって動作することができる。このモデルは、例えば、アプリケーション、機能(functions)、サブモード(sub-modes)、確認(confirmations)、コンテンツ、コントロール、活性アイコン、アクション、または他の特徴やエレメントを含むモードがデバイスのグラフィカルユーザインターフェース内でどのように組織(例えば、階層)されるのか決定することができる。
一実施例において、グラフィカルユーザインターフェース(GUI)は、デバイスの互いに異なるモード、またはアプリケーション(例えば、サブモード、機能、確認、コンテンツ、またはその他の特徴)にそれぞれ相応する複数の上位レベルスクリーンを含む。これらアプリケーションそれぞれは、GUIの相互作用及び転移モデルの階層内の同一レベルにあり得る。96aは、GUI内の階層の例示的レイアウトを図示し、このレイアウトで、多数の上位レベルスクリーン9602-9606、及び9610-9614それぞれは互いに異なるアプリケーションに相応し、上位レベルスクリーンのうち、1つ9608(ホームスクリーン)は、クロック(時計)に相応する。GUI内の状態転移(state transition)は、デバイスのユーザのような入力ソースからの入力によってトリガーされるイベントでありうる。デバイスユーザや他の入力ソース(例えば、外郭リング、タッチ・センシティブインターフェース、ジェスチャー、音声、または、センサーを含む任意の多様な入力メカニズム、またはタイプを通じる)からの入力は、GUI内で転移(例えば、1つの上位レベルスクリーンから他のスクリーンに)を引き起こすことができる。例えば、入力は、GUIをホームスクリーン9608(例えば、クロック)からアプリケーション(例えば、3、または4)に、またはアプリケーションから他のアプリケーションに転移させることができる。ユーザが外郭リングを右側に回転させれば、例えば、GUIは、ホームスクリーン9608からアプリケーション4 9610に転移することができ、ユーザが外郭リングを左側に回転させれば、GUIは、ホームスクリーン9608からアプリケーション3 9606に転移することができる。他の実施例において、コンテキスト(例えば、デバイス上のセンサー、または他の入力ソースによって決定される)は、GUIをホームスクリーンからアプリケーションに、またはアプリケーションから他のアプリケーションに転移させることができる。
一実施例において、モデルは、ホームスクリーンに対して右側と左側とを区分する操作性(operability)を含むことができる。一例として、1つ以上の上位レベルスクリーンは。、GUIの相互作用及び転移モデルの階層内モード、またはアプリケーション(または、他の特徴)と関連し、これらモード、またはアプリケーションは固定されたり(例えば、ユーザが常に使用可能である)、またはコンテキスト的(contextual)であるか、動的(例えば、コンテキストによって使用可能)である。コンテキストスクリーンは、例えば、ユーザが最も最近に使用したモード、アプリケーション、または機能、ユーザが最も最近に追加(例えば、ダウンロード)したモード、アプリケーション、または機能、臨時登録(ad-hoc registered)デバイス(例えば、使用されるところによって、デバイスの通信範囲に属するか、属さない)、ユーザが“選好”するモード、アプリケーション、または機能(例えば、ユーザが明らかに指定する)、ユーザのために推薦されたモード、アプリケーション、または機能(例えば、ユーザの転移活動や現在のコンテキストに基づく)を反映することができる。図96Bは、GUI内階層の例示的レイアウトを図示し、このレイアウトで、コンテキスト、または動的アプリケーション9616-9620、及び固定されたアプリケーション9624-9628は、個別的にグループ化され、左側(ホームクロックスクリーン9622について)は、コンテキストアプリケーションを含み、右側は固定されたアプリケーションを含む。一例として、動的アプリケーション01 9620は、最も最近に使われたアプリケーションでもあり、動的アプリケーション02 9618は、二番目に最近に使われたアプリケーションでもあり、以後同一に続く。
特定の実施例において、GUIの相互作用及び転移モデル内階層の上位レベルは、“フェース(face)"のみを含み、その階層の次のレベルがアプリケーション(または、その他の特徴)を含むことができる。一例として、その階層の上位レベルは、ホームスクリーン(例えば、クロック)及び1つ以上のフェースを含み、各フェースは、ウォールペーパー(例えば、ユーザがカスタマイズすることができる)、天気情報、カレンダー、または日常の生活情報のような互いに異なるタイプの背景、モード、または活動に相応する。各フェースは、ディスプレイされた他の情報に加えて、時間を示すことができる。さらに、現在のディスプレイされるフェースは、ユーザによって選択されたり(例えば、任意の適切な入力メカニズム、またはタイプを通じる)、またはコンテキスト(例えば、ユーザの活動)に基づいて自動的に変更されてもよい。ホームスクリーンの左側フェースは、コンテキスト的(contextual)であり、ホームスクリーンの右側フェースは、固定されてもよい。図97は、GUI内階層の例示的レイアウトを図示し、このレイアウトで、階層の上位レベルは、フェース9710-9770(クロックフェース9740を含む)を含み、その階層の次のレベルは、アプリケーション9715-9775を含む。
特定の実施例において、デバイスのユーザからの入力、または他の入力ソース(例えば、外郭リング、タッチ・センシティブインターフェース、ジェスチャー、音声、または、センサーを含む任意の多様な入力メカニズム、またはタイプを通じる)からの入力、またはデバイスの使用コンテキストは、GUI内で、そのGUIの相互作用及び転移モデルの階層内の1つのレベルにあるスクリーンを、その階層内の他のレベルのスクリーンに転移させることができる。例えば、ユーザによる選択イベント、または入力(例えば、ディスプレイのタッチまたはタップ、音声入力、凝視(eyegazing)、外郭リングのクリッキングまたは押圧、外郭リングの押さえ、任意の適切なジェスチャー、センサーが検出した内部筋肉モーション、またはその他の入力)は、GUI内で上位レベルスクリーンから、階層内で一レベル深さほど重畳(nested)されたスクリーンに転移を引き起こすことができる。例えば、現在のスクリーンがアプリケーションと関連した上位レベルスクリーンであれば、選択イベント(例えば、リングを押圧)は、該アプリケーションを選択し、GUIをして、さらに深く重畳されたスクリーンに転移させうる。この二番目のスクリーンは、例えば、選択されたアプリケーションの特徴と相互作用を許容し、特定の実施例において、選択されたアプリケーションの主機能に相応する。多くのスクリーンがこの二番目、重畳層にあり、これらスクリーンそれぞれは選択されたアプリケーションの互いに異なる機能、または特徴に相応することができる。同様に、ユーザによる“戻り(back)"選択入力、またはイベント(例えば、外郭リングを二回押圧、またはディスプレイの特定の部分でタッチジェスチャー)は、GUI内で1スクリーン(例えば、特定アプリケーションの特徴)から、階層内の1レベル高い他のスクリーン(例えば、上位レベルアプリケーションスクリーン)に転移を引き起こすことができる。
図98Aは、デバイスの特定アプリケーションの機能、またはモード9805、及び機能の使用、またはアプリケーション9810に対する相互作用、及び転移モデルの例示的動作を示す。一例として、アプリケーションがカメラであれば、そのカメラアプリケーションの機能、モード、または他のエレメントは、ピクチャーモード、ビデオモード(例えば、ライブビュー(live view)による)、及びフラッシュをオン/オフにすることを含むことができる。多様な機能、モード、または他のエレメントは、モデル階層の単一層内での転移を通じてアクセスされてもよい。これら層内の(intra-layer)転移は、デバイスのユーザのような入力ソースから特定タイプの転移イベント、または入力(例えば、外郭リングの時計周り方向、または逆時計周り方向の回転)を受信、または決定するか、またはそのデバイス使用の特定コンテキストを決定すれば、起こりうる。特定の実施例において、転移イベント入力は、例えば、ディスプレイのタッチまたはタップ、音声入力、凝視、外郭リングのクリッキングまたは押圧、外郭リングの押さえ、任意の適切なジェスチャー、センサーが検出した内部筋肉モーション、またはその他のセンサー入力を含むことができる。アプリケーションの機能、モード、または他のエレメントを選択及び使用するために、ユーザは、特定タイプの選択イベント、または入力(例えば、ディスプレイのタッチまたはタップ、外郭リングのクリッキングまたは押圧、特定ジェスチャー、または、センサー入力)を提供し、GUI内で階層のさらに深い層での層間(inter-layer)転移を引き起こすことができる。一例として、ビデオを撮るために、ユーザは、カメラアプリケーションのビデオモード特徴と関連したスクリーンをタップする。階層のさらに深い層にビデオ撮りがあれば、可能な場合(例えば、ビデオモードに連結されたオプションがある)、ユーザは、GUIをその層内の互いに異なるオプションの間で転移させうる。特定の実施例において、ユーザはさらに深い層のオプションのうち、1つを選択し、GUIをさらに深い層に転移させることができる。例えば、ビデオモードでビデオを記録する時、ユーザは、ディスプレイを再びタップして、GUIをさらに深い層(2層は、ビデオ記録を中止させるオプションを含む)に転移させることができる。追加的に、ユーザは、特定タイプの選択イベント、または入力(例えば、ここに説明された“戻り”入力)を提供し、階層の上位層に復帰することができる。一例として、ビデオモードでビデオを記録する時、ユーザは、ディスプレイの特定”戻り”部分をタッチし、ビデオ記録を取り消し、GUIをカメラアプリケーションのビデオモード特徴と関連したスクリーン(例えば、階層の特徴層内にある)に転移させることができる。GUIの相互作用及び転移モデル階層は、任意個数の層を有することができ、また、一層内に任意数のエレメント(例えば、機能、またはコンテンツ)を有することができる。図98Bは、デバイスのコンテンツ9815に対する相互作用及び転移モデルの動作例を示す。この例示的モデルで、コンテンツは、ユーザがコンテンツ9815(例えば、写真)を選択し、GUIが階層内のさらに深い層に転移すれば、コンテンツと関連したオプションのメニューのうち最初のオプション(例えば、写真を削除するか、共有するようなオプション)9820が表示されることを除き、アプリケーションと類似して行動することができる。図98Cは、デバイスのコントロール9825に対する相互作用及び転移モデルの動作例を示す。コントロールエレメントは、可能な値の範囲に亙って値を修正できるという点で、取っ手のように機能しうる。デバイスに対するユーザ入力(例えば、外郭リングを右側、または左側に回転させる)は、コントロールエレメント9825と関連した値、または状態9830を修正することができる。コントロールエレメントが修正した値は、本質的に(in nature)非常に連続的であり(例えば、カメラのズームレベル、またはテレビのボリュームレベル)、または本質的に非常に離散的でありうる(例えば、テレビのチャネル)。特定の実施例において、コントロールによって修正された値が本質的に離散的なケースにおいて、特定のユーザ入力(例えば、外郭リングを押圧)により値が選択されてもよい。図98Dは、デバイスのアプリケーション9835及びそのアプリケーションのメイン機能9840に対する相互作用及び転移モデルの動作例を示す。一例として、デバイスの各モード、または機能(例えば、カメラ、または拡張現実機能)は、デバイス上のアプリケーションでありうる。単一層内で転移(例えば、外郭リングの回転と同じ特定ユーザ入力を受信すれば、実行される)を通じて、ユーザは、デバイスのアプリケーション、モード、または機能を変更することができる。層間転移(例えば、ディスプレイ上でのタップのような特定ユーザ入力を受信すれば、実行される)を通じて、ユーザは、選択されたアプリケーション、モード、または機能と関連した階層のさらに深い層へ入ることができる(または、その層から出ることができる)。
図98Eは、デバイス上でのアクション(例えば、アプリケーション内で)9845に対する相互作用及び転移モデルの動作例を示す。一例として、カメラアプリケーション内で、キャプチャーされたイメージが選択され、その選択されたイメージに対して、例えば、イメージ削除、FACEBOOKでのイメージ共有、TWITTERでのイメージ共有、またはイメージを添付して電子メール送付のような1つ以上のアクションが使用可能である。本例で、“アクション”層内でGUI転移(例えば、外郭リングの回転のような特定のユーザ入力を受信すれば、実行される)を通じて、ユーザは、実施する他のアクション(different actions to take)が見られる。層間転移(例えば、ディスプレイ上でのタップのような特定ユーザ入力を受信すれば、実行される)を通じて、ユーザは選択されたアクションと関連した階層のさらに深い層に入ることができる(または、その層から出る)。この実施例において、アクション9845を選択して入ったさらに深い層は、二次的な情報9850、または確認(例えば、アプリケーションがイメージ情報を選択された共有デバイスに送っているという確認)を示す。確認9855(例えば、イメージが伝送されたという確認)がさらに深い層にも見られる。GUIは、上位層(例えば、アクション層)に自動転移することができる。しかし、確認情報を含む、階層のさらに深い層が存在し、GUIは、ユーザ入力によって、または自動的にさらに深い層に入ることができる。図98Fは、アイコン(例えば、上位レベルオン/オフオプションを含む活性アイコン9860)、及びアイコン状態のスイッチング9865に対する相互作用及び転移モデルの動作例を示す。一例として、デバイスと通信的にペアリングされた(communicatively paired)テレビは、例えば、テレビスクリーンのような活性アイコンによって表示されてもよい。本例で、デバイス/アプリケーション上位層内でGUI転移(例えば、外郭リングの回転のような特定ユーザ入力を受信すれば、実行される)を通じて、ユーザは、他のアプリケーション、デバイス、またはその他の特徴を見ることができる。テレビは、オフであっても、デバイスのGUI内のメニューに示されるが、テレビは、必ずオンになった後で使用される。テレビがオフである時(9860)、ユーザがテレビ(例えば、テレビアイコンがGUIによってディスプレイされる時、ディスプレイをタッピングする)を選択すれば、GUIは、相互作用及び転移モデル階層のさらに深い層の状態に転移でき、その状態でテレビは、オンになる(9865)。テレビがオンになれば、そのテレビと関連したアイコン(例えば、GUI内のモデルの上位層にディスプレイされる)9870は、図98Gに示した通り、テレビがオンになったこと(9875)を直接示すために、変更されてもよい。ユーザがテレビ(現在オン)を再び選択すれば、GUIは、階層のさらに深い層に転移でき、この層からテレビの機能、または性能(例えば、ボリューム、またはチャネル変更)が露出される。特定の実施例において、テレビを再びオフにするためのオプションは、階層内の前記さらに深い層の最初メニューアイテムになって、オフ機能に対する迅速な接近を可能にする(例えば、ユーザが偶発的にテレビをオンにした場合)。特定の実施例において、テレビがオフ状態である時、ユーザがテレビを選択すれば、テレビは、オンになり、テレビと関連したアイコンは、GUIが階層の他の層に、または他のユーザインタフェースに転移せず、テレビがオンになったことを直接示すために変化しうる。したがって、活性テレビアイコンは、ペアリングされたテレビの状態を階層の上位レベル内で(例えば、メインメニュー)直接示しうる。
図99は、イメージキャプチャーアプリケーション用GUIの相互作用及び転移モデルの例を示す。本例で、このアプリケーションの選択(スクリーン9900)後に到達する最初のスクリーン9902は、該アプリケーションの“ライブビュー”機能に相応することができる。イメージキャプチャーアプリケーションの他の固定された特徴(ビデオモード9904、ズーム9906、またはフラッシュ9908を含む)は、選択されたアプリケーションのホームメイン機能スクリーン9902の右側で使用可能である。選択されたアプリケーションの動的、またはコンテキスト的に使用可能な特徴(例えば、キャプチャーされたイメージ9910)はホームメイン機能スクリーンの左側で使用可能である。階層のこの機能層での選択イベントは、GUI内で、その階層内のさらに深くて重畳された他の層(another nested layer even deeper within the hierarchy)に転移を引き起こす。例えば、ユーザが“ズーム”機能を選択すれば、GUIはスクリーン9912に転移し、このスクリーンで、ユーザはカメラのズーム設定を任意の適切な入力(例えば、ズームを増加させるための外郭リングの右回転、またはズームを減少させるための外郭リングの左回転)で制御することができる。同様に、ユーザは、他の特徴の状態を制御し(例えば、フラッシュ特徴をオン、またはオフにし(9914)、またはピクチャーモードからビデオモードにスイッチング9916)、コンテンツをブラウズし(例えば、9918-9922)、階層のさらに深い層(ここで、アクション9924〜9930が取られる)に入り、または階層の他のさらに深い層(ここで、確認9932-9938は、アクションの選択時に提供される)に入ることができる。
特定の実施例において、相互作用レイアウトは、デバイスGUIの相互作用及び転移モデルを構造化することができる。相互作用レイアウトは、任意の適切な相互作用モデルに適用され、例えば、デバイスGUI内で任意の特定タイプのモーションやアニメーションに従属的である必要はない。たとえ相互作用レイアウトの具体的実施例が後述されるとしても、任意の適切な相互作用レイアウトが相互作用及び転移モデルを構造化するために使用される。
一例として、パニング線形相互作用レイアウト(a panning linear interaction layout)は、デバイスGUIの相互作用及び転移モデルを構造化することができる。パニング-線型GUIで、層内のエレメント、または特徴は、現在のディスプレイされたエレメント、または特徴の左側、または右側に配列されてもよい。外郭リングを時計周り方向、または逆時計周り方向に回転させるようなユーザ入力は、モデル階層の単一層内でナビゲートする。一例として、外郭リングを一回転増分(one rotational increment)時計周り方向に回転させるのは、エレメント、または特徴を右側(例えば、次のエレメント)にディスプレイし、外郭リングを一回転増分逆時計周り方向に回転させるのはエレメント、または特徴を左側(例えば、以前のエレメント)にディスプレイすることができる。特定の実施例において、時計周り方向、または逆時計周り方向での高速回転は、GUIをして加速ブラウジング(accelerated browsing)を行わせる。かような実施例において、単一回転は、ここに説明されるように、GUIを単一エレメント、または特徴ではなく、多数のエレメント、または特徴を通じて転移させることができる。他のユーザ入力は、モデル階層内層(例えば、さらに深い層、またはさらに上位層)の間でナビゲートすることができる。一例として、ユーザがディスプレイのタッチ・センシティブ層をタッチしたり、タップすれば、GUIは、モデル階層でさらに深く転移することができる(例えば、ユーザ選択を確認したり、またはその選択に関連したオプションを提供する)。タッチまたはタップ基盤の入力を代替したか、またはこれに付け加えた、ユーザによる任意の適切な入力は、GUIをモデル階層の層間で転移させうる。
他の例として、ユーザがデバイス内のタッチ・センシティブ層の特定領域(例えば、”戻り”ボタンと指定)を押したり、ユーザがディスプレイのタッチ・センシティブ層をダブルタップすれば、GUIは、モデル階層でさらに高く転移(例えば、以前の層に転移)することができる。例えば、ユーザがディスプレイ、またはスクリーンを長く押せば、GUIはホームスクリーン(例えば、クロック)に転移することができる。また、GUIは、追加ユーザ入力なしに、所定期間後(例えば、タイムアウト期間後)、ホームスクリーンに転移することができる。ここに説明されるように、ユーザが、例えば、外郭リングを時計周り方向、または逆時計周り方向に回転させ始めるにつれて、GUIは、同一層内で転移し、次のユーザインタフェースエレメント、または特徴(例えば、同一層内のブレッドクラム(breadcrumb)アイコン)は、現在ユーザインタフェースエレメント、または特徴がなくなりつつ、右側、または左側から表示され始める。
図100Aは、パニング線形相互作用レイアウトの例を示す。本例で、GUIエレメント10001、10002、10003及び10004は、パニング-線型GUIの相互作用及び転移モデル階層の同一層にある。GUIエレメント10002A、10002B、及び10002Cは、階層の第2深層にあり、エレメント10002のサブエレメントである。一例として、第1層は、このデバイスとペアリングされたデバイスを含み、エレメント10001は、自動車を示し、エレメント10002は、テレビを示し、エレメント10003は、モバイルフォンを示し、エレメント10004は、家庭用温度調節装置を示すことができる。エレメント10002Aは、テレビ用ボリューム制御エレメントであり、エレメント10002Bは、テレビ用チャネル制御エレメントであり、エレメント10002Cは、テレビ用写真制御エレメントである。他の例として、ユーザが外郭リングをクリック(例えば、そのリングを一回押す)すれば、GUIは階層でさらに深く転移し、次いで、さらに深層のサブエレメントは、リングを回転させることによって、パニング(panned)される。代案的に、ユーザは、さらに深層のサブエレメントを、リングを押すと同時に、そのリングを回転させることによって、パニングすることができる。デバイスは、ユーザ入力が層間をナビゲートするのに使用される方式を選択するためのスイッチを含むことができる。
他の例として、パニング放射(または、パニング円形)相互作用レイアウト(a panning radial(or panning circular)interaction layout)は、デバイスGUIの相互作用及び転移モデルを構造化することができる。パニング放射型GUIで、層内のエレメント、または特徴は、現在のディスプレイされたエレメント、または特徴の上側と下側に配列されてもよい。外郭リングを時計周り方向、または逆時計周り方向に回転させるようなユーザ入力は、モデル階層の層間をナビゲートする。一例として、外郭リングを一回転増分時計周り方向に回転させることは、モデル階層でさらに深くGUIを転移させることができ(例えば、特定アプリケーション層に入るか、またはそのアプリケーションの選択を確認する)、外郭リングを一回転増分逆時計周り方向に回転させるのは、モデル階層でさらに一層上位にGUIを転移させることができる(例えば、特定アプリケーション層から以前の層に出る)。特定の実施例において、時計周り方向、または逆時計周り方向への高速回転は、GUIに、加速ブラウジングを行わせうる。かような実施例において、単一回転増分は、GUIを階層の単一層ではなく、多数の層を通じて転移させることができる。他のユーザ入力は、モデル階層の単一層内でナビゲートすることができる。一例として、ユーザがディスプレイのタッチ・センシティブ層をタッチしたり、タップすれば、GUIは、次のエレメント、または特徴に転移することができる(例えば、現在のディスプレイされたエレメントの下にあるエレメントに転移)。他の例として、ユーザがデバイス内のタッチ・センシティブ層の特定領域(例えば、”戻り”ボタンと指定)を押したり、ユーザがディスプレイのタッチ・センシティブ層をダブルタップすれば、以前のエレメント、または特徴に転移(例えば、現在のディスプレイされたエレメント上にあるエレメントに転移)することができる。例えば、ユーザがディスプレイ、またはスクリーンを長く押せば、GUIは、ホームスクリーン(例えば、クロック)に転移することができる。また、GUIは、追加ユーザ入力なしに、所定期間後(例えば、タイムアウト期間後)、ホームスクリーンに転移することができる。ここに説明されるように、ユーザが、例えば、外郭リングを時計周り方向、または逆時計周り方向に回転させ始めるにつれて、GUIは、他の層に転移し、次のユーザインタフェースエレメント、または特徴(例えば、他の層にある)は、現在ユーザインタフェースエレメント、または特徴がなくなりつつ、現れ始めることができる。図100Bは、パニング放射相互作用レイアウトの例を示す。本例で、GUIエレメント10001、10002、10003及び10004は、パニング-放射型GUIの相互作用及び転移モデル階層の同一層にある。GUIエレメント10002A、10002B、及び10002Cは、階層の第2深層にあり、エレメント10002のサブエレメントである。以前のように、第1層は、本デバイスとペアリングされたデバイスを含み、エレメント10001は、自動車を示し、エレメント10002は、テレビを示し、エレメント10003は、モバイルフォンを示し、エレメント10004は、家庭用温度調節装置を示すことができる。エレメント10002Aは、テレビ用ボリューム制御エレメントであり、エレメント10002Bは、テレビ用チャネル制御エレメントであり、及びエレメント10002Cは、テレビ用の写真制御エレメントでありうる。
さらに他の一例として、アコーディオンタイプ相互作用レイアウト(an accordion-type interaction layout)は、デバイスGUIの相互作用及び転移モデルを構造化することができる。アコーディオン型GUIで、色々な層内のエレメント、または特徴は、円形リスト構造(circular list structure)で配列されてもよい。例えば、第1方向で最後のエレメント、または特徴(例えば、デバイスの最後の固定されたアプリケーション)と関連したスクリーンを越えて、その第1方向にリスト構造内で回転すること(例えば、外郭リングを回転させることによって)は、第2方向で最後のエレメント、または特徴(例えば、デバイスの最小-最近に使用(least-recently used)コンテキスト的アプリケーション)と関連したスクリーンにGUIを転移させることができる。第1方向に回転し続ければ、GUIはコンテキスト的アプリケーションと関連したスクリーンを通じて逆順(例えば、最小-最近使用から最大-最近使用(most-recently used)に)に転移することになる。同様に、最小-最近使われたコンテキスト的アプリケーションのスクリーンを越えて、第2方向に回転するのは、最後の固定アプリケーションと関連したスクリーンにGUIを転移させ、第2方向に回転し続ければ、GUIは、固定アプリケーションのスクリーンを通じて逆順(例えば、最後の固定アプリケーションでホームスクリーンに近接した最初アプリケーションに)に転移することになる。アコーディオン型GUIで、現在のディスプレイされたエレメント、または特徴は、そのサブエレメント、またはサブ特徴が単一層リスト構造の一部になるように拡張(例えば、ユーザが選択すれば)される。特定の実施例において、サブエレメントを有するエレメント、または特徴は、自身がサブエレメントを有していることを、例えば、サブエレメントの可視的エッジ(visible edge)を通じて示しうる(ディスプレイされる時)。時計周り方向、または逆時計周り方向に外郭リングの回転のようなユーザ入力は、モデルの単一層内でナビゲートし、この単一層は、選択されたエレメント、または特徴のサブエレメント、またはサブ特徴のみならず、エレメント、または特徴を含むことができる。一例として、外郭リングを一回転増分時計周り方向に回転させるのは、右側(例えば、次のエレメント)にエレメント、または特徴をディスプレイし、外郭リングを一回転増分逆時計周り方向に回転させるのは、左側(例えば、以前のエレメント)にエレメント、または特徴をディスプレイすることができる。特定の実施例において、時計周り方向、または逆時計周り方向への高速回転は、GUIをして、加速ブラウジングを行わせうる。かような実施例において、単一回転増分は、GUIを単一エレメント、または特徴ではなく、多数のエレメント、または特徴を通じて転移させうる。他のユーザ入力は、モデル内でエレメント、または特徴の選択と拡張を引き起こすことができる。一例として、ユーザがディスプレイのタッチ・センシティブ層をタッチしたり、タップすれば、GUIは、ディスプレイされた特徴、またはエレメントを既存の層内で拡張し、サブエレメント、またはサブ特徴に転移することができる。他の例として、ユーザがデバイス内のタッチ・センシティブ層の特定領域(例えば、”戻り”ボタンと指定される)を押したり、ユーザがディスプレイのタッチ・センシティブ層をダブルタップすれば、GUIは、拡張されたサブエレメント、またはサブ特徴を縮小し(collapse)、リスト内のエレメント、または特徴に転移することができる。例えば、ユーザがディスプレイ、またはスクリーンを長く押せば、GUIは、ホームスクリーン(例えば、クロック)に、さらに転移することができる。また、GUIは、追加ユーザ入力なしに、所定期間後(例えば、タイムアウト期間後)、ホームスクリーンに転移することができる。ここに説明されるように、ユーザが、例えば、外郭リングを時計周り方向、または逆時計周り方向に回転させ始めるにつれて、GUIは、同一層内で転移し、次のユーザインタフェースエレメント、または特徴(例えば、同一層内のブレッドクラムアイコン)は、現在ユーザインタフェースエレメント、または特徴がなくなりつつ、右側、または左側に示され始める。図100Cは、アコーディオン型相互作用レイアウトの例を示す。本例で、GUIエレメント10001、10002、10003及び10004は、アコーディオン型GUIの相互作用及び転移モデルの同一層にある。エレメント10002が、ユーザによって選択されたので、GUIサブエレメント10002A、10002B、及び10002Cは、拡張され、モデルの同一層のリスト構造にさらに含まれる。したがって、GUIは、サブエレメント10002Cからサブエレメント10002Bに転移したり、またはエレメント10003に直接転移することができる。しかし、ユーザがサブエレメントを折り畳むことを所望すれば(例えば、エレメント10002と関連したスクリーンを再びタップするような”戻り”入力を通じる)、リスト構造は、GUIエレメント10001、10002、10003、及び10004のみを再び含むことができる。
特定の実施例において、GUIは、デバイスが受信したユーザ入力に基づいてホームスクリーンにナビゲートすることができる。ユーザ入力は、タッチ・センシティブ層の押圧(pressing and holding;例えば、長押し)、ディスプレイを押圧、外郭リングの押圧(例えば、クリッキング)、外郭リングの握り(squeezing and holding)、デバイスの面(例えば、ディスプレイ)のカバーリング、デバイスの特定センサーのカバーリング、デバイス面の下向き回し、ソフトウェアボタン(ここに、説明される)の押圧、デバイスのハードウェアボタンの押圧、デバイス振り(または、その他の適切なジェスチャー)を含むことができる。これら入力、またはこれら入力の任意変形(例えば、さらに短い持続期間を含む)のうち、いずれのものも相互作用及び転移モデル内で”戻り”のためのユーザ入力として使用される。図101A及び図101Bは、GUI内の”戻り”ソフトウェアボタンレイアウトの例を示す。図101Aで、ディスプレイの底部10110でユーザタッチ入力を受信すれば、GUIは、選択を確認したり、またはモデル階層でさらに深く転移することができる。ディスプレイの上部10120でユーザタッチ入力を受信すれば、GUIは、モデル階層に戻り、またはさらに上位に転移することができる。図101Bは”戻り”領域10130を有する類似のレイアウトを図示し、この領域10130は”戻り”ナビゲーションが転移する所を、ユーザに示すブレッドクラムアイコン10135を含む。特定の実施例(タッチ・センシティブ層がタッチの正確なx-y座標を判断するように動作できる時)で、ディスプレイの任意領域は”戻り”領域、“確認/選択”領域、またはその他の適切な機能領域と指定されてもよい。
特定の実施例において、デバイスのGUIは、特定タイプのコンテンツ(例えば、リストを含む)をディスプレイすることができる。図102Aは、アイテムの垂直リストをディスプレイするGUIの例を示す。ユーザからの入力(例えば、任意の適切な入力メカニズム、またはタイプ)は、GUIの選択フレーム10210を垂直リストのエレメント間で移動させることができる。一例として、ユーザが時計周り方向に回転させれば、選択フレーム10210は、垂直リストの上から垂直リストの底に向かって移動することができる。外郭リングの各回転増分(例えば、外郭リングが離散増分(discrete increment)に移動する場合)は、選択フレーム10210をリストのアイテム間で下向き移動させる。他の実施例において、選択フレームは固定され(例えば、ディスプレイの中央に固定される)、リストのアイテムがリングの回転方向によって、上方、または下方に移動(一回に1アイテムずつ)することができる。図102Bは、アイテムの水平リストをディスプレイするGUIの例を示す。ユーザからの入力(例えば、任意の適切な入力メカニズム、またはタイプ)は、GUIの選択フレーム10210を水平リストのエレメントの間で移動させることができる。一例として、ユーザが時計周り方向に回転させれば、選択フレーム10210は、水平リストの左側から水平リストの右側に向かって移動することができる。外郭リングの各回転増分(例えば、外郭リングが離散増分に移動する場合)は、選択フレーム10210をリスト内で1アイテム移動させる。図102Bの一例で、ユーザがリングを時計周り方向に回転させる時、選択フレーム10210は、ディスプレイの中央に固定され、リストのアイテムが時計周り方向の回転に応答して左側に向かって移動(一回に1アイテムずつ)することができる。他の実施例において、ディスプレイされたリストのアイテムは、固定され、選択フレーム10210は、リストのアイテムの間で外郭リングの回転方向によって左側、または右側に移動することができる。
特定の実施例において、デバイスのGUIは、垂直、または水平に連続(または、実質的に連続)したコンテンツ(例えば、チャート(chart)やテキスト)をディスプレイすることができる。特定の実施例において、ユーザからの入力(例えば、任意の適切な入力メカニズム、またはタイプ)は、GUIの選択指示子(selection indicator)を連続したコンテンツの間で移動させることができる。他の実施例において、ユーザからの入力は、水平方向、垂直方向、またはそのユーザ入力にマッピングされたその他の方向でコンテンツをディスプレイ内に移動させたり、ディスプレイの外に移動させることができる(及び選択指示子は、存在する場合、一定位置に残っていることがある)。図102Cの例で、温度チャートがディスプレイされる。ユーザが外郭リングを時計周り方向に回転させることによって、選択指示子10220は、ディスプレイの中央に固定され、コンテンツは、右側からディスプレイに入り、左側に向かってディスプレイの外に出る。102dの例で、大きなテキストの一部10230がディスプレイされる。ユーザが外郭リングを時計周り方向に回転させることによって、追加テキストが底からディスプレイに入り、上に向かってディスプレイの外に出る。図103Aないし図103Dは、デバイスのGUIにディスプレイされた例示的カレンダーアプリケーションを示す。図103Aで、ユーザは、GUIがオプション“GoUp"、"Weekly(週間)”(基本設定日)、“Monthly(月)”、及び“Daily(日)”のように円形メニュー10310をディスプレイするように、外郭リングをクリックまたは押す(矢印10305と表示)。図103Cで、ユーザは、外郭リングを再びクリックまたは押し(矢印10305と表示)、“Weekly"選択を確認し、GUIがユーザカレンダーのWeekly View(週間ビュー)10320をディスプレイさせうる。
特定の実施例において、GUIは、ディスプレイより大きなサイズのコンテンツをディスプレイすることができる。かような実施例において、GUIは、すべてのコンテンツがディスプレイ内で一度にディスプレイされるように、コンテンツをスケール変更またはクロップ(scale or crop)することができる(または、その他に縮小したり、またはフィットする(fit))。他の実施例において、GUIは、コンテンツサイズを変更せず、代わりに、例えば、スクローリング(ここに説明される)を用いて一回に一部ずつユーザがコンテンツ間でパニング(pan)しうる能力(ability)を提供することができる。
特定の実施例において、デバイスは、円形ディスプレイを含み、GUIは、円形ナビゲーション及びメニューレイアウトを含むことができる。しかし、本明細書は、任意形状のディスプレイ、及びGUIに対する任意の適切なナビゲーション、またはメニューレイアウトを考慮する。メニューレイアウトは、例えば、ユーザにGUIの相互作用及び転移モデル階層内でユーザが位置したところに対する視覚的指示(indication)を提供することができる。メニューレイアウトは、メニューオプションの全体ビュー(overall view)のみならず、視覚的指示子をさらに提供し、この指示子を通じてユーザは、互いに異なるタイプのメニューアイテムを区分することができる。追加的に、メニューは、デバイスの任意適切な背景、またはコンテンツ上にディスプレイされる。
図104は、例示的円形メニューレイアウトを示し、このレイアウトで、各セグメント10410は、メニュー内1つのアイテム、またはオプションを示し、10420のような視覚的間隙は、アイテムを他のアイテムと分離する。デフォルト、または現在の選択されたアイテム10430は、視覚ディスプレイの上部にあり(しかし、ディスプレイのどこにもある)、ユーザが使用途中にデバイスディスプレイを互いに異なる方式で指向させても、ディスプレイ上部に続けて残っている。図105A及び図105Bは、円形メニューでアイテムをブラウズする例を示す。ユーザは、外郭リングの時計周り方向の回転のような入力を提供し、このユーザ入力に応答してメニュー内の次のアイテム10520(例えば、現在の選択されたアイテム10510の右側にある)が選択のために強調(highlighted)される。ディスプレイ中央のコンテンツ10530は、ユーザの回転入力を反映するために自動で変化でき、または特定の実施例において、ユーザが異なる入力(例えば、希望のメニューアイテムが強調された後、外郭リングを押したり、クリッキングする)を提供した後のみ変化しうる。図105C及び図105Dは、外郭リングを回転させて円形メニューをブラウズする例を示し、メニューの次のアイテム10550(例えば、時計周り方向、または現在の選択されたアイテム10540の右側である)が選択のために強調される。本例で、ユーザの入力は、また中央ポインタ(pointer)10560を回転させ、現在-選択されたメニューアイテムに相応する強調されたメニューセグメントを示す。本例で、ディスプレイの中央にあるコンテンツは、ユーザの回転を反映するために自動的に変化する。
図106Aないし図106Cは、それぞれデバイスのGUI用の円形メニューレイアウトの互いに異なる整列及び配置を示す。円形メニューは、ディスプレイの縁部に直接ディスプレイされたり(図106Aに示された通りである)、またはディスプレイのさらに内部に表示されたり、またはデバイスの背景上にオーバレイとして表示される(図106B及び図106Cに示された通りである)。図107Aないし図107Cは、デバイスのGUI用円形メニューレイアウトの他の形態及び整列を示す。例として、メニューは、円形に配列されたラインセグメント(各種可能なサイズである)10710、半円に配列されたラインセグメント10720、または円や半円に配列されたドット10730、または10740からなる。特定の実施例において、現在の選択された、またはデフォルトメニューアイテムの視覚指示子10732は、ディスプレイ中央上部に留まることができ、メニュー内アイテムの視覚指示子10734は、ユーザ入力に基づいて左側、または右側に移動することができる(図107C)。他の実施例において、現在の選択された、またはデフォルトアイテムの視覚指示子10732は、メニュー内アイテムの指示子など(位置が固定される)の間で移動することができる(図107B)。特定の実施例において、セグメント、またはドットの代わりに、メニュー内アイテムの視覚指示子がメニューアイテムと関連したアイコン(例えば、ブレッドクラムアイコン)である。図108は、円形である必要がなく、任意の適切なレイアウトであるメニューレイアウトを示す。このメニューレイアウトは、メニューアイテムの指示子10810がディスプレイ全般に散在されたレイアウトを含む。ユーザ入力(例えば、外郭リングの回転)により、互いに異なるアイテムが、メニューレイアウト内のそれらの位置によって選択されてもよい。一例として、ユーザが時計周り方向に回転させれば、時計周り方向に次のメニューアイテム10820が選択される。
図109Aないし図109Cは、現在の選択された、またはディスプレイされたメニューアイテム10915の左側及び右側(例えば、相互作用及び転移モデル階層内で)にあるメニューアイテムに対する互いに異なるメニューレイアウトを示す。図109Aで、すべてのメニューアイテム10910は、ディスプレイ周辺の円形メニューに均等に分布する。図109Bで、メニューは、現在-ディスプレイされた、または選択されたメニューアイテム10915の右側にあるアイテムと左側にあるアイテムの区分を示す間隙を含む(例えば、ここに説明された相互作用及び転移モデルによる)。図109Cは、現在-選択された、またはディスプレイされたメニューアイテム10915の右側より左側にアイテム10910が多くの例を示し、よって円形メニューの左側セグメントは、選択されてもよい多数のアイテムを収容するために、サイズが調整される。メニューアイテムの数が非常に多い場合(例えば、40個のキャプチャーされたイメージのように特定臨界を超えた場合)に、円形メニューのセグメントはなくなり、ユーザに提示された視覚指示子は、スクロールバー11020である。このスクロールバー11020を通じてユーザは、色々なメニューアイテムの間を円形でスクロールすることができる(図110Aに示された通りである)。他の実施例において、類似したスクロールバー型視覚指示子11020を通じて、デバイスのユーザは、値の固定範囲11030で絶対(absolute)、または固定値(例えば、カメラズームレベル)を操作することができる(図110Bに示された通りである)。さらに他の実施例において、スクロールバー型視覚指示子の長さは、ユーザに特定値のレベルを示すことができる。例えば、ユーザがデバイスの外郭リングを用いてテレビのボリュームを制御する場合、ユーザがボリュームレベルを増加させるためにリングを回す(例えば、時計周り方向に)ことにより、視覚指示子11120は、図111Aないし図111Cに示したように、ディスプレイを取り囲むか、またはほぼ取り囲むまでさらに長くなる。
特定の実施例において、GUIは、参照または背景コンテンツのアイテム(item of reference or background content)を、その参照または背景コンテンツに対して実行される可用アクション、または機能の指示(indication)と共にディスプレイすることができる。図112は、参照コンテンツ及びコンテキスト的オーバレイアクション、または機能のGUI内の例示的レイアウトを示す。他のタイプのレイアウト(例えば、示されたレイアウトを含む)は、例えば、参照または背景コンテンツを遮蔽することを最小化するために、提示された参照または背景コンテンツの他のタイプに基づいて選択されてもよい。例えば、参照または背景コンテンツが人の写真であれば、写真の中央を遮蔽しないオーバレイが選択されてもよい。特定の実施例において、参照または背景コンテンツ(例えば、オーバレイの後)内のピクセルの知覚輝度(perceptual brightness)は、ピクセル単位(pixel-by-pixelbasis)で決定されてもよい。コンテキスト的オーバレイと、参照または背景コンテンツ(例えば、イメージ)のコントラスト(contrast)が非常に低い(例えば、所定臨界に基づく)場合、アンダーライングカラー(underlying color)を逆方向にブラードドロップシャドウ効果(blurred drop shadow)が使用される。例示的アルゴリズムは、オーバレイ下のピクセルを決め、それらの彩度(saturation)を減少させ、視覚輝度を反転(例えば、カラーは、同一に保持されるが、輝度は、コントラストを生成するために選択される)させることを含み、アンダーライング参照または背景コンテンツとオーバレイ間に合成物(composite)をぼかすことができる。図113Aないし図113Cは、参照または背景コンテンツ(ここで、デバイスのカメラがキャプチャーしたイメージ)で構成されたコンテキスト的オーバレイの例11310-11350を示す。図示されたように、コンテキスト的オーバレイは、ユーザがアクション、または機能(例えば、イメージ削除11130、またはイメージ共有11325、コーヒーショップ検索11330、食堂検索11340、または場所を“好む”場所にする11350)を遂行可能にし、ユーザに確認を提供し(例えば、イメージが共有されたという確認11320)、または、ユーザにその他のタイプの情報を提供することができる。特定の実施例において、コンテキスト的オーバレイは、GUIのメニューオーバレイ内で、相互作用及び転移モデル階層の上位レベルを除いて、どこでも使用される。
特定の実施例において、デバイスのGUIにディスプレイされたアイコンは、デバイスのエネルギー、またはバッテリー使用を最適化することができる。一例として、アイコンは、それ自体が薄い白色筆画(thin white stroke)で構成され、主に黒背景を含むことができる。これにより、ディスプレイスクリーン上の白色の量が非常に少なくなるので、GUIが使用される間、ディスプレイのエネルギー消費が減少しうる。GUIにディスプレイされたアイコンはまた、リアルタイム通知を含むことができる。例えば、モバイルフォンアイコンは、新たな音声メールの個数を知らせる通知を含み、電子メールアイコンは、新たなチャットメッセージの個数を知らせる通知を含み、電話アイコンは、留守中呼び出しの個数を知らせる通知を含むことができる。特定の実施例において、デバイスのGUIは、ユーザが作ったコンテンツ(例えば、写真、ファイル、連絡先、通知、またはスケジュール)に対してのみ白黒ではないカラーをディスプレイする。メニューアイテムを含む他の情報は白黒でディスプレイされてもよい。
特定の実施例において、GUIがあるエレメント(例えば、特徴、コンテンツアイテム、またはアイコン)から他のエレメントに転移すれば(例えば、ユーザから入力を受信する時)、GUIは、視覚的転移効果(visual transition effect)をディスプレイすることができる。この転移効果は、例えば、デバイスのユーザから受信した入力のタイプに依存する。一例として、ディスプレイに対する単一タッチは、特定転移効果をトリガーすることができるが、外郭リングの回転は、転移効果の異なる(重畳されることがある)集合をトリガーすることができる。
特定の実施例において、タッチ・センシティブ層に対するユーザのタッチ入力は、転移効果(中心向き拡張(center-oriented expansion)、方向性摺動(directional sliding)、及びスケーリングイン、またはアウトを含む)をトリガーすることができる。図114Aは、中心向きモード、または機能拡張、またはスケーリングアップを図示する。図114Bは、中心向きモード、または機能縮小(function collapsing)、またはスケーリングアップを図示する。図115Aは、アイコンの中心向きスケーリングアップを図示する。図115Bは、アイコンの中心向きスケーリングダウンを示す。図116Aは、ツイストモーションを備えた中心向きアイコンスケーリングアップの例を示す。図116Bは、ツイストモーションを備えた中心向きアイコンスケーリングダウンの例を示す。図117Aは、アイコンの中心向き展開(unfolding)、及び外側拡張(expansion outward)を示す。図117Bは、アイコンの中心向き折畳み(folding)、及び内側縮小(collapsing inward)を示す。図118Aは、ディスプレイに垂直に摺動するテキストの例を示し、テキストはアンマスキング(unmasking)により現れる。図118Bは、ディスプレイの左側から右側に水平摺動するテキストの例を示す。図118Cは、ディスプレイの左側から右側にマスクされた領域(例えば、コンテキスト的オーバレイ)内で水平摺動するテキストの例を示す。図119Aは、コンテンツ、またはアイコンに対して右側から左側への水平的スライド転移を示す。図119Bは、フェーディング効果(fading effect)と共に、右側から左側への水平的スライド転移を図示し、スクリーンを出るアイコン、またはコンテンツは、一旦スクリーンの縁部に到達すれば、徐々にフェイドアウトされ、スクリーンに入るアイコン、またはコンテンツは、スクリーンの縁部を越えることによって徐々にフェイドインされる。図119Cは、スケーリング効果と共に、右側から左側への水平スライド転移の例を図示し、スクリーンを出るアイコン、またはコンテンツは縮小され、スクリーンに入るアイコン、またはコンテンツは、フルサイズ(fullsize)にスケールアップされる。
特定の実施例において、外郭リングのユーザ回転は、視覚的転移効果(ズーミング、方向性摺動、ブラーリング、マスキング、ページフォールディング、回転動き、及び加速されたモーションを含む)をトリガーすることができる。図120Aは、外郭リングの低加速回転(low-acceleration rotation)に応答した転移の例を示す。本例で、単一回転増分は、逆時計周り方向の1ターン(例えば、回転増分)が次のエレメント(例えば、アイコン、またはコンテンツアイテム)を左側から右側に向かってスクリーンに入るようにし、また、エレメントのスケーリングが起きないように、単一アイテムに相応することができる。図120B及び図120Cは、外郭リングの高加速回転(high-acceleration rotation)に応答した転移の例を示す。本例で、逆時計周り方向単一ターン(例えば、回転増分)は、ユーザが外郭リングを回すことを止めるまで、GUIを多数のエレメント(サイズをスケールダウンし、左側からスクリーンに入り、右側からスクリーンを出る)の間で迅速にパニング(pan)させることができる。ユーザが外郭リングを回すことを止めれば、エレメントは、正常サイズにスケールアップし、単一アイコン、またはコンテンツアイテムがディスプレイを埋めることができる。図121Aは、GUI内での転移の例を示し、ここでコンテンツは、外郭リングの回転に応答してズームインされる。図121Bは、GUI内での転移の例を示し、ここでスクリーン1は、アニメーションで“折り畳み(foldover)"、スクリーン2(例えば、次の特徴、またはコンテンツアイテム用)がユーザにディスプレイされる。
特定の実施例において、デバイスのGUIは、ユーザモーションを考慮し、かつユーザの動きを反映した視覚的フィードバックを生成する物理モデルを含むことができる。一例として、ユーザによる活性化入力(activation input;例えば、特定ジェスチャーの形態)があるならば、ユーザのモーションは、デバイスの1つ以上センサーからの入力を通じて連続して追跡されてもよい。視覚的フィードバックは、アンダーライングコンテンツが停止状態で留まる間、ユーザのモーションをユーザインタフェースに反映することができ、よって、ジェスチャーが登録され、視差(parallax)がUI特徴、またはコントロールとアンダーラインコンテンツとを区分するのに使用される。特定の実施例において、物理モデルは、ダンピング(damping)を備えた一般化されたバネモデルを含むことができる。かようなモデルで、アイテムは、層に配置されてもよい。さらに深い層は、物理モデルで“さらに大きい剛性(stiffer)"のバネを有することができ、バネは、アイテムを場所に保持する(holding items in place)。したがって、デバイスが動く時、ユーザインタフェースの底層は、若干動くが、上部層は、さらに動いて、視差感(sense of parallax)を作る。追加的に、バネモデルは、ダンピングを含み、このダンピングは、モーションが遅滞するようにし、さらに流動的で柔らかなモーションを作る。図122は、GUIで物理モデルを使用する例を示す。ユーザは、デバイス100を腕に着用する。ユーザが腕を下方に動かせば、スクリーンにディスプレイされたアイコン(例えば、電球)12210は、ユーザの動きを反映した方式で動く。しかし、スクリーン上のアンダーライングコンテンツ(例えば、背景イメージ)は動かない。かようなタイプのフローティングアイコン、またはメニューアイテムは、例えば、ディスプレイのサイズがビジュアルクラウディング(visual crowding)のために多くのアイコン、またはメニューアイテムが同時にディスプレイされることを許容しない時、有用である。追加的に、かようなタイプのフローティング挙動(behavior)は、イベントをユーザに提示するための通知手段と共にさらに使用される。
特定の実施例において、デバイスのGUIは、デフォルトスクリーン、またはデバイス用ウォールペーパーとして面(face)を含み、これらの面は、相互作用及び転移モデル階層の一部でありうる(例えば、階層の上位層に、またはホームスクリーンとして)。ここに説明されるように、これら面は、ユーザの活動(activity)に対して自動的かつコンテキスト的に応答できる変化可能な(changeable)アプリケーション、またはモードである。一例として、面は、ユーザの環境、必要、嗜好、場所、活動、センサーデータ、ジェスチャー、またはスケジュールによって変化することができる。面の可用性(または、一面から他面へのGUI内転移)は、コンテキスト的情報に基づいて決定されてもよい。一例として、ユーザがカレンダーにスケジュールされた近づくイベントを有すれば、デバイスの面は、近づくイベント情報をユーザにディスプレイするカレンダー面に変化することができる。他の例として、ユーザが家付近にあると判断されれば(例えば、GPSデータに基づく)、デバイスの面は、ホーム-オートメーションアプリケーションと関連した面に変化することができる。さらに他の例として、ユーザが活発に動いていると判断されれば(例えば、心拍数、または刺激(arousal)センサーのような多様な生体センサーに基づいたり、または加速度計に基づく)、デバイスの面は、身体鍛練(fitness)モードに変化し、ユーザの測定された脈拍、カロリー消耗量、活動(例えば、ランニング)を始めた後、経過した時間、及び現在時間を示しうる。任意の適切なセンサーデータ(例えば、生体センサーを含むセンサー、焦点センサー、または運転中ユーザの手の位置を決定しうるセンサー)は、ユーザにディスプレイする適切な面、及びコンテキストを判断するのに使用される。ユーザのデバイス使用履歴(例えば、フィットネス授業のように、ユーザが身体鍛練アプリケーションを使った一日中の特定時間)は、デバイスにディスプレイされる面をさらに決めることができる。一例として、デバイスは、ユーザが運動する傾向がある一日において、特定時間に体力鍛練モードに対するユーザの必要を予想することができる。コンテキスト的面は、通知の抑制(例えば、ユーザが運転中であると判断される場合、またはデバイスが着用されていない場合)と関連するか、または通知が表現される方法の変化(例えば、視覚的に、または聴覚的に)と関連する。特定の実施例において、デバイスの面は、デバイス上のすべてのアプリケーションと関連する必要はなく、デバイスのディスプレイ上のウォールペーパーや背景でありうる。情報の特定チャネル(例えば、カレンダーフィード(feeds)、健康、または活動フィード、通知、天気フィード、またはニュース)に面が専用(dedicated)である。一例として、深刻な天気通知、または警報(例えば、天気フィードから受信される)は、天気面をその通知と共に、ディスプレイにディスプレイさせることができる。面は、現在の視覚を、面のタイプに関係なく、ディスプレイ(例えば、アナログ、またはデジタルフォーマットで)することができる。ユーザは、面をカスタマイズすることができる。ユーザのカスタマイジェーション、または記号は、ユーザが明らかに入力したり(例えば、デバイス、またはペアリングされたデバイス上の管理ソフトウェアに入力)、またはデバイスが直接的に学習することができる(例えば、経時的なモデル(model over time)を作るために、センサー及び使用(usage)データを利用する)。図123は、アナログ時計12310、円形メニューレイアウトを備えたアナログ時計12320、健康モード面12330、及び天気面12340を含む面の例を示す。図124は、デバイス用の面12410-12440のセット例を示し、この面には、カレンダーと約束情報がディスプレイされる。
特定の実施例において、デバイスは、ユーザの四肢(limb)に着用(ユーザの顔がだれであるか分からないようにさせず、また、ユーザにデバイスを持っていることを要求しない)し、拡張現実(AR)機能性を含むことができる。このAR機能性は、デバイスのカメラを照準するために体のモーションを使用することに基づき、体モーションの使用は、ユーザの自己受容感覚(sense of proprioception)によって、高い正確度の照準を可能にすることができる。かようなタイプのシステムを通じて、デバイスのユーザは、ディスプレイ上でオブジェクトのバージョン(例えば、デバイスのカメラによってキャプチャーされる)を見ると共に、現実世界のオブジェクトを見ることができる。このAR能力の例は、図16に示される。かようなARシステムは、ユーザ四肢の対向する側面上にある整列されたカメラとセンサーとを用いて“シースル(see through)”能力を可能にすることができる。ここに説明されたかようなタイプの配置によって多様なARアプリケーションが使用可能になる。特定の実施例において、アプリケーションは、デバイスが便宜主義的な使用(immediate、opportunistic use)を許容するように、特にデザインされてもよい。追加的に、委任モデル(delegation model)がデバイスに提供され、プロセッシング要求事項、またはエネルギー使用の観点で不利益を少なく招くか、あるいは招かず、デバイス上で実行可能なアプリケーションの幅を改善するために、外部資源の使用を許容することができる。特定の実施例において、デバイスは、他のデバイス(例えば、ネットワークを通じて発見されるか、デバイスと通信的にペアリングされた付近のデバイス)を制御したり、その他のデバイスによって制御される。このタイプの制御は、近接、ジェスチャー、または従来のインターフェースを通じて達成されてもよい。ペアリングは、ここでさらに詳細に説明される、デバイスのカメラを含む多様な技術を用いて達成されてもよい。
図125は、デバイス用自動カメラ活性化決定の流れの例を示す。特定の実施例において、カメラが使用可能になったか否か、及びカメラの自動活性化(例えば、オブジェクト認識のため)が使用可能になったか否かは、アプリケーション、またはデバイスのあるモードにより決定される。特定の実施例において、デバイス上で自動カメラ活性化が使用可能になる(段階12510)。この特徴が使用可能になり(段階12520で決定される)、また、デバイスで十分なCPU容量(capacity)とパワーを使えれば(例えば、イメージから関心特徴(feature of interest)を計算するためであり、段階12530で決定される)、デバイスのカメラ(例えば、外向きカメラ)は、1つ以上のイメージを、ユーザが所定時間(例えば、着用式デバイス上の慣性測定ユニットによって検出されたり、またはイメージのブラーリングにより計算され、段階12540で決定される)カメラを照準姿勢で安定して持っていれば、自動的にキャプチャー、処理、及びディスプレイする(段階12560)。他の実施例において、カメラは、常に活性化してイメージを検索することができる。さらに他の実施例において、カメラは、ユーザが手動でイメージキャプチャーをトリガーした場合にのみ(例えば、外郭リング押圧、またはクリッキング、ディスプレイタッピング、段階12550で決定される)、イメージをキャプチャーして特徴認識を行うことができる。特定の実施例において、カメラの活性化時(任意の適切な方法による)、拡張現実(AR)機能性が使用可能になる。AR機能性は、自動的に使用可能になりうる(例えば、デバイスで使用できるCPU容量及びパワーによる)。他の実施例において、ユーザは、任意の適切なユーザ入力を通じてAR機能性を明らかに使用可能にしうる。ユーザは、AR機能性を使用可能にするために、例えば、ディスプレイにタッチ入力を提供することができる。一例として、ユーザは、鳥のようなオブジェクトをキャプチャー(例えば、デバイスのカメラを鳥に向ける)し、ディスプレイにディスプレイされた鳥のイメージをタッチすることができる。このアクションは、デバイスのAR機能を使用可能にし、デバイスに、例えば、鳥をオブジェクトとして認識するようにし、その鳥に関する情報をユーザに与える。他の実施例において、ここに説明されるように、AR機能性を使用可能にするだけでなく、AR機能性を使用するタスク(task)を行うために、ユーザは、1つ以上のジェスチャーを行うことができる(例えば、デバイスカメラの視野内でタイピングジェスチャーを行うことによって“仮想”キーボードを使用する)。
特定の実施例において、デバイスが関心特徴(features of interest)を計算する能力を有さねば、デバイスは、イメージをキャプチャーし、そのイメージを通信的に連結されたデバイス(例えば、電話、またはパソコンのような付近のデバイス)、またはインターネット基盤サービスに伝送でき、この通信的に連結されたデバイス、またはインターネット基盤サービスで関心特徴が遠隔的に計算されてもよい。関心特徴が決定されれば、認識されたオブジェクトに関する追加情報をインターネット基盤サービス、またはローカルデータカタログ(local data catalog)で探すことができる。情報が発見されれば、関連データは、認識された特徴と共に、デバイスでユーザにディスプレイされてもよい。
特定の実施例において、デバイスは、そのフォームファクター(form factor)が小さく、可用メモリ、プロセッシング及びエネルギーの面で制限されてもよい。委任モデルを通じて、デバイスは、1つ以上のプロセッシングタスク(例えば、AR機能性と関連したタスク)の一部を、例えば、付近デバイス(例えば、電話、またはパソコン)やネットワーク基盤、またはインターネット基盤のサービスに委任することができる。一例として、委任可能なタスクに対して、そのタスクを必要とするアプリケーションは、該タスクの遅延感度(latency sensitivity)、プロセッシング要求事項、及びネットワークペイロードサイズを含むタスクの特性(characteristics)、または、プロファイルをシステム(例えば、デバイス運営システムのカーネル(kernel))に提供する。これは、全体委任可能なタスクのうち、委任可能なサブタスク(subtask)それぞれに対してなされる。タスクは、たびたびパイプラインになる(pipelined)ので、タスクパイプラインの隣接チャンク(contiguous chunks)は委任されてもよい。特定の実施例において、システムは、デバイスの1つ以上の特性を測定したり、またはその特性のモデルを構築することができる。デバイスの特性は、デバイスの静的属性(例えば、設置された総メモリ、最大CPU速度、最大バッテリーエネルギー、またはネットワークインターフェースの最大帯域幅を含むデバイスのハードウェアコンポーネントの属性)を含むことができる。デバイスの特性はまた、デバイスの動的属性(例えば、可用メモリ、現在CPU容量、使用可能エネルギー、現在のネットワーク連結性、ネットワーク基盤サービスの可用性、1つ以上ユーザ間平均ユーザ挙動の記録(tally)、または予測や予想されたタスクプロセッシング時間(例えば、特定使用シナリオが与えられた場合)を含むデバイスの動作特性)を含むことができる。特定の実施例において、デバイスは、デバイス特性の転移及び現在の測定を含むモデルを備え、デバイスの未来挙動を決定するのに一助となる。タスクがデバイスで実行されねばならないか否かに基づくだけでなく、タスク特性やプロファイル及びこれら測定やモデルに基づいて、システムは、タスク、またはタスクパイプラインの1つ以上の部分を委任するかを決定(または、委任しないかを決定)することができる。例えば、デバイスの可用メモリがタスク(例えば、ビデオ再生)のプロセッシングを支援できなければ、タスクの1つ以上の部分は委任されてもよい。他の例として、デバイスのCPU容量がタスクプロセッシングを支援できなければ(例えば、既存負荷(load)のためにCPUが最大容量で実行中である場合)、タスクの1つ以上の部分は、委任されてもよい。他の例として、デバイスのバッテリーレベルが低く、タスクの予想プロセッシング時間の間、バッテリーがデバイスにエネルギーを提供すると予想されなければ、タスクの1つ以上の部分は委任されてもよい。さらに他の例として、デバイスのネットワーク連結性が低いか、存在しなければ、タスクの1つ以上の部分は、委任されないことがある(例えば、デバイスが十分な可用メモリ、CPU容量及びエネルギーを有する場合)。さらに他の例として、デバイスが1つ以上のネットワーク基盤サービス(例えば、プロセッシングのためのクラウド基盤サービス)を使用でき、そのデバイスが適切なネットワーク連結性(例えば、良好な使用可能帯域幅)を有する場合、タスクの1つ以上の部分は、委任されてもよい。さらに他の例として、デバイスのユーザがビデオ再生を典型的(歴史的)に委任したとすれば、ビデオ再生タスクの1つ以上の部分は委任されてもよい。さらに他の例として、タスクの予測プロセッシング時間(例えば、デバイス特性の転移及び現在の測定を含むモデルに基づいて予測される)が一定臨界(例えば、数分(several minutes))を超えれば、タスクは、委任されてもよい。適切に組合わせたデバイスの任意の適切な特性(例えば、静的、または動的属性)は、タスクの委任の有無を決定するのに使用される。また、デバイスタスクの任意の適切な特性(例えば、タスクプロファイル、またはそのタスクの特性(遅延感度、プロセッシング要求事項、またはネットワークペイロードサイズを含む)を含む)は、タスクを委任するか否かを決定するが、単独で、またはデバイス特性と共に使用される。追加的に、デバイスの任意モデル(例えば、デバイス挙動)は単独で、またはデバイス特性やタスク特性と共に使用され、また、タスクを委任するか否かを決定するのに使用される。特定の実施例において、デバイスとペアリングされたデバイスも委任モデルを含み、ペアリングされたデバイス(例えば、電話機)は同一段階を行い、自身のモデル(エネルギー、連結性、実行時間要求事項、及び実行の可能性(feasibility)のモデル)に基づいてタスクを委任される。委任されたタスクは、ペアリングされたデバイス(例えば、電話機)でプロセッシングまたは実行されて完了し、委任されたタスクをプロセッシングした結果は、デバイスに返還される。特定の実施例において、デバイスは、ネットワーク連結性が全くない時、またはそのデバイスの範囲内にペアリングされたデバイスがない時、独立モード(例えば、如何なるプロセッシングタスクも委任しない)で動作することができる。デバイスがネットワーク連結性を再び取得したり、またはそのデバイスが異なるデバイスとペアリングされれば、タスクの委任は再開される。
図126は、デバイスの委任モデルの例示的アルゴリズムを示す。本例で、委任可能なタスクプロセスは、デバイスから始まる(12610)。デバイスのシステムは、電力使用分析及び予測を行う(12620)(例えば、ユーザのエネルギー使用履歴12630及びデバイスの充電までの予想時間12640に基づく)。これに基づいて、システムは、段階12650で、委任可能なタスクに必要な稼動時間(uptime)間に十分な充電が残っているか否かを決定する。十分な充電が残っていれば、デバイスのシステムは、電力使用を増加させ(12660)、また、委任可能なタスクをデバイスそれ自体でプロセスすることができる(12670)。しかし、必要な稼動時間の間にデバイスが十分な充電を有することができなければ、デバイスは、ペアリングされたデバイスのエネルギー状態を決定(12690)するために、ペアリングされたデバイス(例えば、電話機)に質問(12680)することができる。電話機の例で、必要な稼動時間の間に十分な充電が電話機に残っていれば、タスクは電話機でプロセスされる(12694)。しかし、十分な充電が電話機になければ、システムは、段階12694で、デバイスがインターネット基盤(例えば、クラウド)、またはその他のネットワーク基盤サービスに連結性を有するかを決定することができる。連結性を有さねば、デバイスは、そのプロセスを電話機に委任することができる(12694)。連結性があれば、デバイスは、そのプロセスをクラウドに委任し(12696)、タスクは、クラウドでプロセスされて結果は、追ってデバイスに返還される。特定の実施例において、デバイスは、委任可能なタスクを1つ以上のペアリングされたデバイス(例えば、モバイルフォン、またはパソコン)、またはネットワーク/インターネットサービスに分割方式で委任することができる。すなわち、デバイスは、プロセス、または委任可能なタスクの委任可能なサブタスクを互いに異なる場所に委任することができる。
本明細書は、特定デバイス(または、デバイスの系列(family)、または範囲(range))用委任モデルが動的であるか、コンテキスト的であるということを考慮する。一例として、委任モデルは、可用メモリ、CPU容量、特定デバイス(または、デバイスの系列)の使用可能エネルギー、及び時間の流れにより完全に変化可能な因子(factor)を考慮することができる。委任モデルは、時間の流れにより変化しうるネットワーク連結性(例えば、帯域幅及び遅延)だけでなく、ネットワーク基盤、またはクラウド基盤サービス(及びそれぞれの容量)の可用性をさらに考慮することができる。図127を参照すれば、第1委任モデル12710(このモデルは、例えば、次の一年内に製造されるデバイスに適用できる)によって、多くのプロセッシングは、デバイス及びペアリングされたデバイス(例えば、スマートフォン)間に均等に分配され、ただ少量の委任のみクラウド基盤サービスのサーバに分配される。第2委任モデル12720(このモデルは、例えば、三年期間内に製造されるデバイスに適用できる)によって、多くのプロセッシングは、デバイスによって局所的(locally)に処理されてもよい(例えば、メモリ、CPU、及び小さいフォームファクター内のエネルギー容量の発展が予想されるためである)。この第2モデルで、一部プロセッシングは、サーバに委任され(例えば、改善されたネットワーク連結性のために、第1委任モデルでさらに委任量が多い)、ただ少量のみ局所的にペアリングされたデバイスに委任されてもよい。第3委任モデル12730(このモデルは、例えば、五年期間内に製造されるデバイスに適用できる)によって、すべての、またはほぼすべてのプロセッシングタスクは、デバイス及びクラウド基盤サービスのサーバに均等に配分され、局所的にペアリングされたデバイスには、プロセッシングが委任されていないか、ほとんど委任されない。委任モデルが考慮する要因が動的であるために、任意個数の委任モデルが作られる。一例として、デバイスは、1つの委任モデルによって、すべての、またはほぼすべてのタスクを局所的に遂行でき、また、デバイスは、他の委任モデルで、すべての、またはほぼすべてのタスクを委任することができる。
デバイスは、ペアリングされた多プロセッシング(processing-rich)デバイス(例えば、電話機、コンピュータ、タブレット、テレビ、セットトップボックス、冷蔵庫、洗浄器、または乾燥器)、またはインターネットサービスに、エネルギー備蓄量、またはこれら(ペアリングされたデバイス及びインターネットサービス)それぞれとの連結帯域幅に基づいて、機能性を委任するように選択することができる。例えば、高性能プロセッサを備えたデバイスは、エネルギー量が少ない時、ペアリングされたデバイスに委任することができ、ペアリングされたデバイスが十分な電力備蓄量を持たない時、インターネットサービスへの委任を選択することができる。同様に、デバイスのシステムは、インターネット接続が高い遅延を示せば、データ伝送のサイズを減らすために、局所的にプロセスすることを選択することができる。
特定の実施例において、デバイスのユーザは、あるアプリケーション全体、またはあるアプリケーションの一部をペアリングされたデバイスに委任し、その逆も可能である。これはアプリケーション基盤(per-application basis)で起きる。ターゲットデバイス(例えば、テレビ)上のアプリケーションがデバイスに委任される時、ターゲットデバイスは、要請(request)をペアリングされた連結(スマートフォンや個人コンピュータのような仲介デバイスを通じた)を通じて伝送して、そのアプリケーションをデバイス上にロード(load)することができる。その後、デバイスは、ペアリングされたデバイス(例えば、テレビ)上で実行中であるサーバに対してクライアントとして動作することができる。同様に、デバイス上で実行中であるアプリケーションは、ペアリングされたデバイスに委任されてもよい(例えば、デバイス上でのビデオ再生は、ペアリングされたテレビ上での再生で委任されてもよい)。例えば、デバイスが第1アプリケーションを実行しており、デバイスのユーザが第2アプリケーションとの相互作用を所望すれば、デバイスは、第1アプリケーションのタスクを自動的に委任し、他のデバイス(例えば、ペアリングされたテレビ)によりプロセスされるようにする。
図128は、委任モデルによるデバイスの動作の例示的決定の流れを示す。本例で、イメージ・キャプチャーアプリケーションは、デバイス上で実行されている。場面は、デバイス上でキャプチャーされ(12810)、デバイスは、自身がイメージ特徴計算のための十分なCPU容量を有しているか決める(12820)。デバイスが十分なCPU容量を有していれば、デバイスは、場面内関心特徴を局所的に計算する(12830)。デバイスが十分なCPU容量を有していなければ、まずデバイスは、自身がさらに大きいプロセッシング容量の他のデバイス(例えば、モバイルフォン、または個人コンピュータ)と通信的にペアリングされたかを決定することができる(段階12840)。そのようなデバイスとペアリングされているならば、デバイスは、データをそのペアリングされたデバイスに送信し、ペアリングされたデバイスは、イメージ内関心特徴を計算することができる(12850)。そのようなデバイスとペアリングされていないならば、デバイスは、自身がインターネット基盤(例えば、クラウド)サービスに連結されたかを決めることができる(12860)。連結されていなければ、デバイスは、それ以上のアクションをしない。連結されているならば、デバイスは、データをクラウドサービスに送信し、そのサービスは、場面内関心特徴を計算することができる(12870)。関心特徴は、例えば、SURFを含む任意の適切なアルゴリズムを用いて(計算されるどこででも)計算されてもよい。本例で、関心特徴は、どんなマッチが発見されるか否か(及び発見される場合、関連関心情報(relevant information of interest))を決定するために、ローカルカタログ、またはインターネット基盤サービスに比較されてもよい(12880)。マッチが発見されれば(12890)、結果は、デバイス上でユーザに提示されてもよい。マッチが発見されなければ、追加で取られるアクションはない。
特定の実施例において、デバイスのカメラ、または他の光学センサーは、ユーザが行った(例えば、カメラと現実世界のターゲット間の空間で)任意のジェスチャーを認識するのに使用される。これらジェスチャーは、提示されたデータ(例えば、テキストを含む広告(sign)のような現実世界のターゲット)に対して行動するのに使用され、または拡張現実機能が実行されてもよい特定アイテムを示すのに使用される。例えば、ユーザは、広告の単語を示し、デバイスに、その単語を翻訳し、その翻訳物をユーザにディスプレイさせることができる。図17は、デバイスのカメラがキャプチャーした2個のイメージ例を示す。一例として、トラック1725、及びデバイスユーザの手1720は、いずれもデバイスのカメラ1705の視野角内にあり、デバイスによってディスプレイされる(1710に示す)。これにより、トラックに対してユーザが行ったジェスチャーは、例えば、AR機能性を提供するように、デバイスによって認識されて処理されてもよい。第2の例として、トラックのみがカメラの視野角内にあり(1715に示す)、これにより、ユーザが行ったジェスチャーは、デバイスによってキャプチャーされたり、認識されない。デバイスは、ジェスチャー認識を委任することができる。
特定の実施例において、デバイスは、そのデバイスカメラの視野フレーム(frame of view)内にオブジェクト、またはイメージがある時、そのオブジェクト、またはイメージを認識することができる。ここで説明されるように、デバイスがオブジェクトを認識する多数の方法がありえる。一例として、ユーザが行ったジェスチャー(例えば、特定オブジェクトを示すポインティングジェスチャー)は、デバイス上でAR機能性を使用可能にすることができ、そのデバイスに、オブジェクトを認識させることができる。他の例として、自動オブジェクト認識は、例えば、ユーザがカメラを一定時間特定オブジェクト(例えば、テキストの部分)上に位置させる時、起こることができる。第3の例として、デバイスのカメラが関心オブジェクトをキャプチャーした時、ユーザは、例えば、ディスプレイをタップしたり、タッチし(または、例えば、外郭リングをクリックする)、オブジェクト認識またはAR機能性を明示的に使用可能にすることができる。全域オブジェクト認識(global object recognition)は、場合によっては、計算集約的であり、また、エラー発生が容易であり得る(error-prone)。これにより、特定の実施例において、正確度を改善するために制限セット(limiting set)(例えば、雑誌やカタログのページ、または木の葉や本の表紙のような特定オブジェクトタイプのカタログ)が適用されてもよい。イメージから特徴ベクトルを計算するのに多数の選択が存在し、これらからデバイスのシステム設計者は採択することができる。場合によっては、互いに異なる接近法の間で特徴ベクトルの転換は計算面で高価であり、したがって、可能なマッチのデータベースの選択(choice of the data base of possible matches)がデバイスに複製されてもよい。特徴ベクトルの計算は、ここに説明されたように、委任されてもよい。
特定の実施例において、デバイスは、多様なタイプのバーコードを認識することができる。これらバーコードは、インターネット基盤サービスに、バーコードされたアイテムを購入し、レビューし、または今後レビューするために、ブックマークするオプションに加えて追加データを質問(query)するのに使用される。二次元バーコードは、一般的に直接判読されてもよいが、デバイスのシステムは、認識率を向上させるために、特に、小型、または一次元バーコード用の追加近接焦点モード(addition close-focus mode)を提案することができる。システムがバーコードをデコードする能力を備えられない場合、システムは、カメラで焦点を合わせ、写真を撮り、ここに説明されたように、遠隔デバイスに認識を委任することができる。図129Aないし図129Dは、バーコード認識モードの例を示す。デバイスは、アイテムに向かい(129A)、アイテムを認識し(129B)、アイテムに関してインターネットから取得した付加情報をディスプレイし(129C)、及びアイテム購買のためのインターフェースをユーザに提供することができる(129D)。
特定の実施例において、デバイスは、翻訳を遂行できる。翻訳機能性は、2個の部分に分割される:光学文字認識(OCR)、及び認識された文字、単語、または構文の翻訳.OCRは、デバイスで完了するか、またはデバイスが翻訳するデータ量を減少させるために、委任(例えば、ペアリングされたプロセッシングデバイスに委任)しうる。単純単語翻訳は、デバイスで実行されるか、または委任(例えば、ペアリングされたプロセッシングデバイスに委任)しうる。ここに説明された他の機能性と同様に、認識や翻訳の全部、または一部は、必要に応じて委任されてもよい。ユーザは、図130に示されたように、翻訳される単語(例えば、単語“Warning")を示すために、ジェスチャーを選択的に使用することができる。個別単語は、白い空間によって取り囲まれるので、システムは、翻訳を試みる前に単語を分割(segment)することができる。追加的に、デバイスがOCRを小さい遅延で遂行できるならば、デバイスは、自身が正しいテキストを対象にして正確に認識している時をユーザが分かるように、テキストをユーザに示すことができる。自動OCRが使用可能になれば、デバイスは、外向きカメラの視野角内にあるイメージを自動的に識別し、識別されたイメージに関する情報をデバイスディスプレイに提示することができる。自動翻訳が使用可能になれば、デバイスは、外向きカメラの視野角内にあるテキストを自動的に識別して、翻訳されたテキストをデバイスディスプレイに提示することができる。
図131Aないし図131Dは、ここに説明された多様な拡張現実モード(バーコード認識モード(131A)、イメージ認識モード(131B)、OCR及び翻訳モード(131C)、及びオブジェクト認識モード(131D)を含む)で動作するデバイスの例を示す。
図132は、デバイス用拡張現実システムに対する全体アクションの流れの例を示す。この例は、イメージキャプチャーアプリケーションを例示するが、デバイス上任意の適切なタスク、または、プロセスは、類似した流れに従うことができる。追加的に、デバイスがイメージをキャプチャーした後、そのデバイスが結果をユーザにディスプレイする前に任意のタスク(適すれば)は、デバイスによって委任されてもよい。本例で、デバイスカメラでイメージがキャプチャーされ(イメージキャプチャーセクション13210)、プリプロセッシングされ(セクション13220)、特徴が抽出及び認識されてイメージ認識結果を生成し(セクション13230)、任意のオブジェクトが認識されてもよい(セクション13240)。オブジェクトデータは、デバイスユーザによるアクションのために、フォーマットされてもよい。ユーザは、デバイスの拡張現実モードを活性化(例えば、ユーザジェスチャーを通じたり、デバイスのカメラでオブジェクトを所定時間を示すことによって)し(13211)、デバイスカメラ13213は、該カメラビュー内のイメージ13212をキャプチャー(例えば、ユーザ入力、または自動カメラ活性化のようなトリガーイベントに基づく)して、カメライメージ13214を生成することができる。この時点で、プリプロセッシングステージ13220に進入することができる。プリプロセッシング13220は、例えば、コントラスト向上、グレースケール(grayscale)変換、鮮明化(sharpening)、またはダウンサンプリングを含むことができる。特定の実施例において、カメラは、全般的に拡張現実モードで動作し、拡張現実モードでカメラ前方の何でもプロセッシングされ、認識される。他の実施例において、カメラは、特定モード(例えば、OCR、バーコード、または視覚マーカー(visual marker))で動作し、そのモードにある時、特定アイテムのみ認識することができる。特定の実施例において、イメージが形状、シンボル、または形状やシンボルの団体(organization)を含むことができると決定されれば(例えば、カメラ、またはデバイスがOCRモード、バーコードモード、または視覚マーカーモードにあると決定される)、ARイメージプロセッシングは、第1経路に進むことができる。この第1経路は、予備プロセッシング(preliminary processing)13221から始まり、セグメンテーション13231(これは、例えば、字、または単語のようなシンボル、またはシンボルグループの境界を決定)に進み、光学文字認識13234(例えば、イメージが文字を含むと決定されれば、かような文字がどんな文字なのかを決定)、バーコード認識13235(例えば、イメージがバーコードを含むと決定されれば、バーコードを認識)、または視覚マーカー認識(例えば、他のタイプの視覚マーカーを認識)13236(例えば、その他すべてのタイプの視覚マーカーに対して認識)のうち、1つ以上を始める。第1経路の結果は、オブジェクト認識装置13242に送られる。特定の実施例において、イメージが必ずしも知られたものではない特徴を含むと決定されれば、ARイメージプロセッシングは、第2経路に進むことができる。この第2経路は、特徴抽出(feature extraction)13222から始まる(例えば、ここで、エッジ、またはラインの存在、ラインの角度変化、エッジ、関心地点、またはパターンがキャプチャーされたイメージ内で検出)。第2経路は、イメージ認識13232に進め、ここで、イメージの特徴は、認識データベース13233(このデータベースは、例えば、デバイスに、局所的にペアリングされたデバイスに、または遠隔サーバやコンピュータにあり得る)からの特徴データと比較される。イメージ認識比較の結果13237が提供され、オブジェクト認識装置13242に送られる。オブジェクト認識セクション13240で、第1経路と第2経路は、オブジェクト認識装置13242で収斂する。ここで、オブジェクトデータベース13241からの結果は、オブジェクトの認識に使用される(例えば、イメージ認識データベース13233を用いて認識された電話機は、特定ブランドとモデルの電話機であることが認識される)。認識装置13242が認識したオブジェクトに関するオブジェクトデータ13243(例えば、認識された電話機モデルの価格、または電話機を購買できる場所)が提供されてもよい。テキストに対して、定義、または翻訳物が生成され、これらは、ユーザにディスプレイされてもよい。バーコードに対して、認識されたオブジェクトに対する製品情報や購買のためのリンクがあり、これらは、ユーザにディスプレイされる。特定の実施例において、データは完全に記述的(descriptive)であるか(例えば、電話機の価格)、または能動的でありうる(例えば、ユーザが電話機を購買できる場所に係わるリンク)。データがアクションデータ13244を含めば、アクション制御器13250(デバイスのユーザのためにGUIを制御、フォーマット及び出力)は、能動データ(例えば、電話機購買のためのリンク)を含むUIをユーザに示すことができる(13255)。ユーザがアクションを選択すれば(13260;例えば、リンクをクリックする)、アクション制御器は、ユーザにアクションUIを示し(13265;例えば、リンクのオープン)、及びアクションが確認されれば(13270)、そのアクションが実行される(13275;例えば、リンクと関連したウェブページを実際にオープンする)。
図133は、ネットワーク環境の例を示す。ここに説明されたように、特定の実施例において、デバイス13310は、他のデバイス(例えば、付近デバイス)とペアリングされる。このデバイスは、パーソナルエリアネットワーク(personal area network)13320(同一ネットワークにある他のデバイスを通じてLAN(local area network)にブリッジ(bridge)することができる)に直接連結されたり、またはこのデバイスは、LAN13330に直接連結されてもよい。パーソナルエリアネットワークは、例えば、ブルートゥース、NFC、またはZIGBEEのような非WI-FI無線技術を含むことができる。パーソナルエリアネットワークは、例えば、スマートメディアゲートウェイ13322(例えば、メディアサーバ)、スマートTV13324、他のプロセッシングプロバイダー13326、または電話機13328を含むことができる。電話機13328を通じてデバイスは、セルラーネットワーク13340に接続し、そのネットワークからインターネット13350に接続することができる。LAN13330は、例えば、認証があるか、あるいはないWI-FIを含むことができる。LANは、例えば、ローカルワイヤレスネットワークルータ(local wireless network router)13332、スマートメディアデバイス13334、スマート家電製品13336、ホームオートメーション技術13338を含むことができる。LANは、例えば、ローカルルータ13332を通じて全域インターネット13350に接続でき、この全域インターネットは、インターネットサービス(例えば、独占的(proprietary)クラウドサービス13352、またはその他のクラウドサービスパートナー13354)に接続する。本デバイスは、直接アクセス(例えば、パーソナルエリアネットワークを通じる)を通じたり、LANを通じて、一部デバイスに到達することができる。本デバイスが到達できるこれらデバイスは、本デバイスとペアリングされ、本デバイスによって制御されるか、または本デバイスを制御することができる。本デバイスは、パーソナルエリアネットワークまたはLANに、例えば、任意の適切なRF技術を用いて接続することができる。図133に示したように、周辺ターゲットデバイスでのペアリングは、RFネットワークで先に発生する可能性がある。これにより、本デバイスは、何が“付近”にあるかが分かる。ペアリングは、パーソナルエリアネットワーク(例えば、アドホック(ad-hoc)またはピアツーピア(peer to peer)ネットワーク)で起こり、または802.11ワイヤレスのような仲裁(mediated)ネットワーク(例えば、LAN)を使用しうる。隣(neighborhood)が確立されれば、本デバイスは、付近デバイスにペアリングモードへの進入を要請することができる。この要請は、直接なされるか、非常に多くの連結オプションを有するペアリングされたプロセッシングデバイス(例えば、モバイルフォン)を通じてなされる。ターゲットデバイスがペアリングモードに進入すれば、ターゲットデバイスは、それらのペアリング信号を示すことができる。例えば、ディスプレイを備えたデバイスは、そのディスプレイ上に視覚タグ(visual tag)を示し、他のデバイスは、NFCタグを使用可能にし、スキャナがそれらを識別することを許容することができる。リストからの選択、またはピンコードによる選択のような他の方法がさらに使用される。あるデバイスがペアリングターゲットとして固有に識別されれば、本デバイスは、ペアリングを完結するために、そのターゲットデバイスとセキュリティートークン(security token)を交換することができる。
図134は、ターゲットデバイスを本デバイスとペアリングするのに使用される他のタイプのペアリング技術の例を示す。ターゲットデバイス(電話機のようなスマートフォンであり得る)は、受動NFCタグ13402、または能動NFC送信機13404(本デバイスのNFCタグ判読機13420及びNFCデコーダが認識することができる);NFCデコーダ13406(本デバイスのNFCタグ記録機13422が記録したNFCタグを認識できる)、受動視覚タグ13408(例えば、ステッカー)、バーコード13410、またはその他のディスプレイ情報13412(本デバイスのカメラ13424が認識できる);または他のペアリングシステム13416を含むことができる。ターゲットデバイスの能動タグ発生器13414は、ディスプレイ情報13412を生成したり、または情報をそのターゲットデバイスの他のペアリングシステム13416に提供することができる(情報は本デバイスのミラーペアリングシステム(ペアリングコードデコーダ13438を具備する)13426によって認識される)。本デバイスは、データを他のターゲットデバイス(本デバイスにペアリングすることができる)に送信するために、NFCタグにこのデータを記録(例えば、NFCタグ記録機13422による)することができる。本デバイスが記録したタグは、ターゲットデバイス上のNFCタグデコーダ13406によって認識されてもよい。本デバイスは、バーコードデコーダ13430、視覚タグデコーダ13432、イメージ認識装置13434、またはその他のイメージ基盤デコーダ13436(例えば、QRコード(登録商標)、ロゴ、またはLEDの点滅パターン用デコーダ)を含む多数のデコーダのうち任意のものを含むことができる。これらデコーダはいずれも本デバイスのカメラ13424から入力される。本デバイスがペアリング情報を受信し、認識した後、本デバイスは、ターゲットデバイスとのペアリングを進めるために、関連情報をデコード(例えば、多様なデコーダを通じる)することができる。特定の実施例において、ペアリングは、モーションを用いて達成することができる―モーション-センシティブターゲットデバイス(例えば、モバイルフォン)を本デバイスと同じ手でとって動かすことによって、そのターゲットデバイスを本デバイスにペアリングすることができる(例えば、両デバイスが加速度計を含めば、類似のパターンのモーションが検出され、デバイスをペアリングするのに使用される)。他の例として、固定されたターゲットデバイスを本デバイスと同じ手でとっている間、その固定されたターゲットデバイスをランダムパターンでタッピングすることによって、その固定されたターゲットデバイスを本デバイスにペアリングすることができる(例えば、両デバイスがタッチ感知を含めば、類似したタッピングパターンが検出され、デバイスをペアリングするのに使用される)。追加的に、ペアリングは、オーディオを用いてなる―本デバイスとターゲットデバイスがいずれもオーディオ認識能力を有していれば、ユーザは、両デバイスが検出してペアリングを設定するという音を出す(例えば、句節を述べる(say a phrase))。デバイスの任意の適切な技術(例えば、拡張現実機能を含む)は、ローカルデバイスとペアリングし、かつローカルデバイスを制御するのに使用される。本デバイスとターゲットデバイスそれぞれは他の可能な仲裁ネットワークデバイス13440に接続し、またLAN13450に接続することができる。
図135は、ターゲットデバイスと本デバイスとをペアリング(例えば、ここに説明された任意の方法を使用する)する例示的プロセスを示す。ペアリングモードが使用可能になれば(13510)、本デバイスは、RFネットワークがペアリング可能なターゲットデバイスを含んでいるのかを決定する(13512)。含んでいなければ、追加で取られるアクションはない(例えば、デバイスは、周期的にスキャンを継続しうる)。含んでいれば、デバイスは、ペアリング可能なデバイスにペアリングモードへの進入を要請することができる(13514)。その後、引き続きデバイスは、可用ターゲットデバイスを、他の可用技術を通じて、スキャン(任意の順序で、または並列方式で)することができる。スキャンは、NFCタグスキャン13516、カメラ視野角内の視覚タグスキャン13518、カメラ視野角内のバーコードスキャン13520、またはその他の方法13522を含むことができる。これら方法のうち一方法を通じて、ターゲットデバイスが検出されれば、そのターゲットデバイスは、本デバイスとペアリングされる(13524)。ペアリングが起きれば、本デバイスは、ペアリングされたデバイスを制御するためのメニューアイテムをユーザに示すことができる。本デバイスは、ペアリングされたデバイスに対して視覚及びモーション基盤ジェスチャー制御を許容することができる。例えば、ユーザは、ペアリングされたテレビのチャネルを変更するために、ジェスチャー(例えば、手を振る)を行うことができ、または本デバイスからペアリングされたディスプレイにビデオメディアを伝送するために、ピンチングジェスチャーを行うことができる(例えば、AR機能性を使用する)。RFネットワーク上で仲裁されたデバイス制御は、局所的であり、安全である(local and securable)。図136は、ペアリングされ、制御されるテレビに対して本デバイスで使用可能になった例示的コントロール(活性ON/OFFアイコン13610、選好チャネル13620、現在のチャネルディスプレイ13630、及びボリューム13640を含む)を示す。ここに説明されるように、ユーザからの任意の適切な入力がペアリングされたデバイスの機能性を制御するために使用される。例えば、ジェスチャー入力、クリックまたは押し入力、またはタッチ入力は、例えば、ペアリングされたテレビのチャネルを変更し、ボリュームを調整し、またはその他の機能を制御するために使用される。
特定の実施例において、デバイス用ペアリング及び制御モデルは、後述する特性を含むことができる。デバイスは、遠隔デバイス(例えば、制御可能なサーモスタットのようなアップセサリ(appcessory))の1つ以上の機能と相互作用するか、この機能を制御するアプリケーションに対するホストとして機能することができる。以前にアプリケーションに対するホストであったスマートフォン(または、その他の局所的にペアリングされたデバイス)は、遠隔デバイスとの相互作用、または遠隔デバイスの制御に関する一定機能(例えば、遠隔デバイスへの長距離(longer-range)ワイヤレス接続性、遠隔デバイスへのコマンド送信、遠隔デバイスからのデータ受信、またはタスクプロセッシング)を本デバイスから委任される単にローカルターゲットデバイスとして機能することができる。本デバイスは、例えば、視覚手段(例えば、カメラを使用)、またはモーション基盤ジェスチャーを含む任意の適切な手段を用いて遠隔アップセサリデバイスを制御することができる。他の実施例において、局所的にペアリングされたスマートフォンは、遠隔アップセサリと相互作用するアプリケーションに対するホストとして機能し続けるが、本デバイスは、アプリケーションに/から入力/出力されるデータのためのユーザインタフェースの全部、または一部を提供することができる(例えば、スマートフォンによってホストされるアプリケーションの“軽い(light)”バージョン)。例えば、ユーザは、本デバイスを用いてアプリケーションを制御できるが、スマートフォンは、依然としてアプリケーションのホストとして機能することができる。
特定の実施例において、デバイスは、1つ以上のサービスで動作することができる。かようなサービスは、セキュリティー、エネルギー、ホーム自動化及び制御、コンテンツ共有、ヘルスケア、スポーツ及びエンターテインメント、コマース、車両、及びソーシャルアプリケーションを含むカテゴリーに属することができる。
セキュリティーアプリケーションの例は、次を含む。デバイスは、ロック解除(unlocked)デバイスを着用しているユーザを、前記ユーザ近くのさらなるデバイス(例えば、前記デバイスとペアリングされた)に認証することができる。デバイスは、例えば、デバイスの外郭リングを回転させることを含む適切な入力を用いて、前記ユーザによって入力されたコードでロック解除される。一例として、ユーザが外郭リングを回転したり、押したり、クリックする間、ディスプレイは、前記ユーザによる回転、押し、またはクリックに対応する英数字、または記号データを示すことができる。もし、例えば、ユーザが外郭リングを時計周り方向に、1回転増分のみ回転させれば(または、例えば、外郭リングを1回クリックしたり押せば)、ディスプレイは、ユーザに“1”を示すことができ、もし、ユーザが外郭リングを例えば、ミリ秒(millisecond)のような所定期間内で、時計周り方向に、2回転増分のみ回転させれば(または、例えば、外郭リングを2回クリックしたり押せば)、ディスプレイは、ユーザに“2”を示すことができる。特定の実施例において、ユーザによる回転(または押し、またはクリック)に対応する英数字、または記号データのディスプレイは、ユーザに、組合わせロック(combination lock)の隠喩を用いてデバイスをロック解除することを許容する。デバイスは、また生体データ(例えば、ユーザの皮膚、またはボーンシグネチャ(bone signature)による)を利用し、またロック解除されてもよい。
エネルギーアプリケーションの例で、デバイスは、室内のエネルギー消費、または、ユーザが位置している他の位置に係わる情報を自動的にディスプレイすることができる。デバイスは、他のペアリングされたデバイスのエネルギー消費に対する情報をディスプレイでき、ユーザが位置を変更することによって、かようなすべての情報を動的にアップデートすることができる。
ホーム制御アプリケーションの例で、ユーザは、例えば、外郭リングの回転、またはジェスチャー入力を用いてペアリングされたホーム制御デバイスを選択して、直接制御することができる。
ユーザは、デバイスで、またはデバイスからコンテンツの共有や伝送(例えば、デバイスで再生しているビデオをペアリングされた(paired)テレビに伝送)を制御するためにジェスチャーを用いることができる。また、映画字幕のような補助情報は、さらなるより大きなデバイスの例を挙げて、映画を再生するテレビに、コンテンツを示すために、前記デバイスに提供することができる。
デバイスは、例えば、もしユーザが運動をしていたり、寝ているならば、ヘルスケアコンテキストを自動的に決定することができる。デバイスがかようなコンテキストを決定する時、デバイスは、例えば、運動の心拍数、運動中の動き、運動期間、運動中の脈拍酸素測定(pulse oximetry)、睡眠パターン、睡眠期間、または電気皮膚反応(galvanic skin response)を記録するためのヘルスケアコンテキストに対応するアプリケーションを始めることができる。デバイスは、例えば、ユーザのヘルス関連データ(例えば、心拍数、動き、または脈拍酸素測定)を測定し、かようなデータの一部、または全部をペアリングされたデバイス、またはサーバに送ることができる。たとえヘルスケアコンテキストで示されたとしても、例えば、ユーザの行動に基づいた適切なコンテキストの決定、対応するアプリケーションの開始、データの記録、またはかようなデータの伝送はいかなる適切なコンテキストでも適用される。
デバイスは、例えば、ユーザのゴルフスイングを自動的に評価し、修正を提案するようなスポーツ関連アプリケーションでも一助となる。
商業的設定で、デバイスは、ユーザが商品を取った時、例えば、RFID、NFC、バーコード認識、またはオブジェクト認識を用いて商品を自動的に識別し、例えば、栄養情報、ソース情報、またはレビューのようなその商品についての情報、またはその商品を購入するオプションを提供することができる。商品に対する支払いは、例えば、デバイスの視覚的バーコード技術を用いてなる。特定の実施例において、デバイスは、NFC、RFID、またはその他の異なる短距離通信の適切な形態を利用して商品に対して支払うのに利用することができる。支払いの間、ユーザ情報は、例えば、デバイスによって認証され、デバイスは、例えば、骨構造、または皮膚シグネチャ(skin signature)等のユーザ生体情報を検出することができる。ユーザが、例えば、デバイスに保存されたショッピングリスト、または、例えば、ユーザの友人のウィッシュリストのようなさらなるリストにある商品に近くいる時、デバイスは、ユーザに、例えば、振動のような表示を自動的に提供することができる。
デバイスは、1つ以上の車両をロック解除するか、キーとして機能することができる。ユーザは、例えば、前述したように、NFC技術を用いて車両をロック解除したり、つけるために、外郭リングを用いてコードを入力することができる。特定の実施例において、ユーザ生体情報とユーザによって入力されたコードがいずれも車をロック解除するために要求されるが、これは車基盤アプリケーションに対して向上したセキュリティーを提供する。また、デバイスは、1つ以上のユーザに対するプロファイルを含み、各プロファイルは、例えば、温度、または座席位置のような車両設定を含みうる。さらに他の例として、特定ユーザの生体情報は、デバイスをロック解除するだけではなく、車の動作の間、如何なるユーザプロファイルがロードされねばならないかを決定するのにも利用することができる。デバイスの車両までの近接性は、車両をして、ユーザのプロファイルの車両設定を実現するように自動的に作ることができる。デバイスは、例えば、デバイスに直接、またはフォンとペアリングされて制御する時、GPSナビゲーションのために動作することもできる。
デバイスは、リアリティー組合わせゲーム(mixed-reality game)、または大量マルチレイヤリアリティー基盤ゲームのための支援を提供するサービスにアクセスし、そのサービスと共に動作しうる。かような機能性は、例えば、ユーザデータ(ユーザプロファイル及び完了したレベル、またはサプライ目録(inventories of supplies)のようなゲーム関連データ)の登録、管理、及び成就リスト(accomplishment lists)の管理を含むことができる。デバイスとサービスとの機能性は、脆弱な無線通信チャネルを取り扱って統合されたAPIを第3当事者ゲームサーバに提供する連結性管理(例えば、集中装置機能性(concentrator functionality))をも含むことができる。
デバイスは、デバイスのユーザが、位置、チェックイン、または他の位置基盤データを公開することを許容するサービスにアクセスし、このサービスと共に動作することができる。かような位置基盤データは、サービスが、ユーザの位置及び状態に関する最も最近の情報の一貫した保存所にアクセスすることを許容する。例えば、デバイスのユーザは、類似したデバイスを用いて友人を探すことができる。サービス及びデバイスは、共に状態アップデート、プロファイル管理、アプリケーションアクセス許容、ブラックリスト、または、ユーザ対ユーザアクセス許容を取り扱うことができる。サービスは、個人的データに対して信頼性のある、そして中央集中化された接点になる。統合された位置サービスへのアクセスを結合することによって、エネルギー及びバッテリーの寿命は、特定の実施例で節約される。特定の実施例において、如何なる機能性トークンは、ユーザの位置に基づいて可用になる。アプリケーションは、例えば、かようなトークンが使用可能であり、それにしたがって行動するかを見るために、デバイス上でチェックすることができる。サーバ側で、APIは開発者に、トークンの使用を見たり、または補完を許容させることを可能にする。特定の実施例において、情報は、デバイスによって他のユーザ(例えば、単一ユーザ、または放送モードで複数ユーザ)に配布されてもよい。
デバイスは、自体が、ポール(polls)を送受信することを許容する統合されたフォーリングインターフェースを提供するサービスをアクセスし、そのサービスと共に動作することができる。デバイスとサービスは、共に配布目録、算定基準、及びポール効用フレーム(poll availability frame)(例えば、時間的及び地理的)を管理することができる。かようなサービスは、第三者がアプリケーションを作るためにAPIを使用し、オンラインAPIを通じて結果を返されるように、デバイスに、そしてサーバに露出させる。
特定の実施例において、デバイスは、デバイスの円形ディスプレイにテキスト、イメージ、または他の情報のプレゼンテーション最適化を提供するサービスにアクセスし、このサービスと共に動作することができる。例えば、ウェブサイトは、コンピュータモニタ上でのディスプレイのために、レンダリング、またはフォーマットされてもよいが、サービスは、イメージを強調してテキスト長を減らすことによって、さらに小さい円形ディスプレイのために、レンダリング及びフォーマッティングをカスタマイズすることができる。カスタマイズされたレンダリング及びフォーマッティングは、例えば、デバイス、1つ以上のサーバ、または局所的にペアリングされた(locally-paired)デバイス間に委任可能なタスクになる。かようなサービスは、ニュース、または広告サービスも含むことができる。
図137は、例示的なコンピュータシステム13700を示す。特定の実施例において、1つ以上のコンピュータシステム13700は、ここで記述されたり、または図示された1つ以上の方法の1つ以上の段階を行う。特定の実施例において、1つ以上のコンピュータシステム13700は、ここで記述されたり、図示された機能性を提供する。特定の実施例において、1つ以上のコンピュータシステム13700で実行されるソフトウェアは、ここで記述されたり図示された1つ以上の方法の1つ以上の段階を遂行したり、またはここで記述されたり、図示された機能性を提供する。特定の実施例は、1つ以上のコンピュータシステム13700の1つ以上の部分を含むことができる。ここで、コンピュータシステムの参照は、望ましくは、コンピューティングデバイスを含むことができる。また、コンピュータシステムの参照は、望ましくは、1つ以上のコンピュータシステムを含むことができる。
本開示は、いかなる適切な数字のコンピュータシステム13700でもあると考慮する。本開示はある適切な物理的形態を取るコンピュータシステム13700を考慮する。限定的な意味ではなく、一例として、コンピュータシステム13700は、エンベデッドコンピュータシステム、SOC(System-on-Chip)、シングル-ボードコンピュータシステム(SBC)(例、コンピュータ-オン-モジュール(computer-on-module(COM))、またはシステム-オン-モジュール(system-on-module(SOM)))、デスクトップコンピュータシステム、ラップトップ、またはノートブックコンピュータシステム、インタラクティブキオスク(interactivekiosk)、メインフレーム、コンピュータシステムメッシュ(mesh of computer systems)、モバイルテレホン、パーソナルデジタルアシスタント(PDA)、サーバ、タブレットコンピュータシステム、またはかようなものなどの2つ以上の組合わせになる。望ましくは、コンピュータシステム13700は、1つ以上のコンピュータシステム13700を含むが、かような1つ以上のコンピュータシステム13700は、単一形態であるか、または分散形態でもあり、複数の位置に亙っているか、複数の機械に亙っているか、複数のデータセンターに亙っているか、または1つ以上のネットワークで1つ以上のクラウドコンポーネントを含みうるクラウドに常駐する。望ましくは、1つ以上のコンピュータシステム13700は、実質的な空間的、または時間的制約なしに、ここで記述されたり、図示された1つ以上の方法の1つ以上の段階を行える。限定的な意味でなく一例として、1つ以上のコンピュータシステム13700は、リアルタイムで、またはバッチモード(batch mode)で、ここで記述されるか、図示された1つ以上の方法の1つ以上の段階を行える。1つ以上のコンピュータシステム13700は、望ましくは、ここで記述されたり、図示された1つ以上の方法の1つ以上の段階を互いに異なる時間でまたは互いに異なる位置で行える。
特定の実施例において、コンピュータシステム13700は、プロセッサ13702、メモリ13704、保存所13706、入力/出力(I/O)インターフェース13708、通信インターフェース13710、及びバス13712を含む。たとえ本開示が特定数の特定のコンポーネントを特定の配列で有する特定のコンピュータシステムを記述して図示するとしても、本開示は、いかなる数のいかなるコンポーネントを、いかなる配列で有する、いかなる適切なコンピュータシステムをも考慮する。
特定の実施例において、プロセッサ13702は、コンピュータプログラムを構成するようなインストラクションを実行するハードウェアを含む。限定的な意味ではなく、一例として、インストラクションを実行するために、プロセッサ13702は、内部レジスター、内部キャッシュ、メモリ13704、または保存所13706からインストラクションを取り出し(retrieve or fetch)、インストラクションをデコードして実行し、その後、1つ以上の結果を内部レジスター、内部キャッシュ、メモリ13704、または保存所13706に記録することができる。特定の実施例において、プロセッサ13702は、データ、インストラクション、またはアドレスのための1つ以上の内部キャッシュを含むことができる。本開示は、望ましくは、いかなる適切な数のいかなる適切な内部キャッシュでも含むプロセッサ13702を考慮する。限定的な意味ではない例として、プロセッサ13702は、1つ以上のインストラクションキャッシュ、1つ以上のデータキャッシュ、1つ以上の変換索引バッファ(translation lookaside buffer:TLB)を含むことができる。インストラクションキャッシュにあるインストラクションは、メモリ13704、または保存所13706にあるインストラクションの複写本であり、インストラクションキャッシュは、プロセッサ13702によってかようなインストラクションを取り出す速度を速くすることができる。データキャッシュにあるデータは、プロセッサ13702で実行されるインストラクションの動作対象である、メモリ13704、または保存所13706にあるデータの複写本や、プロセッサ13702で実行された後にインストラクションによるアクセス、またはメモリ13704、または保存所13706での記録のために、プロセッサ13702で実行される以前のインストラクションの結果であるか、またはそれ以外の適切なデータになる。データキャッシュは、プロセッサ13702による読出し、または書込み動作の速度を速くすることができる。TLBは、プロセッサ13702のために仮想アドレス変換の速度を速くすることができる。特定の実施例において、プロセッサ13702は、データ、インストラクション、またはアドレスのための1つ以上の内部レジスターを含むことができる。本開示は、望ましくは、いかなる適切な数のいかなる適切な内部レジスターでも含むプロセッサ13702を考慮する。望ましくは、プロセッサ13702は、1つ以上の算術論理演算ユニット(ALU)を含むか、マルチコアプロセッサ(multi-core processor)であるか、または1つ以上のプロセッサ13702を含むことができる。たとえ本開示が、特定プロセッサを記述して図示しているとしても、本開示はいかなる適切なプロセッサも考慮する。
特定の実施例において、メモリ13704は、プロセッサ13702が実行するインストラクション及びプロセッサ13702が演算するデータを保存するためのメインメモリを含む。限定的な意味ではなく、一例として、コンピュータ13700は、保存所13706、または、例えば、他のコンピュータシステム13700のようなさらなるソースからメモリ13704にインストラクションを積載することができる。プロセッサ13702は、その次のインストラクションをメモリ13704から内部レジスター、または、内部キャッシュに積載することができる。インストラクションを実行するために、プロセッサ13702は、内部レジスター、または、内部キャッシュからインストラクションを取り出して、インストラクションをデコードすることができる。インストラクションを実行する間、または実行後に、プロセッサ13702は、中間、または最終結果である1つ以上の結果を、内部レジスター、または、内部キャッシュに記録することができる。プロセッサ13702は、その次の1つ以上の結果をメモリ13704に記録することができる。特定の実施例において、プロセッサ13702は、保存所13706やそれ以外の他の所とは違って、1つ以上の内部レジスター、内部キャッシュ、またはメモリ13704では、インストラクションのみを実行し、また、保存所13706やその以外の他の所とは違って、1つ以上の内部レジスター、内部キャッシュ、またはメモリ13704では、データのみを演算することができる。1つ以上のメモリバス(各メモリバスは、アドレスバスとデータバスとを含む)は、プロセッサ13702をメモリ13704に連結させうる。バス13712は、後述されるように1つ以上のメモリバスを含むことができる。特定の実施例において、1つ以上のメモリ管理ユニット(MMU)は、プロセッサ13702とメモリ13704との間に常駐し、プロセッサ13702によって要求されたメモリ13704でのアクセスを容易にする。特定の実施例において、メモリ13704は、ランダムアクセスメモリ(RAM)を含む。かようなRAMは、必要に応じて、揮発性メモリでもあり、かつ、かようなRAMは、必要に応じて、動的RAM(Dynamic RAM:DRAM)、または静的RAM(Static RAM:SRAM)になる。また、必要に応じて、かようなRAMは、シングルポート(single-ported)、またはマルチポート(multi-ported)RAMになる。本開示は、いかなる適切なRAMも考慮する。メモリ13704は、適切ならば、1つ以上のメモリ13704を含むことができる。たとえ本開示は、特定メモリを記述して図示しているとしても、本開示はいかなる適切なメモリも考慮する。
特定の実施例において、保存所13706は、データ、またはインストラクションのための大容量保存所を含む。限定的な意味ではなく、一例として、保存所13706は、ハードディスクドライブ(HDD)、フロッピー(登録商標)ディスクドライブ、フラッシュメモリ、光学ディスク、光磁気ディスク、磁気テープ、または汎用直列バス(USB)ドライブ、またはこれらのうち、2つ以上の組合わせを含むことができる。保存所13706は、望ましくは、除去可能な、または除去不可能な(または、固定された)媒体を含むことができる。保存所13706は、望ましくは、コンピュータシステム13700の内部、または外部にあり得る。特定の実施例において、保存所13707は、不揮発性、固体状態メモリ(solid-state memory)である。特定の実施例において、再生専用メモリ(ROM)である。望ましくは、かようなROMは、マスクプログラムされたROM(mask-programmed ROM)、プログラマブルROM(PROM)、消去型PROM(EPROM)、電気的消去型PROM(EEPROM)、電気的変更可能ROM(electrically alterable ROM:EAROM)、またはフラッシュメモリ、またはこれらのうち、2つ以上の組合わせになる。本開示は、いかなる適切な物理的形態を有する大容量保存所13706も考慮する。保存所13706は、望ましくは、プロセッサ13702と保存所13706との通信を容易にする1つ以上の保存制御ユニットを含むことができる。望ましくは、保存所13706は、1つ以上の保存所13706を含むことができる。たとえ本開示が特定の保存所を記述して図示しているとしても、本開示はいかなる適切な保存所も考慮する。
特定の実施例において、I/Oインターフェース13708は、コンピュータシステム13700と1つ以上のI/Oデバイスとの通信のための1つ以上のインターフェースを提供するハードウェア、ソフトウェア、またはこれら両者を含む。コンピュータシステム13700は、望ましくは、1つ以上のI/Oデバイスを含む。1つ以上のI/Oデバイスは、人とコンピュータシステム13700との通信を可能にする。限定的な意味ではなく、一例として、I/Oデバイスは、キーボード、キーパッド、マイクロホン、モニタ、マウス、プリンタ、スキャナ、スピーカ、静止カメラ、スタイラス、タブレット、タッチスクリーン、トラックボール、ビデオカメラ、さらに他の適切なI/Oデバイス、またはこれらのうち、2つ以上の組合わせを含むことができる。I/Oデバイスは、1つ以上のセンサーを含むことができる。本開示は、いかなる適切なI/Oデバイスも、いかなる適切なI/Oインターフェースも考慮する。望ましくは、I/Oインターフェース13708は、プロセッサ13702が1つ以上のI/Oデバイスを駆動することを可能にする1つ以上のデバイス、またはソフトウェアドライブを含むことができる。I/Oインターフェース13708は、望ましくは、1つ以上のI/Oインターフェースを含むことができる。たとえ本開示が特定のI/Oインターフェースを記述して図示しいているとしても、本開示は、いかなる適切なI/Oインターフェースも考慮する。
特定の実施例において、通信インターフェース13710は、コンピュータシステム13700と1つ以上の他のコンピュータシステム13700、または1つ以上のネットワークとの通信(例えば、パケット基盤通信)のための1つ以上のインターフェースを提供する、ハードウェア、ソフトウェア、またはこれらをいずれもを含む。限定的な意味ではなく、一例として、通信インターフェース13710は、イーサネット(登録商標)、または他の有線基盤ネットワークとの通信のためのネットワークインターフェースコントローラ(NIC)、またはネットワークアダプタ、またはWI-FIネットワークのような無線ネットワークと通信するための無線NIC(WNIC)、または無線アダプタを含むことができる。本開示はいかなる適切なネットワーク及びいかなる適切な通信インターフェース13710でも考慮する。限定的な意味ではなく、一例として、コンピュータシステム13700は、アドホックネットワーク(adhoc network)、パーソナルエリアネットワーク(PAN)、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、メトロポリタンエリアネットワーク(MAN)、ボディーエリアネットワーク(BAN)、またはインターネットの1つ以上の部分、またはそれらのうち、2つ以上の組合わせと通信することができる。これらネットワークのうち、1つ以上のネットワークの1つ以上の部分は、有線、または無線でありうる。例でば、コンピュータシステム13700は、例えば、ブルートゥースWPANのような無線PAN(WPAN)、WI-FIネットワーク、WI-MAXネットワーク、例えば、モバイル通信のためのグローバルシステムネットワーク(Global system for Mobile communication(GSM(登録商標)) network)のようなセルラーテレホンネットワーク、または他の適切な無線ネットワーク、またはこれらのうち、2つ以上の組合わせと通信することができる。コンピュータシステム13700は、必要ならば、これらネットワークのうち、あるネットワークのためのある適切な通信インターフェース13710を含むことができる。通信インターフェース13710は、望ましくは、1つ以上の通信インターフェース13710を含むことができる。たとえ本開示が特定の通信インターフェースを記述して図示しているとしても、本開示はいかなる適切な通信インターフェースも考慮する。
特定の実施例において、バス13712は、コンピュータシステム13700のコンポーネントを互いに結合させるハードウェア、ソフトウェア、または両者を含む。限定的な意味ではなく、一例として、バス13712は、加速グラフィックポート(Accelerated Graphics Port:AGP)、または他のグラフィックバス、向上した産業標準アーキテクチャーバス(Enhanced Industry Standard Architecture(EISA) bus)、フロントサイドバス(front-side bus(FSB))、HYPERTRANSPORT(HT)インターコネクタ、産業標準アーキテクチャーバス(Industry Standard Architecture(ISA) bus)、INFINIBANDインターコネクタ、ロー・ピン-カウントバス(low-pin-count(LPC) bus)、メモリバス、マイクロチャネルアーキテクチャーバス(Micro Channel Architecture(MCA) bus)、周辺コンポーネントインターコネクタバス(Peripheral Component Interconnect(PCI) bus)、PCI-エキスプレスバス(PCI-Express(PCIe) bus)、シリアル・アドバンス・テクノロジー・アタッチメント・バス(Serial Advanced Technology attachement(SATA) bus)、ビデオ電子標準連合ローカルバス(Video Electronics Standard Association local(VLB) bus)、またはさらに他の適切なバス、またはこれらのうち、2つ以上の組合わせを含むことができる。バス13712は、適切ならば1つ以上のバス13712を含むことができる。たとえ本開示が特定のバスを記述して図示しているとしても、本開示はいかなる適切なバスまたはインターコネクタをも考慮する。
ここで、コンピュータ可読非一時的(non-transitory)記録媒体は、1つ以上が半導体基盤、または他の集積回路(IC)(例えば、フィールドプログラマブルゲートアレイ(field-programmable gate array(FPGAs))、または特殊用途集積回路(application-specificICs(ASICs)))、ハードディスクドライブ(HDD)、ハイブリッドハードドライブ(HHD)、光ディスク、光ディスクドライブ(ODDs)、光磁気ディスク、光磁気ドライブ、フロッピーディスケット、フロッピーディスクドライブ(FDD)、磁気テープ、固相ドライブ(SSD)、RAMドライブ、SECURE DIGITALカード、またはドライブ、他の適切なコンピュータ可読非一時的記録媒体、またはこれらのうち、2つ以上の適切な組合わせを含むことができる。コンピュータ可読非一時的記録媒体は、揮発性、不揮発性、または揮発性と不揮発性との組合わせになる。
ここで、“または”は明白に異なって表示されない限り、またはコンテキストによって異なって表示されない限り、含むという意味であり、排他的な意味ではない。したがって、ここで“AまたはB”は、明白に別途に表示されない限り、またはコンテキストによって異なって表示されない限り、“A、B、または両者”を意味する。また、“及び”は、明白に別途に表示されない限り、またはコンテキストによって異なって表示されない限り、連帯(joint and several)の意味である。したがって、ここで“A及びBは、明白に別途に表示されない限り、またはコンテキストによって異なって表示されない限り、“A及びB、連帯して(jointly and severally)”を意味する。
本開示の範囲は、本技術分野の当業者が理解する、ここで記述されたり、図示された実施例に対するすべての変更、代替、変形、改造及び修正を含む。本開示の範囲は、ここで記述されたり、図示された実施例に限定されない。また、本開示が特定コンポーネント、エレメント、特徴、機能、動作、または段階を含む各実施例を記述して図示するが、かような実施例のいずれも、本技術分野の当業者が理解する、ここで記述されたり、図示された特定コンポーネント、エレメント、特徴、機能、動作、または段階のいかなる組合わせ、または置換を含むことができる。また、添付された請求項で、特定機能を行うために適応した(adapted to)、配列された(arrangedto)、遂行することができる(capableof)、構成された(configuredto)、可能にする(enabled to)、動作可能な(operable to)、または動作する(operative)装置、またはシステム、または装置、またはシステムのコンポーネントは、その装置、システム、またはコンポーネントがそのように適応しており、配列されており、遂行することができ、構成され、可能になり、動作可能であり、または動作する限り、特定の機能が活性化されているか、ターンオンされているか、またはロック解除されたかに関係なく、その装置、システム、コンポーネントを含む。
本開示が着用式デバイスのコンテキストで特定の構造、特徴、相互作用、及び機能性を記述するが、本開示は、かような構造、特徴、相互作用、または機能性が、望ましくは、いかなる他の適切な電子デバイス(例、スマートフォン、タブレット、カメラ、または個人コンピューティングデバイス)に適用され、かような電子デバイスのために使われ、かような電子デバイスでも使用可能であることを考慮する。
100 着用式電子デバイス
105 本体
110 円形ディスプレイ
115 外郭リング
120 バンド
125 カメラモジュール
200 スタックアップ
205 保護ガラス
210 タッチ・センシティブ・レイヤ
215 ディスプレイ
220 バッテリー
225 プロセッシングボード
230 エンコーダ
235 外郭リング
240 バンド
245 基台
250 内部コネクタ
255 光学感知モジュール

Claims (15)

  1. 1つ以上のプロセッサと、
    前記1つ以上のプロセッサによって実行可能なインストラクションを含む、前記1つ以上のプロセッサに接続されたメモリと、を含み、
    前記1つ以上のプロセッサは、インストラクションを実行する時、
    1つ以上の第1エレメントを含むグラフィカル・ユーザ・インターフェースの第1スクリーンを前記装置のディスプレイに提供し、
    前記グラフィカル・ユーザ・インターフェースで転移を示すユーザ入力を受信し、
    前記ユーザ入力に応答して、前記グラフィカル・ユーザ・インターフェースの前記第1スクリーンから、1つ以上の第2エレメントを含む第2スクリーンに転移し、1つ以上の視覚的転移効果を前記転移に適用するように動作する装置。
  2. 前記1つ以上のプロセッサ、前記メモリ、前記ディスプレイ、前記ディスプレイに対して回転自在なエレメント、及び前記回転自在なエレメントの回転を検出するように構成された検出器を含むデバイス本体と、
    前記デバイス本体に連結されたバンドと、
    前記バンド内に、または前記バンド上にある光学センサーと、をさらに含む請求項1に記載の装置。
  3. 前記ユーザ入力は、タッチを含む請求項1に記載の装置。
  4. 前記ユーザ入力は、前記装置の前記ディスプレイに対して回転自在なエレメントの回転を含む請求項1に記載の装置。
  5. 前記ユーザ入力は、前記回転自在なエレメントの低加速回転を含み、
    前記低加速回転は、回転増分を含み、
    前記視覚的転移効果は、前記回転増分に応答して、前記第1スクリーンの少なくとも一部、及び前記第2スクリーンの少なくとも一部をディスプレイすることを含む請求項4に記載の装置。
  6. 前記ユーザ入力は、前記回転自在なエレメントの高加速回転を含み、
    前記高加速回転は、回転増分を含み、
    前記視覚的転移効果は、
    前記第1スクリーンの少なくとも一部のスケール変更されたバージョンをディスプレイすることと、
    第3スクリーンの少なくとも一部のスケール変更されたバージョンをディスプレイすることと、
    前記第2スクリーンの少なくとも一部のスケール変更されたバージョンをディスプレイすることと、を含む請求項4に記載の装置。
  7. 前記第2スクリーンと前記第1スクリーンは、同一であり、
    前記ユーザ入力は、前記装置の前記ディスプレイに対し回転自在なエレメントの回転を含み、
    前記視覚的転移効果は、前記第1スクリーンの前記1つ以上の第1エレメントにズームすることを含む請求項1に記載の装置。
  8. 前記第2スクリーンと前記第1スクリーンは、同一であり、
    前記ユーザ入力は、前記装置の前記ディスプレイに対して回転自在なエレメントの回転を含み、
    前記1つ以上の第1エレメントは、テキストを含み、
    前記視覚的転移効果は、前記テキストをナビゲートすることを含む請求項1に記載の装置。
  9. 前記第2スクリーンと前記第1スクリーンは、同一であり、
    前記ユーザ入力は、前記装置の前記ディスプレイに対して回転自在なエレメントの回転を含み、
    前記1つ以上の第1エレメントは、チャートを含み、
    前記視覚的転移効果は、前記チャートをナビゲートすることを含む請求項1に記載の装置。
  10. 前記ユーザ入力は、前記装置の前記ディスプレイに対して回転自在なエレメントの回転を含み、
    前記視覚的転移効果は、前記第2スクリーンをディスプレイするために前記第1スクリーンを畳み込むアニメーションを含む請求項1に記載の装置。
  11. 1つ以上の第1エレメントを含むグラフィカル・ユーザ・インターフェースの第1スクリーンをコンピューティング・デバイスのディスプレイに提供する段階と、
    前記グラフィカル・ユーザ・インターフェースで転移を示すユーザ入力を受信する段階と、
    前記コンピューティング・デバイスによって、前記ユーザ入力に応答して、前記グラフィカル・ユーザ・インターフェースの前記第1スクリーンから、1つ以上の第2エレメントを含む第2スクリーンに転移し、1つ以上の視覚的転移効果を前記転移に適用する段階と、を含む方法。
  12. 前記コンピューティング・デバイスは、
    1つ以上のプロセッサ、メモリ、前記ディスプレイ、前記ディスプレイに対して回転自在なエレメント、及び前記回転自在なエレメントの回転を検出するように構成された検出器を含むデバイス本体と、
    前記デバイス本体に連結されたバンドと、
    前記バンド内に、または前記バンド上にある光学センサーと、をさらに含む請求項11に記載の方法。
  13. 前記ユーザ入力は、タッチを含む請求項11に記載の方法。
  14. 前記ユーザ入力は、前記コンピューティング・デバイスの前記ディスプレイに対して回転自在なエレメントの回転を含む請求項11に記載の方法。
  15. ソフトウェアを含んでいるコンピュータ可読非一時的記録媒体であって、
    前記ソフトウェアが実行される時、
    1つ以上の第1エレメントを含むグラフィカル・ユーザ・インターフェースの第1スクリーンをコンピューティング・デバイスのディスプレイに提供し、
    前記グラフィカル・ユーザ・インターフェースで転移を示すユーザ入力を受信し、
    前記ユーザ入力に応答して、前記グラフィカル・ユーザ・インターフェースの前記第1スクリーンから、1つ以上の第2エレメントを含む第2スクリーンに転移し、1つ以上の視覚的転移効果を前記転移に適用するように動作させる記録媒体。
JP2013240449A 2012-11-20 2013-11-20 着用式電子デバイスでのgui転移 Expired - Fee Related JP6553328B2 (ja)

Applications Claiming Priority (22)

Application Number Priority Date Filing Date Title
US201261728765P 2012-11-20 2012-11-20
US201261728773P 2012-11-20 2012-11-20
US201261728770P 2012-11-20 2012-11-20
US61/728,770 2012-11-20
US61/728,773 2012-11-20
US61/728,765 2012-11-20
US201361773803P 2013-03-06 2013-03-06
US61/773,803 2013-03-06
US201361773813P 2013-03-07 2013-03-07
US201361773815P 2013-03-07 2013-03-07
US201361773817P 2013-03-07 2013-03-07
US61/773,813 2013-03-07
US61/773,815 2013-03-07
US61/773,817 2013-03-07
US201361775686P 2013-03-11 2013-03-11
US201361775687P 2013-03-11 2013-03-11
US201361775688P 2013-03-11 2013-03-11
US61/775,686 2013-03-11
US61/775,687 2013-03-11
US61/775,688 2013-03-11
US14/015,890 2013-08-30
US14/015,947 US11237719B2 (en) 2012-11-20 2013-08-30 Controlling remote electronic device with wearable electronic device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019095524A Division JP6804586B2 (ja) 2012-11-20 2019-05-21 着用式電子デバイスでのgui転移

Publications (2)

Publication Number Publication Date
JP2014102838A true JP2014102838A (ja) 2014-06-05
JP6553328B2 JP6553328B2 (ja) 2019-07-31

Family

ID=49641554

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2013240449A Expired - Fee Related JP6553328B2 (ja) 2012-11-20 2013-11-20 着用式電子デバイスでのgui転移
JP2013240457A Expired - Fee Related JP6421911B2 (ja) 2012-11-20 2013-11-20 着用式電子デバイスのための転移及び相互作用モデル
JP2013240459A Expired - Fee Related JP6330995B2 (ja) 2012-11-20 2013-11-20 着用式電子デバイスによる遠隔電子デバイスの制御

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2013240457A Expired - Fee Related JP6421911B2 (ja) 2012-11-20 2013-11-20 着用式電子デバイスのための転移及び相互作用モデル
JP2013240459A Expired - Fee Related JP6330995B2 (ja) 2012-11-20 2013-11-20 着用式電子デバイスによる遠隔電子デバイスの制御

Country Status (7)

Country Link
US (2) US11237719B2 (ja)
EP (2) EP2733608B1 (ja)
JP (3) JP6553328B2 (ja)
KR (3) KR102186458B1 (ja)
CN (1) CN104919421B (ja)
AU (1) AU2013260681B2 (ja)
WO (1) WO2014081175A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160039440A (ko) * 2014-10-01 2016-04-11 삼성전자주식회사 이동 통신 시스템에서 통신 및 디스커버리 신호 송신 기법
JP2016197087A (ja) * 2015-04-06 2016-11-24 バンドー化学株式会社 静電容量型センサシート及びセンサ装置
JP2017526061A (ja) * 2014-07-30 2017-09-07 サムスン エレクトロニクス カンパニー リミテッド ウェアラブルデバイス、及びウェアラブルデバイスの動作方法
US9823751B2 (en) 2014-07-30 2017-11-21 Samsung Electronics Co., Ltd Wearable device and method of operating the same
JP2018508900A (ja) * 2015-03-03 2018-03-29 イマージョン コーポレーションImmersion Corporation ウェアラブルデバイス表面触覚相互作用
US10274992B2 (en) 2014-11-12 2019-04-30 Kyocera Corporation Wearable device with muscle activity detector
JP2021509991A (ja) * 2018-01-03 2021-04-08 グレーヒル, インコーポレイテッドGrayhill, Inc. タッチエンコーダ、タッチパネル、及び統合開発環境を有する入力方法エディタ、並びにその方法
JP2022031799A (ja) * 2015-06-16 2022-02-22 インテル コーポレイション ウェアラブル・デバイス、電子装置、記憶媒体、及びコンピュータ・プログラム

Families Citing this family (176)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
US10313505B2 (en) 2006-09-06 2019-06-04 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
US8519964B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8619038B2 (en) 2007-09-04 2013-12-31 Apple Inc. Editing interface
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US8458615B2 (en) 2010-04-07 2013-06-04 Apple Inc. Device, method, and graphical user interface for managing folders
US10788976B2 (en) 2010-04-07 2020-09-29 Apple Inc. Device, method, and graphical user interface for managing folders with multiple pages
DE102015110633A1 (de) * 2015-07-01 2017-01-05 Inventus Engineering Gmbh Haptische Bedieneinrichtung und Verfahren
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US11157436B2 (en) 2012-11-20 2021-10-26 Samsung Electronics Company, Ltd. Services associated with wearable electronic device
US8994827B2 (en) 2012-11-20 2015-03-31 Samsung Electronics Co., Ltd Wearable electronic device
US10185416B2 (en) 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
US11237719B2 (en) * 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device
US9477313B2 (en) 2012-11-20 2016-10-25 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving outward-facing sensor of device
US11372536B2 (en) 2012-11-20 2022-06-28 Samsung Electronics Company, Ltd. Transition and interaction model for wearable electronic device
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
US10423214B2 (en) 2012-11-20 2019-09-24 Samsung Electronics Company, Ltd Delegating processing from wearable electronic device
US9038142B2 (en) 2013-02-05 2015-05-19 Google Inc. Authorization flow initiation using short-term wireless communication
DE112014000709B4 (de) 2013-02-07 2021-12-30 Apple Inc. Verfahren und vorrichtung zum betrieb eines sprachtriggers für einen digitalen assistenten
USD709874S1 (en) * 2013-03-15 2014-07-29 Samsung Electronics Co., Ltd. Electronic device
USD711872S1 (en) * 2013-03-15 2014-08-26 Samsung Electronics Co., Ltd. Electronic device
US9696802B2 (en) * 2013-03-20 2017-07-04 Microsoft Technology Licensing, Llc Short range wireless powered ring for user interaction and sensing
EP3937002A1 (en) 2013-06-09 2022-01-12 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US9753436B2 (en) 2013-06-11 2017-09-05 Apple Inc. Rotary input mechanism for an electronic device
KR102231031B1 (ko) 2013-08-09 2021-03-23 애플 인크. 전자 디바이스용 촉각 스위치
US9053509B2 (en) * 2013-08-29 2015-06-09 Google Inc. Recommended modes of transportation for achieving fitness goals
JP6393325B2 (ja) 2013-10-30 2018-09-19 アップル インコーポレイテッドApple Inc. 関連するユーザインターフェースオブジェクトの表示
CA2931973A1 (en) 2013-11-29 2015-06-04 Motiv Inc. Wearable computing device
KR20150065336A (ko) * 2013-12-05 2015-06-15 삼성전자주식회사 전자 장치의 제스처 인식 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
US10048802B2 (en) 2014-02-12 2018-08-14 Apple Inc. Rejection of false turns of rotary inputs for electronic devices
US10691332B2 (en) 2014-02-28 2020-06-23 Samsung Electronics Company, Ltd. Text input on an interactive display
KR102206351B1 (ko) * 2014-04-28 2021-01-22 삼성전자 주식회사 전자 장치 및 이의 작업 연계 방법
US9594427B2 (en) 2014-05-23 2017-03-14 Microsoft Technology Licensing, Llc Finger tracking
US10043185B2 (en) 2014-05-29 2018-08-07 Apple Inc. User interface for payments
TWI566107B (zh) 2014-05-30 2017-01-11 蘋果公司 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9526983B2 (en) * 2014-06-04 2016-12-27 Chih-Feng Lin Virtual reality avatar traveling control system and virtual reality avatar traveling control method
EP2984858A4 (en) 2014-06-09 2017-02-15 Razer (Asia-Pacific) Pte Ltd. Radio communication systems and radio communication methods
EP3152841B1 (en) * 2014-06-09 2019-12-11 Razer (Asia-Pacific) Pte Ltd. Radio communication devices and methods for controlling a radio communication device
AU2014364343B2 (en) 2014-06-09 2016-06-16 Razer (Asia-Pacific) Pte. Ltd Radio communication devices and methods for controlling a radio communication device
US9740396B1 (en) * 2014-06-25 2017-08-22 Amazon Technologies, Inc. Adaptive gesture recognition
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
WO2016007398A1 (en) * 2014-07-07 2016-01-14 Diep Louis Camera control and image streaming
DE102014214586A1 (de) * 2014-07-24 2016-01-28 Siemens Aktiengesellschaft Bedienvorrichtung
KR102287160B1 (ko) * 2014-07-31 2021-08-06 엘지전자 주식회사 웨어러블 디바이스 및 그것의 제어방법
US20160054915A1 (en) * 2014-08-25 2016-02-25 Nuance Communications, Inc. Systems and methods for providing information to a user about multiple topics
US10599101B2 (en) 2014-09-02 2020-03-24 Apple Inc. Wearable electronic device
WO2016036552A1 (en) 2014-09-02 2016-03-10 Apple Inc. User interactions for a mapping application
WO2016035571A1 (ja) * 2014-09-04 2016-03-10 ソニー株式会社 情報表示装置及びその情報表示方法、プログラム、並びに、通信システム
US10261674B2 (en) * 2014-09-05 2019-04-16 Microsoft Technology Licensing, Llc Display-efficient text entry and editing
WO2016037965A1 (en) * 2014-09-11 2016-03-17 Philips Lighting Holding B.V. Method determining the suitable lighting for an activity
KR101660587B1 (ko) * 2014-09-16 2016-10-10 엘지전자 주식회사 이동단말기 및 그 제어방법
US9582076B2 (en) 2014-09-17 2017-02-28 Microsoft Technology Licensing, Llc Smart ring
US20160125217A1 (en) * 2014-11-05 2016-05-05 Hand Held Products, Inc. Barcode scanning system using wearable device with embedded camera
US9813906B2 (en) 2014-11-12 2017-11-07 Qualcomm Incorporated Mobile device to provide enhanced security based upon contextual sensor inputs
US11327711B2 (en) * 2014-12-05 2022-05-10 Microsoft Technology Licensing, Llc External visual interactions for speech-based devices
US20160187995A1 (en) * 2014-12-30 2016-06-30 Tyco Fire & Security Gmbh Contextual Based Gesture Recognition And Control
KR101677654B1 (ko) * 2015-02-03 2016-11-18 엘지전자 주식회사 와치 타입 단말기
KR102335910B1 (ko) 2015-03-01 2021-12-06 삼성전자주식회사 전원 제어 방법 및 장치
US10379497B2 (en) 2015-03-07 2019-08-13 Apple Inc. Obtaining and displaying time-related data on an electronic watch
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
EP3251139B1 (en) 2015-03-08 2021-04-28 Apple Inc. Compressible seal for rotatable and translatable input mechanisms
JP6756087B2 (ja) * 2015-03-10 2020-09-16 カシオ計算機株式会社 生体認証装置およびその駆動制御方法
WO2016153207A1 (ko) * 2015-03-25 2016-09-29 엘지전자 주식회사 이동 단말기 및 그 제어 방법
WO2016171467A1 (en) 2015-04-23 2016-10-27 Samsung Electronics Co., Ltd. Electronic device including rotary member and display method thereof
KR102406102B1 (ko) * 2015-04-24 2022-06-10 삼성전자주식회사 전자 장치 및 그의 표시 방법
KR20160128120A (ko) * 2015-04-28 2016-11-07 엘지전자 주식회사 와치 타입 단말기 및 그것의 제어 방법
KR102356449B1 (ko) 2015-05-13 2022-01-27 삼성전자주식회사 회전 입력에 따른 추가 정보 제공 방법 및 장치
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US20160358133A1 (en) 2015-06-05 2016-12-08 Apple Inc. User interface for loyalty accounts and private label accounts for a wearable device
US11327640B2 (en) 2015-06-05 2022-05-10 Apple Inc. Providing complications on an electronic device
US11373168B2 (en) * 2015-06-05 2022-06-28 Apple Inc. Value added services polling
US9940637B2 (en) 2015-06-05 2018-04-10 Apple Inc. User interface for loyalty accounts and private label accounts
US10175866B2 (en) * 2015-06-05 2019-01-08 Apple Inc. Providing complications on an electronic watch
US10572571B2 (en) * 2015-06-05 2020-02-25 Apple Inc. API for specifying display of complication on an electronic watch
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10166123B2 (en) * 2015-06-29 2019-01-01 International Business Machines Corporation Controlling prosthetic devices with smart wearable technology
CN107850922A (zh) * 2015-07-16 2018-03-27 皇家飞利浦有限公司 圆形用户接口
US10114450B2 (en) 2015-08-31 2018-10-30 Semiconductor Energy Laboratory Co., Ltd. Information processing device
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
JP6652353B2 (ja) * 2015-09-09 2020-02-19 任天堂株式会社 通信装置および電池蓋
CN105182539B (zh) * 2015-09-25 2018-08-10 联想(北京)有限公司 电子设备和显示方法
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
KR102548687B1 (ko) 2015-10-07 2023-06-28 삼성전자주식회사 전자 장치에서 실행된 어플리케이션을 제어하는 웨어러블 전자 장치 및 방법
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
CN105573495B (zh) * 2015-12-14 2020-06-23 联想(北京)有限公司 一种信息处理方法及穿戴式设备
US9913050B2 (en) 2015-12-18 2018-03-06 Cochlear Limited Power management features
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US20170189824A1 (en) * 2016-01-04 2017-07-06 Sphero, Inc. Modular sensing device utilized with autonomous self-propelled device
WO2017120363A1 (en) * 2016-01-05 2017-07-13 Daqri, Llc Task management using augmented reality devices
KR102542913B1 (ko) * 2016-01-15 2023-06-14 삼성전자주식회사 회전체를 구비한 전자 장치 및 이의 동작 방법
KR102485356B1 (ko) 2016-02-02 2023-01-06 삼성전자주식회사 사용자 인터페이싱 방법 및 이를 수행하는 전자 장치
WO2017134541A1 (en) 2016-02-03 2017-08-10 Semiconductor Energy Laboratory Co., Ltd. Information processing device
US20170273415A1 (en) * 2016-03-22 2017-09-28 Joia Tech, Inc. Systems and Methods for Wearable Technology with Creative Expression
US10551798B1 (en) 2016-05-17 2020-02-04 Apple Inc. Rotatable crown for an electronic device
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK201670595A1 (en) 2016-06-11 2018-01-22 Apple Inc Configuring context-specific user interfaces
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
US11816325B2 (en) 2016-06-12 2023-11-14 Apple Inc. Application shortcuts for carplay
US10061399B2 (en) 2016-07-15 2018-08-28 Apple Inc. Capacitive gap sensor ring for an input device
US10019097B2 (en) 2016-07-25 2018-07-10 Apple Inc. Force-detecting input structure
KR101811613B1 (ko) * 2016-08-18 2017-12-26 엘지전자 주식회사 이동 단말기 및 그 제어방법
US10860199B2 (en) 2016-09-23 2020-12-08 Apple Inc. Dynamically adjusting touch hysteresis based on contextual data
CN106656689B (zh) * 2016-10-17 2018-10-30 珠海格力电器股份有限公司 一种基于终端的智能家居的控制方法和终端
US20180150443A1 (en) * 2016-11-25 2018-05-31 Google Inc. Application program interface for managing complication data
KR102661703B1 (ko) * 2016-12-23 2024-04-29 삼성전자주식회사 전자 장치 및 그의 제어 방법
CN108255545B (zh) * 2016-12-28 2022-09-02 阿里巴巴集团控股有限公司 组件间的功能调用方法、装置及组件化架构系统
GB2561220A (en) * 2017-04-06 2018-10-10 Sony Corp A device, computer program and method
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770428A1 (en) 2017-05-12 2019-02-18 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK201770411A1 (en) 2017-05-15 2018-12-20 Apple Inc. MULTI-MODAL INTERFACES
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
CN107195311A (zh) * 2017-05-19 2017-09-22 上海喆之信息科技有限公司 一种穿戴式无线音频交互系统
US10355875B1 (en) * 2017-06-29 2019-07-16 State Farm Mutual Automobile Insurance Company Utilizing movement-based control data
US10313148B1 (en) * 2017-06-29 2019-06-04 State Farm Mutual Automobile Insurance Company Configuring a device for movement-based control
US10558278B2 (en) 2017-07-11 2020-02-11 Apple Inc. Interacting with an electronic device through physical movement
US10962935B1 (en) * 2017-07-18 2021-03-30 Apple Inc. Tri-axis force sensor
US11307661B2 (en) 2017-09-25 2022-04-19 Apple Inc. Electronic device with actuators for producing haptic and audio output along a device housing
CN108063811B (zh) * 2017-12-12 2024-03-26 欧普照明股份有限公司 智能设备入网跟踪方法及部件
WO2019207472A1 (en) * 2018-04-23 2019-10-31 Adari Swarna Kumari Smart wearable ring based wireless transaction system and method thereof
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US10757491B1 (en) 2018-06-11 2020-08-25 Apple Inc. Wearable interactive audio device
US11360440B2 (en) 2018-06-25 2022-06-14 Apple Inc. Crown for an electronic watch
US11561515B2 (en) 2018-08-02 2023-01-24 Apple Inc. Crown for an electronic watch
CN211293787U (zh) 2018-08-24 2020-08-18 苹果公司 电子表
US11334032B2 (en) 2018-08-30 2022-05-17 Apple Inc. Electronic watch with barometric vent
CN209625187U (zh) 2018-08-30 2019-11-12 苹果公司 电子手表和电子设备
US11016587B2 (en) 2018-09-11 2021-05-25 Apple Inc. Watch crown haptic support to provide detent-like operation
US11561144B1 (en) * 2018-09-27 2023-01-24 Apple Inc. Wearable electronic device with fluid-based pressure sensing
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
EP3863738A1 (en) * 2018-10-09 2021-08-18 Brian Francis Mooney Coaching, assessing or analysing unseen processes in intermittent high-speed human motions, including golf swings
WO2020080650A1 (en) 2018-10-16 2020-04-23 Samsung Electronics Co., Ltd. Apparatus and method of operating wearable device
US11194299B1 (en) 2019-02-12 2021-12-07 Apple Inc. Variable frictional feedback device for a digital crown of an electronic watch
USD930678S1 (en) * 2019-02-18 2021-09-14 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
CN109814728B (zh) * 2019-04-08 2024-02-27 重庆公共运输职业学院 小型设备的局部转向结构及磁吸式指环穿戴结构
CN114399014A (zh) 2019-04-17 2022-04-26 苹果公司 无线可定位标签
US11675476B2 (en) 2019-05-05 2023-06-13 Apple Inc. User interfaces for widgets
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
CN111953081B (zh) * 2019-05-14 2024-10-18 法雷奥舒适驾驶助手公司 集成压电冷却系统的再辐射天线
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
CN110097852B (zh) * 2019-06-20 2020-12-15 京东方科技集团股份有限公司 环形显示面板及其制造方法、环形显示装置
CN110672087B (zh) * 2019-09-02 2023-08-11 湖南凌傲科技有限公司 一种人体跟踪方法及系统
US11714494B2 (en) * 2019-09-26 2023-08-01 Apple Inc. Ring input devices
KR20210039875A (ko) * 2019-10-02 2021-04-12 주식회사 모아이스 골프 스윙에 관한 정보를 추정하기 위한 방법, 디바이스 및 비일시성의 컴퓨터 판독 가능한 기록 매체
USD1005303S1 (en) * 2020-01-28 2023-11-21 Iocurrents, Inc. Display screen or portion thereof with animated graphical user interface
US11038934B1 (en) 2020-05-11 2021-06-15 Apple Inc. Digital assistant hardware abstraction
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11550268B2 (en) 2020-06-02 2023-01-10 Apple Inc. Switch module for electronic crown assembly
AU2020458145A1 (en) * 2020-07-10 2023-02-02 Telefonaktiebolaget Lm Ericsson (Publ) Method and device for obtaining user input
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
US11803162B2 (en) * 2020-09-25 2023-10-31 Apple Inc. Watch with sealed housing and sensor module
US20220124917A1 (en) * 2020-10-16 2022-04-21 Shenzhen Sunway Communication Co., Ltd. Apparatus for utilizing regulating component for communicating radio frequency signals
US20220207742A1 (en) * 2020-12-30 2022-06-30 United Imaging Research Institute of Innovative Medical Equipment Image segmentation method, device, equipment and storage medium
US20220374085A1 (en) * 2021-05-19 2022-11-24 Apple Inc. Navigating user interfaces using hand gestures
US12092996B2 (en) 2021-07-16 2024-09-17 Apple Inc. Laser-based rotation sensor for a crown of an electronic watch
KR20240068771A (ko) * 2021-10-05 2024-05-17 카스턴 매뉴팩츄어링 코오포레이숀 일관되게 갭핑된 골프 클럽 세트를 생성하기 위해 공 비행 데이터를 예측하기 위한 시스템 및 방법
CN118140220A (zh) * 2021-10-18 2024-06-04 飞睿设备株式会社 信息处理系统
WO2024064401A2 (en) * 2022-09-24 2024-03-28 Apple Inc. Techniques for providing input mechanisms
CN115375287B (zh) * 2022-10-21 2022-12-20 安徽博诺思信息科技有限公司 一种电网运维作业违章行为监测预警管理系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000267797A (ja) * 1999-03-15 2000-09-29 Seiko Epson Corp 情報処理装置
US20020101457A1 (en) * 2001-01-31 2002-08-01 Microsoft Corporation Bezel interface for small computing devices
US6556222B1 (en) * 2000-06-30 2003-04-29 International Business Machines Corporation Bezel based input mechanism and user interface for a smart watch
JP2004184396A (ja) * 2002-10-09 2004-07-02 Seiko Epson Corp 表示装置、時計、表示装置の制御方法、制御プログラムおよび記録媒体
JP2010124181A (ja) * 2008-11-19 2010-06-03 Sony Corp 画像処理装置、画像表示方法および画像表示プログラム

Family Cites Families (533)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2473226A (en) 1946-08-22 1949-06-14 Sheldon Lillian Wrist band
US3062369A (en) 1960-08-30 1962-11-06 Esber E Moubayed Leak-proof variable-volume holder for frozen confections
US3477285A (en) 1967-08-04 1969-11-11 Joseph M Krafft Four-lobed diametral-strain gage
US3915534A (en) 1967-08-15 1975-10-28 Joslyn Mfg & Supply Co Grounded surface distribution apparatus
USD249874S (en) 1976-10-12 1978-10-10 Texas Instruments Incorporated Digital wrist watch
US4757456A (en) 1981-05-19 1988-07-12 Ralph Benghiat Device and method for utility meter reading
US4427303A (en) 1982-06-17 1984-01-24 Hermann Hirsch Leder Und Kunstoffwarenfabrik Electronic wristwatch
USD282914S (en) 1983-10-13 1986-03-11 Jeffrey Maron Indicator watch
USD284949S (en) 1984-04-16 1986-08-05 Kong Hung W Watch frame
USD299028S (en) 1985-08-21 1988-12-20 Divetronic Ag Wrist computer for divers
USD297121S (en) 1985-12-03 1988-08-09 Porsche Design Gmbh Sport watch
US4636047A (en) 1986-03-21 1987-01-13 Green Ronald N Wrist watch mirror accessory
USD302664S (en) 1986-09-08 1989-08-08 Dawson Jr Melvyn H Electronic watch
USD300678S (en) 1987-06-11 1989-04-11 Moulinex, Societe Anonyme Re-charging stand for a cordless electric iron
US4906207A (en) 1989-04-24 1990-03-06 W. L. Gore & Associates, Inc. Dielectric restrainer
USD362396S (en) 1990-06-27 1995-09-19 Chester Edna L Wristwatch
USD335263S (en) 1990-06-28 1993-05-04 Willis John E Wristband
USD351558S (en) 1991-11-06 1994-10-18 Junho Moon Wrist watch
US6400996B1 (en) 1999-02-01 2002-06-04 Steven M. Hoffberg Adaptive pattern recognition based control system and method
USD355132S (en) 1992-02-28 1995-02-07 Kenneth Williams Combined sweatband and watch
USD347589S (en) 1992-03-12 1994-06-07 Labate Joseph A Wrist band and mounting for a tape measure
US5418760A (en) 1992-08-18 1995-05-23 Casio Computer Co., Ltd. Electronic devices with a liquid crystal display
USD356960S (en) 1993-02-03 1995-04-04 Societe Nouvelle Chaumet S.A. Watch with band portions
US5361169A (en) 1993-04-29 1994-11-01 Deal Jerry L Diver's mirror
USD365550S (en) 1993-05-17 1995-12-26 Timex Corporation Personal digital assistant to be worn on a wrist
USD366036S (en) 1993-05-28 1996-01-09 Timex Corporation Personal digital assistant to be worn on a wrist
USD386696S (en) 1995-02-16 1997-11-25 Christophe Walch Multipiece plastic wristwatch
US5832296A (en) 1995-04-26 1998-11-03 Interval Research Corp. Wearable context sensitive user interface for interacting with plurality of electronic devices of interest to the user
USD372878S (en) 1995-05-09 1996-08-20 Danny Finnegan Workman's magnetic wrist band for holding small metal objects
JPH0985983A (ja) 1995-09-21 1997-03-31 Canon Inc プリンタ制御装置
DE69635101T2 (de) 1995-11-01 2006-06-01 Canon K.K. Verfahren zur Extraktion von Gegenständen und dieses Verfahren verwendendes Bildaufnahmegerät
USD383985S (en) 1995-12-22 1997-09-23 Doris Davenport Combination watch and pager
US6047301A (en) * 1996-05-24 2000-04-04 International Business Machines Corporation Wearable computer
USD384661S (en) 1996-08-28 1997-10-07 Garmin Corporation Portable handheld combination GPS and communication transceiver
CN1125385C (zh) * 1996-09-09 2003-10-22 杨泰和 藉主动动力源转速比例控制的复合动力系统
JP3321053B2 (ja) 1996-10-18 2002-09-03 株式会社東芝 情報入力装置及び情報入力方法及び補正データ生成装置
US20040210479A1 (en) 1996-10-25 2004-10-21 Ipf, Inc. Internet-based brand marketing communication instrumentation network for deploying, installing and remotely programming brand-building server-side driven multi-mode virtual kiosks on the World Wide Web (WWW), and methods of brand marketing communication between brand marketers and consumers using the same
US6747680B1 (en) 1999-12-13 2004-06-08 Microsoft Corporation Speed-dependent automatic zooming interface
WO1999025152A2 (en) 1997-11-07 1999-05-20 Via, Inc. Interactive devices and methods
USD410854S (en) 1997-12-11 1999-06-15 Imus Co., Ltd. Wrist watch
US5915580A (en) 1997-12-24 1999-06-29 Outer Circle Products, Ltd. Container covering
USD401515S (en) 1998-01-23 1998-11-24 Yacov Yida Watch
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
USD404317S (en) 1998-02-05 1999-01-19 Bernice M Cameron Bottle mounted timer
JP2000050133A (ja) 1998-02-10 2000-02-18 Asulab Sa 低電力消費の携帯用物体、特にカメラおよび無線デ―タ伝送手段を含む時計
US6031525A (en) 1998-04-01 2000-02-29 New York University Method and apparatus for writing
JPH11298362A (ja) 1998-04-06 1999-10-29 Sony Corp 小型携帯端末
USD416814S (en) 1998-05-15 1999-11-23 Nancy Lynn Welsh Ring having a time piece mounted within its central finger opening
US7854684B1 (en) * 1998-06-24 2010-12-21 Samsung Electronics Co., Ltd. Wearable device
US6573883B1 (en) 1998-06-24 2003-06-03 Hewlett Packard Development Company, L.P. Method and apparatus for controlling a computing device with gestures
JP3627531B2 (ja) 1998-09-30 2005-03-09 セイコーエプソン株式会社 情報処理装置
CA2347642A1 (en) 1998-10-28 2000-05-04 Via, Inc. Flex-to-fixed user interface devices and methods
JP3988102B2 (ja) 1998-11-06 2007-10-10 富士フイルム株式会社 腕装着型カメラ
USD413817S (en) 1998-12-18 1999-09-14 Casio Keisanki Kabushiki Kaisha Watch case with global positioning system
US7225229B1 (en) 1998-12-18 2007-05-29 Tangis Corporation Automated pushing of computer user's context data to clients
USD422223S (en) 1998-12-22 2000-04-04 Gucci Timepieces Sa Wristwatch
US20040209657A1 (en) 1999-01-04 2004-10-21 Yoram Ghassabian Wrist-mounted telephone device
US7293231B1 (en) 1999-03-18 2007-11-06 British Columbia Ltd. Data entry for personal computing devices
GB2350523B (en) 1999-05-26 2003-11-26 Nokia Mobile Phones Ltd Communication device
US6359837B1 (en) 1999-06-30 2002-03-19 Casio Computer Co., Ltd. Camera, camera system, information recording system, timepiece, and link system for camera and timepiece
ES2262279T3 (es) 1999-08-25 2006-11-16 Swatch Ag Reloj comprendiendo un dispositivo de mando sin contacto de un cursor de ordenador.
USD433949S (en) 1999-10-04 2000-11-21 Chanel, Inc. Wrist watch case
US6424743B1 (en) 1999-11-05 2002-07-23 Motorola, Inc. Graphical handwriting recognition user interface
JP2001167054A (ja) 1999-12-09 2001-06-22 Casio Comput Co Ltd 携帯情報機器、認証装置及び認証システム
USD434675S (en) 1999-12-13 2000-12-05 Casio Keisanki Kabushiki Kaisha Watch case with global positioning system
JP2001251542A (ja) 1999-12-28 2001-09-14 Casio Comput Co Ltd 携帯型撮像機器
DE10001929A1 (de) * 2000-01-19 2001-08-09 Skidata Ag Berechtigungskontrolleinrichtung
JP2005174356A (ja) 2000-02-01 2005-06-30 Toshiba Corp 方向検出方法
GB2365676B (en) 2000-02-18 2004-06-23 Sensei Ltd Mobile telephone with improved man-machine interface
GB0004688D0 (en) 2000-02-28 2000-04-19 Radley Smith Philip J Bracelet
US6597345B2 (en) 2000-03-03 2003-07-22 Jetway Technologies Ltd. Multifunctional keypad on touch screen
JP2001344039A (ja) 2000-03-31 2001-12-14 Seiko Epson Corp 情報処理装置、情報処理装置の制御方法および情報処理装置の制御プログラム
USD453005S1 (en) 2000-04-26 2002-01-22 Dinh Van Wrist-watch
JP4042340B2 (ja) 2000-05-17 2008-02-06 カシオ計算機株式会社 情報機器
JP2001344352A (ja) 2000-05-31 2001-12-14 Toshiba Corp 生活支援装置および生活支援方法および広告情報提供方法
USD455356S1 (en) 2000-06-19 2002-04-09 Rainer Saffer Watch
US6948135B1 (en) 2000-06-21 2005-09-20 Microsoft Corporation Method and systems of providing information to computer users
US6714233B2 (en) 2000-06-21 2004-03-30 Seiko Epson Corporation Mobile video telephone system
US7016707B2 (en) * 2000-06-21 2006-03-21 Seiko Epson Corporation Mobile telephone and radio communication device cooperatively processing incoming call
US7477890B1 (en) 2000-06-30 2009-01-13 International Business Machines Corporation Demand pull—multichannel asynchronous data and application synchronization for pervasive devices
US7081905B1 (en) 2000-06-30 2006-07-25 International Business Machines Corporation Method and apparatus for dynamically controlling scroller speed employed for a user interface of a wearable appliance
US6477117B1 (en) * 2000-06-30 2002-11-05 International Business Machines Corporation Alarm interface for a smart watch
JP3785902B2 (ja) 2000-07-11 2006-06-14 インターナショナル・ビジネス・マシーンズ・コーポレーション デバイス、デバイスの制御方法、ポインタの移動方法
JP2002099476A (ja) 2000-09-26 2002-04-05 Sanyo Electric Co Ltd ソフトウェア配信方法、ソフトウェア配信装置、およびこれらを利用可能なユーザ端末
USD463296S1 (en) 2000-10-23 2002-09-24 Eseoghene Esther Sanomi Wrist radius watch
JP3948260B2 (ja) 2000-11-22 2007-07-25 松下電器産業株式会社 テキスト入力方法及びその装置
JP2002257955A (ja) 2000-12-25 2002-09-11 Seiko Epson Corp 通信機能付腕時計装置、情報表示方法、制御プログラム及び記録媒体
JP3613177B2 (ja) 2000-12-26 2005-01-26 インターナショナル・ビジネス・マシーンズ・コーポレーション 入力対象選択装置及び方法
USD460430S1 (en) 2000-12-28 2002-07-16 Seiko Instruments Inc. Mobile phone
US20020135615A1 (en) 2001-01-31 2002-09-26 Microsoft Corporation Overlaid display for electronic devices
TW591353B (en) 2001-02-23 2004-06-11 Asulab Sa Portable object including means for activating an electronic function and method for controlling such an electronic function
US6744427B2 (en) 2001-03-01 2004-06-01 International Business Machines Corporation Character input interface for compact electronic devices
JP2002259347A (ja) 2001-03-02 2002-09-13 Seiko Epson Corp 腕時計型情報処理装置、画面表示方法、プログラムおよび記録媒体
US6937135B2 (en) 2001-05-30 2005-08-30 Hewlett-Packard Development Company, L.P. Face and environment sensing watch
JP2003018923A (ja) 2001-07-09 2003-01-21 Onga Eng:Kk ハウス開閉装置
US6774796B2 (en) 2001-08-01 2004-08-10 Motorola, Inc. Master authenticator
EP1282018A1 (en) 2001-08-03 2003-02-05 Nokia Corporation A wearable electronic device
USD459352S1 (en) 2001-08-10 2002-06-25 Michael C. Giovanniello Wireless mouse wristband
US20130080143A1 (en) * 2011-09-27 2013-03-28 Paul E. Reeves Unified desktop docking behavior with device as master
US20030046228A1 (en) 2001-08-28 2003-03-06 Jean-Marc Berney User-wearable functional jewelry with biometrics and smartcard to remotely sign and/or authenticate to e-services
US7634403B2 (en) 2001-09-05 2009-12-15 Voice Signal Technologies, Inc. Word recognition using word transformation commands
JP2003131785A (ja) 2001-10-22 2003-05-09 Toshiba Corp インタフェース装置および操作制御方法およびプログラム製品
US6990662B2 (en) 2001-10-31 2006-01-24 Hewlett-Packard Development Company, L.P. Method and system for offloading execution and resources for resource-constrained networked devices
US6744423B2 (en) 2001-11-19 2004-06-01 Nokia Corporation Communication terminal having a predictive character editor application
US8176432B2 (en) 2001-11-20 2012-05-08 UEI Electronics Inc. Hand held remote control device having an improved user interface
US7091964B2 (en) 2001-11-30 2006-08-15 Palm, Inc. Electronic device with bezel feature for receiving input
TWI258647B (en) 2001-12-27 2006-07-21 Asulab Sa Control method for executing functions in a diary watch
GB0201074D0 (en) 2002-01-18 2002-03-06 3G Lab Ltd Graphic user interface for data processing device
GB2384395A (en) 2002-01-19 2003-07-23 Hewlett Packard Co Personal article capable of receiving specified items or data
US7111788B2 (en) 2002-04-22 2006-09-26 Nokia Corporation System and method for navigating applications using a graphical user interface
US7987491B2 (en) 2002-05-10 2011-07-26 Richard Reisman Method and apparatus for browsing using alternative linkbases
US8001488B1 (en) 2002-05-31 2011-08-16 Hewlett-Packard Development Company, L.P. User interface dial with display
JP2004021893A (ja) 2002-06-20 2004-01-22 Sony Corp 携帯情報通信端末、プログラムおよび該プログラムを記録した記録媒体
US9886309B2 (en) 2002-06-28 2018-02-06 Microsoft Technology Licensing, Llc Identity-based distributed computing for device resources
JP4251266B2 (ja) 2002-07-25 2009-04-08 ソニー株式会社 情報処理装置および方法、プログラム格納媒体、並びにプログラム
US6968508B2 (en) 2002-07-30 2005-11-22 Motorola, Inc. Rotating user interface
JP2004072450A (ja) 2002-08-07 2004-03-04 Casio Comput Co Ltd 電子カメラ
US7386855B2 (en) 2002-08-12 2008-06-10 Ntt Docomo, Inc. Application mobility service
USD474982S1 (en) 2002-08-15 2003-05-27 Nike, Inc. Portion of a watch
US7036007B2 (en) 2002-09-09 2006-04-25 Intel Corporation Firmware architecture supporting safe updates and multiple processor types
JP2004178584A (ja) 2002-11-26 2004-06-24 Asulab Sa 機能、装置、又は所定の場所にアクセスするためのタッチスクリーンによるセキュリティコードの入力方法、及びその方法を実行するためのデバイス
US7199786B2 (en) 2002-11-29 2007-04-03 Daniel Suraqui Reduced keyboards system using unistroke input and having automatic disambiguating and a recognition method using said system
US20040130581A1 (en) 2003-01-03 2004-07-08 Microsoft Corporation Interaction model
JP2004259063A (ja) 2003-02-26 2004-09-16 Sony Corp 3次元オブジェクトの表示処理装置、表示処理方法およびコンピュータプログラム
JP2004288172A (ja) 2003-03-04 2004-10-14 Sony Corp 入力装置、情報端末装置およびモード切替方法
US7096048B2 (en) 2003-04-01 2006-08-22 Sanders Donald T Portable communications device
US7331048B2 (en) * 2003-04-04 2008-02-12 International Business Machines Corporation Backfill scheduling of applications based on data of the applications
KR100617681B1 (ko) 2003-04-15 2006-08-28 삼성전자주식회사 휴대용 단말기의 회전키 장치 사용 방법
EP1624732A4 (en) 2003-05-14 2009-01-21 Panasonic Corp DEVICE AND METHOD FOR TURNING A HIGH VOLTAGE DISCHARGE LAMP
US20040261031A1 (en) 2003-06-23 2004-12-23 Nokia Corporation Context dependent auxiliary menu elements
US7567239B2 (en) 2003-06-26 2009-07-28 Motorola, Inc. Method and system for message and note composition on small screen devices
KR100590528B1 (ko) 2003-06-28 2006-06-15 삼성전자주식회사 착용형 손가락 움직임 감지장치 및 이를 이용한 손가락의움직임 감지방법
US20050001821A1 (en) 2003-07-02 2005-01-06 Low Tse How Option selector and electronic device including such an option selector
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US7478390B2 (en) 2003-09-25 2009-01-13 International Business Machines Corporation Task queue management of virtual devices using a plurality of processors
WO2005057174A2 (en) 2003-12-08 2005-06-23 Rosenthal Robert D Method and apparatus for low blood glucose level detection
KR100571428B1 (ko) 2003-12-24 2006-04-17 한국전자통신연구원 착용형 인터페이스 장치
WO2005065404A2 (en) 2003-12-31 2005-07-21 James Marin Rotating bezel watch
US7872669B2 (en) 2004-01-22 2011-01-18 Massachusetts Institute Of Technology Photo-based mobile deixis system and related techniques
USD546712S1 (en) 2004-02-13 2007-07-17 Cartier Creation Studio Sa Watch
US7398151B1 (en) 2004-02-25 2008-07-08 Garmin Ltd. Wearable electronic device
GB2411337B (en) 2004-02-27 2006-12-06 Simon Richard Daniel Modular interface strap for multi-unit wristband and necklace assemblies
JP2005244676A (ja) 2004-02-27 2005-09-08 Dowango:Kk リモコンシステム
WO2005083546A1 (en) * 2004-02-27 2005-09-09 Simon Richard Daniel Wearable modular interface strap
US8886298B2 (en) 2004-03-01 2014-11-11 Microsoft Corporation Recall device
US7173604B2 (en) 2004-03-23 2007-02-06 Fujitsu Limited Gesture identification of controlled devices
JP2007531113A (ja) 2004-03-23 2007-11-01 富士通株式会社 携帯装置の傾斜及び並進運動成分の識別
US7301529B2 (en) 2004-03-23 2007-11-27 Fujitsu Limited Context dependent gesture response
US20060081714A1 (en) 2004-08-23 2006-04-20 King Martin T Portable scanning device
TWI370979B (en) * 2004-05-14 2012-08-21 Ibm Grid computing system, information processing unit, job execution request generation unit, control method, program, and recording medium
US7404146B2 (en) 2004-05-27 2008-07-22 Agere Systems Inc. Input device for portable handset
JP4379214B2 (ja) 2004-06-10 2009-12-09 日本電気株式会社 携帯端末装置
US7840681B2 (en) * 2004-07-30 2010-11-23 International Business Machines Corporation Method and apparatus for integrating wearable devices within a SIP infrastructure
US20060253010A1 (en) * 2004-09-28 2006-11-09 Donald Brady Monitoring device, method and system
US7091875B2 (en) * 2004-10-06 2006-08-15 John Ondracek Wearable remote control
USD519858S1 (en) 2004-10-06 2006-05-02 Giochi Preziosi S.P.A. Watch
US20060092177A1 (en) 2004-10-30 2006-05-04 Gabor Blasko Input method and apparatus using tactile guidance and bi-directional segmented stroke
USD526973S1 (en) 2004-11-17 2006-08-22 Xirrus, Inc. Electronic device housing
JP4665904B2 (ja) 2004-11-30 2011-04-06 コニカミノルタホールディングス株式会社 情報処理装置
TWM277958U (en) 2004-12-31 2005-10-11 Ind Tech Res Inst An flexible displaying device for electronic information includes a device housing
US20060149652A1 (en) * 2005-01-06 2006-07-06 Fellenstein Craig W Receiving bid requests and pricing bid responses for potential grid job submissions within a grid environment
US20060197835A1 (en) 2005-03-04 2006-09-07 Anderson Robert C Wrist-attached display system for unmanned vehicle imagery and communication
USD525552S1 (en) 2005-03-22 2006-07-25 Rolex Watch U.S.A., Inc. Watch face
JP2006279137A (ja) 2005-03-28 2006-10-12 Sharp Corp リモコンシステム
US20060224766A1 (en) * 2005-03-31 2006-10-05 Malackowski Donald W Operating room communication bus and method
US20060288233A1 (en) 2005-04-25 2006-12-21 Douglas Kozlay Attachable biometric authentication apparatus for watchbands and other personal items
ITUD20050074A1 (it) 2005-05-11 2006-11-12 Eurotech S P A Dispositivo di risparmio energetico per un'apparecchiatura elettronica portatile
US7605714B2 (en) * 2005-05-13 2009-10-20 Microsoft Corporation System and method for command and control of wireless devices using a wearable device
US8117540B2 (en) 2005-05-18 2012-02-14 Neuer Wall Treuhand Gmbh Method and device incorporating improved text input mechanism
US9606634B2 (en) 2005-05-18 2017-03-28 Nokia Technologies Oy Device incorporating improved text input mechanism
US20060271867A1 (en) 2005-05-27 2006-11-30 Wang Kong Q Mobile communications terminal and method therefore
AU2006341370B2 (en) 2005-06-16 2011-08-18 Firooz Ghassabian Data entry system
US7487467B1 (en) 2005-06-23 2009-02-03 Sun Microsystems, Inc. Visual representation and other effects for application management on a device with a small screen
US20070004969A1 (en) 2005-06-29 2007-01-04 Microsoft Corporation Health monitor
JP2007014471A (ja) 2005-07-06 2007-01-25 Sumitomo Precision Prod Co Ltd 無線センサ端末
USD549602S1 (en) 2005-07-18 2007-08-28 Garmin Ltd. GPS exercise monitoring device
US7467443B2 (en) 2005-07-27 2008-12-23 Asia Vital Components Co., Ltd. Retaining tool with rotational locating device
JP2007064758A (ja) 2005-08-30 2007-03-15 Sony Corp 携帯型電子機器、表示制御プログラム、表示制御方法、時計装置
KR100814395B1 (ko) 2005-08-30 2008-03-18 삼성전자주식회사 조그 키와 사방향 키를 이용한 사용자 인터페이스 제어장치 및 그 방법
JP4676303B2 (ja) 2005-10-18 2011-04-27 株式会社日立製作所 端末装置
US8045512B2 (en) 2005-10-27 2011-10-25 Qualcomm Incorporated Scalable frequency band operation in wireless communication systems
US20070100244A1 (en) 2005-10-31 2007-05-03 Chin-Shu Lin Wrist-worn monitor for heartbeat detection
US7454841B2 (en) 2005-11-01 2008-11-25 Hunter Engineering Company Method and apparatus for wheel alignment system target projection and illumination
USD547211S1 (en) 2005-11-10 2007-07-24 Dias M Carlos Wrist watch
KR100761262B1 (ko) 2005-12-28 2007-09-28 엘지전자 주식회사 이동통신단말기의 문자입력 장치
CN100514314C (zh) 2005-12-28 2009-07-15 松下电工株式会社 网络设备系统
RU2319997C2 (ru) 2005-12-30 2008-03-20 ЭлДжи ЭЛЕКТРОНИКС ИНК. Электронное устройство для выполнения запрограммированных функций (варианты) и способ ввода команд в подобном устройстве
US7860536B2 (en) 2006-01-05 2010-12-28 Apple Inc. Telephone interface for a portable communication device
USD537409S1 (en) 2006-01-10 2007-02-27 Sony Corporation Combined charger and infrared ray emitter
JP5220278B2 (ja) 2006-01-27 2013-06-26 任天堂株式会社 ゲーム装置および手書き入力プログラム
USD537371S1 (en) 2006-02-03 2007-02-27 Bell & Ross B.V. Watch
USD529402S1 (en) 2006-02-13 2006-10-03 Nike, Inc. Portion of a watch
USD528928S1 (en) 2006-02-14 2006-09-26 Nike, Inc. Portion of a watch
US8730156B2 (en) 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
KR100754674B1 (ko) 2006-03-10 2007-09-03 삼성전자주식회사 휴대 단말의 메뉴 선택 방법 및 장치
USD537738S1 (en) 2006-03-17 2007-03-06 Citizen Tokei Kabushiki Kaisha Wrist watch case with band
EP1998666B1 (en) 2006-03-21 2014-01-01 Koninklijke Philips N.V. Indication of the condition of a user
USD545305S1 (en) 2006-03-22 2007-06-26 Mulcahy Michael R Personal data assistant, particularly for the visually impaired
JP4516042B2 (ja) 2006-03-27 2010-08-04 株式会社東芝 機器操作装置および機器操作方法
USD574734S1 (en) 2006-03-28 2008-08-12 The British Masters Sa Wristwatch
US9395905B2 (en) 2006-04-05 2016-07-19 Synaptics Incorporated Graphical scroll wheel
GB2437592A (en) * 2006-04-10 2007-10-31 Skype Ltd Indicating communication events on an alternative interface whilst running an application on another interface
US8644396B2 (en) * 2006-04-18 2014-02-04 Qualcomm Incorporated Waveform encoding for wireless applications
US8683362B2 (en) 2008-05-23 2014-03-25 Qualcomm Incorporated Card metaphor for activities in a computing device
US7382691B2 (en) 2006-04-21 2008-06-03 Nixon, Inc. Multifunction watch system and method
USD543122S1 (en) 2006-05-10 2007-05-22 Ronald Lafever Combined flexible band and clip-on watch
US7558622B2 (en) 2006-05-24 2009-07-07 Bao Tran Mesh network stroke monitoring appliance
US7539532B2 (en) 2006-05-12 2009-05-26 Bao Tran Cuffless blood pressure monitoring appliance
USD568175S1 (en) 2006-05-19 2008-05-06 Lorenz S.P.A. Wrist watch
EP2020088A2 (en) 2006-05-22 2009-02-04 Nike International Ltd. User interface for remotely controlling a digital music player
EP1860534A1 (en) 2006-05-22 2007-11-28 LG Electronics Inc. Mobile terminal and menu display method thereof
KR100782927B1 (ko) 2006-06-27 2007-12-07 삼성전자주식회사 휴대용 단말기에서 문자 입력 장치 및 방법
USD554636S1 (en) 2006-06-27 2007-11-06 Qualcomm Incorporated Media display unit
US7620610B2 (en) * 2006-06-27 2009-11-17 Microsoft Corporation Resource availability for user activities across devices
USD558209S1 (en) 2006-07-28 2007-12-25 Microsoft Corporation Docking station
USD558207S1 (en) 2006-07-28 2007-12-25 Microsoft Corporation Docking station
USD558208S1 (en) 2006-07-28 2007-12-25 Microsoft Corporation Docking station
US8106742B2 (en) * 2006-08-04 2012-01-31 Tegic Communications, Inc. Remotely controlling one or more client devices detected over a wireless network using a mobile device
US8511890B2 (en) 2006-08-27 2013-08-20 Nike, Inc. Rocking bezel control
US20080126933A1 (en) 2006-08-28 2008-05-29 Apple Computer, Inc. Method and apparatus for multi-mode traversal of lists
USD602858S1 (en) 2006-09-06 2009-10-27 Amx Llc Remote control charging base
US8243017B2 (en) 2006-09-11 2012-08-14 Apple Inc. Menu overlay including context dependent menu icon
US8564543B2 (en) 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
USD550614S1 (en) 2006-09-22 2007-09-11 10Charge, Inc. Battery charger
US7714839B2 (en) 2006-09-29 2010-05-11 Sony Ericsson Mobile Communications Ab Jog dial for mobile terminal
JP2008089039A (ja) 2006-09-29 2008-04-17 Jtekt Corp 円すいころ軸受及びディファレンシャル装置
US7463557B2 (en) 2006-10-06 2008-12-09 Timex Group B.V. Electronic device with changeable display configurations
WO2008045690A2 (en) 2006-10-06 2008-04-17 Veveo, Inc. Linear character selection display interface for ambiguous text input
US7667148B2 (en) 2006-10-13 2010-02-23 Apple Inc. Method, device, and graphical user interface for dialing with a click wheel
US8355709B2 (en) 2006-10-23 2013-01-15 Qualcomm Incorporated Device that determines whether to launch an application locally or remotely as a webapp
USD575289S1 (en) 2006-12-11 2008-08-19 Hon Hai Precision Ind. Co., Ltd. Dock connector
USD545697S1 (en) 2007-01-10 2007-07-03 Nike, Inc. Portion of a watch
KR100896055B1 (ko) 2007-01-15 2009-05-07 엘지전자 주식회사 회전입력장치 구비 이동단말기 및 그 디스플레이 방법
US8311530B2 (en) 2007-01-26 2012-11-13 Research In Motion Limited Touch entry of password on a mobile device
US7966039B2 (en) 2007-02-02 2011-06-21 Microsoft Corporation Bidirectional dynamic offloading of tasks between a host and a mobile device
US8789053B2 (en) 2007-04-05 2014-07-22 Newton Howard Task execution and delegation by autonomous mobile agents based on intent knowledge base
CN101675652A (zh) 2007-04-26 2010-03-17 诺基亚公司 在移动通信终端中用于不同模式之间切换的改进的方法和装置
USD590277S1 (en) 2007-04-27 2009-04-14 New Heritage Ltd. Watch case
USD590727S1 (en) 2007-04-27 2009-04-21 New Heritage Ltd. Watch case
EP2153377A4 (en) 2007-05-04 2017-05-31 Qualcomm Incorporated Camera-based user input for compact devices
USD604643S1 (en) 2007-05-16 2009-11-24 Suunto Oy Multi-function wristwatch
US8442015B2 (en) 2007-07-20 2013-05-14 Broadcom Corporation Method and system for an atomizing function of a mobile device
JP2009005320A (ja) 2007-06-21 2009-01-08 Rumiko Aso 腕時計型携帯電話
US10178965B2 (en) 2007-06-22 2019-01-15 Ipventure, Inc. Activity monitoring system for pregnant women
KR101515089B1 (ko) 2007-08-16 2015-04-24 삼성전자 주식회사 그래픽 사용자 인터페이스 제공 장치 및 방법
US8676273B1 (en) 2007-08-24 2014-03-18 Iwao Fujisaki Communication device
US8593404B2 (en) 2007-08-27 2013-11-26 Blackberry Limited Reduced key arrangement for a mobile communication device
US7778118B2 (en) 2007-08-28 2010-08-17 Garmin Ltd. Watch device having touch-bezel user interface
ES1066912Y (es) 2007-09-13 2008-07-01 Fagor S Coop Dispositivo de control remoto para aparatos electrodomesticos
JP5184018B2 (ja) 2007-09-14 2013-04-17 京セラ株式会社 電子機器
JP4960812B2 (ja) 2007-09-14 2012-06-27 株式会社リコー 画像処理装置、負荷分散システム及び負荷分散プログラム
EP2947592B1 (en) 2007-09-24 2021-10-27 Apple Inc. Embedded authentication systems in an electronic device
JP2009081309A (ja) 2007-09-26 2009-04-16 Fujifilm Corp 有機半導体組成物、及びそれを用いた有機電子デバイス
KR100949581B1 (ko) 2007-10-08 2010-03-25 주식회사 자코드 통신단말기의 문자/숫자 입력장치 및 입력방법
US8031172B2 (en) 2007-10-12 2011-10-04 Immersion Corporation Method and apparatus for wearable remote interface device
US8639214B1 (en) 2007-10-26 2014-01-28 Iwao Fujisaki Communication device
US20090134838A1 (en) 2007-11-27 2009-05-28 Puthalath Koroth Raghuprasad Circular self-powered magnetic generator
USD564367S1 (en) 2007-11-30 2008-03-18 Nike, Inc. Watch
US20090167486A1 (en) 2007-12-29 2009-07-02 Shah Rahul C Secure association between devices
US9467850B2 (en) 2007-12-31 2016-10-11 Intel Corporation Handheld device association via shared vibration
US7946758B2 (en) 2008-01-31 2011-05-24 WIMM Labs Modular movement that is fully functional standalone and interchangeable in other portable devices
RU74259U1 (ru) 2008-02-19 2008-06-20 Татаренков Валерий Владимирович Мобильный телефон-браслет
US8555207B2 (en) 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
US9398046B2 (en) 2008-03-06 2016-07-19 Qualcomm Incorporated Image-based man-in-the-middle protection in numeric comparison association models
US20090234967A1 (en) * 2008-03-17 2009-09-17 Nokia Corporation Method, system, and apparatus for transferring P2P file distribution tasks between devices
JP2009245122A (ja) 2008-03-31 2009-10-22 Fujitsu Ltd 認証装置、電子機器、その認証方法及び認証プログラム
USD585898S1 (en) 2008-04-01 2009-02-03 Sdi Technologies, Inc. Base unit for digital media player
US8949743B2 (en) 2008-04-22 2015-02-03 Apple Inc. Language input interface on a device
WO2009135312A1 (en) * 2008-05-08 2009-11-12 Unify4Life Corporation Remote control system and method
US20090280861A1 (en) 2008-05-09 2009-11-12 Ashana Sabana Nisha Khan Multifunctional all-in-one detachable wrist wireless mobile communication device
US8638229B2 (en) 2008-05-29 2014-01-28 Garmin Switzerland Gmbh Swim watch
US8295879B2 (en) 2008-05-30 2012-10-23 Motorola Mobility Llc Devices and methods for initiating functions based on movement characteristics relative to a reference
DE102008027746A1 (de) 2008-06-11 2009-12-17 Kirner, Markus A. Armbanduhranordnung mit Mobiltelefon
JP2009301485A (ja) 2008-06-17 2009-12-24 Olympus Corp 情報表示システムおよびそれを用いた携帯情報端末
US8112526B2 (en) * 2008-06-24 2012-02-07 International Business Machines Corporation Process migration based on service availability in a multi-node environment
US8447704B2 (en) 2008-06-26 2013-05-21 Microsoft Corporation Recognizing gestures from forearm EMG signals
US8078873B2 (en) 2008-06-30 2011-12-13 Intel Corporation Two-way authentication between two communication endpoints using a one-way out-of-band (OOB) channel
US20100020033A1 (en) 2008-07-23 2010-01-28 Obinna Ihenacho Alozie Nwosu System, method and computer program product for a virtual keyboard
KR101546774B1 (ko) 2008-07-29 2015-08-24 엘지전자 주식회사 휴대 단말기 및 그 동작제어 방법
US20100039393A1 (en) 2008-08-15 2010-02-18 At&T Intellectual Property I, L.P. Text entry on touch screen cellphones by different pressure levels
JP4899108B2 (ja) 2008-08-24 2012-03-21 照彦 矢上 腕時計型電子メモ装置
US8319742B2 (en) 2008-08-26 2012-11-27 Research In Motion Limited Portable electronic device and method of controlling same
KR20100028465A (ko) 2008-09-04 2010-03-12 백상주 포인터의 드래그 방향에 따른 문자 또는 메뉴입력 방법
US20100070913A1 (en) 2008-09-15 2010-03-18 Apple Inc. Selecting an item of content in a graphical user interface for a portable computing device
JP2010073830A (ja) 2008-09-17 2010-04-02 Sumitomo Metal Mining Co Ltd リードフレーム及びリードフレームの製造方法
US20100082485A1 (en) 2008-09-30 2010-04-01 Apple Inc. Portable point of purchase devices and methods
US9026462B2 (en) 2008-09-30 2015-05-05 Apple Inc. Portable point of purchase user interfaces
KR101537596B1 (ko) 2008-10-15 2015-07-20 엘지전자 주식회사 이동 단말기 및 이것의 터치 인식 방법
US8335993B1 (en) 2008-10-24 2012-12-18 Marvell International Ltd. Enhanced touch sensitive interface and methods and software for making and using the same
JP4506890B2 (ja) 2008-10-28 2010-07-21 トヨタ自動車株式会社 歩行補助装置
USD596610S1 (en) 2008-11-07 2009-07-21 Cheng Uei Precision Industry Co., Ltd. Wrist type mobile phone
US9201582B2 (en) 2008-11-11 2015-12-01 Canon Kabushiki Kaisha Display control apparatus and display control method
US8503932B2 (en) 2008-11-14 2013-08-06 Sony Mobile Comminications AB Portable communication device and remote motion input device
JP5343523B2 (ja) * 2008-11-17 2013-11-13 富士通株式会社 ジョブ管理装置、ジョブ管理方法およびジョブ管理プログラム
JP2010122934A (ja) 2008-11-20 2010-06-03 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
US9355554B2 (en) 2008-11-21 2016-05-31 Lenovo (Singapore) Pte. Ltd. System and method for identifying media and providing additional media content
US8289162B2 (en) 2008-12-22 2012-10-16 Wimm Labs, Inc. Gesture-based user interface for a wearable portable device
AU326155S (en) 2008-12-22 2009-06-01 Swarovski Aktiengesselschaft Wrist watch
US20100167646A1 (en) 2008-12-30 2010-07-01 Motorola, Inc. Method and apparatus for device pairing
US9591118B2 (en) 2009-01-01 2017-03-07 Intel Corporation Pose to device mapping
USD596509S1 (en) 2009-01-08 2009-07-21 Seiko Watch Kabushiki Kaisha Watch case
US9569001B2 (en) * 2009-02-03 2017-02-14 Massachusetts Institute Of Technology Wearable gestural interface
US8326221B2 (en) 2009-02-09 2012-12-04 Apple Inc. Portable electronic device with proximity-based content synchronization
EP2220997A1 (en) 2009-02-24 2010-08-25 Koninklijke Philips Electronics N.V. Device, system and method for monitoring motion sequences
US8098141B2 (en) 2009-02-27 2012-01-17 Nokia Corporation Touch sensitive wearable band apparatus and method
USD596959S1 (en) 2009-03-05 2009-07-28 Zino Davidoff Trading Ag Watch case
AU327459S (en) 2009-03-06 2009-09-03 Rado Uhren Ag Rado Watch Co Ltd Montres Rado Sa Watch
US20100245078A1 (en) * 2009-03-26 2010-09-30 Wellcore Corporation Wearable Motion Sensing Device
US20100250789A1 (en) * 2009-03-27 2010-09-30 Qualcomm Incorporated System and method of managing memory at a portable computing device and a portable computing device docking station
US9189472B2 (en) 2009-03-30 2015-11-17 Touchtype Limited System and method for inputting text into small screen devices
JP5325641B2 (ja) 2009-04-08 2013-10-23 Jx日鉱日石エネルギー株式会社 間接内部改質型固体酸化物形燃料電池の停止方法
CN103955131B (zh) 2009-04-26 2017-04-12 耐克创新有限合伙公司 在运动手表系统中的gps特征和功能
US20120069027A1 (en) 2009-04-28 2012-03-22 Wataru Yamazaki Input device
JP5263833B2 (ja) 2009-05-18 2013-08-14 国立大学法人 奈良先端科学技術大学院大学 ウェアラブルコンピュータに用いるリング型インタフェース、インタフェース装置、およびインタフェース方法
EP2256592A1 (en) 2009-05-18 2010-12-01 Lg Electronics Inc. Touchless control of an electronic device
US8294105B2 (en) 2009-05-22 2012-10-23 Motorola Mobility Llc Electronic device with sensing assembly and method for interpreting offset gestures
US8287320B2 (en) 2009-05-22 2012-10-16 John Mezzalingua Associates, Inc. Coaxial cable connector having electrical continuity member
USD626550S1 (en) 2009-05-26 2010-11-02 Implanet PDA device
JP5282661B2 (ja) 2009-05-26 2013-09-04 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
USD615955S1 (en) 2009-05-26 2010-05-18 Samsung Electronics Co., Ltd. Mobile phone
US8682608B2 (en) 2009-05-27 2014-03-25 Panasonic Corporation Behavior recognition apparatus
US20100304673A1 (en) * 2009-05-29 2010-12-02 Junichi Yoshizawa Wireless Communication Apparatus and Wireless Communication Method
US9239740B2 (en) 2009-06-16 2016-01-19 Microsoft Technology Licensing, Llc Program partitioning across client and cloud
US8560465B2 (en) 2009-07-02 2013-10-15 Samsung Electronics Co., Ltd Execution allocation cost assessment for computing systems and environments including elastic computing systems and environments
CH701440A2 (fr) 2009-07-03 2011-01-14 Comme Le Temps Sa Montre-bracelet à écran tactile et procédé d'affichage sur une montre à écran tactile.
US9189156B2 (en) 2009-07-14 2015-11-17 Howard Gutowitz Keyboard comprising swipe-switches performing keyboard actions
US8818274B2 (en) 2009-07-17 2014-08-26 Qualcomm Incorporated Automatic interfacing between a master device and object device
US9439736B2 (en) 2009-07-22 2016-09-13 St. Jude Medical, Atrial Fibrillation Division, Inc. System and method for controlling a remote medical device guidance system in three-dimensions using gestures
US9030404B2 (en) 2009-07-23 2015-05-12 Qualcomm Incorporated Method and apparatus for distributed user interfaces using wearable devices to control mobile and consumer electronic devices
US8245234B2 (en) 2009-08-10 2012-08-14 Avaya Inc. Credit scheduler for ordering the execution of tasks
USD612269S1 (en) 2009-08-13 2010-03-23 P.S.L. Limited Slap-on watch
JP5254906B2 (ja) 2009-08-27 2013-08-07 京セラ株式会社 電子機器
US8060560B2 (en) * 2009-08-27 2011-11-15 Net Power And Light, Inc. System and method for pervasive computing
KR101602461B1 (ko) * 2009-09-22 2016-03-15 삼성전자주식회사 디스플레이 장치 및 휴대폰의 제어방법
US8572375B2 (en) 2009-09-23 2013-10-29 Microsoft Corporation Device pairing based on graphically encoded data
US8717291B2 (en) 2009-10-07 2014-05-06 AFA Micro Co. Motion sensitive gesture device
GB2483168B (en) 2009-10-13 2013-06-12 Pointgrab Ltd Computer vision gesture based control of a device
US8279052B2 (en) 2009-11-04 2012-10-02 Immersion Corporation Systems and methods for haptic confirmation of commands
CN102713794A (zh) 2009-11-24 2012-10-03 奈克斯特控股公司 用于手势识别模式控制的方法和装置
US8907768B2 (en) 2009-11-25 2014-12-09 Visa International Service Association Access using a mobile device with an accelerometer
USD627718S1 (en) 2009-12-11 2010-11-23 Black & Decker Inc. Charger base for a hand-held vacuum cleaner
KR20110069958A (ko) 2009-12-18 2011-06-24 삼성전자주식회사 프로젝터 기능의 휴대 단말기의 데이터 생성 방법 및 장치
CA135976S (en) 2009-12-23 2011-11-24 Simone Dalla Libera Watch
US9229779B2 (en) * 2009-12-28 2016-01-05 Empire Technology Development Llc Parallelizing heterogeneous network communications in smart devices based on selection of task allocation strategy
KR101626621B1 (ko) 2009-12-30 2016-06-01 엘지전자 주식회사 원형 디스플레이부를 구비한 이동 통신 단말기의 데이터 제어 방법 및 이를 적용한 이동 통신 단말기
US20120256959A1 (en) 2009-12-30 2012-10-11 Cywee Group Limited Method of controlling mobile device with touch-sensitive display and motion sensor, and mobile device
EP2341420A1 (en) 2010-01-04 2011-07-06 Research In Motion Limited Portable electronic device and method of controlling same
KR101697937B1 (ko) 2010-01-08 2017-02-01 삼성전자주식회사 멀티프로세서 시스템에서 동적 태스크 마이그레이션을 위한 방법 및 시스템
CN101815326B (zh) 2010-01-11 2011-06-15 北京邮电大学 基于协商的无线传感器网络任务分配方法
WO2011096702A2 (ko) 2010-02-03 2011-08-11 고려대학교 산학협력단 문자 입력 장치 및 방법
US8869263B2 (en) 2010-02-26 2014-10-21 Blackberry Limited Wireless communications system providing mobile device authentication bypass based upon user-wearable security device and related methods
US20120194551A1 (en) 2010-02-28 2012-08-02 Osterhout Group, Inc. Ar glasses with user-action based command and control of external devices
US20110219427A1 (en) 2010-03-04 2011-09-08 RSSBus, Inc. Smart Device User Authentication
US8686955B2 (en) 2010-03-11 2014-04-01 Apple Inc. Device, method, and graphical user interface for performing character entry
JP5642809B2 (ja) 2010-03-12 2014-12-17 ニュアンス コミュニケーションズ, インコーポレイテッド 携帯電話のタッチスクリーンとの使用等のためのマルチモーダルテキスト入力システム
KR101659023B1 (ko) 2010-03-15 2016-09-23 엘지전자 주식회사 와치형 이동 단말기
US8370878B2 (en) * 2010-03-17 2013-02-05 Verizon Patent And Licensing Inc. Mobile interface for accessing interactive television applications associated with displayed content
CH702862B1 (fr) 2010-03-30 2024-06-14 Smart Communications Sa Montre bracelet à affichage électronique.
US9811385B2 (en) * 2010-04-28 2017-11-07 Wind River Systems, Inc. Optimizing task management
KR101695810B1 (ko) * 2010-05-07 2017-01-13 엘지전자 주식회사 이동 단말기 및 그 제어방법
JP5681865B2 (ja) 2010-05-10 2015-03-11 レノボ・イノベーションズ・リミテッド(香港) ユーザーインターフェース装置
US8683377B2 (en) 2010-05-12 2014-03-25 Adobe Systems Incorporated Method for dynamically modifying zoom level to facilitate navigation on a graphical user interface
MX2012013253A (es) * 2010-05-19 2013-01-24 Sharp Kk Dispositivo de reproduccion, dispositivo de vizualizacion, receptor de television, sistema, metodo de reconocimiento, programa y medio de grabacion.
US20110289519A1 (en) 2010-05-21 2011-11-24 Frost Gary R Distributing workloads in a computing platform
US20110296351A1 (en) 2010-05-26 2011-12-01 T-Mobile Usa, Inc. User Interface with Z-axis Interaction and Multiple Stacks
JP5494242B2 (ja) * 2010-05-28 2014-05-14 ソニー株式会社 情報処理装置、情報処理システム及びプログラム
US9026074B2 (en) * 2010-06-04 2015-05-05 Qualcomm Incorporated Method and apparatus for wireless distributed computing
US8935317B2 (en) 2010-06-23 2015-01-13 Microsoft Corporation Dynamic partitioning of applications between clients and servers
USD631373S1 (en) 2010-06-29 2011-01-25 Worldwide Watch Company Limited Watch
WO2012009335A1 (en) 2010-07-14 2012-01-19 Dynavox Systems Llc A wearable speech generation device
US9532734B2 (en) 2010-08-09 2017-01-03 Nike, Inc. Monitoring fitness using a mobile device
JP5234066B2 (ja) 2010-08-25 2013-07-10 横河電機株式会社 機器情報表示装置及び機器情報表示方法
WO2012030653A2 (en) 2010-08-29 2012-03-08 Vascode Technologies Ltd. A system and methods for multi-tasking in a clientless mobile phone
US9007304B2 (en) 2010-09-02 2015-04-14 Qualcomm Incorporated Methods and apparatuses for gesture-based user input detection in a mobile device
US9489016B2 (en) 2010-09-08 2016-11-08 Live Lids, Inc. Electronic display wearable item
KR101219933B1 (ko) * 2010-09-13 2013-01-08 현대자동차주식회사 증강현실을 이용한 차량 내 디바이스 제어 시스템 및 그 방법
EP2616908A2 (en) 2010-09-15 2013-07-24 Jeffrey R. Spetalnick Methods of and systems for reducing keyboard data entry errors
USD645360S1 (en) 2010-09-17 2011-09-20 Simpel, LLC Slap band watch
USD669369S1 (en) 2010-09-20 2012-10-23 Daniel Rasumowsky Watch
US8595289B2 (en) 2010-09-21 2013-11-26 Telefonaktiebolaget L M Ericsson (Publ) Cloud phone with distributed processing
US20130165180A1 (en) * 2010-09-27 2013-06-27 Adobe Systems Incorporated Integrating Operation Of Consumer Electronic Devices
US20120075204A1 (en) * 2010-09-27 2012-03-29 Google Inc. Using a Touch-Sensitive Display of a Mobile Device with a Host Computer
JP2012073830A (ja) 2010-09-29 2012-04-12 Pioneer Electronic Corp インターフェース装置
US8345412B2 (en) 2010-10-01 2013-01-01 Hex Holdings, Llc Wrist band for portable electronic devices
US9462444B1 (en) 2010-10-04 2016-10-04 Nortek Security & Control Llc Cloud based collaborative mobile emergency call initiation and handling distribution system
US8506158B2 (en) 2010-10-12 2013-08-13 P.S.L. Limited Watch
AU334766S (en) 2010-10-13 2011-01-24 Swarovski Ag Case for a wristwatch
US20120096345A1 (en) 2010-10-19 2012-04-19 Google Inc. Resizing of gesture-created markings for different display sizes
US8635630B2 (en) * 2010-10-25 2014-01-21 Microsoft Corporation Application lifetime management
JP2012098771A (ja) 2010-10-29 2012-05-24 Sony Corp 画像処理装置および方法、並びに、プログラム
US9086741B2 (en) 2010-10-29 2015-07-21 Microsoft Corporation User input device
US8814754B2 (en) * 2010-11-01 2014-08-26 Nike, Inc. Wearable device having athletic functionality
KR20120049757A (ko) * 2010-11-09 2012-05-17 엘지전자 주식회사 증강현실정보 표시 방법 및 이를 이용하는 이동 단말기
US8184983B1 (en) * 2010-11-12 2012-05-22 Google Inc. Wireless directional identification and subsequent communication between wearable electronic devices
USD640948S1 (en) 2010-11-15 2011-07-05 Hook-Link, LLC Magnetically hooking bracelet
JP2012108771A (ja) 2010-11-18 2012-06-07 Panasonic Corp 画面操作システム
US8195313B1 (en) 2010-11-19 2012-06-05 Nest Labs, Inc. Thermostat user interface
JP5733656B2 (ja) 2010-11-25 2015-06-10 公立大学法人会津大学 ジェスチャ認識装置及びジェスチャ認識方法
US9155168B2 (en) 2010-12-03 2015-10-06 Surefire, Llc Wearable lighting device
CN102572565A (zh) * 2010-12-15 2012-07-11 深圳市同洲软件有限公司 一种移动终端控制数字电视接收终端方法、装置和系统
KR20130132886A (ko) 2010-12-30 2013-12-05 톰슨 라이센싱 디스플레이된 컨텐츠에 관련된 추가적인 컨텐츠를 제공하기 위한 방법 및 시스템
US8369893B2 (en) * 2010-12-31 2013-02-05 Motorola Mobility Llc Method and system for adapting mobile device to accommodate external display
USD640936S1 (en) 2011-01-01 2011-07-05 Teresa Teixeia Combined watch and bracelet
USD636686S1 (en) 2011-01-04 2011-04-26 Nike, Inc. Watch
EP2474950B1 (en) 2011-01-05 2013-08-21 Softkinetic Software Natural gesture based user interface methods and systems
US9436286B2 (en) 2011-01-05 2016-09-06 Qualcomm Incorporated Method and apparatus for tracking orientation of a user
USD651099S1 (en) 2011-01-10 2011-12-27 Montblanc-Simplo Gmbh Watch case
WO2012099584A1 (en) 2011-01-19 2012-07-26 Hewlett-Packard Development Company, L.P. Method and system for multimodal and gestural control
US8699948B2 (en) 2011-01-25 2014-04-15 Sony Corporation Connection method for near field communication
US10631246B2 (en) 2011-02-14 2020-04-21 Microsoft Technology Licensing, Llc Task switching on mobile devices
US9645986B2 (en) 2011-02-24 2017-05-09 Google Inc. Method, medium, and system for creating an electronic book with an umbrella policy
USD678081S1 (en) 2011-03-14 2013-03-19 Montblanc-Simplo Gmbh Watchcase
WO2012124250A1 (ja) 2011-03-15 2012-09-20 パナソニック株式会社 オブジェクト制御装置、オブジェクト制御方法、オブジェクト制御プログラム、及び集積回路
US8655027B1 (en) 2011-03-25 2014-02-18 The United States of America, as represented by the Director, National Security Agency Method of image-based user authentication
JP5960796B2 (ja) 2011-03-29 2016-08-02 クアルコム,インコーポレイテッド ローカルマルチユーザ共同作業のためのモジュール式のモバイル接続ピコプロジェクタ
WO2012135563A1 (en) 2011-03-31 2012-10-04 Sony Mobile Communications Ab System and method for establishing a communication session
US10061387B2 (en) 2011-03-31 2018-08-28 Nokia Technologies Oy Method and apparatus for providing user interfaces
US10630795B2 (en) * 2011-03-31 2020-04-21 Oath Inc. Systems and methods for transferring application state between devices based on gestural input
US8811964B2 (en) 2011-04-04 2014-08-19 Numera, Inc. Single button mobile telephone using server-based call routing
USD661206S1 (en) 2011-04-06 2012-06-05 Garmin Switzerland Gmbh Electronic device
USD659093S1 (en) 2011-04-08 2012-05-08 The Gillette Company Charger
KR101836403B1 (ko) * 2011-04-12 2018-04-19 엘지전자 주식회사 디스플레이 장치의 리모콘 기능을 수행하는 이동 단말기
US8928589B2 (en) 2011-04-20 2015-01-06 Qualcomm Incorporated Virtual keyboards and methods of providing the same
JP5824859B2 (ja) * 2011-05-02 2015-12-02 船井電機株式会社 携帯端末
JP6316186B2 (ja) 2011-05-06 2018-04-25 マジック リープ, インコーポレイテッドMagic Leap,Inc. 広範囲同時遠隔ディジタル提示世界
JP5988036B2 (ja) 2011-05-18 2016-09-07 パナソニックIpマネジメント株式会社 通信制御システムおよびその方法、ならびに通信装置およびその方法、プログラム
KR101844222B1 (ko) 2011-05-27 2018-04-02 엘지전자 주식회사 이동 단말기 및 이것의 모드 제어 방법
JP2012248067A (ja) 2011-05-30 2012-12-13 Canon Inc 情報入力装置、その制御方法、および制御プログラム
KR20120134732A (ko) * 2011-06-03 2012-12-12 삼성전자주식회사 원격제어기를 이용하여 웹 브라우징을 수행하는 장치 및 방법
US20120316456A1 (en) 2011-06-10 2012-12-13 Aliphcom Sensory user interface
KR20120137032A (ko) 2011-06-10 2012-12-20 현대모비스 주식회사 전동식 동력 조향장치의 제어방법
US20120317024A1 (en) 2011-06-10 2012-12-13 Aliphcom Wearable device data security
KR101199454B1 (ko) 2011-06-17 2012-11-07 변동주 장식용 반사체를 이용한 조명등
KR101819506B1 (ko) 2011-06-28 2018-01-17 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
US8775850B2 (en) * 2011-06-28 2014-07-08 Amazon Technologies, Inc. Transferring state information between electronic devices
US8194036B1 (en) 2011-06-29 2012-06-05 Google Inc. Systems and methods for controlling a cursor on a display using a trackpad input device
KR101251250B1 (ko) * 2011-07-01 2013-04-08 알서포트 주식회사 원격 디바이스 드라이버를 이용한 원격 제어 시스템 및 원격 디바이스 드라이버를 이용한 원격 제어 방법
RU2455676C2 (ru) 2011-07-04 2012-07-10 Общество с ограниченной ответственностью "ТРИДИВИ" Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления
US8184070B1 (en) 2011-07-06 2012-05-22 Google Inc. Method and system for selecting a user interface for a wearable computing device
US8228315B1 (en) 2011-07-12 2012-07-24 Google Inc. Methods and systems for a virtual input device
US20130018659A1 (en) 2011-07-12 2013-01-17 Google Inc. Systems and Methods for Speech Command Processing
US9069164B2 (en) 2011-07-12 2015-06-30 Google Inc. Methods and systems for a virtual input device
US8179604B1 (en) 2011-07-13 2012-05-15 Google Inc. Wearable marker for passive interaction
US20130021374A1 (en) 2011-07-20 2013-01-24 Google Inc. Manipulating And Displaying An Image On A Wearable Computing System
US9015708B2 (en) 2011-07-28 2015-04-21 International Business Machines Corporation System for improving the performance of high performance computing applications on cloud using integrated load balancing
US9256361B2 (en) 2011-08-03 2016-02-09 Ebay Inc. Control of search results with multipoint pinch gestures
USD650706S1 (en) 2011-08-08 2011-12-20 Blue Sky SRL Wrist watch
US8641306B2 (en) 2011-08-16 2014-02-04 Argotext Wristwatch keyboard
USD661275S1 (en) 2011-08-19 2012-06-05 Cox Communications, Inc. Mobile communications device with wrist band
US9720708B2 (en) 2011-08-19 2017-08-01 Advanced Micro Devices, Inc. Data layout transformation for workload distribution
US10152294B2 (en) * 2011-08-23 2018-12-11 Htc Corporation Mobile device and method of running two platform systems or applications thereon
USD654431S1 (en) 2011-08-29 2012-02-21 Eveready Battery Company, Inc. Charger for a lighting device
US9529448B2 (en) 2011-08-31 2016-12-27 Farzan Fallah Data entry systems and methods
US9173090B2 (en) 2011-09-15 2015-10-27 Teletech Holdings, Inc. Method for activating services associated with a product via a service center supporting a variety of products
US8941560B2 (en) * 2011-09-21 2015-01-27 Google Inc. Wearable computer with superimposed controls and instructions for external device
US9672049B2 (en) 2011-09-22 2017-06-06 Qualcomm Incorporated Dynamic and configurable user interface
CN103034362B (zh) 2011-09-30 2017-05-17 三星电子株式会社 移动终端中处理触摸输入的方法和设备
US9336687B2 (en) 2011-10-11 2016-05-10 Teletech Holdings, Inc. Method for providing learning courses via a service center supporting a variety of products
US8707211B2 (en) 2011-10-21 2014-04-22 Hewlett-Packard Development Company, L.P. Radial graphical user interface
US8467270B2 (en) 2011-10-26 2013-06-18 Google Inc. Smart-watch with user interface features
US8279716B1 (en) 2011-10-26 2012-10-02 Google Inc. Smart-watch including flip up display
US9936036B2 (en) 2011-10-28 2018-04-03 Sharp Laboratories Of America, Inc. Method and system for indirectly establishing a unique communication channel between a plurality of devices
CN102368200A (zh) 2011-10-28 2012-03-07 青岛海信移动通信技术股份有限公司 一种触摸屏解锁方法及具有触摸屏的电子产品
US8935629B2 (en) 2011-10-28 2015-01-13 Flipboard Inc. Systems and methods for flipping through content
WO2013063767A1 (en) 2011-11-01 2013-05-10 Intel Corporation Dynamic gesture based short-range human-machine interaction
WO2013067392A1 (en) 2011-11-02 2013-05-10 Hendricks Investment Holdings, Llc Device navigation icon and system, and method of use thereof
US9288229B2 (en) 2011-11-10 2016-03-15 Skype Device association via video handshake
US9310889B2 (en) 2011-11-10 2016-04-12 Blackberry Limited Touchscreen keyboard predictive display and generation of a set of characters
US9007302B1 (en) 2011-11-11 2015-04-14 Benjamin D. Bandt-Horn Device and user interface for visualizing, navigating, and manipulating hierarchically structured information on host electronic devices
US9183658B2 (en) 2011-11-14 2015-11-10 Microsoft Technology Licensing, Llc Animation creation and management in presentation application programs
US20130120106A1 (en) 2011-11-16 2013-05-16 Motorola Mobility, Inc. Display device, corresponding systems, and methods therefor
US20130132848A1 (en) 2011-11-18 2013-05-23 Apple Inc. Application interaction via multiple user interfaces
US20140330900A1 (en) 2011-11-23 2014-11-06 Evernote Corporation Encounter-driven personal contact space
US9286901B1 (en) 2011-11-23 2016-03-15 Evernote Corporation Communication using sound
US9162144B2 (en) 2011-12-05 2015-10-20 Microsoft Technology Licensing, Llc Portable device pairing with a tracking system
KR101242390B1 (ko) 2011-12-29 2013-03-12 인텔 코오퍼레이션 사용자를 인증하기 위한 방법, 장치, 및 컴퓨터 판독 가능한 기록 매체
US9137627B2 (en) 2011-12-30 2015-09-15 Linkedin Corporation Systems and methods for mobile device pairing
USD664881S1 (en) 2012-01-18 2012-08-07 Nike, Inc. Wristband
USD671858S1 (en) 2012-01-18 2012-12-04 Nike, Inc. Wristband
USD664880S1 (en) 2012-01-18 2012-08-07 Nike, Inc. Wristband
US9134810B2 (en) 2012-01-19 2015-09-15 Blackberry Limited Next letter prediction for virtual keyboard
US9026461B2 (en) 2012-01-23 2015-05-05 Bank Of America Corporation Enhanced mobile application for assisting users at a point of transaction
US9367085B2 (en) 2012-01-26 2016-06-14 Google Technology Holdings LLC Portable electronic device and method for controlling operation thereof taking into account which limb possesses the electronic device
US8872849B2 (en) 2012-01-27 2014-10-28 Microsoft Corporation Relational rendering of multi-faceted data
US20130198056A1 (en) 2012-01-27 2013-08-01 Verizon Patent And Licensing Inc. Near field communication transaction management and application systems and methods
KR20130088512A (ko) * 2012-01-31 2013-08-08 한국전자통신연구원 클러스터 컴퓨팅 환경에서의 자원 관리 장치 및 방법
US20140368980A1 (en) * 2012-02-07 2014-12-18 Google Inc. Technical Support and Remote Functionality for a Wearable Computing System
JP5193404B2 (ja) 2012-02-10 2013-05-08 オリンパスイメージング株式会社 情報機器
US20130211843A1 (en) 2012-02-13 2013-08-15 Qualcomm Incorporated Engagement-dependent gesture recognition
USD687736S1 (en) 2012-02-16 2013-08-13 Christopher D. Wycoff Bracelet with removable chip
US9186077B2 (en) * 2012-02-16 2015-11-17 Google Technology Holdings LLC Method and device with customizable power management
US20130227460A1 (en) 2012-02-27 2013-08-29 Bjorn David Jawerth Data entry system controllers for receiving user input line traces relative to user interfaces to determine ordered actions, and related systems and methods
US8947382B2 (en) 2012-02-28 2015-02-03 Motorola Mobility Llc Wearable display device, corresponding systems, and method for presenting output on the same
US20130254705A1 (en) 2012-03-20 2013-09-26 Wimm Labs, Inc. Multi-axis user interface for a touch-screen enabled wearable device
US10332112B2 (en) 2012-03-27 2019-06-25 International Business Machines Corporation Authentication for transactions using near field communication
USD680541S1 (en) 2012-04-11 2013-04-23 Coby Electronics Corp. Docking station for a portable media player
USD672255S1 (en) 2012-04-16 2012-12-11 I'M SpA Watch
WO2013163718A1 (en) 2012-04-30 2013-11-07 Blackberry Limited Touchscreen keyboard with correction of previously input text
US20130300719A1 (en) 2012-05-10 2013-11-14 Research In Motion Limited Method and apparatus for providing stylus orientation and position input
CN102681786B (zh) 2012-05-14 2014-12-24 华为技术有限公司 文本选择的方法及装置
CN104364622A (zh) * 2012-06-15 2015-02-18 株式会社尼康 电子设备、容器、容器的制造方法以及容器用安装用具
CN102779002B (zh) 2012-06-19 2015-05-20 邓朝进 一种触摸屏键盘
US9256366B2 (en) 2012-08-14 2016-02-09 Google Technology Holdings LLC Systems and methods for touch-based two-stage text input
US9619282B2 (en) 2012-08-21 2017-04-11 Lenovo (Singapore) Pte. Ltd. Task scheduling in big and little cores
KR101949737B1 (ko) * 2012-08-28 2019-02-19 엘지전자 주식회사 이동 단말기 및 이의 제어 방법, 이를 위한 기록 매체
US9360997B2 (en) 2012-08-29 2016-06-07 Apple Inc. Content presentation and interaction across multiple displays
US9310881B2 (en) 2012-09-13 2016-04-12 Intel Corporation Methods and apparatus for facilitating multi-user computer interaction
US20140078065A1 (en) 2012-09-15 2014-03-20 Ahmet Akkok Predictive Keyboard With Suppressed Keys
US20140095695A1 (en) * 2012-09-28 2014-04-03 Ren Wang Cloud aware computing distribution to improve performance and energy for mobile devices
US10234941B2 (en) * 2012-10-04 2019-03-19 Microsoft Technology Licensing, Llc Wearable sensor for tracking articulated body-parts
US8963806B1 (en) 2012-10-29 2015-02-24 Google Inc. Device authentication
US9373230B2 (en) 2012-10-31 2016-06-21 Wal-Mart Stores, Inc. Customer reprint of a physical receipt from an electronic receipt
US10185416B2 (en) 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
US9477313B2 (en) 2012-11-20 2016-10-25 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving outward-facing sensor of device
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
US11372536B2 (en) 2012-11-20 2022-06-28 Samsung Electronics Company, Ltd. Transition and interaction model for wearable electronic device
US9030446B2 (en) 2012-11-20 2015-05-12 Samsung Electronics Co., Ltd. Placement of optical sensor on wearable electronic device
US11237719B2 (en) * 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device
US10423214B2 (en) 2012-11-20 2019-09-24 Samsung Electronics Company, Ltd Delegating processing from wearable electronic device
US8994827B2 (en) 2012-11-20 2015-03-31 Samsung Electronics Co., Ltd Wearable electronic device
US20140181758A1 (en) 2012-12-20 2014-06-26 Research In Motion Limited System and Method for Displaying Characters Using Gestures
US10063598B2 (en) 2012-12-28 2018-08-28 Nokia Technologies Oy Method and apparatus for establishing, authenticating, and accessing a content channel
WO2014127337A2 (en) 2013-02-17 2014-08-21 Keyless Systems Ltd. Improved data entry systems
US20140282274A1 (en) 2013-03-15 2014-09-18 Qualcomm Incorporated Detection of a gesture performed with at least two control objects
US9274685B2 (en) 2013-03-15 2016-03-01 Google Technology Holdings LLC Systems and methods for predictive text entry for small-screen devices with touch-based two-stage text input
US20140306898A1 (en) 2013-04-10 2014-10-16 Barnesandnoble.Com Llc Key swipe gestures for touch sensitive ui virtual keyboard
JP6440151B2 (ja) 2013-08-23 2018-12-19 シクパ ホルディング ソシエテ アノニムSicpa Holding Sa デバイスを認証するための方法及びシステム
CN103488420A (zh) 2013-09-02 2014-01-01 宇龙计算机通信科技(深圳)有限公司 虚拟键盘调整的方法和装置
US9100395B2 (en) 2013-09-24 2015-08-04 International Business Machines Corporation Method and system for using a vibration signature as an authentication key
US9450682B2 (en) 2013-10-07 2016-09-20 International Business Machines Corporation Method and system using vibration signatures for pairing master and slave computing devices
CA2841371A1 (en) * 2014-01-31 2015-07-31 Usquare Soft Inc. Devices and methods for portable processing and application execution
US9022291B1 (en) 2014-07-24 2015-05-05 Apple Inc. Invisible optical label for transmitting information between computing devices
US10326590B2 (en) 2014-11-11 2019-06-18 Intel Corporation Technologies for trusted device on-boarding

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000267797A (ja) * 1999-03-15 2000-09-29 Seiko Epson Corp 情報処理装置
US6556222B1 (en) * 2000-06-30 2003-04-29 International Business Machines Corporation Bezel based input mechanism and user interface for a smart watch
US20020101457A1 (en) * 2001-01-31 2002-08-01 Microsoft Corporation Bezel interface for small computing devices
JP2004184396A (ja) * 2002-10-09 2004-07-02 Seiko Epson Corp 表示装置、時計、表示装置の制御方法、制御プログラムおよび記録媒体
JP2010124181A (ja) * 2008-11-19 2010-06-03 Sony Corp 画像処理装置、画像表示方法および画像表示プログラム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10437346B2 (en) 2014-07-30 2019-10-08 Samsung Electronics Co., Ltd Wearable device and method of operating the same
US9823751B2 (en) 2014-07-30 2017-11-21 Samsung Electronics Co., Ltd Wearable device and method of operating the same
JP2017526061A (ja) * 2014-07-30 2017-09-07 サムスン エレクトロニクス カンパニー リミテッド ウェアラブルデバイス、及びウェアラブルデバイスの動作方法
KR102296184B1 (ko) 2014-10-01 2021-08-31 삼성전자주식회사 이동 통신 시스템에서 통신 및 디스커버리 신호 송신 기법
KR20160039440A (ko) * 2014-10-01 2016-04-11 삼성전자주식회사 이동 통신 시스템에서 통신 및 디스커버리 신호 송신 기법
US10274992B2 (en) 2014-11-12 2019-04-30 Kyocera Corporation Wearable device with muscle activity detector
JP2018508900A (ja) * 2015-03-03 2018-03-29 イマージョン コーポレーションImmersion Corporation ウェアラブルデバイス表面触覚相互作用
JP2016197087A (ja) * 2015-04-06 2016-11-24 バンドー化学株式会社 静電容量型センサシート及びセンサ装置
US11614811B2 (en) 2015-06-16 2023-03-28 Intel Corporation Gyratory sensing system to enhance wearable device user experience via HMI extension
JP2022031799A (ja) * 2015-06-16 2022-02-22 インテル コーポレイション ウェアラブル・デバイス、電子装置、記憶媒体、及びコンピュータ・プログラム
JP7283021B2 (ja) 2015-06-16 2023-05-30 インテル コーポレイション ウェアラブル・デバイス、電子装置、記憶媒体、及びコンピュータ・プログラム
JP2021509991A (ja) * 2018-01-03 2021-04-08 グレーヒル, インコーポレイテッドGrayhill, Inc. タッチエンコーダ、タッチパネル、及び統合開発環境を有する入力方法エディタ、並びにその方法
US11816280B2 (en) 2018-01-03 2023-11-14 Grayhill, Inc. Touch encoder, touch panel, and input method editor with integrated development environment and methods thereof
JP7387967B2 (ja) 2018-01-03 2023-11-29 グレーヒル, インコーポレイテッド システム及び方法

Also Published As

Publication number Publication date
JP6330995B2 (ja) 2018-05-30
KR102087989B1 (ko) 2020-03-11
KR20140064691A (ko) 2014-05-28
KR102186456B1 (ko) 2020-12-03
US20220121339A1 (en) 2022-04-21
JP6553328B2 (ja) 2019-07-31
KR20140064690A (ko) 2014-05-28
EP2733608A2 (en) 2014-05-21
US11237719B2 (en) 2022-02-01
EP2733597A3 (en) 2016-06-08
JP6421911B2 (ja) 2018-11-14
JP2014102839A (ja) 2014-06-05
WO2014081175A1 (en) 2014-05-30
CN104919421A (zh) 2015-09-16
US20140143784A1 (en) 2014-05-22
EP2733608B1 (en) 2019-09-11
EP2733597B1 (en) 2019-01-23
CN104919421B (zh) 2020-02-07
AU2013260681B2 (en) 2019-08-15
JP2014102841A (ja) 2014-06-05
AU2013260681A1 (en) 2014-06-05
EP2733597A2 (en) 2014-05-21
KR102186458B1 (ko) 2020-12-03
KR20140064689A (ko) 2014-05-28
EP2733608A3 (en) 2016-08-24

Similar Documents

Publication Publication Date Title
JP6804586B2 (ja) 着用式電子デバイスでのgui転移
JP5712269B2 (ja) デバイスの動きを含む、着用式電子デバイスへのユーザジェスチャー入力
JP6330995B2 (ja) 着用式電子デバイスによる遠隔電子デバイスの制御
JP6323862B2 (ja) デバイスの動きを含む、着用式電子デバイスへのユーザジェスチャー入力
JP6432754B2 (ja) 着用式電子デバイス上への光学センサーの配置
US20220244826A1 (en) Transition and Interaction Model for Wearable Electronic Device
US11240408B2 (en) Wearable electronic device
KR102209064B1 (ko) 착용식 전자 디바이스로부터 프로세싱의 위임
JP6463598B2 (ja) 着用式電子デバイスからのプロセッシングの委任

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20141226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180618

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190521

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190624

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190704

R150 Certificate of patent or registration of utility model

Ref document number: 6553328

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees