JP6966980B2 - View related user interface objects - Google Patents

View related user interface objects Download PDF

Info

Publication number
JP6966980B2
JP6966980B2 JP2018121118A JP2018121118A JP6966980B2 JP 6966980 B2 JP6966980 B2 JP 6966980B2 JP 2018121118 A JP2018121118 A JP 2018121118A JP 2018121118 A JP2018121118 A JP 2018121118A JP 6966980 B2 JP6966980 B2 JP 6966980B2
Authority
JP
Japan
Prior art keywords
user interface
interface object
user
display
application
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018121118A
Other languages
Japanese (ja)
Other versions
JP2018185830A (en
Inventor
ゲイリー イアン. ブッチャー,
イムラン チャウドリ,
ジョナサン, アール. ダスコーラ,
アラン シー. ダイ,
クリストファー パトリック フォス,
ダニエル シー. グロス,
チャナカ ジー. カルナムニ,
スティーブン オー. ルメイ,
ナタリア マリック,
クリストファー ウィルソン,
ローレンス ワイ. ヤング,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2016527367A external-priority patent/JP6393325B2/en
Application filed by Apple Inc filed Critical Apple Inc
Priority to JP2018121118A priority Critical patent/JP6966980B2/en
Publication of JP2018185830A publication Critical patent/JP2018185830A/en
Application granted granted Critical
Publication of JP6966980B2 publication Critical patent/JP6966980B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

開示された実施形態は、概して、電子機器のユーザインターフェースに関する。 The disclosed embodiments generally relate to user interfaces of electronic devices.

先進のパーソナル電子機器は、小さなフォームファクタを有し得る。例示的なパーソナル電子機器として、タブレット及びスマートフォンが挙げられるが、これらには限定されない。かかるパーソナル電子機器の使用は、パーソナル電子機器を補完するように小さく設計されているディスプレイ画面上のユーザインターフェースオブジェクトの表示及び操作を含む。 Advanced personal electronics can have a small form factor. Exemplary personal electronic devices include, but are not limited to, tablets and smartphones. The use of such personal electronic devices includes displaying and manipulating user interface objects on display screens that are designed to be small to complement the personal electronic devices.

例示的なユーザインターフェースオブジェクトとして、デジタル画像、ビデオ、テキスト、アイコン、ボタンなどの制御要素、及び他のグラフィックが挙げられる。ここで用いる場合、用語の「アイコン」は、アプリケーションを表すため、及びそれを起動するために使用される画像のことを指し、当該技術分野におけるその通常の意味と一致する。更に、アプリケーションの簡略化された図を指すために、当技術分野で使用される、「ウィジェット」は、本開示の目的のためには、アイコンを構成するものである。 Exemplary user interface objects include control elements such as digital images, videos, text, icons, buttons, and other graphics. As used herein, the term "icon" refers to an image used to represent an application and to launch it, consistent with its usual meaning in the art. Further, as used in the art to refer to a simplified diagram of an application, a "widget" constitutes an icon for the purposes of the present disclosure.

縮小サイズのパーソナル電子機器上の既存のユーザインターフェースは、適切な情報が提示される前にユーザによって複数回の操作を必要とすることがあるので、効率的ではない恐れがある。 Existing user interfaces on reduced size personal electronics can be inefficient as they may require multiple operations by the user before appropriate information is presented.

パーソナル電子機器上のユーザインターフェースオブジェクトを提示するための技術が開示される。 Techniques for presenting user interface objects on personal electronic devices are disclosed.

例示的なパーソナル電子機器を示す図である。It is a figure which shows an exemplary personal electronic device.

例示的なユーザインターフェースを示す図である。It is a figure which shows an exemplary user interface.

例示的なユーザインターフェースを示す図である。It is a figure which shows an exemplary user interface.

ユーザインターフェースの例示的な論理構造を示す図である。It is a figure which shows the exemplary logical structure of a user interface.

例示的なユーザインターフェースを示す図である。It is a figure which shows an exemplary user interface.

例示的なユーザインターフェースを示す図である。It is a figure which shows an exemplary user interface.

例示的なコンピューティングシステムを示す図である。It is a figure which shows an exemplary computing system.

例示的なユーザインターフェースを示す図である。It is a figure which shows an exemplary user interface.

例示的なユーザインターフェースを示す図である。It is a figure which shows an exemplary user interface.

例示的なユーザインターフェースを示す図である。It is a figure which shows an exemplary user interface.

例示的なユーザインターフェースを示す図である。It is a figure which shows an exemplary user interface.

例示的なユーザインターフェースを示す図である。It is a figure which shows an exemplary user interface.

例示的なユーザインターフェースを示す図である。It is a figure which shows an exemplary user interface.

例示的なユーザインターフェースを示す図である。It is a figure which shows an exemplary user interface.

例示的なユーザインターフェースを示す図である。It is a figure which shows an exemplary user interface.

例示的なユーザインターフェースを示す図である。It is a figure which shows an exemplary user interface.

例示的なユーザインターフェースを示す図である。It is a figure which shows an exemplary user interface.

ユーザインターフェースオブジェクトを表示するための例示的なプロセスを示す図である。It is a figure which shows an exemplary process for displaying a user interface object.

以下の開示及び実施例の説明において、本発明を実施することができる特定の実施例の例示によって示される添付図面を参照する。本開示の範囲から逸脱することなく、他の実施例を実施し、構造上の変更をなし得ることを理解されたい。 In the following disclosure and description of Examples, reference is made to the accompanying drawings set forth by way of illustration of specific Examples in which the invention may be practiced. It should be understood that other embodiments may be implemented and structural changes may be made without departing from the scope of this disclosure.

図1は、例示的なパーソナル電子機器100(以下、機器100)を示す図である。図示の例では、機器100は、本体102を含む。機器100は、タッチ感知式ディスプレイスクリーン(以下、タッチスクリーン)104を有することができる。 FIG. 1 is a diagram showing an exemplary personal electronic device 100 (hereinafter referred to as device 100). In the illustrated example, the device 100 includes a body 102. The device 100 can have a touch-sensitive display screen (hereinafter, touch screen) 104.

タッチスクリーン104としては、相互容量式タッチ感知、自己容量式タッチ感知、抵抗式タッチ感知、投影走査式タッチ感知その他などの任意の所望のタッチ感知技術を用いて実装されるタッチセンサパネルの背面又は前面に部分的に又は完全に配置された、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、有機発光ダイオード(OLED)ディスプレイその他、などのディスプレイデバイスを挙げることができる。タッチスクリーン104によって、ユーザは、1つ以上の指又は他のオブジェクトを用いて、タッチセンサパネルの近くでホバリングさせて、タッチセンサパネルにタッチすることにより、各種の機能を実行することができる。 The touch screen 104 may be the back of a touch sensor panel mounted using any desired touch sensing technique such as mutual capacitive touch sensing, self-capacitating touch sensing, resistance touch sensing, projection scanning touch sensing and the like. Display devices such as liquid crystal displays (LCDs), light emitting diode (LED) displays, organic light emitting diode (OLED) displays, etc., which are partially or completely disposed on the front surface can be mentioned. The touch screen 104 allows the user to perform various functions by hovering near the touch sensor panel and touching the touch sensor panel with one or more fingers or other objects.

いくつかの実施形態では、機器100は、1つ以上の入力機構106及び108を有することができる。入力機構106及び108は、含まれる場合には、タッチ感知式とすることができる。タッチ感知式入力機構の例として、タッチ感知式ボタン、及びタッチ感知式表面が挙げられる。入力機構106及び108は、含まれる場合には、物理的とすることができる。物理的な入力機構の例としては、押しボタン及び回転可能な機構が挙げられる。ベゼルを含み得る本体102は、入力機構として作用するベゼル上の所定の領域を有することができる。いくつかの実施形態では、機器100は、取り付け機構を有することができる。かかる取り付け機構が含まれる場合には、これによって、機器100を、例えば、衣類、宝石、及び他の着用可能なアクセサリに取り付けることができる。例えば、取り付け機構は、帽子、眼鏡、イヤリング、ネックレス、シャツ、ジャケット、ブレスレット、時計ストラップ、チェーン、ズボン、ベルト、靴、財布、バックパック、その他、に取り付けることができる。 In some embodiments, the device 100 can have one or more input mechanisms 106 and 108. The input mechanisms 106 and 108, if included, can be touch-sensitive. Examples of touch-sensitive input mechanisms include touch-sensitive buttons and touch-sensitive surfaces. The input mechanisms 106 and 108, if included, can be physical. Examples of physical input mechanisms include pushbuttons and rotatable mechanisms. The body 102, which may include a bezel, can have a predetermined area on the bezel that acts as an input mechanism. In some embodiments, the device 100 can have a mounting mechanism. If such a mounting mechanism is included, it can attach the device 100 to, for example, clothing, jewelry, and other wearable accessories. For example, the attachment mechanism can be attached to hats, eyeglasses, earrings, necklaces, shirts, jackets, bracelets, watch straps, chains, trousers, belts, shoes, purses, backpacks, and more.

いくつかの実施形態では、機器100は、タッチスクリーン104に加えられた力又は圧力を検出するための1つ以上の圧力センサ(図示せず)を有することができる。タッチスクリーン104に加えられた力又は圧力を機器100に対する入力として用いて、選択を行う、メニューに入る若しくはメニューから出る、追加のオプション/動作を表示させる、その他、などの任意の所望の動作を実行することができる。タッチスクリーン104に印加された力又は圧力の大きさに基づいて、異なる動作を行うことができる。1つ以上の圧力センサは、タッチスクリーン104に力が印加されている位置を決定するために、更に使用することができる。
1.関連するユーザインターフェースオブジェクトの表示
In some embodiments, the device 100 can have one or more pressure sensors (not shown) for detecting the force or pressure applied to the touch screen 104. Any desired action, such as making a selection, entering or exiting a menu, displaying additional options / actions, etc., using the force or pressure applied to the touch screen 104 as an input to the device 100, etc. Can be executed. Different actions can be performed based on the magnitude of the force or pressure applied to the touch screen 104. One or more pressure sensors can be further used to determine where the force is applied to the touch screen 104.
1. 1. View related user interface objects

図2は、自分の車202に向かって歩いているユーザ201が装着する例示的な機器100を示す図である。ユーザ201が機器100を視聴位置に動くと、機器100は、ユーザインターフェース画面203をタッチスクリーン104上に、自動的に表示する。いくつかの実施形態では、ユーザ201が、機器100を視聴位置に動くまで、タッチスクリーン104の表示要素は非アクティブであり、これは、タッチスクリーン104の表示要素がオフであるか、又はオフであるようにみえることを意味する。いくつかの実施形態では、機器100が、ユーザ201によって、上向き、下向き、又は横向きに保持されるか否かに関わらず、表示される情報は、適切な視聴の向きになるように、機器100は、タッチスクリーン104の表示内容を回転させる(例えば、横長モードと縦長モードの間を)ことができる。 FIG. 2 is a diagram showing an exemplary device 100 worn by a user 201 walking toward his car 202. When the user 201 moves the device 100 to the viewing position, the device 100 automatically displays the user interface screen 203 on the touch screen 104. In some embodiments, the display element of the touch screen 104 is inactive until the user 201 moves the device 100 to the viewing position, which means that the display element of the touch screen 104 is off or off. It means that it looks like it is. In some embodiments, the device 100 is oriented so that the information displayed is in the proper viewing orientation, whether or not the device 100 is held up, down, or sideways by the user 201. Can rotate the display content of the touch screen 104 (eg, between landscape and portrait modes).

ユーザインターフェーススクリーン203は、この時点で、ユーザに最も関連すると機器100が判断したユーザインターフェースオブジェクトを含む。特に、画面203は、ユーザが自分の車に接近すると、ユーザ201にとって有用である、車両202のロック解除のためのアイコン204を含む。画面203はまた、交通情報へアクセスするためのマップアイコン205(ユーザ201が走行を始めるときに有用であり得る)を含む。画面203はまた、今後のカレンダイベントを参照して目的地情報を提供するのに有用なアイコン206を、含むことができる。表示されるアイコンの大きさは、それらの関連性に関係することができる。画面203上で、アイコン204を介して提供される車202のロック解除の方が、より関連性があることを機器100が決定したため、アイコン204は、アイコン205及び206よりも大きい。 The user interface screen 203 includes a user interface object that the device 100 has determined to be most relevant to the user at this point. In particular, the screen 203 includes an icon 204 for unlocking the vehicle 202, which is useful for the user 201 when the user approaches his vehicle. The screen 203 also includes a map icon 205 for accessing traffic information, which may be useful when the user 201 starts traveling. The screen 203 can also include an icon 206, which is useful for providing destination information with reference to upcoming calendar events. The size of the displayed icons can be related to their relevance. Icon 204 is larger than icons 205 and 206 because device 100 has determined on screen 203 that unlocking the vehicle 202 provided via icon 204 is more relevant.

このユーザインターフェース表示は、たとえ、より多くのユーザインターフェースオブジェクトが、表示のために利用可能であっても、管理可能なアイコンのサブセットに優先順位をつけ、ユーザ201に表示することにおいて、注目に値する。また、このユーザインターフェースは、ユーザから、腕の持ち上げ以外のいかなるユーザインターフェースナビゲーションの入力なしに、(例えば、電源オン又はそれと同等のボタンをユーザ201が押す必要なく)ユーザ201に利用可能となる。このようにして、機器100は、適切なユーザインターフェース動作を起動するために必要なユーザ入力の量を減少させる。この利点は些細なことではない。その理由は、特に、スマートフォン及び他の電子機器と比較して、機器100は、比較的小さい表示画面サイズしか有していないので、より大きなユーザインターフェース環境のユーザのナビゲーションを妨げる恐れがあるためである。 This user interface display is noteworthy in prioritizing a subset of manageable icons and displaying them to user 201, even if more user interface objects are available for display. .. The user interface is also available to the user 201 without any user interface navigation input other than lifting the arm (eg, without the user having to press a power-on or equivalent button). In this way, the device 100 reduces the amount of user input required to initiate proper user interface operation. This advantage is not trivial. The reason is that, in particular, the device 100 has a relatively small display screen size compared to smartphones and other electronic devices, which may interfere with the navigation of users in a larger user interface environment. be.

所定の状況における関連するユーザインターフェースオブジェクトの数が、タッチスクリーン104上に合理的に一緒に表示され得る数(図2に示すような3つなど)を超過する可能性がある。この場合には、機器100は、初期表示のために、最も関連するアイコン(機器100上のコンピュータベースの関連性アルゴリズムによって決定されるような)を優先することができる。いくつかの実施形態では、ユーザは、残りの関連するアイコンを、入力機構106又は108を用いて、ディスプレイに表示させることができる。いくつかの実施形態では、ユーザは、残りの関連するアイコンを、タッチスクリーン104を用いたディスプレイに表示させる(タッチオブジェクトによってタッチスクリーン104をスワイプすることによってなど)ことができる。 The number of related user interface objects in a given situation can exceed the number that can reasonably be displayed together on the touch screen 104 (such as three as shown in FIG. 2). In this case, the device 100 may prioritize the most relevant icon (as determined by the computer-based relevance algorithm on the device 100) for initial display. In some embodiments, the user can display the remaining relevant icons on the display using the input mechanism 106 or 108. In some embodiments, the user can display the remaining relevant icons on a display with the touch screen 104 (for example, by swiping the touch screen 104 with a touch object).

図3は、複数のユーザインターフェース画面上の関連するアイコンの表示を示す図である。図示の例は、機器の上向きの動きに応じて、ユーザインターフェース画面301が、機器100上に表示されたものである。画面301は、関連するアプリケーションを表すアイコン302〜304(いくつかの例ではアイコン204〜206(図2)としてもよい)を含んでいる。方向306への入力機構108の回転に応じて、ユーザインターフェース画面311が、機器100に表示される。画面311は、画面301に示されるものよりも関連性の少ない、いくつかの追加の関連するアイコン312〜314を表示することができる。同じ方向306への入力機構108の更なる回転に応じて、機器100は、ユーザインターフェース画面321を表示することができる。画面321は、画面311に示されるものよりも関連性が低い関連アイコン322〜324の別のセットを含み、その結果、画面301のものよりも関連性が低いことになる。入力機構108は、回転可能なクラウンとすることができる。このようにして、ユーザは、機器100上で、関連するユーザインターフェースオブジェクト(例えば、アイコン)の複数のセットの間をナビゲートすることができる。 FIG. 3 is a diagram showing the display of related icons on a plurality of user interface screens. In the illustrated example, the user interface screen 301 is displayed on the device 100 in response to the upward movement of the device. The screen 301 includes icons 302 to 304 (may be icons 204 to 206 (FIG. 2) in some examples) representing related applications. The user interface screen 311 is displayed on the device 100 in response to the rotation of the input mechanism 108 in the direction 306. Screen 311 can display some additional related icons 312-314 that are less relevant than those shown on screen 301. In response to further rotation of the input mechanism 108 in the same direction 306, the device 100 can display the user interface screen 321. Screen 321 includes another set of related icons 322-324 that are less relevant than those shown on screen 311 and, as a result, are less relevant than those of screen 301. The input mechanism 108 can be a rotatable crown. In this way, the user can navigate between a plurality of sets of related user interface objects (eg, icons) on the device 100.

ユーザは、表示されたアイコンに触れることにより(例えば、指タップによる)、表示されたアイコンに対応するアプリケーションを起動することができる。ここで使用する場合、アプリケーションの起動とは、そのアプリケーションが、機器100のフォアグラウンドで動作し、画面上に表示されることを意味する。図4は、この態様を例示している。図示の例は、ユーザインターフェース画面401が、視聴位置への機器の動きに応じて、機器100上に表示されたものである。画面401は、5つの未読メッセージを有する、メッセージングアプリケーション(例えば、ショートメッセージサービス(SMS)をサポートする)を表すアイコン402、並びに他のアプリケーションを表すアイコン403及び404を含んでいる。タッチオブジェクト(例えば、指405)によってアイコン402をタップすることに応じて、機器100は、対応するメッセージングアプリケーションを起動して、ユーザインターフェース画面411に未読のメッセージ412を表示する。 The user can launch the application corresponding to the displayed icon by touching the displayed icon (for example, by tapping a finger). When used here, launching an application means that the application operates in the foreground of device 100 and is displayed on the screen. FIG. 4 illustrates this aspect. In the illustrated example, the user interface screen 401 is displayed on the device 100 according to the movement of the device to the viewing position. Screen 401 includes icons 402 representing a messaging application (eg, supporting short message service (SMS)) with five unread messages, as well as icons 403 and 404 representing other applications. In response to tapping the icon 402 with a touch object (eg, finger 405), the device 100 launches the corresponding messaging application and displays an unread message 412 on the user interface screen 411.

いくつかの使用条件の下では、ユーザは、メッセージングアプリケーションから別の関連するアプリケーションへナビゲートすることを望む場合がある。例えば、ユーザは、前に画面401上のアイコン403及び404により表された音楽及び地図のアプリケーションへナビゲートすることを望む場合がある。機器100は、最初に画面401に戻ることなく、直接これらのアプリケーション間でのナビゲーションを可能にすることができる。具体的には、画面411が表示されている間に、方向414に入力機構108を回転させることは、機器100に、アイコン403によって表される音楽プレーヤを画面421上に表示させる。画面421は、音楽再生制御423を含むことができる。画面421が表示されている間に、方向414に入力機構108を更に回転させることは、機器100に、アイコン404によって表される地図アプリケーションを画面431上に表示させる。画面431は、交通情報432を含むことができる。 Under some terms of use, the user may wish to navigate from a messaging application to another related application. For example, the user may previously wish to navigate to a music and map application represented by icons 403 and 404 on screen 401. The device 100 can enable navigation directly between these applications without first returning to the screen 401. Specifically, rotating the input mechanism 108 in the direction 414 while the screen 411 is displayed causes the device 100 to display the music player represented by the icon 403 on the screen 421. The screen 421 can include a music reproduction control 423. Further rotation of the input mechanism 108 in direction 414 while the screen 421 is displayed causes the device 100 to display the map application represented by the icon 404 on the screen 431. The screen 431 can include traffic information 432.

いくつかの実施形態では、画面411、421、及び431は、それぞれ、入力機構108によってアクセス可能なアプリケーションの順序に沿って現在表示されているアプリケーションの相対位置を識別する視覚的な補助(ページングドット415、425、及び435など)を含む。他の視覚的補助(スクロールバー、及び画面間の遷移など)もまた、利用可能なユーザインターフェース画面のより大きなセットに対して、現在表示中のユーザインターフェース画面に関するユーザの識別を助けるために、使用することができる。 In some embodiments, the screens 411, 421, and 431 are visual aids (paging dots) that identify the relative position of the application currently displayed along the order of the applications accessible by the input mechanism 108, respectively. 415, 425, and 435, etc.). Other visual aids (such as scrollbars and transitions between screens) are also used to help identify the user with respect to the currently displayed user interface screen for a larger set of available user interface screens. can do.

図2〜図4に示された例示的なユーザインターフェース画面は主に、関連するユーザインターフェースオブジェクトの効率的な表示に関係している。しかし、たとえ、現時点の関連性は容易に識別できなくても、ユーザがアクセス可能であるべきより多くのユーザインターフェースオブジェクトを、機器100は含むことができることに留意されたい。例えば、ユーザは、ゲームのプレイを衝動的に望む場合がある。ユーザが、関連するユーザインターフェースオブジェクトを越えて、他のユーザインターフェースオブジェクトにナビゲーションすることが、機器100によって可能となる。図5はこの態様を例示している。 The exemplary user interface screens shown in FIGS. 2-4 are primarily related to the efficient display of related user interface objects. However, it should be noted that the device 100 can include more user interface objects that should be accessible to the user, even if the current relevance is not easily identifiable. For example, a user may impulsively desire to play a game. The device 100 allows the user to navigate beyond the associated user interface object to another user interface object. FIG. 5 illustrates this aspect.

図5において、ユーザインターフェース画面501は、機器の視聴位置への動きに応じて、機器100上に表示される。画面501は、関連するアプリケーションを表すアイコン502〜504(いくつかの例ではアイコン203〜205(図2)としてもよい)を含んでいる。図示の例で、機器100は、3つのユーザインターフェースオブジェクト(即ちアイコン502〜504)だけが、現時点で関連していると判断したものである。したがって、入力機構108の方向505への回転に応じて、機器100はユーザインターフェース画面511を表示するが、この画面は、機器100上でのユーザ選択のために利用可能な他のユーザインターフェースオブジェクトを有する。画面511に表示されたアイコンは、ユーザのお気に入りのアイコンとすることができるが、これは、画面511のアイコンが、機器100上で利用可能なユーザインターフェースオブジェクトの所定のサブセットであることを意味する。入力機構108の方向505への更なる回転に応じて、機器100は、ユーザインターフェース画面521を表示するが、これは、機器100上で利用可能な全てのアプリケーションを表すアイコンを含んでいる。画面521に表示されるアイコンの大きさは、ユーザのナビゲーションには小さすぎる場合があるので、入力機構108の方向505への更なる回転に応じて、機器100は画面531を表示する。これは、画面521のアイコンのサブセットを拡大する効果を有し、それらのアイコンは、ユーザとの対話のために、より大きなサイズで表示される。 In FIG. 5, the user interface screen 501 is displayed on the device 100 according to the movement of the device to the viewing position. The screen 501 includes icons 502 to 504 representing related applications (may be icons 203 to 205 (FIG. 2) in some examples). In the illustrated example, the device 100 determines that only three user interface objects (ie, icons 502 to 504) are currently associated. Therefore, in response to the rotation of the input mechanism 108 in the direction 505, the device 100 displays a user interface screen 511, which screen displays other user interface objects available for user selection on the device 100. Have. The icon displayed on screen 511 can be a user's favorite icon, which means that the icon on screen 511 is a predetermined subset of the user interface objects available on device 100. .. In response to further rotation of the input mechanism 108 in direction 505, the device 100 displays a user interface screen 521, which includes icons representing all applications available on the device 100. Since the size of the icon displayed on the screen 521 may be too small for the user's navigation, the device 100 displays the screen 531 in response to further rotation of the input mechanism 108 in the direction 505. This has the effect of enlarging a subset of the icons on the screen 521, which are displayed in a larger size for user interaction.

図5を参照して説明したユーザインターフェースのナビゲーションは、図6に示す論理構造600に従って、論理的に構成することができる。図6に示す例では、x軸601及びy軸602は、機器100のタッチスクリーン画面(図1)の表面と同一平面を形成し、z軸603は、軸601及び602によって形成されたx/y平面に対して垂直である。平面604は、一例では、ユーザインターフェース画面501(図5)に対応し、平面605は、ユーザインターフェース画面511(図5)に、そして、面607は、ユーザインターフェース画面521及び531(図5)に対応する。より具体的には、画面521(図5)は、平面607のコンテンツ全体の視点に対応することができ、画面531(図5)は、平面607のコンテンツの拡大された視点(即ち、拡大されたサブセット)に対応することができる。別の例では、平面604、607、608は、図3のユーザインターフェース画面301、311、及び321にそれぞれ対応することができる。入力機構の動きは、機器100上に表示する情報(即ち、アイコンの画面)の特定の平面を選択するために使用することができる。例えば、入力機構108の回転によって、図5に示された方法と同様にして、例えば、表示機器100に、アイコンの異なる画面を表示することができる。
2.関連するユーザインターフェースオブジェクトの決定
The user interface navigation described with reference to FIG. 5 can be logically configured according to the logical structure 600 shown in FIG. In the example shown in FIG. 6, the x-axis 601 and the y-axis 602 form the same plane as the surface of the touch screen screen (FIG. 1) of the device 100, and the z-axis 603 is the x / formed by the axes 601 and 602. It is perpendicular to the y-plane. The plane 604 corresponds, in one example, to the user interface screen 501 (FIG. 5), the plane 605 to the user interface screen 511 (FIG. 5), and the plane 607 to the user interface screens 521 and 531 (FIG. 5). handle. More specifically, the screen 521 (FIG. 5) can correspond to the viewpoint of the entire content of the plane 607, and the screen 531 (FIG. 5) is an enlarged viewpoint (that is, enlarged) of the content of the plane 607. It can correspond to a subset). In another example, the planes 604, 607, 608 can correspond to the user interface screens 301, 311 and 321 of FIG. 3, respectively. The movement of the input mechanism can be used to select a particular plane of information (ie, the screen of the icon) to be displayed on the device 100. For example, by rotating the input mechanism 108, screens having different icons can be displayed on the display device 100, for example, in the same manner as in the method shown in FIG.
2. 2. Determining related user interface objects

その通常の意味と合致して、「関連するアイコン」というフレーズは、当面の事柄に関係するか、又は適切に当てはまるユーザインターフェースアイコンのことを指すように、ここでは使用される。図2の例では、ユーザは自分の車に近づくと、自動車を運転することを望む可能性があるため、車両アプリケーションのロックを解除するためのアイコンが関連する。機器100は、異なる入力(センサの入力、アプリケーションデータ、オペレーティングシステムデータを含む)を考慮するコンピュータ命令(例えば、アルゴリズム)を使用して、関連性を判断することができる。 Consistent with its usual meaning, the phrase "related icon" is used herein to refer to a user interface icon that is relevant or adequately applicable to the immediate matter. In the example of FIG. 2, the icon for unlocking the vehicle application is relevant because the user may want to drive the car as he approaches his car. The device 100 can use computer instructions (eg, algorithms) that consider different inputs (including sensor inputs, application data, operating system data) to determine the relevance.

図7は、いくつかの実施形態では、機器100を形成する例示的なコンピューティングシステム700を示す。コンピューティングシステム700は、関連するユーザインターフェースオブジェクトを判断し、表示するための構成要素を含んでいる。図示の例では、コンピューティングシステム700は、種々のセンサ(GPSセンサ720、加速度センサ722、方向センサ724、ジャイロスコープ726、光センサ728、及び/又はこれらの組み合わせなど)と動作可能に連結する(接続する)ことができるI/O部704を備えている。I/O部704はまた、アプリケーション及びオペレーティングシステムのデータを受信するために、Wi−Fi(登録商標)、Bluetooth(登録商標)、近距離通信(「NFC」)、セルラ及び他の無線通信技術によって、通信ユニット718に接続することができる。更に、コンピューティングシステム700は、I/O部704を1つ以上のコンピュータプロセッサ706及びメモリ部708と一緒に接続するバス702を有することができる。メモリ部708は、関連するユーザインターフェースオブジェクトを決定し表示するための、コンピュータが実行可能な命令(例えば、アルゴリズムを表す)及び/又はデータを、記憶することができる。これらの構成要素のうちの1つ以上は、集積チップ又はいわゆるシステムオンチップの一部とすることができる。更に、I/O部704は、入力機構714に接続することができる。I/O部704は、1つ以上の入力ボタン716に接続することができる。I/O部704は、タッチ感知式構成要素712、及び、任意選択的に接触感圧構成要素713を有することができるディスプレイ710に、接続することができる。 FIG. 7 shows, in some embodiments, an exemplary computing system 700 that forms the device 100. The computing system 700 includes components for determining and displaying related user interface objects. In the illustrated example, the computing system 700 is operably coupled with various sensors (such as a GPS sensor 720, an acceleration sensor 722, a directional sensor 724, a gyroscope 726, an optical sensor 728, and / or a combination thereof). It is equipped with an I / O unit 704 that can be connected). I / O unit 704 also uses Wi-Fi®, Bluetooth®, Near Field Communication (“NFC”), cellular and other wireless communication technologies to receive application and operating system data. Can be connected to the communication unit 718. Further, the computing system 700 may have a bus 702 connecting the I / O units 704 together with one or more computer processors 706 and memory units 708. The memory unit 708 can store computer-executable instructions (eg, representing an algorithm) and / or data for determining and displaying related user interface objects. One or more of these components can be part of an integrated chip or so-called system-on-chip. Further, the I / O unit 704 can be connected to the input mechanism 714. The I / O unit 704 can be connected to one or more input buttons 716. The I / O section 704 can be connected to a touch-sensitive component 712 and optionally a display 710 that can have a contact pressure sensitive component 713.

コンピューティングシステム700のセンサ及び通信ユニットは、関連するユーザインターフェースオブジェクトを識別するための情報を提供することができる。例えば、GPSセンサ720は、ユーザの位置及び動きを判断することができる一方、通信ユニット718は、近くの車両(例えば、図2における車両202)の位置及び識別についての情報を受信することができる。加速度センサ722、方向センサ724、及びジャイロスコープ726は、更に、機器の動きを検出することができる。任意選択的に、GPSセンサ720、加速度計722、方向センサ724、及び/又はジャイロスコープ726の出力は、動きプロセッサ730によって、解釈することができる。プロセッサ706及びメモリ部708におけるコンピュータ実行可能な命令は、ユーザが自分の車に接近していることを判断するために、この情報の一部又は全てを使用することができる。プロセッサ706及びメモリ708の命令は、メモリ708に記憶されているアプリケーションデータ及び/又はオペレーティングシステムデータ(メタデータを含む)に基づいて、そのユーザの車両と対話するためのアプリケーションがインストールされていることもまた、判断することができる。このようにして、機器100の関連アルゴリズムは、自動車対話アプリケーションがその時点でユーザに関連すると、決定することができる。更に、機器100は、同じデータに基づいて、地図アプリケーションもまた、ユーザに関連するであろうと結論することができる。 The sensors and communication units of the computing system 700 can provide information to identify related user interface objects. For example, the GPS sensor 720 can determine the position and movement of the user, while the communication unit 718 can receive information about the position and identification of a nearby vehicle (eg, vehicle 202 in FIG. 2). .. The accelerometer 722, directional sensor 724, and gyroscope 726 can further detect the movement of the device. Optionally, the output of the GPS sensor 720, accelerometer 722, directional sensor 724, and / or gyroscope 726 can be interpreted by the motion processor 730. Computer-executable instructions in the processor 706 and memory unit 708 can use some or all of this information to determine that the user is approaching his vehicle. Instructions in processor 706 and memory 708 have an application installed to interact with the user's vehicle based on application data and / or operating system data (including metadata) stored in memory 708. Can also be judged. In this way, the relevant algorithm of the device 100 can determine that the vehicle dialogue application is then relevant to the user. Further, the device 100 can conclude that the map application will also be relevant to the user, based on the same data.

また、通信ユニット718は、ユーザインターフェースオブジェクトの関連性に影響を与える他の情報もまた、受信することができる。例えば、通信ユニットは、同じ設計の他の装着型機器などの、同一又は類似である近くの機器を検出することができる。通信ユニットは、機器100と同じオペレーティングシステムを実行している非同一のユニット(同じブランドのスマートフォン及びタブレットなど)もまた、検出することができる。通信ユニットは、共通のプロトコルによる通信をサポートする異なる機器もまた、識別することができる。これらのプロトコルは、Wi−Fi、Bluetooth、NFC、その他などの無線プロトコルを含むことができる。これらのプロトコルは、例えば、動作環境サービスプロトコル(operating environment service protocols)(Apple(登録商標)AirPlay(登録商標)及びAirDrop(登録商標))、ホームオートメーションサービスプロトコル(例えば、Phillips(登録商標)Lighting and Nest(登録商標)によって提供されるもの)、認証サービスプロトコル(例えば、空港のクリアランス及び地下鉄料金)、販売サービスプロトコル(例えば、食料雑貨店のチェックアウト)のポイント、などのソフトウェアベースのサービスプロトコルとすることもまたできる。関連するユーザインターフェースオブジェクトを識別するために機器100によって使用されるアルゴリズムは、通信ユニット718により提供されるこれらの入力を考慮することができる。 The communication unit 718 can also receive other information that affects the relevance of the user interface object. For example, the communication unit can detect nearby devices that are the same or similar, such as other wearable devices of the same design. The communication unit can also detect non-identical units running the same operating system as device 100 (such as smartphones and tablets of the same brand). The communication unit can also identify different devices that support communication by a common protocol. These protocols can include wireless protocols such as Wi-Fi, Bluetooth, NFC, and others. These protocols include, for example, operating environment service protocols (Apple® AirPlay® and AirDrop®), home automation service protocols (eg, Phillips® Lighting and). With software-based service protocols such as those provided by Nest®, certification service protocols (eg airport clearances and subway fares), points of sales service protocols (eg grocery store checkouts), etc. You can also do it. The algorithm used by device 100 to identify the associated user interface object can take into account these inputs provided by the communication unit 718.

更に、通信ユニット718は、関連性を通知するアプリケーション及びオペレーティングシステムのデータを受信することができる。例えば、メッセージングアプリケーションは、SMS又はWi−Fiサービスによって、着信メッセージを受信することができ、それによって、関連するようになる。別の例として、機器100の関連アルゴリズムは、イベントリマインダが関連することを判断するために、カレンダのデータ及びセルラシステムの時間を使用することができる。更に、機器100の関連性アルゴリズムは、関連性を判断する際に、アプリケーション及びオペレーティングシステムのデータの内容を考慮することができる。例えば、アルゴリズムは、特定の時間への言及を含む着信メッセージ(例えば、「午後3時に会いましょう」)は、その時間(即ち、午後3時)が近づくにつれて、より関連するようになるとみなすことができる。 In addition, the communication unit 718 can receive application and operating system data notifying the relevance. For example, a messaging application can receive incoming messages via SMS or Wi-Fi services, thereby becoming relevant. As another example, the relevant algorithm of the device 100 can use the calendar data and the time of the cellular system to determine that the event reminder is relevant. In addition, the device 100 relevance algorithm can take into account the content of application and operating system data when determining relevance. For example, the algorithm considers an incoming message containing a reference to a particular time (eg, "see you at 3 pm") to become more relevant as that time (ie, 3 pm) approaches. Can be done.

いくつかの実施形態では、ユーザインターフェースオブジェクトは、グループで関連する場合がある。即ち、アプリケーションデータ(メタデータを含む)は、ユーザインターフェースオブジェクトAが関連するときはいつでも、ユーザインターフェースオブジェクトBもまた関連することを特定する場合がある。例えば、ドライバは、通常、音楽を楽しむため、音楽アプリケーションは、このようにして、車の対話アプリケーションに結び付けることができる。ドライバは、通常、交通情報及び/又は経路情報を望むため、地図アプリケーションは、このようにして、車の対話アプリケーションにも結び付けることができる。 In some embodiments, user interface objects may be related in groups. That is, application data (including metadata) may specify that user interface object B is also relevant whenever user interface object A is relevant. For example, the driver usually enjoys the music, so the music application can be tied to the car dialogue application in this way. Since the driver usually wants traffic information and / or route information, the map application can also be linked to the car dialogue application in this way.

いくつかの実施形態で、機器100によって使用される関連性アルゴリズムは、適応性を有することができ、アルゴリズムの結果は、過去のユーザの行動に基づいて、変更し得ることを意味する。例えば、アルゴリズムは、平日の午前中のユーザの運転パターンに基づいて、ユーザの通勤を認識することができる。このようにして、機器100は、午前中に表示する特定の交通情報を優先させることができる。別の例として、ユーザが通勤中に、他の利用可能なラジオアプリケーションよりも、1つの特定のラジオアプリケーションを繰り返し起動する場合、機器100は、そのラジオアプリケーションをより関連しているものとして識別し、ユーザが自分の車を解錠するときはいつでも、そのアイコンを表示することができる。 In some embodiments, the relevance algorithm used by device 100 can be adaptive, meaning that the result of the algorithm can be modified based on past user behavior. For example, the algorithm can recognize a user's commute based on the user's driving pattern on weekday mornings. In this way, the device 100 can prioritize specific traffic information to be displayed in the morning. As another example, if a user repeatedly launches one particular radio application over other available radio applications while commuting, device 100 identifies the radio application as more relevant. , The user can display the icon whenever he unlocks his car.

いくつかの実施形態では、コンピューティングシステム700は、フォトプレチスモグラフ(PPG)センサ、心電図(ECG)センサ、及び/又は電気皮膚反応(GSR)センサなどの健康関連センサなどのバイオメトリックセンサを含むことができる。機器100は、健康関連情報を提供するこれらのセンサのうち1つ以上から入力を受信することができる。例えば、機器100は、PPGセンサの情報を使用して、異常な呼吸数、血圧、及び/又は酸素飽和度をユーザに警告することができる。別の例として、機器100は、心電図センサを使用して、不整脈をユーザに警告することができる。更に別の例として、機器100は、GSRセンサを用いて、発汗を示すユーザの皮膚の水分を検出し、機器100上で表示のためにサーモスタットアプリケーションを優先させることができる。これらのセンサはまた、ユーザのバイオメトリック識別及び認証を容易にするために使用することができる。 In some embodiments, the computing system 700 may include a biometric sensor such as a photoplethysmograph (PPG) sensor, an electrocardiogram (ECG) sensor, and / or a health-related sensor such as an electroskin response (GSR) sensor. can. The device 100 can receive input from one or more of these sensors that provide health-related information. For example, the device 100 can use the information from the PPG sensor to warn the user of abnormal respiratory rate, blood pressure, and / or oxygen saturation. As another example, the device 100 can use an electrocardiogram sensor to warn the user of an arrhythmia. As yet another example, the device 100 can use a GSR sensor to detect moisture in the skin of a user exhibiting sweating and prioritize a thermostat application for display on the device 100. These sensors can also be used to facilitate biometric identification and authentication of users.

コンピューティングシステム700のセンサは、システム(例えば、機器100)が視聴位置に置かれた時点を検出することができる。例えば、加速度計722及び/又は動きセンサ730は、計算システム700が持ち上げられ、下降され、振動された時点を検出することができる。これらのセンサは、手首の前後の回転を検出することができる。いくつかの実施形態では、コンピューティング機器700の持ち上げは、機器の視聴位置への配置として解釈される。いくつかの実施形態では、コンピューティング機器700の持ち上げ及び回転は、機器の視聴位置への配置として解釈される。いくつかの実施形態では、コンピューティング機器700の持ち上げ及び下降の間の持続時間は、機器の視聴位置への配置として解釈される。 The sensor of the computing system 700 can detect when the system (eg, device 100) is placed in the viewing position. For example, the accelerometer 722 and / or the motion sensor 730 can detect when the computational system 700 is lifted, lowered, and vibrated. These sensors can detect the back and forth rotation of the wrist. In some embodiments, lifting the computing device 700 is interpreted as placing the device in a viewing position. In some embodiments, lifting and rotating the computing device 700 is interpreted as placement of the device in the viewing position. In some embodiments, the duration between lifting and lowering of the computing device 700 is interpreted as placement of the device in the viewing position.

表示のための関連するユーザインターフェースオブジェクトを識別するために機器100によって使用されるアルゴリズムは、機器(例えば、コンピューティングシステム700)の前述の態様の1つ以上を使用することができる。即ち、アルゴリズムは、関連性の判断において、以下のものを含む入力の組み合わせを考慮することができる。以下のものとは、位置、動き(姿勢、方向、傾き、加速度、及び速度を含む)は、周囲条件(光、時間、温度、ユーザの健康状態を含む)、アプリケーションデータ(着信電話、着信メッセージ、今後のカレンダイベントを含む)である。 The algorithm used by the device 100 to identify the associated user interface object for display can use one or more of the aforementioned aspects of the device (eg, the computing system 700). That is, the algorithm can consider combinations of inputs, including: The following are positions, movements (including posture, direction, tilt, acceleration, and speed), ambient conditions (including light, time, temperature, and user health), application data (incoming calls, incoming messages). , Including upcoming calendar events).

例えば、機器100が、閾値(例えば、時速10マイル、時速20マイル、時速25マイル、時速30マイル、時速40マイル、時速50マイル、時速55マイル、時速60マイル、時速65マイル、その他)を超える速度で動いている場合、機器のユーザは通勤途中であってナビゲーションのアプリケーションに対応するアイコンは関連性が高い、と機器100は判断することができる。このような状況において、利用可能な車載機器が機器100の通信ユニットと通信中である場合、機器100はまた、車内の娯楽アプリケーションを表すアイコンを、関連性があると判断することができる。別の例として、機器100は、バイオメトリックセンサ及び動きセンサが、運動を表す動きを検出した場合に、健康関連アプリケーションを表すアイコンは、より関連性が高いと判断することができる。別の例として、機器100は、特定の時間量(例えば、15分間、30分間、1時間、1日間、1週間、その他)後に発生する予定のカレンダイベントは、より関連性が高いと判断することができる。任意選択的に、機器100は、イベントの関連性を判断するうえで、機器の現在位置とイベントの位置との間の距離、並びに、現在の天候、などの他の変数を考慮に入れることができる。即ち、例えば、15分後に予定の近隣のイベントは、1時間後の予定ではあるが30マイル離れているイベントよりも、関連性が低いと、機器100は判断することができる。
3.例示的なユーザ対話
For example, the device 100 exceeds a threshold (eg, 10 mph, 20 mph, 25 mph, 30 mph, 40 mph, 50 mph, 55 mph, 60 mph, 65 mph, etc.). When moving at speed, the device 100 can determine that the user of the device is on his way to work and the icon corresponding to the navigation application is highly relevant. In such a situation, if the available in-vehicle device is communicating with the communication unit of the device 100, the device 100 can also determine that the icon representing the entertainment application in the vehicle is relevant. As another example, the device 100 can determine that the icon representing the health-related application is more relevant when the biometric sensor and the motion sensor detect the motion representing the movement. As another example, the device 100 determines that a calendar event that is scheduled to occur after a specific amount of time (eg, 15 minutes, 30 minutes, 1 hour, 1 day, 1 week, etc.) is more relevant. be able to. Optionally, the device 100 may take into account other variables such as the distance between the current position of the device and the position of the event, as well as the current weather, in determining the relevance of the event. can. That is, for example, the device 100 can determine that a nearby event scheduled 15 minutes later is less relevant than an event scheduled 1 hour later but 30 miles away.
3. 3. Illustrative user dialogue

ユーザは、機器100のユーザインターフェースと対話することができる。これらの対話は、アプリケーション機能を呼び出すためのショートカットを含むことができる。この態様は、図8〜図9を参照して説明する。 The user can interact with the user interface of the device 100. These dialogues can include shortcuts for invoking application functions. This aspect will be described with reference to FIGS. 8-9.

図8の例では、機器100は、着信SMSメッセージを受信し、ユーザに触覚フィードバックを提供したところである。触覚フィードバックに応じて、ユーザは、機器100を視聴位置に持ち上げることにより、機器100に、ユーザインターフェース画面801を表示させる。画面801は、その時点でユーザに関連すると判断されたアプリケーションを表すアイコン802〜804を含む。アイコン802は、未読SMSメッセージを表す。アイコン803は、今後のカレンダイベントを表す。アイコン804は、利用可能な交通情報を表す。最近受信されたSMSメッセージは、関連性において最もランクが高いため、アイコン802は、大きな様式で表示される。 In the example of FIG. 8, the device 100 has just received an incoming SMS message and provided tactile feedback to the user. In response to the tactile feedback, the user lifts the device 100 to the viewing position, causing the device 100 to display the user interface screen 801. The screen 801 includes icons 802 to 804 representing applications that are determined to be relevant to the user at that time. Icon 802 represents an unread SMS message. Icon 803 represents a future calendar event. Icon 804 represents available traffic information. The recently received SMS message has the highest rank in relevance, so the icon 802 is displayed in a large format.

メッセージアイコン802は、最高の関連性を有するため、ユーザは、方向805へ入力機構108を回転させると、機器100は、対応するメッセージングアプリケーションを起動して、ユーザインターフェース画面811上に、未読SMSメッセージ812を表示する。方向805への入力機構108の更なる回転に応じて、機器100は、アイコン803により表されるカレンダアプリケーションにおいて、ユーザインターフェース画面821上に、カレンダイベント822を表示する。方向805への入力機構108の更なる回転に応じて、機器100は、地図アプリケーション(アイコン804に対応する)によって提供される交通情報を、ユーザインターフェース画面831上に表示する。 Since the message icon 802 has the highest relevance, when the user rotates the input mechanism 108 in the direction 805, the device 100 launches the corresponding messaging application and displays an unread SMS message on the user interface screen 811. Display 812. In response to further rotation of the input mechanism 108 in direction 805, the device 100 displays a calendar event 822 on the user interface screen 821 in the calendar application represented by the icon 803. In response to further rotation of the input mechanism 108 in the direction 805, the device 100 displays the traffic information provided by the map application (corresponding to the icon 804) on the user interface screen 831.

画面811から、ユーザは、図9に示されるユーザインターフェース画面901を呼び出すために、SMSメッセージ812をタップしてもよい。図9を参照すると、画面901は、SMSメッセージ812に応答するためのアイコン902を含む。画面901はまた、SMSメッセージ812によって示唆される午後3時にアラームを生成するためのアイコン903を含む。同様に、画面821(図8)が表示されると、ユーザはカレンダイベント822をタップして、図9に示されたユーザインターフェース画面911を呼び出すことができる。画面911は、イベント参加者(例えば、Larry)を伝言するためのアイコン912を含む。画面911はまた、イベント場所へのナビゲーションを得るためのアイコン913を含む。最後に、画面831(図8)が表示されているときに、ユーザは、マップ832をタップして、図9に示されるユーザインターフェース画面921を呼び出すことができる。画面921は、ナビゲーションの中間地点を設定するためのアイコン922、及びターンバイターン方式のナビゲーション指示を得るためのアイコン923を含む。 From screen 811 the user may tap SMS message 812 to call the user interface screen 901 shown in FIG. Referring to FIG. 9, the screen 901 includes an icon 902 for responding to SMS message 812. Screen 901 also includes an icon 903 for generating an alarm at 3:00 pm as suggested by SMS message 812. Similarly, when the screen 821 (FIG. 8) is displayed, the user can tap the calendar event 822 to call the user interface screen 911 shown in FIG. The screen 911 includes an icon 912 for signaling an event participant (eg, Larry). Screen 911 also includes an icon 913 for getting navigation to the event location. Finally, when the screen 831 (FIG. 8) is displayed, the user can tap the map 832 to call the user interface screen 921 shown in FIG. The screen 921 includes an icon 922 for setting an intermediate point of navigation and an icon 923 for obtaining a turn-by-turn navigation instruction.

いくつかの実施形態では、機器100は、タッチスクリーン104(図1)上の短いタップと長いタップとを区別し、例えば、画面811(図8)上の長いタップの後にのみ、画面901を呼び出すことができる。本開示の目的のために、短いタップとは、タッチスクリーン104(図1)をタッチした後にタッチを離す短いタッチのことをいう。長いタップとは、タッチを離す前にタッチスクリーン104(図1)をより長くタッチすることをいう。機器100は、所定の持続時間を超えるタッチを長いタップと(及び、より短い持続時間のタッチを短いタップと)みなすことができる。いくつかの実施形態では、機器100は、タッチスクリーン104上の圧力の度合いを識別することができる。即ち、機器100は、タッチスクリーン104上のタッチオブジェクト(例えば、ユーザの指)の強度を検出することができる。したがって、機器100は、ユーザが画面811(図8)を十分な圧力でタップした後にのみ、画面901を呼び出すことができる。 In some embodiments, the device 100 distinguishes between short taps and long taps on the touch screen 104 (FIG. 1) and calls screen 901 only after, for example, a long tap on screen 811 (FIG. 8). be able to. For the purposes of the present disclosure, a short tap is a short touch that is touched and then released from the touch screen 104 (FIG. 1). A long tap means touching the touch screen 104 (FIG. 1) for a longer time before releasing the touch. The device 100 can consider a touch that exceeds a predetermined duration as a long tap (and a touch with a shorter duration as a short tap). In some embodiments, the device 100 can identify the degree of pressure on the touch screen 104. That is, the device 100 can detect the intensity of the touch object (for example, the user's finger) on the touch screen 104. Therefore, the device 100 can call the screen 901 only after the user taps the screen 811 (FIG. 8) with sufficient pressure.

いくつかの実施形態では、機器100は、タッチスクリーン104(図1)の短い一瞥とより長い凝視とを区別することができる。短い一瞥は、機器の視聴位置への持ち上げと後続の機器の下降との間の持続時間が短いことによって、特徴付けることができる。より長い凝視は、機器が視聴位置で相対的に変動しない期間によって、特徴付けることができる。機器100は、短い一瞥とより長い凝視とに対して、異なる応答をすることができる。この態様は、図10に示されている。図10の例は、ユーザインターフェース画面1001が、機器100のユーザによる視聴位置への動きに応じて、表示されたものである。しかし、メッセージ1002は、機器100が視聴位置に持ち上げられる直前に着信したため、ユーザインターフェース画面1001は、複数の関連するユーザインターフェースオブジェクトを表示する代わりに、連絡先からの未読SMSメッセージ1002の表示を強調する。ユーザは、機器100を所定時間を超えて視聴位置に維持する場合、機器100は、画面1001を、ユーザインターフェース画面1011(機器100上で利用可能な関連するユーザインターフェースオブジェクトを表す複数のアイコンを示す)と入れ替える。画面1011から、ユーザは、指1013を用いてアイコン1012をタップして、SMSメッセージ1002に戻ることができる。このようにして、機器100によって、ユーザは着信メッセージを簡単に一瞥することができる。
4.例示的なユーザインターフェース。
In some embodiments, the device 100 can distinguish between a short glance at the touch screen 104 (FIG. 1) and a longer gaze. A short glance can be characterized by a short duration between lifting the device to the viewing position and descending the subsequent device. Longer gaze can be characterized by a period of time during which the device does not fluctuate relatively in the viewing position. The device 100 can respond differently to a short glance and a longer gaze. This aspect is shown in FIG. In the example of FIG. 10, the user interface screen 1001 is displayed according to the movement of the device 100 by the user to the viewing position. However, since the message 1002 arrived just before the device 100 was lifted to the viewing position, the user interface screen 1001 emphasizes the display of the unread SMS message 1002 from the contact instead of displaying a plurality of related user interface objects. do. When the user keeps the device 100 in the viewing position for more than a predetermined time, the device 100 displays the screen 1001 with a plurality of icons representing the user interface screen 1011 (related user interface objects available on the device 100). ). From screen 1011 the user can tap icon 1012 with his finger 1013 to return to SMS message 1002. In this way, the device 100 allows the user to easily glance at the incoming message.
4. An exemplary user interface.

図11〜図16は、機器100が、関連性に基づいて、一日の経過にわたって表示することができる例示的なユーザインターフェースを示す。図11において、機器100は、先程ユーザが目覚めたと判断して、「おはよう」と告げる適切な挨拶文1102を表示する。機器100は、1日のうちの時刻、ユーザの目覚まし時計アプリケーションとの対話(例えば、ユーザはちょうどアラームをオフにしたところである)、及び/又は、例えば、ユーザがじっとして動かない期間の後に、歩いていることを示す機器の動き、に基づいて、この判断を行うことができる。機器100は、ユーザが起きたときにユーザに表示すべき最も関連するアイコンとして、挨拶1102をランク付けすることができる。その高い関連性のために、挨拶1102は、ユーザインターフェース画面1101で強調されるが、これは、挨拶1102を、表示される最も大きなアイコン、又は表示される唯一のアイコンとすることができることを意味する。しかし、挨拶1102が、表示される唯一のアイコンである場合、他の非アイコンのユーザインターフェース要素(現在時刻など)は、なおオンスクリーン表示することができることに留意されたい。 11-16 show an exemplary user interface that device 100 can display over the course of a day based on relevance. In FIG. 11, the device 100 determines that the user has just awakened and displays an appropriate greeting message 1102 saying "Good morning". The device 100 is after a time of day, a dialogue with the user's alarm clock application (eg, the user has just turned off the alarm), and / or, for example, a period of inactivity. This judgment can be made based on the movement of the device, which indicates that it is walking. The device 100 can rank the greeting 1102 as the most relevant icon to display to the user when the user wakes up. Due to its high relevance, greeting 1102 is highlighted on the user interface screen 1101, which means that greeting 1102 can be the largest icon displayed, or the only icon displayed. do. However, it should be noted that if greeting 1102 is the only icon displayed, other non-icon user interface elements (such as the current time) can still be displayed on-screen.

ユーザインターフェース画面1111は、ユーザが起きたときに機器100が表示することができる、別の例示的なユーザインターフェースを示す。画面1111は、現在時刻を示すアイコン1112を含んでいる。アイコン1113は、スヌーズの残り時間を示す周方向輪郭1113を有することができる。任意選択的に、アイコン1112は、現在の天候を示す背景を有し、例えば、青色は温暖な天候を、灰色は荒れ模様の天候を表す。画面1111はまた、ユーザが注意を払うべき未読メッセージを示すアイコン1115を含むことができる。 The user interface screen 1111 shows another exemplary user interface that the device 100 can display when the user wakes up. The screen 1111 includes an icon 1112 indicating the current time. Icon 1113 may have a circumferential contour 1113 indicating the time remaining for snooze. Optionally, the icon 1112 has a background indicating the current weather, for example, blue represents warm weather and gray represents stormy weather. The screen 1111 can also include an icon 1115 indicating an unread message that the user should pay attention to.

図12は、ユーザが起きた後に、追加の関連するユーザインターフェースオブジェクトを示すことができるユーザインターフェース画面1201を例示する。画面1201は、関連するアイコン1202〜1204を含む。アイコン1202は、健康アプリケーションに対応し、ユーザによる睡眠の持続時間などの睡眠情報を示すことができる。アイコン1203は、次のカレンダイベントの前の残り時間などのカレンダ情報に対応することができる。アイコン1204は、終日イベントなどの追加のカレンダ情報に対応することができる。 FIG. 12 illustrates a user interface screen 1201 that can show additional relevant user interface objects after the user has woken up. Screen 1201 includes related icons 1202-1204. Icon 1202 corresponds to a health application and can indicate sleep information such as the duration of sleep by the user. Icon 1203 can correspond to calendar information such as the remaining time before the next calendar event. Icon 1204 can accommodate additional calendar information such as all-day events.

ユーザインターフェース画面1211は、ユーザが起きた後に機器100が表示することができる、追加の関連するユーザインターフェースオブジェクトを示している。画面1211は、関連するアイコン1212及び1213を含む。アイコン1212は、機器の現在位置の天候を示す天候アプリケーションに対応することができる。任意選択的に、アイコン1212は、ユーザの仕事場での天候などの、ユーザがこれまで午前中に移動した位置の天候を示すことができる。更に、アイコン1213は、ユーザが朝の通勤をあと45分で開始すべきであることを示すことができる。機器100は、例えば、今日のカレンダの最初のイベント、平日の午前中におけるユーザの通常の移動先、並びに距離及び交通情報に基づくその移動先までの移動予想時間、に基づいて、この判断を行うことができる。 The user interface screen 1211 shows additional relevant user interface objects that the device 100 can display after the user wakes up. Screen 1211 includes related icons 1212 and 1213. Icon 1212 can correspond to a weather application that indicates the weather at the current location of the device. Optionally, the icon 1212 can indicate the weather at the location where the user has previously moved in the morning, such as the weather at the user's workplace. Further, the icon 1213 can indicate that the user should start the morning commute in 45 minutes. The device 100 makes this determination based, for example, on the first event of today's calendar, the user's normal destination on weekday mornings, and the estimated travel time to that destination based on distance and traffic information. be able to.

ユーザインターフェース画面1221は、機器100が、午前中に後で表示することができる追加の関連するユーザインターフェースオブジェクトを示している。例示的なユーザインターフェース画面1221は、関連するアイコン1222〜1224を含む。天候状況を示すアイコン1222は、アイコン1212によって前に表示された同じ情報を、表示することができる。しかし、画面1211では、アイコン1212が最も関連するアイコンであったが、画面1221においては、その関連性は、交通アイコン1223に取って代わられている。交通アイコン1223は交通警報を示し、最大のアイコンとして表示されている。その理由は、ユーザの通常の朝の通勤に沿っての事故に関する情報は、その時点では非常に関連性が高いと、機器100が判断したためである。画面1221はまた、ユーザの通勤は、アイコン1213によって前に与えられた45分の指示ではなく、機器100により受信された交通情報(事故により発生)を考慮すれば、あと10分で開始すべきであることを示すアイコン1224を含んでいる。 User interface screen 1221 shows additional relevant user interface objects that device 100 can display later in the morning. The exemplary user interface screen 1221 includes the associated icons 1222-1224. The icon 1222 indicating the weather conditions can display the same information previously displayed by the icon 1212. However, on screen 1211 the icon 1212 was the most relevant icon, but on screen 1221 the relevance has been replaced by the traffic icon 1223. The traffic icon 1223 indicates a traffic warning and is displayed as the largest icon. The reason is that the device 100 has determined that the information about the accident along with the user's normal morning commute is very relevant at that time. Screen 1221 also shows that the user's commute should start in 10 minutes, given the traffic information (caused by the accident) received by device 100, rather than the 45 minute instructions previously given by icon 1213. Includes an icon 1224 indicating that.

図13を参照すると、画面1301は、ユーザが自分の車に接近したときにユーザの車のロックを解除するためのアイコン1302を示している。機器100とユーザの近くの車との間の距離の減少に基づいて、機器100は、アイコン1302を表示することができる。任意選択的に、画面1301は、図1に関連して説明したものなどの、付加的な関連するアイコンを含むことができる。ユーザが自分の車の中にいる間に、機器100は、視聴位置に持ち上げられた場合、ユーザインターフェース画面1311を表示することができる。画面1311は、仕事場までの到着推定時間(「ETA」)(即ち、アイコン1312)、ユーザのカレンダに記載された次の会議までの時間(即ち、アイコン1313)、及び音楽プレーヤ(即ち、アイコン1314により表されるような)、に関する情報が含まれる。これらは、ユーザが仕事場に向かう途中で、ユーザに関連するものである。機器100は、GPSの移動に基づいて、及び/又は、車載テレマティックスシステム(例えば、Bluetooth(登録商標)又はケーブル接続による)との通信によって、ユーザは運転中であると判断することができる。機器100は、ユーザの通勤パターンに関する履歴情報に基づいて、ユーザは仕事場へ運転中であると判断することができる。ユーザが職場に近づくにつれて、到着推定時間の関連性はより少なくなり、その情報はより低い重要度で表示されることになる。例えば、ユーザインターフェース画面1321には、音楽アイコン1322は、ETAアイコン1324より大きいフォーマットで表示されている。カレンダに記載された次の会議までの時間の情報は、関連性が高いままなので、アイコン1323は、この時間を表示し続けることができる。会議がオフサイト(即ち、ユーザの仕事場から物理的に遠い)である場合、機器100は、GPSセンサ及びカレンダ情報に基づいて、関連性が高いとしてリマインダをマークすることができる。 Referring to FIG. 13, screen 1301 shows an icon 1302 for unlocking a user's car when the user approaches his or her car. Based on the reduction in the distance between the device 100 and a vehicle near the user, the device 100 can display the icon 1302. Optionally, the screen 1301 may include additional related icons, such as those described in connection with FIG. While the user is in his car, the device 100 can display the user interface screen 1311 when lifted to the viewing position. The screen 1311 shows the estimated arrival time to work (“ETA”) (ie, icon 1312), the time to the next meeting described in the user's calendar (ie, icon 1313), and the music player (ie, icon 1314). Contains information about (as represented by). These are related to the user on their way to work. The device 100 can determine that the user is driving based on GPS movement and / or by communication with an in-vehicle telematics system (eg, via Bluetooth® or cable connection). .. The device 100 can determine that the user is driving to the workplace based on the history information regarding the user's commuting pattern. As the user gets closer to the workplace, the estimated arrival time becomes less relevant and the information will be displayed with lower importance. For example, on the user interface screen 1321, the music icon 1322 is displayed in a format larger than the ETA icon 1324. The information on the time to the next meeting on the calendar remains highly relevant, so the icon 1323 can continue to display this time. If the meeting is offsite (ie, physically far from the user's workplace), the device 100 can mark the reminder as highly relevant based on the GPS sensor and calendar information.

図14を参照すると、その日の遅くに、機器100のユーザは、コーヒーショップなどの店を訪れる場合がある。画面1401で、機器100は、ユーザがコーヒーショップで購入を承認することを可能にする電子決済アイコン1402を、表示することができる。機器100は、GPS情報、及び、地図アプリケーション又はStarbucks(登録商標)アプリケーションなどのサードパーティアプリケーションによって提供されるアプリケーションデータに基づいて、コーヒーショップへの近接度を判断することができる。機器100はまた、支払い読取機との近距離通信を介してなどの、その店の販売時点情報管理システムとの間の無線通信に基づいて、コーヒーショップへの近接度を判断することができる。更に、画面1401に、機器100は、コーヒーショップでの連絡先(例えば、友達)の近接度を示すアイコン1403を表示することができる。画面1411では、機器100は、新しい着信メッセージを示すアイコン1412、来るべきミーティングまでカウントダウンするアイコン1413、ユーザが追加の運動のために会議の場所まで階段を利用するべきであることを提案するアイコン1414、を表示することができる。ユーザが会議に遅れている場合、機器100は、ユーザにそれを思い出させることができる。例えば、画面1421には、機器100は、ユーザがカレンダに記載された会議に8分遅れていることをユーザに警告するアイコン1422、及び、ユーザに新しい着信メッセージ(そのうちのいくつかは、ユーザの会議不在に誘発されたものであり得る)を知らせるアイコン1422及び1424を表示することができる。 Referring to FIG. 14, the user of the device 100 may visit a store such as a coffee shop later in the day. On the screen 1401, the device 100 can display an electronic payment icon 1402 that allows the user to approve the purchase at the coffee shop. The device 100 can determine the proximity to the coffee shop based on GPS information and application data provided by a third party application such as a map application or a Starbucks® application. The device 100 can also determine proximity to a coffee shop based on wireless communication with the store's point-of-sale information management system, such as via short-range communication with a payment reader. Further, on the screen 1401, the device 100 can display an icon 1403 indicating the proximity of the contact (for example, a friend) in the coffee shop. On screen 1411 the device 100 has an icon 1412 indicating a new incoming message, an icon 1413 counting down to an upcoming meeting, and an icon 1414 suggesting that the user should use the stairs to the meeting location for additional exercise. , Can be displayed. If the user is late for the meeting, the device 100 can remind the user of it. For example, on screen 1421, the device 100 warns the user that the user is 8 minutes late for the conference described in the calendar, and a new incoming message to the user, some of which are of the user. It is possible to display icons 1422 and 1424 that inform (which may have been triggered in the absence of a meeting).

図15を参照すると、機器100は、就業日が終了に近づくと、関連する情報を表示することができる。ユーザインターフェース画面1501で、機器100はユーザの自宅へのETA(即ち、アイコン1502)、及びユーザの配偶者の自宅へのETA(即ち、アイコン1503)を表示することができる。ユーザインターフェース画面1511には、機器100は、ユーザの自宅へのETA(即ち、アイコン1512)を表示し続け、ユーザの車内の音楽を変更する音楽アプリケーション(即ち、アイコン1513)、及びストレスレベル指示計(即ち、アイコン1514)を表示することができる。機器100は、例えば、PPG、ECG及びGSRセンサの読取りを含むセンサ入力に基づいて、ユーザのストレスレベルを計算することができる。ユーザは、家に到着して、機器100を見ると、機器100は、無線通信可能なフロントドアのドアロックを解除するためのアイコン1522を表示することができる。機器100はまた、Wi−Fi対応の照明及びHVACコントローラによる、照明及び暖炉の設定などの、家庭内の電子機器を制御するためのアイコン1524を表示することができる。機器100はまた、夕食イベントを示すアイコン1523を表示することもできる。 Referring to FIG. 15, the device 100 can display relevant information as the working day approaches the end. On the user interface screen 1501, the device 100 can display an ETA to the user's home (ie, icon 1502) and an ETA to the user's spouse's home (ie, icon 1503). On the user interface screen 1511, the device 100 continues to display the ETA (ie, icon 1512) to the user's home, a music application (ie, icon 1513) that changes the music in the user's vehicle, and a stress level indicator. (That is, the icon 1514) can be displayed. The device 100 can calculate the user's stress level based on sensor inputs including, for example, readings from PPG, ECG and GSR sensors. When the user arrives at the house and looks at the device 100, the device 100 can display the icon 1522 for unlocking the door lock of the front door capable of wireless communication. The device 100 can also display icons 1524 for controlling home electronics, such as Wi-Fi compatible lighting and HVAC controllers for lighting and fireplace settings. The device 100 can also display an icon 1523 indicating a dinner event.

図16を参照すると、機器100は、その日が終了するときに、関連する情報を表示することができる。ユーザインターフェース画面1601で、機器100は、例えば、ユーザの通常の睡眠時間及び翌朝のカレンダに記載された活動に基づいて、ユーザがすぐに眠る必要があることを提案するアイコン1602を、表示することができる。機器100はまた、夜にテレビを見るユーザの習慣に基づいて、テレビを制御するためのアイコン1604を表示することができる。機器100はまた、ユーザの通常の一日の終わりのルーチンに基づいて、照明制御のためのアイコン1603を表示することができる。ユーザの通常の就寝時刻が接近し続けると、機器100は、その日のユーザの物理的活動の概要(即ち、ユーザはその日の目標の75%を満たしたことを示すアイコン1612)、及び翌朝のアラームを設定するためのアラーム時計アイコン1613を表示することができる。機器100はまた、その日の終わりに表示されるユーザインターフェースオブジェクトの量を低減することができる。例えば、画面1621に示すように、機器100は、睡眠を提案する単一のアイコン1622を表示することができる。更に、アイコン1622は、ユーザの睡眠パターンを妨害する可能性が少ない光の波長を用いて、表示することができる。このようにして、機器100は、ユーザの覚醒を維持すること、及び/又は睡眠中のユーザを覚醒すること、を回避することができる。 Referring to FIG. 16, the device 100 may display relevant information at the end of the day. On the user interface screen 1601, the device 100 displays, for example, an icon 1602 suggesting that the user needs to sleep immediately, based on, for example, the user's normal sleep time and the activity described in the calendar the next morning. Can be done. The device 100 can also display the icon 1604 for controlling the television, based on the habit of the user watching the television at night. The device 100 can also display the icon 1603 for lighting control based on the user's normal end-of-day routine. As the user's normal bedtime continues to approach, device 100 provides an overview of the user's physical activity for the day (ie, icon 1612 indicating that the user has met 75% of the target for the day), and an alarm the next morning. The alarm clock icon 1613 for setting can be displayed. The device 100 can also reduce the amount of user interface objects displayed at the end of the day. For example, as shown on screen 1621, device 100 can display a single icon 1622 suggesting sleep. Further, the icon 1622 can be displayed using a wavelength of light that is less likely to interfere with the user's sleep pattern. In this way, the device 100 can avoid keeping the user awake and / or awakening the sleeping user.

任意選択的に、機器100は、時計の盤面を永続的に表示するように構成することができる。この態様は、図17に関して説明される。図示の例では、機器100は、機器の視聴位置への持ち上げに応じて、ユーザインターフェース画面1701を表示する。画面1701では、クロック1702は、関連するアイコン1703と共に表示される。機器100は、追加の関連するユーザインターフェースオブジェクトを識別すると、それらは、クロック1702の周囲に、タッチスクリーン104(図1)の最前面に表示することができる(画面1711及び1721上に追加の関連アイコン1712及び1703によって示されるように)。このようにして、ユーザは計時機能を重視するように、機器100を構成することができる。 Optionally, the device 100 can be configured to permanently display the face of the watch. This aspect is described with respect to FIG. In the illustrated example, the device 100 displays the user interface screen 1701 in response to lifting the device to the viewing position. On screen 1701, the clock 1702 is displayed with the associated icon 1703. When the device 100 identifies additional relevant user interface objects, they can be displayed in the foreground of the touch screen 104 (FIG. 1) around the clock 1702 (additional associations on screens 1711 and 1721). As indicated by icons 1712 and 1703). In this way, the user can configure the device 100 so as to emphasize the timekeeping function.

図18は、関連するユーザインターフェースオブジェクトを表示するように、機器100によって実行することができる例示的なプロセス1800を示している。ブロック1810では、機器100は、機器の視聴位置への動きを示す動きセンサからの入力を取得する。いくつかの実施形態では、その動きは、上向きの動きとすることができる。ブロック1820で、機器100は、更なるセンサデータを取得する。かかるセンサデータは、GPS位置情報、光情報、動き情報、及び/又は加速度計情報を含むことができる。ブロック1830では、機器100は、アプリケーション又はオペレーティングシステムのデータを取得する。かかるデータは、Wi−Fi、Bluetooth、又はNFCなどの通信回線によって、獲得することができる。ブロック1840では、機器100は、センサデータ、及びアプリケーション/OSデータに基づいて、ユーザに表示するための関連するユーザインターフェースオブジェクトを識別する。機器100はまた、関連するユーザインターフェースオブジェクトをランク付けすることができる。ブロック1850において、最も関連するユーザインターフェースオブジェクトがユーザに表示される。ブロック1860では、機器100は、入力機構の動きを表す入力を受信する。これに応じて、ブロック1870で、機器100は、機器上で利用可能なユーザのお気に入りのアプリケーションを表すアイコンを表示する。ブロック1880では、機器100は、入力機構の動きを表す追加の入力を受信する。これに応じて、ブロック1890では、機器100は、機器上で利用可能な全てのアプリケーションを表すアイコンを表示する。 FIG. 18 shows an exemplary process 1800 that can be performed by device 100 to display related user interface objects. At block 1810, the device 100 acquires an input from a motion sensor indicating movement of the device to the viewing position. In some embodiments, the movement can be an upward movement. At block 1820, the device 100 acquires additional sensor data. Such sensor data can include GPS position information, optical information, motion information, and / or accelerometer information. At block 1830, device 100 acquires application or operating system data. Such data can be acquired by a communication line such as Wi-Fi, Bluetooth, or NFC. At block 1840, device 100 identifies relevant user interface objects to display to the user based on sensor data and application / OS data. The device 100 can also rank related user interface objects. At block 1850, the most relevant user interface object is displayed to the user. At block 1860, the device 100 receives an input that represents the movement of the input mechanism. Accordingly, at block 1870, the device 100 displays an icon representing a user's favorite application available on the device. At block 1880, the device 100 receives additional inputs that represent the movement of the input mechanism. Accordingly, in block 1890, the device 100 displays icons representing all the applications available on the device.

図7に戻ると、コンピューティングシステム700のメモリ部708は、1つ以上のコンピュータプロセッサ706により実行されると、例えば、コンピュータプロセッサにプロセス1800(図18)を含む上述されたユーザインターフェース技術を実行させることができる、コンピュータ実行可能命令を記憶する非一時的なコンピュータ可読記憶媒体とすることができる。コンピュータベースシステム、プロセッサを含むシステム、又は、命令実行システム、装置、若しくは機器から命令をフェッチし、命令を実行することができる他のシステム等の、命令実行システム、装置、若しくは機器による使用のため又はそれらに関連して、コンピュータ実行可能命令を任意の非一時的なコンピュータ可読記憶媒体内で記憶及び/又は転送することもできる。この文書の目的のために、「非一時的なコンピュータ可読記憶媒体」は、命令実行システム、装置、若しくは機器による使用のため又はそれらに関連して、コンピュータ実行可能命令を格納又は記憶できる任意の媒体とすることができる。非一時的なコンピュータ可読記憶媒体としては、磁気、光、及び/又は半導体のストレージを挙げることができるが、それらには限定されない。かかるストレージの例としては、磁気ディスク、CD、DVD、若しくはBlu−ray技術に基づく光ディスク、並びにRAM、ROM、EPROM、フラッシュメモリ、及びソリッドステートメモリを挙げることができる。コンピューティングシステム700は、図7の構成要素及び構成に限定されないが、複数の構成において、他の又は追加の構成要素を含むことができる。 Returning to FIG. 7, when the memory unit 708 of the computing system 700 is executed by one or more computer processors 706, for example, the computer processor executes the above-mentioned user interface technology including the process 1800 (FIG. 18). It can be a non-temporary computer-readable storage medium that stores computer-executable instructions. For use by an instruction execution system, device, or device, such as a computer-based system, a system that includes a processor, or another system that can fetch instructions from an instruction execution system, device, or device and execute the instructions. Or in connection with them, computer-executable instructions can also be stored and / or transferred within any non-temporary computer-readable storage medium. For the purposes of this document, "non-temporary computer-readable storage medium" is any computer-executable instruction that can be stored or stored for use by or in connection with an instruction execution system, device, or device. It can be a medium. Non-temporary computer-readable storage media include, but are not limited to, magnetic, optical, and / or semiconductor storage. Examples of such storage include magnetic disks, CDs, DVDs, or optical discs based on Blu-ray technology, as well as RAM, ROM, EPROM, flash memory, and solid state memory. The computing system 700 is not limited to the components and configurations of FIG. 7, but may include other or additional components in a plurality of configurations.

本開示及び例が添付図面を参照して完全に記述されてきたが、各種の変更及び修正が当業者には明らかとなることを留意されたい。かかる変更及び修正は、添付の特許請求の範囲によって画定される、本開示及び実施例の範囲内に含まれるとして理解されたい。 It should be noted that although the present disclosure and examples have been fully described with reference to the accompanying drawings, various changes and amendments will be apparent to those skilled in the art. Such changes and amendments are to be understood as included within the scope of the present disclosure and examples as defined by the appended claims.

Claims (14)

方法であって、
電子機器の所定の動きタイプの動きに基づく動きセンサからの所定の入力タイプの入力を検出することと、
前記動きセンサからの前記所定の入力タイプの前記入力の検出に応じて、第1の複数のユーザインタフェースオブジェクトであって、表示に利用可能なより多くの複数のユーザインタフェースオブジェクトから選択され、かつ、第1のアプリケーションと関連付けられた第1のユーザインタフェースオブジェクトを含む、第1の複数のユーザインタフェースオブジェクトを関連性アルゴリズムに基づいてディスプレイのディスプレイ画面上に表示することであって、前記第1のユーザインタフェースオブジェクトは、前記関連性アルゴリズムに基づき判定された前記第1のユーザインタフェースオブジェクトの関連性に対応する第1の表示サイズを有する、表示することと、
前記第1の複数のユーザインタフェースオブジェクトを表示している間に、前記電子機器のハウジングに対して回転する回転可能入力機構の回転を表すユーザ入力を受け付けることと、
前記ユーザ入力を受け付けたことに応じて、第2の複数のユーザインタフェースオブジェクトであって、前記表示に利用可能なより多くの複数のユーザインタフェースオブジェクトから選択され、かつ、前記第1のアプリケーションとは異なる第2のアプリケーションと関連付けられた第2のユーザインタフェースオブジェクトを含む、第2の複数のユーザインタフェースオブジェクトを前記関連性アルゴリズムに基づいて前記ディスプレイに表示することであって、前記第2のユーザインタフェースオブジェクトは、前記関連性アルゴリズムに基づき判定された前記第2のユーザインタフェースオブジェクトの関連性に対応する、前記第1のユーザインタフェースオブジェクトの前記第1の表示サイズとは異なる第2の表示サイズを有する、表示することと、
を含み、
前記関連性アルゴリズムは、今後のカレンダイベント、地図情報、または、バイオメトリックセンサから受信した入力により表されるユーザ健康情報のうち少なくとも1つを入力として利用し、
前記第2の複数のユーザインタフェースオブジェクトは、更に、その関連性が前記第2のユーザインタフェースオブジェクトの前記関連性より低い第3のユーザインタフェースオブジェクトを含み、
前記関連性アルゴリズムに関する更新された入力を検出することと、
前記関連性アルゴリズムに関する前記更新された入力を検出した後に、前記関連性アルゴリズムに関する前記更新された入力を検出する以前の前記第2のユーザインタフェースオブジェクトの外観に対する、更新された外観を有する前記第2のユーザインタフェースオブジェクトを表示することであって、
前記関連性アルゴリズムに基づき判定された前記第3のユーザインタフェースオブジェクトの関連性が、前記関連性アルゴリズムに基づき判定された前記第2のユーザインタフェースオブジェクトの関連性よりも高いと判定されたことに従って、前記第2の表示サイズよりも小さい第3の表示サイズを有する前記第2のユーザインタフェースオブジェクトを表示することを含む、表示することと、
を更に含む、方法。
It ’s a method,
Detecting an input of a given input type from a motion sensor based on the motion of a given motion type of an electronic device,
Depending on the detection of the input of the predetermined input type from the motion sensor, the first plurality of user interface objects, selected from the more plurality of user interface objects available for display, and. Displaying a first plurality of user interface objects, including a first user interface object associated with a first application, on the display screen of a display based on a relevance algorithm, said first user. Displaying the interface object has a first display size corresponding to the relevance of the first user interface object determined based on the relevance algorithm.
While displaying the first plurality of user interface objects, accepting user input representing rotation of a rotatable input mechanism that rotates with respect to the housing of the electronic device.
The first application is a second plurality of user interface objects selected from a larger number of user interface objects available for display in response to the acceptance of the user input. Displaying a second plurality of user interface objects on the display based on the relevance algorithm, including a second user interface object associated with a different second application, said second user interface. The object has a second display size different from the first display size of the first user interface object, which corresponds to the relevance of the second user interface object determined based on the relevance algorithm. , To display and
Including
The relevance algorithm takes at least one of upcoming calendar events, map information, or user health information represented by the input received from the biometric sensor as input .
The second plurality of user interface objects further include a third user interface object whose relevance is lower than the relevance of the second user interface object.
Detecting updated inputs for the relevance algorithm and
The second having an updated appearance with respect to the appearance of the second user interface object after detecting the updated input for the relevance algorithm and before detecting the updated input for the relevance algorithm. To display the user interface object of
According to the determination that the relevance of the third user interface object determined based on the relevance algorithm is higher than the relevance of the second user interface object determined based on the relevance algorithm. Displaying, including displaying the second user interface object having a third display size smaller than the second display size.
Further including, methods.
前記第1のユーザインタフェースオブジェクトは、前記第1のユーザインタフェースオブジェクトと関連付けられた前記第1のアプリケーションに対応するデータを含み、前記第2のユーザインタフェースオブジェクトは、前記第2のユーザインタフェースオブジェクトと関連付けられた前記第2のアプリケーションに対応するデータを含む、請求項1に記載の方法。 The first user interface object contains data corresponding to the first application associated with the first user interface object, and the second user interface object is associated with the second user interface object. The method of claim 1, comprising the data corresponding to the second application. 前記第1のユーザインタフェースオブジェクトは、選択されると前記第1のアプリケーションと関連付けられた動作が実行されることとなるアイコンを含む、
請求項1または2に記載の方法。
The first user interface object comprises an icon that, when selected, will perform an operation associated with the first application.
The method according to claim 1 or 2.
前記第2のユーザインタフェースオブジェクトは、選択されると前記第2のアプリケーションと関連付けられた動作が実行されることとなるアイコンを含む、
請求項1から3のいずれか1項に記載の方法。
The second user interface object comprises an icon that, when selected, will perform an action associated with the second application.
The method according to any one of claims 1 to 3.
前記第1のユーザインタフェースオブジェクトと関連付けられた前記第1のアプリケーションに対応する前記データは、通知を含む、請求項2、及び、請求項2に従属する請求項3及び4のいずれか1項に記載の方法。 The data corresponding to the first application associated with the first user interface object is in any one of claims 2 and claims 3 and 4 subordinate to claim 2, including notifications. The method described. 前記第2のユーザインタフェースオブジェクトと関連付けられた前記第2のアプリケーションに対応する前記データは、通知を含む、請求項2、請求項2に従属する請求項3及び4、及び、請求項5のいずれか1項に記載の方法。 The data corresponding to the second application associated with the second user interface object is any of claims 2, claims 3 and 4, and claim 5, which are dependent on claim 2, including notification. Or the method described in paragraph 1. 前記関連性アルゴリズムは、前記電子機器の位置、外部機器の位置、または、現在時刻のうち少なくとも1つを入力として更に利用する請求項1から6のいずれか1項に記載の方法。 The method according to any one of claims 1 to 6, wherein the relevance algorithm further uses at least one of the position of the electronic device, the position of the external device, or the current time as an input. 前記第3のユーザインタフェースオブジェクトと、第4のユーザインタフェースオブジェクトとを表示することであって、前記第2のユーザインタフェースオブジェクト、前記第3のユーザインタフェースオブジェクト、及び、前記第4のユーザインタフェースオブジェクトは、前記関連性アルゴリズムを利用して選択され、
前記第2のユーザインタフェースオブジェクトは、前記第2のアプリケーションと関連付けられたデータを含み、
前記第3のユーザインタフェースオブジェクトは、第3のアプリケーションと関連付けられた通知を含み、
前記第4のユーザインタフェースオブジェクトは、第4のアプリケーションと関連付けられた動作の指示を含む、請求項1から7のいずれか1項に記載の方法。
Said third user interface object, the method comprising: displaying a fourth user interface object, the second user interface object, the third user interface object, and the fourth user interface object , Selected using the relevance algorithm,
The second user interface object contains data associated with the second application.
The third user interface object contains a notification associated with the third application.
The method of any one of claims 1-7, wherein the fourth user interface object comprises instructions for the operation associated with the fourth application.
前記第2の複数のユーザインタフェースオブジェクトを前記関連性アルゴリズムに基づいて前記ディスプレイに表示することは、前記ディスプレイ上で、前記第1の複数のユーザインタフェースオブジェクトを、前記第2の複数のユーザインタフェースオブジェクトと置き換えることを含む、請求項1から8のいずれか1項に記載の方法。 Displaying the second plurality of user interface objects on the display based on the relevance algorithm means that the first plurality of user interface objects are displayed on the display as the second plurality of user interface objects. The method of any one of claims 1-8, comprising replacing with. 前記第2のユーザインタフェースオブジェクトは、前記電子機器と関連付けられた外部機器と対話するための第5のアプリケーションと関連付けられたデータを含み、
前記関連性アルゴリズムは、更に、前記電子機器と、前記電子機器と関連付けられた前記外部機器の位置との間の距離を入力として利用するものであり、前記電子機器と、前記電子機器と関連付けられた前記外部機器の位置との間の距離が減少すると、前記表示に利用可能なより多くの複数のユーザインタフェースオブジェクトのうちから前記電子機器と関連付けられた前記外部機器と対話するための前記第5のアプリケーションと関連付けられたデータを含む前記第2のユーザインタフェースオブジェクトの前記関連性を増加させる、請求項1から9のいずれか1項に記載の方法。
The second user interface object contains data associated with a fifth application for interacting with an external device associated with the electronic device.
The relevance algorithm further utilizes the distance between the electronic device and the position of the external device associated with the electronic device as an input, and is associated with the electronic device and the electronic device. said the distance between the external device position is reduced, the fifth for interacting with the external device associated with the electronic device from among a number of the plurality of user interface objects than available on the display The method of any one of claims 1-9, which increases said relevance of the second user interface object, including data associated with the application of.
前記第1の複数のユーザインタフェースオブジェクトは、さらに、前記第3のユーザインタフェースオブジェクトを含み、前記第3のユーザインタフェースオブジェクトは、ディスプレイ上で前記第1のユーザインタフェースオブジェクトとオーバーラップする、請求項1から10のいずれか1項に記載の方法。 It said first plurality of user interface objects, further includes the third user interface object, the third user interface object overlaps with the first user interface object on the display, according to claim 1 The method according to any one of 10 to 10. ディスプレイと、
動きセンサと、
回転可能入力機構と、
請求項1から11のいずれか1項に記載の方法を実行するための命令群を含む1以上のコンピュータプログラムを格納するメモリと、
前記メモリに格納された前記命令群を実行可能な1以上のプロセッサと
を備える電子機器。
With the display
Motion sensor and
Rotatable input mechanism and
A memory for storing one or more computer programs including a group of instructions for executing the method according to any one of claims 1 to 11.
An electronic device including one or more processors capable of executing the instruction group stored in the memory.
請求項1から11のいずれか1項に記載の方法をコンピュータに実行させるためのコンピュータプログラム。 A computer program for causing a computer to execute the method according to any one of claims 1 to 11. ディスプレイと、
動きセンサと、
回転可能入力機構と
コンピュータプログラムに従って請求項1から11のいずれか1項に記載の方法を実行させるための手段と
を備える電子機器。
With the display
Motion sensor and
An electronic device comprising a rotatable input mechanism and means for performing the method according to any one of claims 1 to 11 according to a computer program.
JP2018121118A 2013-10-30 2018-06-26 View related user interface objects Active JP6966980B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018121118A JP6966980B2 (en) 2013-10-30 2018-06-26 View related user interface objects

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016527367A JP6393325B2 (en) 2013-10-30 2013-10-30 Display related user interface objects
JP2018121118A JP6966980B2 (en) 2013-10-30 2018-06-26 View related user interface objects

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016527367A Division JP6393325B2 (en) 2013-10-30 2013-10-30 Display related user interface objects

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020046707A Division JP7142661B2 (en) 2020-03-17 2020-03-17 Viewing related use interface objects

Publications (2)

Publication Number Publication Date
JP2018185830A JP2018185830A (en) 2018-11-22
JP6966980B2 true JP6966980B2 (en) 2021-11-17

Family

ID=64357016

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018121118A Active JP6966980B2 (en) 2013-10-30 2018-06-26 View related user interface objects

Country Status (1)

Country Link
JP (1) JP6966980B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10521107B2 (en) 2016-09-24 2019-12-31 Apple Inc. Devices, methods, and graphical user interfaces for selecting and interacting with different device modes
DK201870334A1 (en) 2018-05-07 2019-12-05 Apple Inc. Devices, methods, and graphical user interfaces for proactive management of notifications
AU2020233622B2 (en) 2020-05-11 2022-03-10 Apple Inc. System, method and user interface for supporting scheduled mode changes on electronic devices
US11379106B1 (en) 2021-05-12 2022-07-05 Apple Inc. Devices, methods, and graphical user interfaces for adjusting the provision of notifications

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09292262A (en) * 1996-04-26 1997-11-11 Alpine Electron Inc Circumferential facility retrieval display method and destination setting method for guide route
JP4545884B2 (en) * 1999-07-22 2010-09-15 キヤノン株式会社 Information processing apparatus, control method therefor, and computer-readable memory
US6597378B1 (en) * 2000-01-18 2003-07-22 Seiko Epson Corporation Display device, portable information processing apparatus, information storage medium, and electronic apparatus
JP2008102860A (en) * 2006-10-20 2008-05-01 Nec Corp Small electronic device and menu display program
JP5070579B2 (en) * 2007-06-11 2012-11-14 シャープ株式会社 Information communication terminal and processing program
JP2009009350A (en) * 2007-06-27 2009-01-15 Nec Corp Health management system, information processing unit, health management method, and control program
JP2009136456A (en) * 2007-12-05 2009-06-25 Nec Corp Mobile terminal device
JP2014503891A (en) * 2010-12-10 2014-02-13 ヨタ デバイセズ アイピーアール リミテッド Mobile device having user interface
JP5799628B2 (en) * 2011-07-15 2015-10-28 ソニー株式会社 Information processing apparatus, information processing method, and program
JP5929145B2 (en) * 2011-12-07 2016-06-01 株式会社ニコン Electronic device, information processing method and program
JP2013206274A (en) * 2012-03-29 2013-10-07 Toshiba Corp Portable electronic apparatus and display control method
CN104246677A (en) * 2012-04-20 2014-12-24 索尼公司 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP2018185830A (en) 2018-11-22

Similar Documents

Publication Publication Date Title
US10972600B2 (en) Displaying relevant user interface objects
JP6966980B2 (en) View related user interface objects
US11669235B2 (en) System, method and user interface for supporting scheduled mode changes on electronic devices
JP6883075B2 (en) Viewing the user interface associated with physical activity
US10459887B1 (en) Predictive application pre-launch
JP2021523452A (en) Watch user interface
US20220198984A1 (en) Dynamic user interface with time indicator
EP3120227A1 (en) Determining user response to notifications based on a physiological parameter
EP3093739B1 (en) Apparatus and method for providing additional information according to rotary input
KR20170015143A (en) A smart device and an operation method thereof
US20230161470A1 (en) System, Method and User Interface for Supporting Scheduled Mode Changes on Electronic Devices
CN113805690A (en) Direct access to awake state device functionality from low power state
JP7142661B2 (en) Viewing related use interface objects
JP7073463B2 (en) User interface for health applications
US20230341925A1 (en) User interfaces for facilitating operations
US20240079130A1 (en) User interfaces for health tracking
US20240062640A1 (en) User interfaces for facilitating operations

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180725

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190802

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200317

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200317

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200324

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200327

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20200605

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20200615

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20201113

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210129

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210209

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20210219

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210818

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20210827

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20210927

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20210927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211022

R150 Certificate of patent or registration of utility model

Ref document number: 6966980

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150