JP7142661B2 - Viewing related use interface objects - Google Patents

Viewing related use interface objects Download PDF

Info

Publication number
JP7142661B2
JP7142661B2 JP2020046707A JP2020046707A JP7142661B2 JP 7142661 B2 JP7142661 B2 JP 7142661B2 JP 2020046707 A JP2020046707 A JP 2020046707A JP 2020046707 A JP2020046707 A JP 2020046707A JP 7142661 B2 JP7142661 B2 JP 7142661B2
Authority
JP
Japan
Prior art keywords
icon
user
vehicle
icons
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020046707A
Other languages
Japanese (ja)
Other versions
JP2020161134A5 (en
JP2020161134A (en
Inventor
ゲイリー イアン. ブッチャー,
イムラン チャウドリ,
ジョナサン, アール. ダスコーラ,
アラン シー. ダイ,
クリストファー パトリック フォス,
ダニエル シー. グロス,
チャナカ ジー. カルナムニ,
スティーブン オー. ルメイ,
ナタリア マリック,
クリストファー ウィルソン,
ローレンス ワイ. ヤング,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Priority to JP2020046707A priority Critical patent/JP7142661B2/en
Publication of JP2020161134A publication Critical patent/JP2020161134A/en
Publication of JP2020161134A5 publication Critical patent/JP2020161134A5/ja
Priority to JP2022145450A priority patent/JP2022180451A/en
Application granted granted Critical
Publication of JP7142661B2 publication Critical patent/JP7142661B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

開示された実施形態は、概して、電子機器のユーザインターフェースに関する。 The disclosed embodiments generally relate to user interfaces for electronic devices.

先進のパーソナル電子機器は、小さなフォームファクタを有し得る。例示的なパーソナル電子機器として、タブレット及びスマートフォンが挙げられるが、これらには限定されない。かかるパーソナル電子機器の使用は、パーソナル電子機器を補完するように小さく設計されているディスプレイ画面上のユーザインターフェースオブジェクトの表示及び操作を含む。 Advanced personal electronic devices may have small form factors. Exemplary personal electronic devices include, but are not limited to tablets and smartphones. The use of such personal electronic devices includes the display and manipulation of user interface objects on display screens designed to be small to complement personal electronic devices.

例示的なユーザインターフェースオブジェクトとして、デジタル画像、ビデオ、テキスト、アイコン、ボタンなどの制御要素、及び他のグラフィックが挙げられる。ここで用いる場合、用語の「アイコン」は、アプリケーションを表すため、及びそれを起動するために使用される画像のことを指し、当該技術分野におけるその通常の意味と一致する。更に、アプリケーションの簡略化された図を指すために、当技術分野で使用される、「ウィジェット」は、本開示の目的のためには、アイコンを構成するものである。 Exemplary user interface objects include digital images, videos, text, icons, control elements such as buttons, and other graphics. As used herein, the term "icon" refers to an image used to represent and launch an application, consistent with its ordinary meaning in the art. Further, a "widget," as used in the art to refer to a simplified view of an application, constitutes an icon for the purposes of this disclosure.

縮小サイズのパーソナル電子機器上の既存のユーザインターフェースは、適切な情報が提示される前にユーザによって複数回の操作を必要とすることがあるので、効率的ではない恐れがある。 Existing user interfaces on reduced-size personal electronic devices may be inefficient because they may require multiple actions by the user before the appropriate information is presented.

パーソナル電子機器上のユーザインターフェースオブジェクトを提示するための技術が開示される。 Techniques are disclosed for presenting user interface objects on a personal electronic device.

例示的なパーソナル電子機器を示す図である。1 illustrates an exemplary personal electronic device; FIG.

例示的なユーザインターフェースを示す図である。FIG. 13 illustrates an exemplary user interface;

例示的なユーザインターフェースを示す図である。FIG. 13 illustrates an exemplary user interface;

ユーザインターフェースの例示的な論理構造を示す図である。Fig. 3 shows an exemplary logical structure of a user interface;

例示的なユーザインターフェースを示す図である。FIG. 13 illustrates an exemplary user interface;

例示的なユーザインターフェースを示す図である。FIG. 13 illustrates an exemplary user interface;

例示的なコンピューティングシステムを示す図である。1 illustrates an exemplary computing system; FIG.

例示的なユーザインターフェースを示す図である。FIG. 13 illustrates an exemplary user interface;

例示的なユーザインターフェースを示す図である。FIG. 13 illustrates an exemplary user interface;

例示的なユーザインターフェースを示す図である。FIG. 13 illustrates an exemplary user interface;

例示的なユーザインターフェースを示す図である。FIG. 13 illustrates an exemplary user interface;

例示的なユーザインターフェースを示す図である。FIG. 13 illustrates an exemplary user interface;

例示的なユーザインターフェースを示す図である。FIG. 13 illustrates an exemplary user interface;

例示的なユーザインターフェースを示す図である。FIG. 13 illustrates an exemplary user interface;

例示的なユーザインターフェースを示す図である。FIG. 13 illustrates an exemplary user interface;

例示的なユーザインターフェースを示す図である。FIG. 13 illustrates an exemplary user interface;

例示的なユーザインターフェースを示す図である。FIG. 13 illustrates an exemplary user interface;

ユーザインターフェースオブジェクトを表示するための例示的なプロセスを示す図である。FIG. 4 illustrates an exemplary process for displaying user interface objects;

以下の開示及び実施例の説明において、本発明を実施することができる特定の実施例の例示によって示される添付図面を参照する。本開示の範囲から逸脱することなく、他の実施例を実施し、構造上の変更をなし得ることを理解されたい。 In the following disclosure and description of examples, reference is made to the accompanying drawings, which are shown by way of illustration of specific embodiments in which the invention may be practiced. It is to be understood that other embodiments may be implemented and structural changes may be made without departing from the scope of the present disclosure.

図1は、例示的なパーソナル電子機器100(以下、機器100)を示す図である。図示の例では、機器100は、本体102を含む。機器100は、タッチ感知式ディスプレイスクリーン(以下、タッチスクリーン)104を有することができる。 FIG. 1 is a diagram illustrating an exemplary personal electronic device 100 (hereinafter, device 100). In the illustrated example, device 100 includes body 102 . Device 100 may have a touch-sensitive display screen (hereinafter touchscreen) 104 .

タッチスクリーン104としては、相互容量式タッチ感知、自己容量式タッチ感知、抵抗式タッチ感知、投影走査式タッチ感知その他などの任意の所望のタッチ感知技術を用いて実装されるタッチセンサパネルの背面又は前面に部分的に又は完全に配置された、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、有機発光ダイオード(OLED)ディスプレイその他、などのディスプレイデバイスを挙げることができる。タッチスクリーン104によって、ユーザは、1つ以上の指又は他のオブジェクトを用いて、タッチセンサパネルの近くでホバリングさせて、タッチセンサパネルにタッチすることにより、各種の機能を実行することができる。 The touch screen 104 may be the back of a touch sensor panel implemented using any desired touch sensing technology such as mutual capacitive touch sensing, self-capacitive touch sensing, resistive touch sensing, projected scanning touch sensing, etc. or Display devices such as liquid crystal displays (LCD), light emitting diode (LED) displays, organic light emitting diode (OLED) displays, etc., which are partially or wholly disposed on the front side, may be mentioned. The touch screen 104 allows a user to hover near the touch-sensitive panel with one or more fingers or other objects and touch the touch-sensitive panel to perform various functions.

いくつかの実施形態では、機器100は、1つ以上の入力機構106及び108を有することができる。入力機構106及び108は、含まれる場合には、タッチ感知式とすることができる。タッチ感知式入力機構の例として、タッチ感知式ボタン、及びタッチ感知式表面が挙げられる。入力機構106及び108は、含まれる場合には、物理的とすることができる。物理的な入力機構の例としては、押しボタン及び回転可能な機構が挙げられる。ベゼルを含み得る本体102は、入力機構として作用するベゼル上の所定の領域を有することができる。いくつかの実施形態では、機器100は、取り付け機構を有することができる。かかる取り付け機構が含まれる場合には、これによって、機器100を、例えば、衣類、宝石、及び他の着用可能なアクセサリに取り付けることができる。例えば、取り付け機構は、帽子、眼鏡、イヤリング、ネックレス、シャツ、ジャケット、ブレスレット、時計ストラップ、チェーン、ズボン、ベルト、靴、財布、バックパック、その他、に取り付けることができる。 In some embodiments, device 100 can have one or more input mechanisms 106 and 108 . Input mechanisms 106 and 108, if included, may be touch-sensitive. Examples of touch-sensitive input mechanisms include touch-sensitive buttons and touch-sensitive surfaces. Input mechanisms 106 and 108, if included, may be physical. Examples of physical input mechanisms include push buttons and rotatable mechanisms. Body 102, which may include a bezel, may have predetermined areas on the bezel that act as input mechanisms. In some embodiments, device 100 can have an attachment mechanism. When such attachment mechanisms are included, they allow device 100 to be attached to, for example, clothing, jewelry, and other wearable accessories. For example, attachment mechanisms can be attached to hats, glasses, earrings, necklaces, shirts, jackets, bracelets, watch straps, chains, pants, belts, shoes, purses, backpacks, and the like.

いくつかの実施形態では、機器100は、タッチスクリーン104に加えられた力又は圧力を検出するための1つ以上の圧力センサ(図示せず)を有することができる。タッチスクリーン104に加えられた力又は圧力を機器100に対する入力として用いて、選択を行う、メニューに入る若しくはメニューから出る、追加のオプション/動作を表示させる、その他、などの任意の所望の動作を実行することができる。タッチスクリーン104に印加された力又は圧力の大きさに基づいて、異なる動作を行うことができる。1つ以上の圧力センサは、タッチスクリーン104に力が印加されている位置を決定するために、更に使用することができる。
1.関連するユーザインターフェースオブジェクトの表示
In some embodiments, device 100 can have one or more pressure sensors (not shown) to detect force or pressure applied to touch screen 104 . Force or pressure applied to touch screen 104 is used as an input to device 100 to perform any desired action, such as making selections, entering or exiting menus, displaying additional options/actions, etc. can be executed. Different actions can be performed based on the amount of force or pressure applied to the touch screen 104 . One or more pressure sensors can also be used to determine the location where force is being applied to the touch screen 104 .
1. View related user interface objects

図2は、自分の車202に向かって歩いているユーザ201が装着する例示的な機器100を示す図である。ユーザ201が機器100を視聴位置に動くと、機器100は、ユーザインターフェース画面203をタッチスクリーン104上に、自動的に表示する。いくつかの実施形態では、ユーザ201が、機器100を視聴位置に動くまで、タッチスクリーン104の表示要素は非アクティブであり、これは、タッチスクリーン104の表示要素がオフであるか、又はオフであるようにみえることを意味する。いくつかの実施形態では、機器100が、ユーザ201によって、上向き、下向き、又は横向きに保持されるか否かに関わらず、表示される情報は、適切な視聴の向きになるように、機器100は、タッチスクリーン104の表示内容を回転させる(例えば、横長モードと縦長モードの間を)ことができる。 FIG. 2 is a diagram illustrating an exemplary device 100 worn by a user 201 walking to his car 202 . When user 201 moves device 100 to the viewing position, device 100 automatically displays user interface screen 203 on touch screen 104 . In some embodiments, the display elements of touchscreen 104 are inactive until user 201 moves device 100 to the viewing position, which means the display elements of touchscreen 104 are off or off. It means to appear to be. In some embodiments, regardless of whether device 100 is held in an up, down, or sideways orientation by user 201, the information displayed is directed to device 100 so that it is in the proper viewing orientation. can rotate the display content of the touch screen 104 (eg, between landscape and portrait modes).

ユーザインターフェーススクリーン203は、この時点で、ユーザに最も関連すると機器100が判断したユーザインターフェースオブジェクトを含む。特に、画面203は、ユーザが自分の車に接近すると、ユーザ201にとって有用である、車両202のロック解除のためのアイコン204を含む。画面203はまた、交通情報へアクセスするためのマップアイコン205(ユーザ201が走行を始めるときに有用であり得る)を含む。画面203はまた、今後のカレンダイベントを参照して目的地情報を提供するのに有用なアイコン206を、含むことができる。表示されるアイコンの大きさは、それらの関連性に関係することができる。画面203上で、アイコン204を介して提供される車202のロック解除の方が、より関連性があることを機器100が決定したため、アイコン204は、アイコン205及び206よりも大きい。 User interface screen 203 now contains the user interface objects that device 100 has determined are most relevant to the user. In particular, screen 203 includes an icon 204 for unlocking vehicle 202, useful to user 201 when the user approaches his vehicle. Screen 203 also includes a map icon 205 (which may be useful when user 201 begins driving) for accessing traffic information. Screen 203 may also include icons 206 useful for referencing upcoming calendar events and providing destination information. The size of displayed icons can be related to their relevance. On screen 203, icon 204 is larger than icons 205 and 206 because device 100 has determined that unlocking car 202, which is provided via icon 204, is more relevant.

このユーザインターフェース表示は、たとえ、より多くのユーザインターフェースオブジェクトが、表示のために利用可能であっても、管理可能なアイコンのサブセットに優先順位をつけ、ユーザ201に表示することにおいて、注目に値する。また、このユーザインターフェースは、ユーザから、腕の持ち上げ以外のいかなるユーザインターフェースナビゲーションの入力なしに、(例えば、電源オン又はそれと同等のボタンをユーザ201が押す必要なく)ユーザ201に利用可能となる。このようにして、機器100は、適切なユーザインターフェース動作を起動するために必要なユーザ入力の量を減少させる。この利点は些細なことではない。その理由は、特に、スマートフォン及び他の電子機器と比較して、機器100は、比較的小さい表示画面サイズしか有していないので、より大きなユーザインターフェース環境のユーザのナビゲーションを妨げる恐れがあるためである。 This user interface display is notable in prioritizing and displaying a manageable subset of icons to the user 201 even though more user interface objects are available for display. . This user interface is also made available to user 201 without any user interface navigation input from the user other than an arm lift (e.g., without requiring user 201 to press a power on or equivalent button). In this manner, device 100 reduces the amount of user input required to initiate appropriate user interface operations. This advantage is not trivial. This is because, in particular, compared to smartphones and other electronic devices, the device 100 has a relatively small display screen size, which may hinder the user's navigation of larger user interface environments. be.

所定の状況における関連するユーザインターフェースオブジェクトの数が、タッチスクリーン104上に合理的に一緒に表示され得る数(図2に示すような3つなど)を超過する可能性がある。この場合には、機器100は、初期表示のために、最も関連するアイコン(機器100上のコンピュータベースの関連性アルゴリズムによって決定されるような)を優先することができる。いくつかの実施形態では、ユーザは、残りの関連するアイコンを、入力機構106又は108を用いて、ディスプレイに表示させることができる。いくつかの実施形態では、ユーザは、残りの関連するアイコンを、タッチスクリーン104を用いたディスプレイに表示させる(タッチオブジェクトによってタッチスクリーン104をスワイプすることによってなど)ことができる。 The number of related user interface objects in a given situation may exceed the number that can reasonably be displayed together on touch screen 104 (such as three as shown in FIG. 2). In this case, device 100 may prioritize the most relevant icons (as determined by a computer-based relevance algorithm on device 100) for initial display. In some embodiments, the user can cause the remaining associated icons to appear on the display using input mechanism 106 or 108 . In some embodiments, the user can cause the remaining associated icons to be displayed on the display using the touchscreen 104 (such as by swiping the touchscreen 104 with a touch object).

図3は、複数のユーザインターフェース画面上の関連するアイコンの表示を示す図である。図示の例は、機器の上向きの動きに応じて、ユーザインターフェース画面301が、機器100上に表示されたものである。画面301は、関連するアプリケーションを表すアイコン302~304(いくつかの例ではアイコン204~206(図2)としてもよい)を含んでいる。方向306への入力機構108の回転に応じて、ユーザインターフェース画面311が、機器100に表示される。画面311は、画面301に示されるものよりも関連性の少ない、いくつかの追加の関連するアイコン312~314を表示することができる。同じ方向306への入力機構108の更なる回転に応じて、機器100は、ユーザインターフェース画面321を表示することができる。画面321は、画面311に示されるものよりも関連性が低い関連アイコン322~324の別のセットを含み、その結果、画面301のものよりも関連性が低いことになる。入力機構108は、回転可能なクラウンとすることができる。このようにして、ユーザは、機器100上で、関連するユーザインターフェースオブジェクト(例えば、アイコン)の複数のセットの間をナビゲートすることができる。 FIG. 3 is a diagram illustrating the display of related icons on multiple user interface screens. In the illustrated example, a user interface screen 301 is displayed on the device 100 in response to upward movement of the device. Screen 301 includes icons 302-304 (which may be icons 204-206 (FIG. 2) in some examples) representing associated applications. User interface screen 311 is displayed on device 100 in response to rotation of input mechanism 108 in direction 306 . Screen 311 may display several additional related icons 312 - 314 that are less relevant than those shown in screen 301 . In response to further rotation of input mechanism 108 in the same direction 306 , device 100 may display user interface screen 321 . Screen 321 includes another set of related icons 322 - 324 that are less relevant than those shown in screen 311 and, as a result, less relevant than those in screen 301 . Input mechanism 108 may be a rotatable crown. In this manner, a user can navigate between multiple sets of related user interface objects (eg, icons) on device 100 .

ユーザは、表示されたアイコンに触れることにより(例えば、指タップによる)、表示されたアイコンに対応するアプリケーションを起動することができる。ここで使用する場合、アプリケーションの起動とは、そのアプリケーションが、機器100のフォアグラウンドで動作し、画面上に表示されることを意味する。図4は、この態様を例示している。図示の例は、ユーザインターフェース画面401が、視聴位置への機器の動きに応じて、機器100上に表示されたものである。画面401は、5つの未読メッセージを有する、メッセージングアプリケーション(例えば、ショートメッセージサービス(SMS)をサポートする)を表すアイコン402、並びに他のアプリケーションを表すアイコン403及び404を含んでいる。タッチオブジェクト(例えば、指405)によってアイコン402をタップすることに応じて、機器100は、対応するメッセージングアプリケーションを起動して、ユーザインターフェース画面411に未読のメッセージ412を表示する。 The user can activate the application corresponding to the displayed icon by touching the displayed icon (for example, by finger tapping). As used herein, launching an application means that the application runs in the foreground of device 100 and is displayed on the screen. FIG. 4 illustrates this aspect. In the illustrated example, a user interface screen 401 is displayed on the device 100 in response to movement of the device toward the viewing position. Screen 401 includes icon 402 representing a messaging application (eg, supporting short message service (SMS)), and icons 403 and 404 representing other applications, having five unread messages. In response to tapping icon 402 with a touch object (eg, finger 405 ), device 100 launches the corresponding messaging application and displays unread message 412 on user interface screen 411 .

いくつかの使用条件の下では、ユーザは、メッセージングアプリケーションから別の関連するアプリケーションへナビゲートすることを望む場合がある。例えば、ユーザは、前に画面401上のアイコン403及び404により表された音楽及び地図のアプリケーションへナビゲートすることを望む場合がある。機器100は、最初に画面401に戻ることなく、直接これらのアプリケーション間でのナビゲーションを可能にすることができる。具体的には、画面411が表示されている間に、方向414に入力機構108を回転させることは、機器100に、アイコン403によって表される音楽プレーヤを画面421上に表示させる。画面421は、音楽再生制御423を含むことができる。画面421が表示されている間に、方向414に入力機構108を更に回転させることは、機器100に、アイコン404によって表される地図アプリケーションを画面431上に表示させる。画面431は、交通情報432を含むことができる。 Under some conditions of use, a user may wish to navigate from a messaging application to another related application. For example, the user may wish to navigate to the music and maps applications previously represented by icons 403 and 404 on screen 401 . Device 100 may allow navigation between these applications directly without returning to screen 401 first. Specifically, while screen 411 is displayed, rotating input mechanism 108 in direction 414 causes device 100 to display a music player represented by icon 403 on screen 421 . Screen 421 may include music playback controls 423 . Further rotation of input mechanism 108 in direction 414 while screen 421 is displayed causes device 100 to display the map application represented by icon 404 on screen 431 . Screen 431 may include traffic information 432 .

いくつかの実施形態では、画面411、421、及び431は、それぞれ、入力機構108によってアクセス可能なアプリケーションの順序に沿って現在表示されているアプリケーションの相対位置を識別する視覚的な補助(ページングドット415、425、及び435など)を含む。他の視覚的補助(スクロールバー、及び画面間の遷移など)もまた、利用可能なユーザインターフェース画面のより大きなセットに対して、現在表示中のユーザインターフェース画面に関するユーザの識別を助けるために、使用することができる。 In some embodiments, screens 411, 421, and 431 each include a visual aid (paging dot 415, 425, and 435, etc.). Other visual aids (such as scroll bars and transitions between screens) are also used to help the user identify the currently displayed user interface screen relative to the larger set of available user interface screens. can do.

図2~図4に示された例示的なユーザインターフェース画面は主に、関連するユーザインターフェースオブジェクトの効率的な表示に関係している。しかし、たとえ、現時点の関連性は容易に識別できなくても、ユーザがアクセス可能であるべきより多くのユーザインターフェースオブジェクトを、機器100は含むことができることに留意されたい。例えば、ユーザは、ゲームのプレイを衝動的に望む場合がある。ユーザが、関連するユーザインターフェースオブジェクトを越えて、他のユーザインターフェースオブジェクトにナビゲーションすることが、機器100によって可能となる。図5はこの態様を例示している。 The example user interface screens shown in FIGS. 2-4 are primarily concerned with efficient display of associated user interface objects. However, it should be noted that the device 100 may contain more user interface objects that should be accessible to the user, even if their current relevance is not readily identifiable. For example, a user may have an impulse to want to play a game. Device 100 allows a user to navigate beyond related user interface objects to other user interface objects. FIG. 5 illustrates this aspect.

図5において、ユーザインターフェース画面501は、機器の視聴位置への動きに応じて、機器100上に表示される。画面501は、関連するアプリケーションを表すアイコン502~504(いくつかの例ではアイコン203~205(図2)としてもよい)を含んでいる。図示の例で、機器100は、3つのユーザインターフェースオブジェクト(即ちアイコン502~504)だけが、現時点で関連していると判断したものである。したがって、入力機構108の方向505への回転に応じて、機器100はユーザインターフェース画面511を表示するが、この画面は、機器100上でのユーザ選択のために利用可能な他のユーザインターフェースオブジェクトを有する。画面511に表示されたアイコンは、ユーザのお気に入りのアイコンとすることができるが、これは、画面511のアイコンが、機器100上で利用可能なユーザインターフェースオブジェクトの所定のサブセットであることを意味する。入力機構108の方向505への更なる回転に応じて、機器100は、ユーザインターフェース画面521を表示するが、これは、機器100上で利用可能な全てのアプリケーションを表すアイコンを含んでいる。画面521に表示されるアイコンの大きさは、ユーザのナビゲーションには小さすぎる場合があるので、入力機構108の方向505への更なる回転に応じて、機器100は画面531を表示する。これは、画面521のアイコンのサブセットを拡大する効果を有し、それらのアイコンは、ユーザとの対話のために、より大きなサイズで表示される。 In FIG. 5, user interface screen 501 is displayed on device 100 in response to movement of the device to a viewing position. Screen 501 includes icons 502-504 (which may be icons 203-205 (FIG. 2) in some examples) representing associated applications. In the illustrated example, device 100 has determined that only three user interface objects (ie, icons 502-504) are currently relevant. Accordingly, in response to rotation of input mechanism 108 in direction 505 , device 100 displays user interface screen 511 , which displays other user interface objects available for user selection on device 100 . have. The icons displayed on screen 511 may be the user's favorite icons, which means that the icons on screen 511 are a predetermined subset of the user interface objects available on device 100. . Upon further rotation of input mechanism 108 in direction 505 , device 100 displays user interface screen 521 , which includes icons representing all applications available on device 100 . The size of the icons displayed on screen 521 may be too small for user navigation, so in response to further rotation of input mechanism 108 in direction 505 device 100 displays screen 531 . This has the effect of enlarging a subset of the icons on screen 521, which are displayed at a larger size for user interaction.

図5を参照して説明したユーザインターフェースのナビゲーションは、図6に示す論理構造600に従って、論理的に構成することができる。図6に示す例では、x軸601及びy軸602は、機器100のタッチスクリーン画面(図1)の表面と同一平面を形成し、z軸603は、軸601及び602によって形成されたx/y平面に対して垂直である。平面604は、一例では、ユーザインターフェース画面501(図5)に対応し、平面605は、ユーザインターフェース画面511(図5)に、そして、面607は、ユーザインターフェース画面521及び531(図5)に対応する。より具体的には、画面521(図5)は、平面607のコンテンツ全体の視点に対応することができ、画面531(図5)は、平面607のコンテンツの拡大された視点(即ち、拡大されたサブセット)に対応することができる。別の例では、平面604、607、608は、図3のユーザインターフェース画面301、311、及び321にそれぞれ対応することができる。入力機構の動きは、機器100上に表示する情報(即ち、アイコンの画面)の特定の平面を選択するために使用することができる。例えば、入力機構108の回転によって、図5に示された方法と同様にして、例えば、表示機器100に、アイコンの異なる画面を表示することができる。
2.関連するユーザインターフェースオブジェクトの決定
The navigation of the user interface described with reference to FIG. 5 can be logically organized according to the logical structure 600 shown in FIG. In the example shown in FIG. 6, x-axis 601 and y-axis 602 are coplanar with the surface of the touch screen screen (FIG. 1) of device 100, and z-axis 603 is the x/axis formed by axes 601 and 602. perpendicular to the y-plane. Plane 604 corresponds, in one example, to user interface screen 501 (FIG. 5), plane 605 to user interface screen 511 (FIG. 5), and plane 607 to user interface screens 521 and 531 (FIG. 5). handle. More specifically, screen 521 (FIG. 5) can correspond to a view of the entire content of plane 607, and screen 531 (FIG. 5) is an enlarged view of the content of plane 607 (i.e., an enlarged view of the contents of plane 607). subset). In another example, planes 604, 607, 608 may correspond to user interface screens 301, 311, and 321 of FIG. 3, respectively. Movement of the input mechanism can be used to select a particular plane of information (ie, a screen of icons) to display on device 100 . For example, by rotating the input mechanism 108, a screen with different icons can be displayed on the display device 100, for example, in the same manner as shown in FIG.
2. Determining relevant user interface objects

その通常の意味と合致して、「関連するアイコン」というフレーズは、当面の事柄に関係するか、又は適切に当てはまるユーザインターフェースアイコンのことを指すように、ここでは使用される。図2の例では、ユーザは自分の車に近づくと、自動車を運転することを望む可能性があるため、車両アプリケーションのロックを解除するためのアイコンが関連する。機器100は、異なる入力(センサの入力、アプリケーションデータ、オペレーティングシステムデータを含む)を考慮するコンピュータ命令(例えば、アルゴリズム)を使用して、関連性を判断することができる。 Consistent with its ordinary meaning, the phrase "related icon" is used here to refer to any user interface icon that is related to or appropriately applicable to the matter at hand. In the example of FIG. 2, the icon for unlocking the vehicle application is relevant because when the user approaches his car, he may desire to drive the car. Device 100 can determine relevance using computer instructions (eg, algorithms) that consider different inputs (including sensor inputs, application data, operating system data).

図7は、いくつかの実施形態では、機器100を形成する例示的なコンピューティングシステム700を示す。コンピューティングシステム700は、関連するユーザインターフェースオブジェクトを判断し、表示するための構成要素を含んでいる。図示の例では、コンピューティングシステム700は、種々のセンサ(GPSセンサ720、加速度センサ722、方向センサ724、ジャイロスコープ726、光センサ728、及び/又はこれらの組み合わせなど)と動作可能に連結する(接続する)ことができるI/O部704を備えている。I/O部704はまた、アプリケーション及びオペレーティングシステムのデータを受信するために、Wi-Fi(登録商標)、Bluetooth(登録商標)、近距離通信(「NFC」)、セルラ及び他の無線通信技術によって、通信ユニット718に接続することができる。更に、コンピューティングシステム700は、I/O部704を1つ以上のコンピュータプロセッサ706及びメモリ部708と一緒に接続するバス702を有することができる。メモリ部708は、関連するユーザインターフェースオブジェクトを決定し表示するための、コンピュータが実行可能な命令(例えば、アルゴリズムを表す)及び/又はデータを、記憶することができる。これらの構成要素のうちの1つ以上は、集積チップ又はいわゆるシステムオンチップの一部とすることができる。更に、I/O部704は、入力機構714に接続することができる。I/O部704は、1つ以上の入力ボタン716に接続することができる。I/O部704は、タッチ感知式構成要素712、及び、任意選択的に接触感圧構成要素713を有することができるディスプレイ710に、接続することができる。 FIG. 7 illustrates an exemplary computing system 700 that forms device 100 in some embodiments. Computing system 700 includes components for determining and displaying relevant user interface objects. In the illustrated example, computing system 700 is operatively coupled (such as GPS sensor 720, acceleration sensor 722, orientation sensor 724, gyroscope 726, light sensor 728, and/or combinations thereof) to various sensors ( It has an I/O section 704 that can be connected). I/O section 704 also supports Wi-Fi, Bluetooth, Near Field Communication (“NFC”), cellular and other wireless communication technologies for receiving application and operating system data. can be connected to the communication unit 718 by. Additionally, computing system 700 may have a bus 702 coupling I/O section 704 together with one or more computer processors 706 and memory section 708 . Memory portion 708 can store computer-executable instructions (eg, representing algorithms) and/or data for determining and displaying associated user interface objects. One or more of these components may be part of an integrated chip or so-called system-on-chip. Additionally, the I/O section 704 can be connected to an input mechanism 714 . The I/O section 704 can be connected to one or more input buttons 716 . The I/O section 704 can be connected to a display 710 that can have a touch sensitive component 712 and, optionally, a touch pressure sensitive component 713 .

コンピューティングシステム700のセンサ及び通信ユニットは、関連するユーザインターフェースオブジェクトを識別するための情報を提供することができる。例えば、GPSセンサ720は、ユーザの位置及び動きを判断することができる一方、通信ユニット718は、近くの車両(例えば、図2における車両202)の位置及び識別についての情報を受信することができる。加速度センサ722、方向センサ724、及びジャイロスコープ726は、更に、機器の動きを検出することができる。任意選択的に、GPSセンサ720、加速度計722、方向センサ724、及び/又はジャイロスコープ726の出力は、動きプロセッサ730によって、解釈することができる。プロセッサ706及びメモリ部708におけるコンピュータ実行可能な命令は、ユーザが自分の車に接近していることを判断するために、この情報の一部又は全てを使用することができる。プロセッサ706及びメモリ708の命令は、メモリ708に記憶されているアプリケーションデータ及び/又はオペレーティングシステムデータ(メタデータを含む)に基づいて、そのユーザの車両と対話するためのアプリケーションがインストールされていることもまた、判断することができる。このようにして、機器100の関連アルゴリズムは、自動車対話アプリケーションがその時点でユーザに関連すると、決定することができる。更に、機器100は、同じデータに基づいて、地図アプリケーションもまた、ユーザに関連するであろうと結論することができる。 Sensors and communication units of computing system 700 can provide information to identify associated user interface objects. For example, GPS sensor 720 can determine the location and movement of a user, while communication unit 718 can receive information about the location and identity of nearby vehicles (eg, vehicle 202 in FIG. 2). . Acceleration sensor 722, orientation sensor 724, and gyroscope 726 can also detect movement of the device. Optionally, the outputs of GPS sensor 720 , accelerometer 722 , orientation sensor 724 and/or gyroscope 726 can be interpreted by motion processor 730 . Computer-executable instructions in processor 706 and memory unit 708 can use some or all of this information to determine that the user is approaching his vehicle. The instructions of processor 706 and memory 708 are based on application data and/or operating system data (including metadata) stored in memory 708 to determine that an application has been installed to interact with the user's vehicle. can also be determined. In this way, the association algorithm of the device 100 can determine that the car interaction application is relevant to the user at that time. Further, device 100 can conclude, based on the same data, that a map application will also be relevant to the user.

また、通信ユニット718は、ユーザインターフェースオブジェクトの関連性に影響を与える他の情報もまた、受信することができる。例えば、通信ユニットは、同じ設計の他の装着型機器などの、同一又は類似である近くの機器を検出することができる。通信ユニットは、機器100と同じオペレーティングシステムを実行している非同一のユニット(同じブランドのスマートフォン及びタブレットなど)もまた、検出することができる。通信ユニットは、共通のプロトコルによる通信をサポートする異なる機器もまた、識別することができる。これらのプロトコルは、Wi-Fi、Bluetooth、NFC、その他などの無線プロトコルを含むことができる。これらのプロトコルは、例えば、動作環境サービスプロトコル(operating environment service protocols)(Apple(登録商標)AirPlay(登録商標)及びAirDrop(登録商標))、ホームオートメーションサービスプロトコル(例えば、Phillips(登録商標)Lighting and Nest(登録商標)によって提供されるもの)、認証サービスプロトコル(例えば、空港のクリアランス及び地下鉄料金)、販売サービスプロトコル(例えば、食料雑貨店のチェックアウト)のポイント、などのソフトウェアベースのサービスプロトコルとすることもまたできる。関連するユーザインターフェースオブジェクトを識別するために機器100によって使用されるアルゴリズムは、通信ユニット718により提供されるこれらの入力を考慮することができる。 Communications unit 718 may also receive other information that affects the relevance of user interface objects. For example, the communication unit can detect nearby devices that are identical or similar, such as other wearable devices of the same design. The communication unit can also detect non-identical units running the same operating system as the device 100 (such as smartphones and tablets of the same brand). The communication unit can also identify different devices that support communication according to a common protocol. These protocols can include wireless protocols such as Wi-Fi, Bluetooth, NFC, and others. These protocols are, for example, operating environment service protocols (Apple® AirPlay® and AirDrop®), home automation service protocols (e.g. Phillips® Lighting and Nest®), authentication service protocols (e.g. airport clearance and subway fares), point of sale service protocols (e.g. grocery store checkout), and software-based service protocols such as You can also do Algorithms used by device 100 to identify relevant user interface objects can take into account these inputs provided by communication unit 718 .

更に、通信ユニット718は、関連性を通知するアプリケーション及びオペレーティングシステムのデータを受信することができる。例えば、メッセージングアプリケーションは、SMS又はWi-Fiサービスによって、着信メッセージを受信することができ、それによって、関連するようになる。別の例として、機器100の関連アルゴリズムは、イベントリマインダが関連することを判断するために、カレンダのデータ及びセルラシステムの時間を使用することができる。更に、機器100の関連性アルゴリズムは、関連性を判断する際に、アプリケーション及びオペレーティングシステムのデータの内容を考慮することができる。例えば、アルゴリズムは、特定の時間への言及を含む着信メッセージ(例えば、「午後3時に会いましょう」)は、その時間(即ち、午後3時)が近づくにつれて、より関連するようになるとみなすことができる。 In addition, communication unit 718 can receive application and operating system data that informs the association. For example, a messaging application can receive incoming messages via SMS or Wi-Fi services, thereby becoming relevant. As another example, the relevance algorithm of device 100 can use calendar data and cellular system time to determine which event reminders are relevant. Additionally, the relevance algorithm of device 100 can consider the content of application and operating system data when determining relevance. For example, the algorithm may consider an incoming message that includes a reference to a particular time (e.g., "see you at 3pm") to become more relevant as that time (i.e., 3pm) approaches. can be done.

いくつかの実施形態では、ユーザインターフェースオブジェクトは、グループで関連する場合がある。即ち、アプリケーションデータ(メタデータを含む)は、ユーザインターフェースオブジェクトAが関連するときはいつでも、ユーザインターフェースオブジェクトBもまた関連することを特定する場合がある。例えば、ドライバは、通常、音楽を楽しむため、音楽アプリケーションは、このようにして、車の対話アプリケーションに結び付けることができる。ドライバは、通常、交通情報及び/又は経路情報を望むため、地図アプリケーションは、このようにして、車の対話アプリケーションにも結び付けることができる。 In some embodiments, user interface objects may be related in groups. That is, application data (including metadata) may specify that whenever user interface object A is relevant, user interface object B is also relevant. For example, drivers typically enjoy music, so a music application can be tied to the car's interactive application in this way. Since drivers typically want traffic and/or route information, map applications can also be linked to car interactive applications in this way.

いくつかの実施形態で、機器100によって使用される関連性アルゴリズムは、適応性を有することができ、アルゴリズムの結果は、過去のユーザの行動に基づいて、変更し得ることを意味する。例えば、アルゴリズムは、平日の午前中のユーザの運転パターンに基づいて、ユーザの通勤を認識することができる。このようにして、機器100は、午前中に表示する特定の交通情報を優先させることができる。別の例として、ユーザが通勤中に、他の利用可能なラジオアプリケーションよりも、1つの特定のラジオアプリケーションを繰り返し起動する場合、機器100は、そのラジオアプリケーションをより関連しているものとして識別し、ユーザが自分の車を解錠するときはいつでも、そのアイコンを表示することができる。 In some embodiments, the relevance algorithm used by the device 100 can be adaptive, meaning that the results of the algorithm can change based on past user behavior. For example, an algorithm can recognize a user's commute based on the user's driving pattern during weekday mornings. In this way, device 100 can prioritize specific traffic information for display in the morning. As another example, if a user repeatedly activates one particular radio application during his commute than other available radio applications, device 100 may identify that radio application as being more relevant. , the icon can be displayed whenever the user unlocks his or her car.

いくつかの実施形態では、コンピューティングシステム700は、フォトプレチスモグラフ(PPG)センサ、心電図(ECG)センサ、及び/又は電気皮膚反応(GSR)センサなどの健康関連センサなどのバイオメトリックセンサを含むことができる。機器100は、健康関連情報を提供するこれらのセンサのうち1つ以上から入力を受信することができる。例えば、機器100は、PPGセンサの情報を使用して、異常な呼吸数、血圧、及び/又は酸素飽和度をユーザに警告することができる。別の例として、機器100は、心電図センサを使用して、不整脈をユーザに警告することができる。更に別の例として、機器100は、GSRセンサを用いて、発汗を示すユーザの皮膚の水分を検出し、機器100上で表示のためにサーモスタットアプリケーションを優先させることができる。これらのセンサはまた、ユーザのバイオメトリック識別及び認証を容易にするために使用することができる。 In some embodiments, the computing system 700 may include biometric sensors such as photoplethysmograph (PPG) sensors, electrocardiogram (ECG) sensors, and/or health-related sensors such as galvanic skin response (GSR) sensors. can. Device 100 may receive input from one or more of these sensors that provide health-related information. For example, device 100 can use PPG sensor information to alert a user of abnormal breathing rate, blood pressure, and/or oxygen saturation. As another example, device 100 may use an electrocardiogram sensor to alert the user of an arrhythmia. As yet another example, the device 100 may use a GSR sensor to detect moisture on the user's skin indicating perspiration and prioritize a thermostat application for display on the device 100 . These sensors can also be used to facilitate biometric identification and authentication of users.

コンピューティングシステム700のセンサは、システム(例えば、機器100)が視聴位置に置かれた時点を検出することができる。例えば、加速度計722及び/又は動きセンサ730は、計算システム700が持ち上げられ、下降され、振動された時点を検出することができる。これらのセンサは、手首の前後の回転を検出することができる。いくつかの実施形態では、コンピューティング機器700の持ち上げは、機器の視聴位置への配置として解釈される。いくつかの実施形態では、コンピューティング機器700の持ち上げ及び回転は、機器の視聴位置への配置として解釈される。いくつかの実施形態では、コンピューティング機器700の持ち上げ及び下降の間の持続時間は、機器の視聴位置への配置として解釈される。 Sensors in computing system 700 can detect when the system (eg, device 100) is placed in a viewing position. For example, accelerometer 722 and/or motion sensor 730 can detect when computing system 700 is lifted, lowered, or shaken. These sensors can detect forward and backward rotation of the wrist. In some embodiments, lifting computing device 700 is interpreted as placing the device in a viewing position. In some embodiments, lifting and rotating computing device 700 is interpreted as placing the device into a viewing position. In some embodiments, the duration between lifting and lowering of computing device 700 is interpreted as placement of the device in the viewing position.

表示のための関連するユーザインターフェースオブジェクトを識別するために機器100によって使用されるアルゴリズムは、機器(例えば、コンピューティングシステム700)の前述の態様の1つ以上を使用することができる。即ち、アルゴリズムは、関連性の判断において、以下のものを含む入力の組み合わせを考慮することができる。以下のものとは、位置、動き(姿勢、方向、傾き、加速度、及び速度を含む)は、周囲条件(光、時間、温度、ユーザの健康状態を含む)、アプリケーションデータ(着信電話、着信メッセージ、今後のカレンダイベントを含む)である。 The algorithm used by device 100 to identify relevant user interface objects for display may employ one or more of the aforementioned aspects of the device (eg, computing system 700). That is, the algorithm can consider combinations of inputs in determining relevance, including: Position, movement (including posture, orientation, tilt, acceleration, and velocity), ambient conditions (including light, time, temperature, user health), application data (incoming phone calls, incoming messages), , including upcoming calendar events).

例えば、機器100が、閾値(例えば、時速10マイル、時速20マイル、時速25マイル、時速30マイル、時速40マイル、時速50マイル、時速55マイル、時速60マイル、時速65マイル、その他)を超える速度で動いている場合、機器のユーザは通勤途中であってナビゲーションのアプリケーションに対応するアイコンは関連性が高い、と機器100は判断することができる。このような状況において、利用可能な車載機器が機器100の通信ユニットと通信中である場合、機器100はまた、車内の娯楽アプリケーションを表すアイコンを、関連性があると判断することができる。別の例として、機器100は、バイオメトリックセンサ及び動きセンサが、運動を表す動きを検出した場合に、健康関連アプリケーションを表すアイコンは、より関連性が高いと判断することができる。別の例として、機器100は、特定の時間量(例えば、15分間、30分間、1時間、1日間、1週間、その他)後に発生する予定のカレンダイベントは、より関連性が高いと判断することができる。任意選択的に、機器100は、イベントの関連性を判断するうえで、機器の現在位置とイベントの位置との間の距離、並びに、現在の天候、などの他の変数を考慮に入れることができる。即ち、例えば、15分後に予定の近隣のイベントは、1時間後の予定ではあるが30マイル離れているイベントよりも、関連性が低いと、機器100は判断することができる。
3.例示的なユーザ対話
For example, the device 100 exceeds a threshold (e.g., 10 mph, 20 mph, 25 mph, 30 mph, 40 mph, 50 mph, 55 mph, 60 mph, 65 mph, etc.) If moving at speed, the device 100 may determine that the user of the device is commuting and icons corresponding to navigation applications are highly relevant. In such a situation, the device 100 may also determine that icons representing in-vehicle entertainment applications are relevant if available onboard equipment is in communication with the communication unit of the device 100 . As another example, device 100 may determine that icons representing health-related applications are more relevant when biometric sensors and motion sensors detect movement representing exercise. As another example, device 100 may determine that calendar events scheduled to occur after a certain amount of time (eg, 15 minutes, 30 minutes, 1 hour, 1 day, 1 week, etc.) are more relevant. be able to. Optionally, the device 100 may take into account other variables, such as the distance between the current location of the device and the location of the event, as well as the current weather, in determining event relevance. can. That is, for example, device 100 may determine that a nearby event scheduled in 15 minutes is less relevant than an event scheduled in 1 hour but 30 miles away.
3. Exemplary User Interaction

ユーザは、機器100のユーザインターフェースと対話することができる。これらの対話は、アプリケーション機能を呼び出すためのショートカットを含むことができる。この態様は、図8~図9を参照して説明する。 A user can interact with the user interface of device 100 . These interactions can include shortcuts for invoking application functions. This aspect will be described with reference to FIGS.

図8の例では、機器100は、着信SMSメッセージを受信し、ユーザに触覚フィードバックを提供したところである。触覚フィードバックに応じて、ユーザは、機器100を視聴位置に持ち上げることにより、機器100に、ユーザインターフェース画面801を表示させる。画面801は、その時点でユーザに関連すると判断されたアプリケーションを表すアイコン802~804を含む。アイコン802は、未読SMSメッセージを表す。アイコン803は、今後のカレンダイベントを表す。アイコン804は、利用可能な交通情報を表す。最近受信されたSMSメッセージは、関連性において最もランクが高いため、アイコン802は、大きな様式で表示される。 In the example of FIG. 8, device 100 has just received an incoming SMS message and provided tactile feedback to the user. In response to the haptic feedback, the user causes device 100 to display user interface screen 801 by lifting device 100 to the viewing position. Screen 801 includes icons 802-804 representing applications determined to be relevant to the user at the time. Icon 802 represents an unread SMS message. Icon 803 represents an upcoming calendar event. Icon 804 represents available traffic information. Since recently received SMS messages rank highest in relevance, icon 802 is displayed in a large fashion.

メッセージアイコン802は、最高の関連性を有するため、ユーザは、方向805へ入力機構108を回転させると、機器100は、対応するメッセージングアプリケーションを起動して、ユーザインターフェース画面811上に、未読SMSメッセージ812を表示する。方向805への入力機構108の更なる回転に応じて、機器100は、アイコン803により表されるカレンダアプリケーションにおいて、ユーザインターフェース画面821上に、カレンダイベント822を表示する。方向805への入力機構108の更なる回転に応じて、機器100は、地図アプリケーション(アイコン804に対応する)によって提供される交通情報を、ユーザインターフェース画面831上に表示する。 Message icon 802 has the highest relevance, so when the user rotates input mechanism 108 in direction 805 , device 100 launches the corresponding messaging application and displays unread SMS messages on user interface screen 811 . 812 is displayed. In response to further rotation of input mechanism 108 in direction 805 , device 100 displays calendar event 822 on user interface screen 821 in the calendar application represented by icon 803 . In response to further rotation of input mechanism 108 in direction 805 , device 100 displays traffic information provided by the map application (corresponding to icon 804 ) on user interface screen 831 .

画面811から、ユーザは、図9に示されるユーザインターフェース画面901を呼び出すために、SMSメッセージ812をタップしてもよい。図9を参照すると、画面901は、SMSメッセージ812に応答するためのアイコン902を含む。画面901はまた、SMSメッセージ812によって示唆される午後3時にアラームを生成するためのアイコン903を含む。同様に、画面821(図8)が表示されると、ユーザはカレンダイベント822をタップして、図9に示されたユーザインターフェース画面911を呼び出すことができる。画面911は、イベント参加者(例えば、Larry)を伝言するためのアイコン912を含む。画面911はまた、イベント場所へのナビゲーションを得るためのアイコン913を含む。最後に、画面831(図8)が表示されているときに、ユーザは、マップ832をタップして、図9に示されるユーザインターフェース画面921を呼び出すことができる。画面921は、ナビゲーションの中間地点を設定するためのアイコン922、及びターンバイターン方式のナビゲーション指示を得るためのアイコン923を含む。 From screen 811, the user may tap SMS message 812 to invoke user interface screen 901 shown in FIG. Referring to FIG. 9, screen 901 includes icon 902 for responding to SMS message 812 . Screen 901 also includes icon 903 for generating an alarm at 3:00 pm as suggested by SMS message 812 . Similarly, when screen 821 (FIG. 8) is displayed, the user can tap calendar event 822 to invoke user interface screen 911 shown in FIG. Screen 911 includes an icon 912 for messaging an event participant (eg, Larry). Screen 911 also includes icons 913 for obtaining navigation to the event location. Finally, when screen 831 (FIG. 8) is displayed, the user can tap map 832 to invoke user interface screen 921 shown in FIG. Screen 921 includes icons 922 for setting navigation waypoints and icons 923 for obtaining turn-by-turn navigation instructions.

いくつかの実施形態では、機器100は、タッチスクリーン104(図1)上の短いタップと長いタップとを区別し、例えば、画面811(図8)上の長いタップの後にのみ、画面901を呼び出すことができる。本開示の目的のために、短いタップとは、タッチスクリーン104(図1)をタッチした後にタッチを離す短いタッチのことをいう。長いタップとは、タッチを離す前にタッチスクリーン104(図1)をより長くタッチすることをいう。機器100は、所定の持続時間を超えるタッチを長いタップと(及び、より短い持続時間のタッチを短いタップと)みなすことができる。いくつかの実施形態では、機器100は、タッチスクリーン104上の圧力の度合いを識別することができる。即ち、機器100は、タッチスクリーン104上のタッチオブジェクト(例えば、ユーザの指)の強度を検出することができる。したがって、機器100は、ユーザが画面811(図8)を十分な圧力でタップした後にのみ、画面901を呼び出すことができる。 In some embodiments, device 100 distinguishes between short and long taps on touchscreen 104 (FIG. 1), e.g., invokes screen 901 only after a long tap on screen 811 (FIG. 8). be able to. For purposes of this disclosure, a short tap refers to a short touch that touches the touchscreen 104 (FIG. 1) and then releases the touch. A long tap refers to touching the touchscreen 104 (FIG. 1) longer before releasing the touch. Device 100 may consider touches that exceed a predetermined duration to be long taps (and touches of shorter duration to be short taps). In some embodiments, device 100 can identify the degree of pressure on touch screen 104 . That is, device 100 can detect the strength of a touch object (eg, a user's finger) on touch screen 104 . Therefore, device 100 can invoke screen 901 only after the user taps screen 811 (FIG. 8) with sufficient pressure.

いくつかの実施形態では、機器100は、タッチスクリーン104(図1)の短い一瞥とより長い凝視とを区別することができる。短い一瞥は、機器の視聴位置への持ち上げと後続の機器の下降との間の持続時間が短いことによって、特徴付けることができる。より長い凝視は、機器が視聴位置で相対的に変動しない期間によって、特徴付けることができる。機器100は、短い一瞥とより長い凝視とに対して、異なる応答をすることができる。この態様は、図10に示されている。図10の例は、ユーザインターフェース画面1001が、機器100のユーザによる視聴位置への動きに応じて、表示されたものである。しかし、メッセージ1002は、機器100が視聴位置に持ち上げられる直前に着信したため、ユーザインターフェース画面1001は、複数の関連するユーザインターフェースオブジェクトを表示する代わりに、連絡先からの未読SMSメッセージ1002の表示を強調する。ユーザは、機器100を所定時間を超えて視聴位置に維持する場合、機器100は、画面1001を、ユーザインターフェース画面1011(機器100上で利用可能な関連するユーザインターフェースオブジェクトを表す複数のアイコンを示す)と入れ替える。画面1011から、ユーザは、指1013を用いてアイコン1012をタップして、SMSメッセージ1002に戻ることができる。このようにして、機器100によって、ユーザは着信メッセージを簡単に一瞥することができる。
4.例示的なユーザインターフェース。
In some embodiments, the device 100 can distinguish between a short glance and a longer gaze at the touchscreen 104 (FIG. 1). A short glance can be characterized by a short duration between the lifting of the device to the viewing position and the subsequent lowering of the device. Longer gazes can be characterized by periods in which the equipment is relatively stationary in viewing position. Device 100 may respond differently to short glances and longer gazes. This aspect is illustrated in FIG. In the example of FIG. 10, a user interface screen 1001 is displayed in response to movement of the device 100 to the viewing position by the user. However, because message 1002 arrived just before device 100 was lifted into the viewing position, user interface screen 1001 emphasizes displaying unread SMS message 1002 from the contact instead of displaying multiple related user interface objects. do. If the user maintains the device 100 in the viewing position for more than a predetermined amount of time, the device 100 changes the screen 1001 to a user interface screen 1011 (showing a plurality of icons representing relevant user interface objects available on the device 100). ). From screen 1011 , the user can tap icon 1012 with finger 1013 to return to SMS message 1002 . In this manner, device 100 allows the user to easily glance at incoming messages.
4. An exemplary user interface.

図11~図16は、機器100が、関連性に基づいて、一日の経過にわたって表示することができる例示的なユーザインターフェースを示す。図11において、機器100は、先程ユーザが目覚めたと判断して、「おはよう」と告げる適切な挨拶文1102を表示する。機器100は、1日のうちの時刻、ユーザの目覚まし時計アプリケーションとの対話(例えば、ユーザはちょうどアラームをオフにしたところである)、及び/又は、例えば、ユーザがじっとして動かない期間の後に、歩いていることを示す機器の動き、に基づいて、この判断を行うことができる。機器100は、ユーザが起きたときにユーザに表示すべき最も関連するアイコンとして、挨拶1102をランク付けすることができる。その高い関連性のために、挨拶1102は、ユーザインターフェース画面1101で強調されるが、これは、挨拶1102を、表示される最も大きなアイコン、又は表示される唯一のアイコンとすることができることを意味する。しかし、挨拶1102が、表示される唯一のアイコンである場合、他の非アイコンのユーザインターフェース要素(現在時刻など)は、なおオンスクリーン表示することができることに留意されたい。 11-16 illustrate exemplary user interfaces that device 100 can display over the course of a day based on relevance. In FIG. 11, the device 100 determines that the user has just woken up and displays an appropriate greeting 1102 saying "Good morning." The device 100 may be activated after a time of day, user interaction with an alarm clock application (e.g., the user has just turned off the alarm), and/or, for example, after a period of user inactivity. , movement of the device that indicates walking. Device 100 may rank greeting 1102 as the most relevant icon to display to the user when the user wakes up. Because of its high relevance, greeting 1102 is highlighted in user interface screen 1101, which means that greeting 1102 can be the largest icon displayed, or the only icon displayed. do. Note, however, that if the greeting 1102 is the only icon displayed, other non-iconic user interface elements (such as the current time) can still be displayed on-screen.

ユーザインターフェース画面1111は、ユーザが起きたときに機器100が表示することができる、別の例示的なユーザインターフェースを示す。画面1111は、現在時刻を示すアイコン1112を含んでいる。アイコン1113は、スヌーズの残り時間を示す周方向輪郭1113を有することができる。任意選択的に、アイコン1112は、現在の天候を示す背景を有し、例えば、青色は温暖な天候を、灰色は荒れ模様の天候を表す。画面1111はまた、ユーザが注意を払うべき未読メッセージを示すアイコン1115を含むことができる。 User interface screen 1111 shows another exemplary user interface that device 100 may display when the user wakes up. A screen 1111 includes an icon 1112 indicating the current time. The icon 1113 can have a circumferential outline 1113 that indicates the remaining snooze time. Optionally, icon 1112 has a background indicating the current weather, eg, blue for mild weather and gray for inclement weather. Screen 1111 may also include icons 1115 that indicate unread messages that the user should pay attention to.

図12は、ユーザが起きた後に、追加の関連するユーザインターフェースオブジェクトを示すことができるユーザインターフェース画面1201を例示する。画面1201は、関連するアイコン1202~1204を含む。アイコン1202は、健康アプリケーションに対応し、ユーザによる睡眠の持続時間などの睡眠情報を示すことができる。アイコン1203は、次のカレンダイベントの前の残り時間などのカレンダ情報に対応することができる。アイコン1204は、終日イベントなどの追加のカレンダ情報に対応することができる。 FIG. 12 illustrates a user interface screen 1201 that can show additional related user interface objects after the user wakes up. Screen 1201 includes associated icons 1202-1204. Icon 1202 may correspond to a health application and show sleep information, such as the duration of sleep by the user. Icon 1203 can correspond to calendar information, such as the time remaining before the next calendar event. Icons 1204 may correspond to additional calendar information, such as all-day events.

ユーザインターフェース画面1211は、ユーザが起きた後に機器100が表示することができる、追加の関連するユーザインターフェースオブジェクトを示している。画面1211は、関連するアイコン1212及び1213を含む。アイコン1212は、機器の現在位置の天候を示す天候アプリケーションに対応することができる。任意選択的に、アイコン1212は、ユーザの仕事場での天候などの、ユーザがこれまで午前中に移動した位置の天候を示すことができる。更に、アイコン1213は、ユーザが朝の通勤をあと45分で開始すべきであることを示すことができる。機器100は、例えば、今日のカレンダの最初のイベント、平日の午前中におけるユーザの通常の移動先、並びに距離及び交通情報に基づくその移動先までの移動予想時間、に基づいて、この判断を行うことができる。 User interface screen 1211 shows additional relevant user interface objects that device 100 may display after the user wakes up. Screen 1211 includes associated icons 1212 and 1213 . Icon 1212 may correspond to a weather application that indicates the weather at the device's current location. Optionally, icon 1212 may indicate the weather at locations the user has traveled to so far this morning, such as the weather at the user's place of work. Additionally, icon 1213 may indicate that the user should start their morning commute in 45 minutes. The device 100 makes this determination, for example, based on the first event on the calendar for today, where the user typically travels on weekday mornings, and the estimated travel time to that destination based on distance and traffic information. be able to.

ユーザインターフェース画面1221は、機器100が、午前中に後で表示することができる追加の関連するユーザインターフェースオブジェクトを示している。例示的なユーザインターフェース画面1221は、関連するアイコン1222~1224を含む。天候状況を示すアイコン1222は、アイコン1212によって前に表示された同じ情報を、表示することができる。しかし、画面1211では、アイコン1212が最も関連するアイコンであったが、画面1221においては、その関連性は、交通アイコン1223に取って代わられている。交通アイコン1223は交通警報を示し、最大のアイコンとして表示されている。その理由は、ユーザの通常の朝の通勤に沿っての事故に関する情報は、その時点では非常に関連性が高いと、機器100が判断したためである。画面1221はまた、ユーザの通勤は、アイコン1213によって前に与えられた45分の指示ではなく、機器100により受信された交通情報(事故により発生)を考慮すれば、あと10分で開始すべきであることを示すアイコン1224を含んでいる。 User interface screen 1221 shows additional relevant user interface objects that device 100 can display later in the morning. Exemplary user interface screen 1221 includes associated icons 1222-1224. Weather conditions icon 1222 may display the same information previously displayed by icon 1212 . However, while in screen 1211 icon 1212 was the most relevant icon, in screen 1221 that relevance has been replaced by traffic icon 1223 . Traffic icon 1223 indicates a traffic alert and is displayed as the largest icon. The reason is that device 100 determined that information about accidents along the user's normal morning commute was highly relevant at that time. Screen 1221 also indicates that the user's commute should start in 10 minutes, given the traffic information received by device 100 (caused by an accident), rather than the 45 minutes indicated previously by icon 1213. contains an icon 1224 indicating that the

図13を参照すると、画面1301は、ユーザが自分の車に接近したときにユーザの車のロックを解除するためのアイコン1302を示している。機器100とユーザの近くの車との間の距離の減少に基づいて、機器100は、アイコン1302を表示することができる。任意選択的に、画面1301は、図1に関連して説明したものなどの、付加的な関連するアイコンを含むことができる。ユーザが自分の車の中にいる間に、機器100は、視聴位置に持ち上げられた場合、ユーザインターフェース画面1311を表示することができる。画面1311は、仕事場までの到着推定時間(「ETA」)(即ち、アイコン1312)、ユーザのカレンダに記載された次の会議までの時間(即ち、アイコン1313)、及び音楽プレーヤ(即ち、アイコン1314により表されるような)、に関する情報が含まれる。これらは、ユーザが仕事場に向かう途中で、ユーザに関連するものである。機器100は、GPSの移動に基づいて、及び/又は、車載テレマティックスシステム(例えば、Bluetooth(登録商標)又はケーブル接続による)との通信によって、ユーザは運転中であると判断することができる。機器100は、ユーザの通勤パターンに関する履歴情報に基づいて、ユーザは仕事場へ運転中であると判断することができる。ユーザが職場に近づくにつれて、到着推定時間の関連性はより少なくなり、その情報はより低い重要度で表示されることになる。例えば、ユーザインターフェース画面1321には、音楽アイコン1322は、ETAアイコン1324より大きいフォーマットで表示されている。カレンダに記載された次の会議までの時間の情報は、関連性が高いままなので、アイコン1323は、この時間を表示し続けることができる。会議がオフサイト(即ち、ユーザの仕事場から物理的に遠い)である場合、機器100は、GPSセンサ及びカレンダ情報に基づいて、関連性が高いとしてリマインダをマークすることができる。 Referring to FIG. 13, screen 1301 shows an icon 1302 for unlocking the user's car when the user approaches his car. Based on the decreasing distance between the device 100 and a car near the user, the device 100 can display an icon 1302. FIG. Optionally, screen 1301 can include additional associated icons, such as those described in connection with FIG. Device 100 may display user interface screen 1311 when lifted into a viewing position while the user is in his/her car. Screen 1311 displays the estimated time of arrival at work (“ETA”) (ie, icon 1312), the time until the next meeting on the user's calendar (ie, icon 1313), and a music player (ie, icon 1314). ), as represented by These are relevant to the user on his way to work. The device 100 can determine that the user is driving based on GPS movement and/or communication with an in-vehicle telematics system (eg, via Bluetooth or cable connection). . Device 100 may determine that the user is driving to work based on historical information about the user's commute patterns. As the user gets closer to work, the estimated time of arrival will become less relevant and the information will be displayed with less importance. For example, on user interface screen 1321 , music icon 1322 is displayed in a larger format than ETA icon 1324 . The time until the next meeting on the calendar information remains relevant, so icon 1323 can continue to display this time. If the meeting is off-site (ie, physically far from the user's work place), the device 100 can mark the reminder as relevant based on GPS sensor and calendar information.

図14を参照すると、その日の遅くに、機器100のユーザは、コーヒーショップなどの店を訪れる場合がある。画面1401で、機器100は、ユーザがコーヒーショップで購入を承認することを可能にする電子決済アイコン1402を、表示することができる。機器100は、GPS情報、及び、地図アプリケーション又はStarbucks(登録商標)アプリケーションなどのサードパーティアプリケーションによって提供されるアプリケーションデータに基づいて、コーヒーショップへの近接度を判断することができる。機器100はまた、支払い読取機との近距離通信を介してなどの、その店の販売時点情報管理システムとの間の無線通信に基づいて、コーヒーショップへの近接度を判断することができる。更に、画面1401に、機器100は、コーヒーショップでの連絡先(例えば、友達)の近接度を示すアイコン1403を表示することができる。画面1411では、機器100は、新しい着信メッセージを示すアイコン1412、来るべきミーティングまでカウントダウンするアイコン1413、ユーザが追加の運動のために会議の場所まで階段を利用するべきであることを提案するアイコン1414、を表示することができる。ユーザが会議に遅れている場合、機器100は、ユーザにそれを思い出させることができる。例えば、画面1421には、機器100は、ユーザがカレンダに記載された会議に8分遅れていることをユーザに警告するアイコン1422、及び、ユーザに新しい着信メッセージ(そのうちのいくつかは、ユーザの会議不在に誘発されたものであり得る)を知らせるアイコン1422及び1424を表示することができる。 Referring to FIG. 14, later in the day, the user of device 100 may visit a store such as a coffee shop. At screen 1401, the device 100 can display an electronic payment icon 1402 that allows the user to authorize a purchase at the coffee shop. The device 100 can determine proximity to coffee shops based on GPS information and application data provided by third party applications such as map applications or Starbucks® applications. Device 100 may also determine proximity to a coffee shop based on wireless communication with the store's point of sale system, such as via near field communication with a payment reader. Additionally, on screen 1401, device 100 can display icons 1403 that indicate proximity of contacts (eg, friends) at the coffee shop. On screen 1411, the device 100 displays an icon 1412 indicating a new incoming message, an icon 1413 counting down to an upcoming meeting, and an icon 1414 suggesting that the user should take the stairs to the meeting location for additional exercise. , can be displayed. If the user is late for a meeting, the device 100 can remind the user of it. For example, on screen 1421, the device 100 displays an icon 1422 alerting the user that the user is eight minutes late for a meeting on the calendar, and a new incoming message to the user (some of which may be the user's Icons 1422 and 1424 may be displayed to indicate that the meeting may be triggered by the absence of a meeting.

図15を参照すると、機器100は、就業日が終了に近づくと、関連する情報を表示することができる。ユーザインターフェース画面1501で、機器100はユーザの自宅へのETA(即ち、アイコン1502)、及びユーザの配偶者の自宅へのETA(即ち、アイコン1503)を表示することができる。ユーザインターフェース画面1511には、機器100は、ユーザの自宅へのETA(即ち、アイコン1512)を表示し続け、ユーザの車内の音楽を変更する音楽アプリケーション(即ち、アイコン1513)、及びストレスレベル指示計(即ち、アイコン1514)を表示することができる。機器100は、例えば、PPG、ECG及びGSRセンサの読取りを含むセンサ入力に基づいて、ユーザのストレスレベルを計算することができる。ユーザは、家に到着して、機器100を見ると、機器100は、無線通信可能なフロントドアのドアロックを解除するためのアイコン1522を表示することができる。機器100はまた、Wi-Fi対応の照明及びHVACコントローラによる、照明及び暖炉の設定などの、家庭内の電子機器を制御するためのアイコン1524を表示することができる。機器100はまた、夕食イベントを示すアイコン1523を表示することもできる。 Referring to FIG. 15, the device 100 can display relevant information as the workday nears its end. In user interface screen 1501, device 100 may display an ETA to the user's home (ie, icon 1502) and an ETA to the user's spouse's home (ie, icon 1503). On user interface screen 1511, device 100 continues to display the user's ETA to home (ie, icon 1512), a music application that changes the music in the user's car (ie, icon 1513), and a stress level indicator. (ie icon 1514) can be displayed. The device 100 can calculate the user's stress level based on sensor inputs including, for example, PPG, ECG and GSR sensor readings. When the user arrives home and looks at the device 100, the device 100 can display an icon 1522 for unlocking the wirelessly enabled front door. Device 100 can also display icons 1524 for controlling electronics in the home, such as lighting and fireplace settings with Wi-Fi enabled lighting and HVAC controllers. The device 100 can also display an icon 1523 that indicates a dinner event.

図16を参照すると、機器100は、その日が終了するときに、関連する情報を表示することができる。ユーザインターフェース画面1601で、機器100は、例えば、ユーザの通常の睡眠時間及び翌朝のカレンダに記載された活動に基づいて、ユーザがすぐに眠る必要があることを提案するアイコン1602を、表示することができる。機器100はまた、夜にテレビを見るユーザの習慣に基づいて、テレビを制御するためのアイコン1604を表示することができる。機器100はまた、ユーザの通常の一日の終わりのルーチンに基づいて、照明制御のためのアイコン1603を表示することができる。ユーザの通常の就寝時刻が接近し続けると、機器100は、その日のユーザの物理的活動の概要(即ち、ユーザはその日の目標の75%を満たしたことを示すアイコン1612)、及び翌朝のアラームを設定するためのアラーム時計アイコン1613を表示することができる。機器100はまた、その日の終わりに表示されるユーザインターフェースオブジェクトの量を低減することができる。例えば、画面1621に示すように、機器100は、睡眠を提案する単一のアイコン1622を表示することができる。更に、アイコン1622は、ユーザの睡眠パターンを妨害する可能性が少ない光の波長を用いて、表示することができる。このようにして、機器100は、ユーザの覚醒を維持すること、及び/又は睡眠中のユーザを覚醒すること、を回避することができる。 Referring to FIG. 16, the device 100 can display relevant information as the day ends. In user interface screen 1601, device 100 may display icon 1602 suggesting that the user needs to go to bed soon, for example, based on the user's usual sleep time and calendared activities for the next morning. can be done. Device 100 may also display icons 1604 for controlling the television based on the user's habit of watching television at night. Device 100 can also display icons 1603 for lighting control based on the user's normal end-of-day routine. As the user's usual bedtime continues to approach, the device 100 displays a summary of the user's physical activity for the day (i.e., icon 1612 indicating that the user has met 75% of their goals for the day), and an alarm for the next morning. An alarm clock icon 1613 for setting the can be displayed. Device 100 may also reduce the amount of user interface objects displayed at the end of the day. For example, as shown in screen 1621, device 100 may display a single icon 1622 suggesting sleep. Further, icons 1622 can be displayed using wavelengths of light that are less likely to interfere with the user's sleep patterns. In this manner, device 100 may avoid keeping the user awake and/or waking a sleeping user.

任意選択的に、機器100は、時計の盤面を永続的に表示するように構成することができる。この態様は、図17に関して説明される。図示の例では、機器100は、機器の視聴位置への持ち上げに応じて、ユーザインターフェース画面1701を表示する。画面1701では、クロック1702は、関連するアイコン1703と共に表示される。機器100は、追加の関連するユーザインターフェースオブジェクトを識別すると、それらは、クロック1702の周囲に、タッチスクリーン104(図1)の最前面に表示することができる(画面1711及び1721上に追加の関連アイコン1712及び1703によって示されるように)。このようにして、ユーザは計時機能を重視するように、機器100を構成することができる。 Optionally, device 100 can be configured to permanently display a watch face. This aspect is described with respect to FIG. In the illustrated example, device 100 displays user interface screen 1701 in response to lifting the device to the viewing position. In screen 1701 a clock 1702 is displayed with an associated icon 1703 . As device 100 identifies additional relevant user interface objects, they can be displayed on top of touch screen 104 (FIG. 1) around clock 1702 (additional relevant user interface objects on screens 1711 and 1721). (as indicated by icons 1712 and 1703). In this way, the user can configure the device 100 to emphasize the time keeping function.

図18は、関連するユーザインターフェースオブジェクトを表示するように、機器100によって実行することができる例示的なプロセス1800を示している。ブロック1810では、機器100は、機器の視聴位置への動きを示す動きセンサからの入力を取得する。いくつかの実施形態では、その動きは、上向きの動きとすることができる。ブロック1820で、機器100は、更なるセンサデータを取得する。かかるセンサデータは、GPS位置情報、光情報、動き情報、及び/又は加速度計情報を含むことができる。ブロック1830では、機器100は、アプリケーション又はオペレーティングシステムのデータを取得する。かかるデータは、Wi-Fi、Bluetooth、又はNFCなどの通信回線によって、獲得することができる。ブロック1840では、機器100は、センサデータ、及びアプリケーション/OSデータに基づいて、ユーザに表示するための関連するユーザインターフェースオブジェクトを識別する。機器100はまた、関連するユーザインターフェースオブジェクトをランク付けすることができる。ブロック1850において、最も関連するユーザインターフェースオブジェクトがユーザに表示される。ブロック1860では、機器100は、入力機構の動きを表す入力を受信する。これに応じて、ブロック1870で、機器100は、機器上で利用可能なユーザのお気に入りのアプリケーションを表すアイコンを表示する。ブロック1880では、機器100は、入力機構の動きを表す追加の入力を受信する。これに応じて、ブロック1890では、機器100は、機器上で利用可能な全てのアプリケーションを表すアイコンを表示する。 FIG. 18 shows an exemplary process 1800 that may be performed by device 100 to display associated user interface objects. At block 1810, the device 100 obtains input from a motion sensor indicating movement of the device toward the viewing position. In some embodiments, the motion can be an upward motion. At block 1820, device 100 acquires additional sensor data. Such sensor data may include GPS location information, light information, motion information, and/or accelerometer information. At block 1830, the device 100 obtains application or operating system data. Such data can be obtained by communication links such as Wi-Fi, Bluetooth, or NFC. At block 1840, the device 100 identifies relevant user interface objects for display to the user based on the sensor data and application/OS data. Device 100 can also rank related user interface objects. At block 1850, the most relevant user interface objects are displayed to the user. At block 1860, the device 100 receives input representing movement of the input mechanism. In response, at block 1870, device 100 displays icons representing the user's favorite applications available on the device. At block 1880, device 100 receives additional input representing movement of the input mechanism. In response, at block 1890, device 100 displays icons representing all applications available on the device.

図7に戻ると、コンピューティングシステム700のメモリ部708は、1つ以上のコンピュータプロセッサ706により実行されると、例えば、コンピュータプロセッサにプロセス1800(図18)を含む上述されたユーザインターフェース技術を実行させることができる、コンピュータ実行可能命令を記憶する非一時的なコンピュータ可読記憶媒体とすることができる。コンピュータベースシステム、プロセッサを含むシステム、又は、命令実行システム、装置、若しくは機器から命令をフェッチし、命令を実行することができる他のシステム等の、命令実行システム、装置、若しくは機器による使用のため又はそれらに関連して、コンピュータ実行可能命令を任意の非一時的なコンピュータ可読記憶媒体内で記憶及び/又は転送することもできる。この文書の目的のために、「非一時的なコンピュータ可読記憶媒体」は、命令実行システム、装置、若しくは機器による使用のため又はそれらに関連して、コンピュータ実行可能命令を格納又は記憶できる任意の媒体とすることができる。非一時的なコンピュータ可読記憶媒体としては、磁気、光、及び/又は半導体のストレージを挙げることができるが、それらには限定されない。かかるストレージの例としては、磁気ディスク、CD、DVD、若しくはBlu-ray技術に基づく光ディスク、並びにRAM、ROM、EPROM、フラッシュメモリ、及びソリッドステートメモリを挙げることができる。コンピューティングシステム700は、図7の構成要素及び構成に限定されないが、複数の構成において、他の又は追加の構成要素を含むことができる。 7, the memory portion 708 of the computing system 700, when executed by one or more computer processors 706, performs the user interface techniques described above, including process 1800 (FIG. 18), on the computer processors, for example. It can be a non-transitory computer-readable storage medium storing computer-executable instructions that can be executed. For use by an instruction execution system, device, or device, such as a computer-based system, a system that includes a processor, or any other system capable of fetching instructions from and executing instructions from the instruction execution system, device, or device. Or in connection therewith, the computer-executable instructions may be stored and/or transferred in any non-transitory computer-readable storage medium. For the purposes of this document, "non-transitory computer-readable storage medium" means any medium capable of storing or storing computer-executable instructions for use by or in connection with an instruction execution system, device, or apparatus. It can be used as a medium. Non-transitory computer-readable storage media can include, but are not limited to, magnetic, optical, and/or semiconductor storage. Examples of such storage include magnetic discs, CDs, DVDs or optical discs based on Blu-ray technology, as well as RAM, ROM, EPROM, flash memory and solid state memory. Computing system 700 is not limited to the components and configuration of FIG. 7, but may include other or additional components in multiple configurations.

本開示及び例が添付図面を参照して完全に記述されてきたが、各種の変更及び修正が当業者には明らかとなることを留意されたい。かかる変更及び修正は、添付の特許請求の範囲によって画定される、本開示及び実施例の範囲内に含まれるとして理解されたい。 Although the present disclosure and examples have been fully described with reference to the accompanying drawings, it should be noted that various changes and modifications will become apparent to those skilled in the art. Such changes and modifications are intended to be included within the scope of the disclosure and examples defined by the appended claims.

Claims (22)

ディスプレイを含む電子デバイスにおいて、
ユーザが前記電子デバイスを使用している間に、前記ユーザと関連付けられた車両へ前記ユーザが近づいていることを検出することと、
前記ユーザが前記車両へ近づいていることを検出したのに応じて、前記ディスプレイ上に、前記車両をアンロックするための第1のアイコンを表示することと、
前記第1のアイコンを介した前記車両のアンロックに応じて、前記電子デバイスの前記ディスプレイ上に、以前に前記ユーザが前記車両を使用している間に前記車両内で前記ユーザが繰り返し取った行動に対応する第2のアイコンを表示することと、
を含む、方法。
In an electronic device containing a display,
detecting the user's approach to a vehicle associated with the user while the user is using the electronic device;
displaying on the display a first icon for unlocking the vehicle in response to detecting that the user is approaching the vehicle;
In response to unlocking the vehicle via the first icon, on the display of the electronic device, the user has repeatedly taken in the vehicle while previously using the vehicle. displaying a second icon corresponding to the action;
A method, including
前記第1のアイコンを表示している間に、入力を検出することと、
前記入力の検出に応じて、前記車両をアンロックする処理を開始することと
を更に含む請求項1に記載の方法。
detecting an input while displaying the first icon;
2. The method of claim 1, further comprising initiating a process to unlock the vehicle in response to detecting the input.
前記入力は前記第1のアイコンを対象とするものである、請求項2に記載の方法。 3. The method of claim 2, wherein said input is directed to said first icon. 前記車両をアンロックする前記処理を開始することは、前記車両をアンロックすることを含む、請求項2または3に記載の方法。 4. The method of claim 2 or 3, wherein initiating the process of unlocking the vehicle comprises unlocking the vehicle. 前記車両をアンロックする前記処理を開始することは、前記車両をアンロックする前記処理を実行するためのアプリケーションを起動することを含む、請求項2から4のいずれか1項に記載の方法。 5. The method of any one of claims 2-4, wherein initiating the process of unlocking the vehicle comprises launching an application for performing the process of unlocking the vehicle. 前記第1のアイコンを表示する以前に、前記電子デバイスの前記ディスプレイ上に複数のアイコンを表示することであって、前記複数のアイコンは前記第1のアイコンを含まない、表示することを更に含み、
前記第1のアイコンを表示することは、表示された前記複数のアイコンを前記第1のアイコンを含むように更新することを含む、請求項1から5のいずれか1項に記載の方法。
Displaying a plurality of icons on the display of the electronic device prior to displaying the first icon, wherein the plurality of icons does not include the first icon. ,
6. The method of any one of claims 1-5, wherein displaying the first icon comprises updating the plurality of displayed icons to include the first icon.
前記複数のアイコンは、該複数のアイコンがそれぞれ関連性を有すると判定されたことに応じて、より多くの表示に利用可能な複数のアイコンの中から選択される、請求項6に記載の方法。 7. The method of claim 6, wherein the plurality of icons are selected from among a plurality of icons available for more display in response to each of the plurality of icons being determined to be relevant. . 前記より多くの表示に利用可能な複数のアイコンは、前記第1のアイコンを含む、請求項7に記載の方法。 8. The method of claim 7, wherein the plurality of icons available for more display includes the first icon. 表示された前記複数のアイコンは、前記車両をアンロックするためのアプリケーションの関連性が増加したとの判定に応じて、前記第1のアイコンを含むように更新される、請求項6から8のいずれか1項に記載の方法。 9. The method of claims 6 to 8, wherein the plurality of displayed icons are updated to include the first icon in response to determining that an application for unlocking the vehicle has increased relevance. A method according to any one of paragraphs. 前記表示された複数のアイコンを前記第1のアイコンを含むように更新することは、前記複数のアイコンの個別の1つの表示を前記第1のアイコンにより置き換えることを含む、請求項6から9のいずれか1項に記載の方法。 10. The method of claims 6 to 9, wherein updating the displayed plurality of icons to include the first icon includes replacing a separate one display of the plurality of icons with the first icon. A method according to any one of paragraphs. 前記電子デバイスの位置及び前記車両の位置を利用して前記第1のアイコンの関連性を判定することを更に含む、請求項1から10のいずれか1項に記載の方法。 11. The method of any one of claims 1-10, further comprising determining relevance of the first icon using the location of the electronic device and the location of the vehicle. 前記電子デバイスの前記位置と前記車両の前記位置との間の距離が減少すると、前記第1のアイコンの前記関連性が増加する、請求項11に記載の方法。 12. The method of claim 11, wherein the relevance of the first icon increases as the distance between the location of the electronic device and the location of the vehicle decreases. 前記第1のアイコンの前記関連性は、前記車両の識別情報を用いて判定される、請求項11または12に記載の方法。 13. A method according to claim 11 or 12, wherein said relevance of said first icon is determined using identification information of said vehicle. 前記第1のアイコンの前記関連性は、関連性アルゴリズムを用いて判定される、請求項11から13のいずれか1項に記載の方法。 14. A method according to any one of claims 11 to 13, wherein said relevance of said first icon is determined using a relevance algorithm. 前記ユーザが前記車両に近づいていることを検出したのに応じて、前記第1のアイコンの増加した関連性を判定することを更に含む、請求項1から14のいずれか1項に記載の方法。 15. The method of any preceding claim, further comprising determining increased relevance of the first icon in response to detecting that the user is approaching the vehicle. . 前記第1のアイコンの関連性が増加したとの判定に応じて、前記第1のアイコンの表示サイズを増加させることを更に含む請求項15に記載の方法。 16. The method of claim 15, further comprising increasing a display size of the first icon in response to determining that the relevance of the first icon has increased. 前記第1のアイコンは前記車両をアンロックする第1のアプリケーションと関連付けられており、前記第2のアイコンは前記第1のアプリケーションとは異なる第2のアプリケーションと関連付けられている、請求項1から16のいずれか1項に記載の方法。 From claim 1, wherein the first icon is associated with a first application for unlocking the vehicle and the second icon is associated with a second application different from the first application. 17. The method of any one of 16. 前記電子デバイスはウェアラブルデバイスである、請求項1から17のいずれか1項に記載の方法。 18. The method of any one of claims 1-17, wherein the electronic device is a wearable device. 前記第1のアイコンは、前記電子デバイスの動きに基づく動きセンサからの入力を検出することに応じて表示される、請求項1から18のいずれか1項に記載の方法。 19. The method of any one of claims 1-18, wherein the first icon is displayed in response to detecting input from a movement-based motion sensor of the electronic device. コンピュータに請求項1から19のいずれか1項に記載の方法を実行させるためのコンピュータプログラム。 A computer program for causing a computer to carry out the method according to any one of claims 1 to 19. 請求項20に記載のコンピュータプログラムを記憶したメモリと、
前記メモリに格納された前記コンピュータプログラムを実行可能な1つ以上のプロセッサと
を備える電子デバイス。
a memory storing a computer program according to claim 20;
and one or more processors capable of executing said computer programs stored in said memory.
請求項1から19のいずれか1項に記載の方法を実行するための手段を備える電子デバイス。 An electronic device comprising means for carrying out the method according to any one of claims 1 to 19.
JP2020046707A 2020-03-17 2020-03-17 Viewing related use interface objects Active JP7142661B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020046707A JP7142661B2 (en) 2020-03-17 2020-03-17 Viewing related use interface objects
JP2022145450A JP2022180451A (en) 2020-03-17 2022-09-13 Display of related use interface object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020046707A JP7142661B2 (en) 2020-03-17 2020-03-17 Viewing related use interface objects

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018121118A Division JP6966980B2 (en) 2013-10-30 2018-06-26 View related user interface objects

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022145450A Division JP2022180451A (en) 2020-03-17 2022-09-13 Display of related use interface object

Publications (3)

Publication Number Publication Date
JP2020161134A JP2020161134A (en) 2020-10-01
JP2020161134A5 JP2020161134A5 (en) 2020-11-26
JP7142661B2 true JP7142661B2 (en) 2022-09-27

Family

ID=72639614

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020046707A Active JP7142661B2 (en) 2020-03-17 2020-03-17 Viewing related use interface objects
JP2022145450A Pending JP2022180451A (en) 2020-03-17 2022-09-13 Display of related use interface object

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022145450A Pending JP2022180451A (en) 2020-03-17 2022-09-13 Display of related use interface object

Country Status (1)

Country Link
JP (2) JP7142661B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050227642A1 (en) 2004-04-08 2005-10-13 Jensen Henrik T Hardware efficient RF transceiver I/Q imbalance compensation based upon taylor approximation
JP2008052705A (en) 2006-07-25 2008-03-06 Canon Inc Information processor and method for displaying object
JP2008102860A (en) 2006-10-20 2008-05-01 Nec Corp Small electronic device and menu display program
JP2008262251A (en) 2007-04-10 2008-10-30 Mitsubishi Electric Corp Information processor, information processing method and information processing program
JP2013047919A (en) 2011-08-29 2013-03-07 Kyocera Corp Device, method, and program
JP2013106271A (en) 2011-11-15 2013-05-30 Tokai Rika Co Ltd Mobile equipment
JP2013203283A (en) 2012-03-29 2013-10-07 Fujitsu Ten Ltd Device and system of vehicle control
JP2013218698A (en) 2012-04-08 2013-10-24 Samsung Electronics Co Ltd Server for controlling device, mobile device, and access method thereof

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050227642A1 (en) 2004-04-08 2005-10-13 Jensen Henrik T Hardware efficient RF transceiver I/Q imbalance compensation based upon taylor approximation
JP2008052705A (en) 2006-07-25 2008-03-06 Canon Inc Information processor and method for displaying object
JP2008102860A (en) 2006-10-20 2008-05-01 Nec Corp Small electronic device and menu display program
JP2008262251A (en) 2007-04-10 2008-10-30 Mitsubishi Electric Corp Information processor, information processing method and information processing program
JP2013047919A (en) 2011-08-29 2013-03-07 Kyocera Corp Device, method, and program
JP2013106271A (en) 2011-11-15 2013-05-30 Tokai Rika Co Ltd Mobile equipment
JP2013203283A (en) 2012-03-29 2013-10-07 Fujitsu Ten Ltd Device and system of vehicle control
JP2013218698A (en) 2012-04-08 2013-10-24 Samsung Electronics Co Ltd Server for controlling device, mobile device, and access method thereof

Also Published As

Publication number Publication date
JP2020161134A (en) 2020-10-01
JP2022180451A (en) 2022-12-06

Similar Documents

Publication Publication Date Title
US11316968B2 (en) Displaying relevant user interface objects
JP6883075B2 (en) Viewing the user interface associated with physical activity
US20210349617A1 (en) System, Method and User Interface for Supporting Scheduled Mode Changes on Electronic Devices
JP6966980B2 (en) View related user interface objects
US10459887B1 (en) Predictive application pre-launch
EP3120219B1 (en) Adjusting information depth based on user's attention
EP3120227B1 (en) Determining user response to notifications based on a physiological parameter
US10929005B2 (en) Electronic device, wearable device, and method of controlling displayed object in electronic device
JP2021523452A (en) Watch user interface
EP3679480A1 (en) Interactive mapping
EP3093739B1 (en) Apparatus and method for providing additional information according to rotary input
KR20170122056A (en) Electronic device and method for inputting adaptive touch using display in the electronic device
US20190209100A1 (en) In-vehicle user health platform systems and methods
JP7142661B2 (en) Viewing related use interface objects
WO2015062895A2 (en) Wearable electronic notification system
US20230343200A1 (en) User interfaces for facilitating operations

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200416

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200819

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201012

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210305

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220913

R150 Certificate of patent or registration of utility model

Ref document number: 7142661

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150