JP2018185830A - 関連するユーザインターフェースオブジェクトの表示 - Google Patents

関連するユーザインターフェースオブジェクトの表示 Download PDF

Info

Publication number
JP2018185830A
JP2018185830A JP2018121118A JP2018121118A JP2018185830A JP 2018185830 A JP2018185830 A JP 2018185830A JP 2018121118 A JP2018121118 A JP 2018121118A JP 2018121118 A JP2018121118 A JP 2018121118A JP 2018185830 A JP2018185830 A JP 2018185830A
Authority
JP
Japan
Prior art keywords
icons
input
electronic device
relevance
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018121118A
Other languages
English (en)
Other versions
JP6966980B2 (ja
Inventor
ゲイリー イアン. ブッチャー,
Ian Butcher Gary
ゲイリー イアン. ブッチャー,
イムラン チャウドリ,
Imuran Chaudhuri
イムラン チャウドリ,
ジョナサン, アール. ダスコーラ,
R Dascola Jonathan
ジョナサン, アール. ダスコーラ,
アラン シー. ダイ,
C Dye Alan
アラン シー. ダイ,
クリストファー パトリック フォス,
Patrick Foss Christopher
クリストファー パトリック フォス,
ダニエル シー. グロス,
C Gross Daniel
ダニエル シー. グロス,
チャナカ ジー. カルナムニ,
G Karunamuni Chanaka
チャナカ ジー. カルナムニ,
スティーブン オー. ルメイ,
Stephen O Lemay
スティーブン オー. ルメイ,
ナタリア マリック,
Maric Natalia
ナタリア マリック,
クリストファー ウィルソン,
Wilson Christopher
クリストファー ウィルソン,
ローレンス ワイ. ヤング,
Y Yang Lawrence
ローレンス ワイ. ヤング,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2016527367A external-priority patent/JP6393325B2/ja
Application filed by Apple Inc filed Critical Apple Inc
Priority to JP2018121118A priority Critical patent/JP6966980B2/ja
Publication of JP2018185830A publication Critical patent/JP2018185830A/ja
Application granted granted Critical
Publication of JP6966980B2 publication Critical patent/JP6966980B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザが装着する入力機器の位置や状態に応じて、ユーザに最も関連するユーザインターフェースオブジェクトを表示する電子機器を提供する。【解決手段】機器100を装着するユーザが視聴位置に動くと、機器100は画面203上に、ユーザに関連すると判断したユーザインターフェースオブジェクトであるアイコン204、205、206を表示する。機器100は、管理可能なアイコンのサブセットに優先順位をつけている。表示するアイコンの大きさは所定の状況における関連性に関係し、より関連性があると決定したアイコン204は、アイコン205及び206よりも大きい。【効果】機器が視聴位置に置かれたときに、関連するユーザインターフェースオブジェクトを表示することができる。【選択図】図2

Description

開示された実施形態は、概して、電子機器のユーザインターフェースに関する。
先進のパーソナル電子機器は、小さなフォームファクタを有し得る。例示的なパーソナル電子機器として、タブレット及びスマートフォンが挙げられるが、これらには限定されない。かかるパーソナル電子機器の使用は、パーソナル電子機器を補完するように小さく設計されているディスプレイ画面上のユーザインターフェースオブジェクトの表示及び操作を含む。
例示的なユーザインターフェースオブジェクトとして、デジタル画像、ビデオ、テキスト、アイコン、ボタンなどの制御要素、及び他のグラフィックが挙げられる。ここで用いる場合、用語の「アイコン」は、アプリケーションを表すため、及びそれを起動するために使用される画像のことを指し、当該技術分野におけるその通常の意味と一致する。更に、アプリケーションの簡略化された図を指すために、当技術分野で使用される、「ウィジェット」は、本開示の目的のためには、アイコンを構成するものである。
縮小サイズのパーソナル電子機器上の既存のユーザインターフェースは、適切な情報が提示される前にユーザによって複数回の操作を必要とすることがあるので、効率的ではない恐れがある。
パーソナル電子機器上のユーザインターフェースオブジェクトを提示するための技術が開示される。
例示的なパーソナル電子機器を示す図である。
例示的なユーザインターフェースを示す図である。
例示的なユーザインターフェースを示す図である。
ユーザインターフェースの例示的な論理構造を示す図である。
例示的なユーザインターフェースを示す図である。
例示的なユーザインターフェースを示す図である。
例示的なコンピューティングシステムを示す図である。
例示的なユーザインターフェースを示す図である。
例示的なユーザインターフェースを示す図である。
例示的なユーザインターフェースを示す図である。
例示的なユーザインターフェースを示す図である。
例示的なユーザインターフェースを示す図である。
例示的なユーザインターフェースを示す図である。
例示的なユーザインターフェースを示す図である。
例示的なユーザインターフェースを示す図である。
例示的なユーザインターフェースを示す図である。
例示的なユーザインターフェースを示す図である。
ユーザインターフェースオブジェクトを表示するための例示的なプロセスを示す図である。
以下の開示及び実施例の説明において、本発明を実施することができる特定の実施例の例示によって示される添付図面を参照する。本開示の範囲から逸脱することなく、他の実施例を実施し、構造上の変更をなし得ることを理解されたい。
図1は、例示的なパーソナル電子機器100(以下、機器100)を示す図である。図示の例では、機器100は、本体102を含む。機器100は、タッチ感知式ディスプレイスクリーン(以下、タッチスクリーン)104を有することができる。
タッチスクリーン104としては、相互容量式タッチ感知、自己容量式タッチ感知、抵抗式タッチ感知、投影走査式タッチ感知その他などの任意の所望のタッチ感知技術を用いて実装されるタッチセンサパネルの背面又は前面に部分的に又は完全に配置された、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、有機発光ダイオード(OLED)ディスプレイその他、などのディスプレイデバイスを挙げることができる。タッチスクリーン104によって、ユーザは、1つ以上の指又は他のオブジェクトを用いて、タッチセンサパネルの近くでホバリングさせて、タッチセンサパネルにタッチすることにより、各種の機能を実行することができる。
いくつかの実施形態では、機器100は、1つ以上の入力機構106及び108を有することができる。入力機構106及び108は、含まれる場合には、タッチ感知式とすることができる。タッチ感知式入力機構の例として、タッチ感知式ボタン、及びタッチ感知式表面が挙げられる。入力機構106及び108は、含まれる場合には、物理的とすることができる。物理的な入力機構の例としては、押しボタン及び回転可能な機構が挙げられる。ベゼルを含み得る本体102は、入力機構として作用するベゼル上の所定の領域を有することができる。いくつかの実施形態では、機器100は、取り付け機構を有することができる。かかる取り付け機構が含まれる場合には、これによって、機器100を、例えば、衣類、宝石、及び他の着用可能なアクセサリに取り付けることができる。例えば、取り付け機構は、帽子、眼鏡、イヤリング、ネックレス、シャツ、ジャケット、ブレスレット、時計ストラップ、チェーン、ズボン、ベルト、靴、財布、バックパック、その他、に取り付けることができる。
いくつかの実施形態では、機器100は、タッチスクリーン104に加えられた力又は圧力を検出するための1つ以上の圧力センサ(図示せず)を有することができる。タッチスクリーン104に加えられた力又は圧力を機器100に対する入力として用いて、選択を行う、メニューに入る若しくはメニューから出る、追加のオプション/動作を表示させる、その他、などの任意の所望の動作を実行することができる。タッチスクリーン104に印加された力又は圧力の大きさに基づいて、異なる動作を行うことができる。1つ以上の圧力センサは、タッチスクリーン104に力が印加されている位置を決定するために、更に使用することができる。
1.関連するユーザインターフェースオブジェクトの表示
図2は、自分の車202に向かって歩いているユーザ201が装着する例示的な機器100を示す図である。ユーザ201が機器100を視聴位置に動くと、機器100は、ユーザインターフェース画面203をタッチスクリーン104上に、自動的に表示する。いくつかの実施形態では、ユーザ201が、機器100を視聴位置に動くまで、タッチスクリーン104の表示要素は非アクティブであり、これは、タッチスクリーン104の表示要素がオフであるか、又はオフであるようにみえることを意味する。いくつかの実施形態では、機器100が、ユーザ201によって、上向き、下向き、又は横向きに保持されるか否かに関わらず、表示される情報は、適切な視聴の向きになるように、機器100は、タッチスクリーン104の表示内容を回転させる(例えば、横長モードと縦長モードの間を)ことができる。
ユーザインターフェーススクリーン203は、この時点で、ユーザに最も関連すると機器100が判断したユーザインターフェースオブジェクトを含む。特に、画面203は、ユーザが自分の車に接近すると、ユーザ201にとって有用である、車両202のロック解除のためのアイコン204を含む。画面203はまた、交通情報へアクセスするためのマップアイコン205(ユーザ201が走行を始めるときに有用であり得る)を含む。画面203はまた、今後のカレンダイベントを参照して目的地情報を提供するのに有用なアイコン206を、含むことができる。表示されるアイコンの大きさは、それらの関連性に関係することができる。画面203上で、アイコン204を介して提供される車202のロック解除の方が、より関連性があることを機器100が決定したため、アイコン204は、アイコン205及び206よりも大きい。
このユーザインターフェース表示は、たとえ、より多くのユーザインターフェースオブジェクトが、表示のために利用可能であっても、管理可能なアイコンのサブセットに優先順位をつけ、ユーザ201に表示することにおいて、注目に値する。また、このユーザインターフェースは、ユーザから、腕の持ち上げ以外のいかなるユーザインターフェースナビゲーションの入力なしに、(例えば、電源オン又はそれと同等のボタンをユーザ201が押す必要なく)ユーザ201に利用可能となる。このようにして、機器100は、適切なユーザインターフェース動作を起動するために必要なユーザ入力の量を減少させる。この利点は些細なことではない。その理由は、特に、スマートフォン及び他の電子機器と比較して、機器100は、比較的小さい表示画面サイズしか有していないので、より大きなユーザインターフェース環境のユーザのナビゲーションを妨げる恐れがあるためである。
所定の状況における関連するユーザインターフェースオブジェクトの数が、タッチスクリーン104上に合理的に一緒に表示され得る数(図2に示すような3つなど)を超過する可能性がある。この場合には、機器100は、初期表示のために、最も関連するアイコン(機器100上のコンピュータベースの関連性アルゴリズムによって決定されるような)を優先することができる。いくつかの実施形態では、ユーザは、残りの関連するアイコンを、入力機構106又は108を用いて、ディスプレイに表示させることができる。いくつかの実施形態では、ユーザは、残りの関連するアイコンを、タッチスクリーン104を用いたディスプレイに表示させる(タッチオブジェクトによってタッチスクリーン104をスワイプすることによってなど)ことができる。
図3は、複数のユーザインターフェース画面上の関連するアイコンの表示を示す図である。図示の例は、機器の上向きの動きに応じて、ユーザインターフェース画面301が、機器100上に表示されたものである。画面301は、関連するアプリケーションを表すアイコン302〜304(いくつかの例ではアイコン204〜206(図2)としてもよい)を含んでいる。方向306への入力機構108の回転に応じて、ユーザインターフェース画面311が、機器100に表示される。画面311は、画面301に示されるものよりも関連性の少ない、いくつかの追加の関連するアイコン312〜314を表示することができる。同じ方向306への入力機構108の更なる回転に応じて、機器100は、ユーザインターフェース画面321を表示することができる。画面321は、画面311に示されるものよりも関連性が低い関連アイコン322〜324の別のセットを含み、その結果、画面301のものよりも関連性が低いことになる。入力機構108は、回転可能なクラウンとすることができる。このようにして、ユーザは、機器100上で、関連するユーザインターフェースオブジェクト(例えば、アイコン)の複数のセットの間をナビゲートすることができる。
ユーザは、表示されたアイコンに触れることにより(例えば、指タップによる)、表示されたアイコンに対応するアプリケーションを起動することができる。ここで使用する場合、アプリケーションの起動とは、そのアプリケーションが、機器100のフォアグラウンドで動作し、画面上に表示されることを意味する。図4は、この態様を例示している。図示の例は、ユーザインターフェース画面401が、視聴位置への機器の動きに応じて、機器100上に表示されたものである。画面401は、5つの未読メッセージを有する、メッセージングアプリケーション(例えば、ショートメッセージサービス(SMS)をサポートする)を表すアイコン402、並びに他のアプリケーションを表すアイコン403及び404を含んでいる。タッチオブジェクト(例えば、指405)によってアイコン402をタップすることに応じて、機器100は、対応するメッセージングアプリケーションを起動して、ユーザインターフェース画面411に未読のメッセージ412を表示する。
いくつかの使用条件の下では、ユーザは、メッセージングアプリケーションから別の関連するアプリケーションへナビゲートすることを望む場合がある。例えば、ユーザは、前に画面401上のアイコン403及び404により表された音楽及び地図のアプリケーションへナビゲートすることを望む場合がある。機器100は、最初に画面401に戻ることなく、直接これらのアプリケーション間でのナビゲーションを可能にすることができる。具体的には、画面411が表示されている間に、方向414に入力機構108を回転させることは、機器100に、アイコン403によって表される音楽プレーヤを画面421上に表示させる。画面421は、音楽再生制御423を含むことができる。画面421が表示されている間に、方向414に入力機構108を更に回転させることは、機器100に、アイコン404によって表される地図アプリケーションを画面431上に表示させる。画面431は、交通情報432を含むことができる。
いくつかの実施形態では、画面411、421、及び431は、それぞれ、入力機構108によってアクセス可能なアプリケーションの順序に沿って現在表示されているアプリケーションの相対位置を識別する視覚的な補助(ページングドット415、425、及び435など)を含む。他の視覚的補助(スクロールバー、及び画面間の遷移など)もまた、利用可能なユーザインターフェース画面のより大きなセットに対して、現在表示中のユーザインターフェース画面に関するユーザの識別を助けるために、使用することができる。
図2〜図4に示された例示的なユーザインターフェース画面は主に、関連するユーザインターフェースオブジェクトの効率的な表示に関係している。しかし、たとえ、現時点の関連性は容易に識別できなくても、ユーザがアクセス可能であるべきより多くのユーザインターフェースオブジェクトを、機器100は含むことができることに留意されたい。例えば、ユーザは、ゲームのプレイを衝動的に望む場合がある。ユーザが、関連するユーザインターフェースオブジェクトを越えて、他のユーザインターフェースオブジェクトにナビゲーションすることが、機器100によって可能となる。図5はこの態様を例示している。
図5において、ユーザインターフェース画面501は、機器の視聴位置への動きに応じて、機器100上に表示される。画面501は、関連するアプリケーションを表すアイコン502〜504(いくつかの例ではアイコン203〜205(図2)としてもよい)を含んでいる。図示の例で、機器100は、3つのユーザインターフェースオブジェクト(即ちアイコン502〜504)だけが、現時点で関連していると判断したものである。したがって、入力機構108の方向505への回転に応じて、機器100はユーザインターフェース画面511を表示するが、この画面は、機器100上でのユーザ選択のために利用可能な他のユーザインターフェースオブジェクトを有する。画面511に表示されたアイコンは、ユーザのお気に入りのアイコンとすることができるが、これは、画面511のアイコンが、機器100上で利用可能なユーザインターフェースオブジェクトの所定のサブセットであることを意味する。入力機構108の方向505への更なる回転に応じて、機器100は、ユーザインターフェース画面521を表示するが、これは、機器100上で利用可能な全てのアプリケーションを表すアイコンを含んでいる。画面521に表示されるアイコンの大きさは、ユーザのナビゲーションには小さすぎる場合があるので、入力機構108の方向505への更なる回転に応じて、機器100は画面531を表示する。これは、画面521のアイコンのサブセットを拡大する効果を有し、それらのアイコンは、ユーザとの対話のために、より大きなサイズで表示される。
図5を参照して説明したユーザインターフェースのナビゲーションは、図6に示す論理構造600に従って、論理的に構成することができる。図6に示す例では、x軸601及びy軸602は、機器100のタッチスクリーン画面(図1)の表面と同一平面を形成し、z軸603は、軸601及び602によって形成されたx/y平面に対して垂直である。平面604は、一例では、ユーザインターフェース画面501(図5)に対応し、平面605は、ユーザインターフェース画面511(図5)に、そして、面607は、ユーザインターフェース画面521及び531(図5)に対応する。より具体的には、画面521(図5)は、平面607のコンテンツ全体の視点に対応することができ、画面531(図5)は、平面607のコンテンツの拡大された視点(即ち、拡大されたサブセット)に対応することができる。別の例では、平面604、607、608は、図3のユーザインターフェース画面301、311、及び321にそれぞれ対応することができる。入力機構の動きは、機器100上に表示する情報(即ち、アイコンの画面)の特定の平面を選択するために使用することができる。例えば、入力機構108の回転によって、図5に示された方法と同様にして、例えば、表示機器100に、アイコンの異なる画面を表示することができる。
2.関連するユーザインターフェースオブジェクトの決定
その通常の意味と合致して、「関連するアイコン」というフレーズは、当面の事柄に関係するか、又は適切に当てはまるユーザインターフェースアイコンのことを指すように、ここでは使用される。図2の例では、ユーザは自分の車に近づくと、自動車を運転することを望む可能性があるため、車両アプリケーションのロックを解除するためのアイコンが関連する。機器100は、異なる入力(センサの入力、アプリケーションデータ、オペレーティングシステムデータを含む)を考慮するコンピュータ命令(例えば、アルゴリズム)を使用して、関連性を判断することができる。
図7は、いくつかの実施形態では、機器100を形成する例示的なコンピューティングシステム700を示す。コンピューティングシステム700は、関連するユーザインターフェースオブジェクトを判断し、表示するための構成要素を含んでいる。図示の例では、コンピューティングシステム700は、種々のセンサ(GPSセンサ720、加速度センサ722、方向センサ724、ジャイロスコープ726、光センサ728、及び/又はこれらの組み合わせなど)と動作可能に連結する(接続する)ことができるI/O部704を備えている。I/O部704はまた、アプリケーション及びオペレーティングシステムのデータを受信するために、Wi−Fi(登録商標)、Bluetooth(登録商標)、近距離通信(「NFC」)、セルラ及び他の無線通信技術によって、通信ユニット718に接続することができる。更に、コンピューティングシステム700は、I/O部704を1つ以上のコンピュータプロセッサ706及びメモリ部708と一緒に接続するバス702を有することができる。メモリ部708は、関連するユーザインターフェースオブジェクトを決定し表示するための、コンピュータが実行可能な命令(例えば、アルゴリズムを表す)及び/又はデータを、記憶することができる。これらの構成要素のうちの1つ以上は、集積チップ又はいわゆるシステムオンチップの一部とすることができる。更に、I/O部704は、入力機構714に接続することができる。I/O部704は、1つ以上の入力ボタン716に接続することができる。I/O部704は、タッチ感知式構成要素712、及び、任意選択的に接触感圧構成要素713を有することができるディスプレイ710に、接続することができる。
コンピューティングシステム700のセンサ及び通信ユニットは、関連するユーザインターフェースオブジェクトを識別するための情報を提供することができる。例えば、GPSセンサ720は、ユーザの位置及び動きを判断することができる一方、通信ユニット718は、近くの車両(例えば、図2における車両202)の位置及び識別についての情報を受信することができる。加速度センサ722、方向センサ724、及びジャイロスコープ726は、更に、機器の動きを検出することができる。任意選択的に、GPSセンサ720、加速度計722、方向センサ724、及び/又はジャイロスコープ726の出力は、動きプロセッサ730によって、解釈することができる。プロセッサ706及びメモリ部708におけるコンピュータ実行可能な命令は、ユーザが自分の車に接近していることを判断するために、この情報の一部又は全てを使用することができる。プロセッサ706及びメモリ708の命令は、メモリ708に記憶されているアプリケーションデータ及び/又はオペレーティングシステムデータ(メタデータを含む)に基づいて、そのユーザの車両と対話するためのアプリケーションがインストールされていることもまた、判断することができる。このようにして、機器100の関連アルゴリズムは、自動車対話アプリケーションがその時点でユーザに関連すると、決定することができる。更に、機器100は、同じデータに基づいて、地図アプリケーションもまた、ユーザに関連するであろうと結論することができる。
また、通信ユニット718は、ユーザインターフェースオブジェクトの関連性に影響を与える他の情報もまた、受信することができる。例えば、通信ユニットは、同じ設計の他の装着型機器などの、同一又は類似である近くの機器を検出することができる。通信ユニットは、機器100と同じオペレーティングシステムを実行している非同一のユニット(同じブランドのスマートフォン及びタブレットなど)もまた、検出することができる。通信ユニットは、共通のプロトコルによる通信をサポートする異なる機器もまた、識別することができる。これらのプロトコルは、Wi−Fi、Bluetooth、NFC、その他などの無線プロトコルを含むことができる。これらのプロトコルは、例えば、動作環境サービスプロトコル(operating environment service protocols)(Apple(登録商標)AirPlay(登録商標)及びAirDrop(登録商標))、ホームオートメーションサービスプロトコル(例えば、Phillips(登録商標)Lighting and Nest(登録商標)によって提供されるもの)、認証サービスプロトコル(例えば、空港のクリアランス及び地下鉄料金)、販売サービスプロトコル(例えば、食料雑貨店のチェックアウト)のポイント、などのソフトウェアベースのサービスプロトコルとすることもまたできる。関連するユーザインターフェースオブジェクトを識別するために機器100によって使用されるアルゴリズムは、通信ユニット718により提供されるこれらの入力を考慮することができる。
更に、通信ユニット718は、関連性を通知するアプリケーション及びオペレーティングシステムのデータを受信することができる。例えば、メッセージングアプリケーションは、SMS又はWi−Fiサービスによって、着信メッセージを受信することができ、それによって、関連するようになる。別の例として、機器100の関連アルゴリズムは、イベントリマインダが関連することを判断するために、カレンダのデータ及びセルラシステムの時間を使用することができる。更に、機器100の関連性アルゴリズムは、関連性を判断する際に、アプリケーション及びオペレーティングシステムのデータの内容を考慮することができる。例えば、アルゴリズムは、特定の時間への言及を含む着信メッセージ(例えば、「午後3時に会いましょう」)は、その時間(即ち、午後3時)が近づくにつれて、より関連するようになるとみなすことができる。
いくつかの実施形態では、ユーザインターフェースオブジェクトは、グループで関連する場合がある。即ち、アプリケーションデータ(メタデータを含む)は、ユーザインターフェースオブジェクトAが関連するときはいつでも、ユーザインターフェースオブジェクトBもまた関連することを特定する場合がある。例えば、ドライバは、通常、音楽を楽しむため、音楽アプリケーションは、このようにして、車の対話アプリケーションに結び付けることができる。ドライバは、通常、交通情報及び/又は経路情報を望むため、地図アプリケーションは、このようにして、車の対話アプリケーションにも結び付けることができる。
いくつかの実施形態で、機器100によって使用される関連性アルゴリズムは、適応性を有することができ、アルゴリズムの結果は、過去のユーザの行動に基づいて、変更し得ることを意味する。例えば、アルゴリズムは、平日の午前中のユーザの運転パターンに基づいて、ユーザの通勤を認識することができる。このようにして、機器100は、午前中に表示する特定の交通情報を優先させることができる。別の例として、ユーザが通勤中に、他の利用可能なラジオアプリケーションよりも、1つの特定のラジオアプリケーションを繰り返し起動する場合、機器100は、そのラジオアプリケーションをより関連しているものとして識別し、ユーザが自分の車を解錠するときはいつでも、そのアイコンを表示することができる。
いくつかの実施形態では、コンピューティングシステム700は、フォトプレチスモグラフ(PPG)センサ、心電図(ECG)センサ、及び/又は電気皮膚反応(GSR)センサなどの健康関連センサなどのバイオメトリックセンサを含むことができる。機器100は、健康関連情報を提供するこれらのセンサのうち1つ以上から入力を受信することができる。例えば、機器100は、PPGセンサの情報を使用して、異常な呼吸数、血圧、及び/又は酸素飽和度をユーザに警告することができる。別の例として、機器100は、心電図センサを使用して、不整脈をユーザに警告することができる。更に別の例として、機器100は、GSRセンサを用いて、発汗を示すユーザの皮膚の水分を検出し、機器100上で表示のためにサーモスタットアプリケーションを優先させることができる。これらのセンサはまた、ユーザのバイオメトリック識別及び認証を容易にするために使用することができる。
コンピューティングシステム700のセンサは、システム(例えば、機器100)が視聴位置に置かれた時点を検出することができる。例えば、加速度計722及び/又は動きセンサ730は、計算システム700が持ち上げられ、下降され、振動された時点を検出することができる。これらのセンサは、手首の前後の回転を検出することができる。いくつかの実施形態では、コンピューティング機器700の持ち上げは、機器の視聴位置への配置として解釈される。いくつかの実施形態では、コンピューティング機器700の持ち上げ及び回転は、機器の視聴位置への配置として解釈される。いくつかの実施形態では、コンピューティング機器700の持ち上げ及び下降の間の持続時間は、機器の視聴位置への配置として解釈される。
表示のための関連するユーザインターフェースオブジェクトを識別するために機器100によって使用されるアルゴリズムは、機器(例えば、コンピューティングシステム700)の前述の態様の1つ以上を使用することができる。即ち、アルゴリズムは、関連性の判断において、以下のものを含む入力の組み合わせを考慮することができる。以下のものとは、位置、動き(姿勢、方向、傾き、加速度、及び速度を含む)は、周囲条件(光、時間、温度、ユーザの健康状態を含む)、アプリケーションデータ(着信電話、着信メッセージ、今後のカレンダイベントを含む)である。
例えば、機器100が、閾値(例えば、時速10マイル、時速20マイル、時速25マイル、時速30マイル、時速40マイル、時速50マイル、時速55マイル、時速60マイル、時速65マイル、その他)を超える速度で動いている場合、機器のユーザは通勤途中であってナビゲーションのアプリケーションに対応するアイコンは関連性が高い、と機器100は判断することができる。このような状況において、利用可能な車載機器が機器100の通信ユニットと通信中である場合、機器100はまた、車内の娯楽アプリケーションを表すアイコンを、関連性があると判断することができる。別の例として、機器100は、バイオメトリックセンサ及び動きセンサが、運動を表す動きを検出した場合に、健康関連アプリケーションを表すアイコンは、より関連性が高いと判断することができる。別の例として、機器100は、特定の時間量(例えば、15分間、30分間、1時間、1日間、1週間、その他)後に発生する予定のカレンダイベントは、より関連性が高いと判断することができる。任意選択的に、機器100は、イベントの関連性を判断するうえで、機器の現在位置とイベントの位置との間の距離、並びに、現在の天候、などの他の変数を考慮に入れることができる。即ち、例えば、15分後に予定の近隣のイベントは、1時間後の予定ではあるが30マイル離れているイベントよりも、関連性が低いと、機器100は判断することができる。
3.例示的なユーザ対話
ユーザは、機器100のユーザインターフェースと対話することができる。これらの対話は、アプリケーション機能を呼び出すためのショートカットを含むことができる。この態様は、図8〜図9を参照して説明する。
図8の例では、機器100は、着信SMSメッセージを受信し、ユーザに触覚フィードバックを提供したところである。触覚フィードバックに応じて、ユーザは、機器100を視聴位置に持ち上げることにより、機器100に、ユーザインターフェース画面801を表示させる。画面801は、その時点でユーザに関連すると判断されたアプリケーションを表すアイコン802〜804を含む。アイコン802は、未読SMSメッセージを表す。アイコン803は、今後のカレンダイベントを表す。アイコン804は、利用可能な交通情報を表す。最近受信されたSMSメッセージは、関連性において最もランクが高いため、アイコン802は、大きな様式で表示される。
メッセージアイコン802は、最高の関連性を有するため、ユーザは、方向805へ入力機構108を回転させると、機器100は、対応するメッセージングアプリケーションを起動して、ユーザインターフェース画面811上に、未読SMSメッセージ812を表示する。方向805への入力機構108の更なる回転に応じて、機器100は、アイコン803により表されるカレンダアプリケーションにおいて、ユーザインターフェース画面821上に、カレンダイベント822を表示する。方向805への入力機構108の更なる回転に応じて、機器100は、地図アプリケーション(アイコン804に対応する)によって提供される交通情報を、ユーザインターフェース画面831上に表示する。
画面811から、ユーザは、図9に示されるユーザインターフェース画面901を呼び出すために、SMSメッセージ812をタップしてもよい。図9を参照すると、画面901は、SMSメッセージ812に応答するためのアイコン902を含む。画面901はまた、SMSメッセージ812によって示唆される午後3時にアラームを生成するためのアイコン903を含む。同様に、画面821(図8)が表示されると、ユーザはカレンダイベント822をタップして、図9に示されたユーザインターフェース画面911を呼び出すことができる。画面911は、イベント参加者(例えば、Larry)を伝言するためのアイコン912を含む。画面911はまた、イベント場所へのナビゲーションを得るためのアイコン913を含む。最後に、画面831(図8)が表示されているときに、ユーザは、マップ832をタップして、図9に示されるユーザインターフェース画面921を呼び出すことができる。画面921は、ナビゲーションの中間地点を設定するためのアイコン922、及びターンバイターン方式のナビゲーション指示を得るためのアイコン923を含む。
いくつかの実施形態では、機器100は、タッチスクリーン104(図1)上の短いタップと長いタップとを区別し、例えば、画面811(図8)上の長いタップの後にのみ、画面901を呼び出すことができる。本開示の目的のために、短いタップとは、タッチスクリーン104(図1)をタッチした後にタッチを離す短いタッチのことをいう。長いタップとは、タッチを離す前にタッチスクリーン104(図1)をより長くタッチすることをいう。機器100は、所定の持続時間を超えるタッチを長いタップと(及び、より短い持続時間のタッチを短いタップと)みなすことができる。いくつかの実施形態では、機器100は、タッチスクリーン104上の圧力の度合いを識別することができる。即ち、機器100は、タッチスクリーン104上のタッチオブジェクト(例えば、ユーザの指)の強度を検出することができる。したがって、機器100は、ユーザが画面811(図8)を十分な圧力でタップした後にのみ、画面901を呼び出すことができる。
いくつかの実施形態では、機器100は、タッチスクリーン104(図1)の短い一瞥とより長い凝視とを区別することができる。短い一瞥は、機器の視聴位置への持ち上げと後続の機器の下降との間の持続時間が短いことによって、特徴付けることができる。より長い凝視は、機器が視聴位置で相対的に変動しない期間によって、特徴付けることができる。機器100は、短い一瞥とより長い凝視とに対して、異なる応答をすることができる。この態様は、図10に示されている。図10の例は、ユーザインターフェース画面1001が、機器100のユーザによる視聴位置への動きに応じて、表示されたものである。しかし、メッセージ1002は、機器100が視聴位置に持ち上げられる直前に着信したため、ユーザインターフェース画面1001は、複数の関連するユーザインターフェースオブジェクトを表示する代わりに、連絡先からの未読SMSメッセージ1002の表示を強調する。ユーザは、機器100を所定時間を超えて視聴位置に維持する場合、機器100は、画面1001を、ユーザインターフェース画面1011(機器100上で利用可能な関連するユーザインターフェースオブジェクトを表す複数のアイコンを示す)と入れ替える。画面1011から、ユーザは、指1013を用いてアイコン1012をタップして、SMSメッセージ1002に戻ることができる。このようにして、機器100によって、ユーザは着信メッセージを簡単に一瞥することができる。
4.例示的なユーザインターフェース。
図11〜図16は、機器100が、関連性に基づいて、一日の経過にわたって表示することができる例示的なユーザインターフェースを示す。図11において、機器100は、先程ユーザが目覚めたと判断して、「おはよう」と告げる適切な挨拶文1102を表示する。機器100は、1日のうちの時刻、ユーザの目覚まし時計アプリケーションとの対話(例えば、ユーザはちょうどアラームをオフにしたところである)、及び/又は、例えば、ユーザがじっとして動かない期間の後に、歩いていることを示す機器の動き、に基づいて、この判断を行うことができる。機器100は、ユーザが起きたときにユーザに表示すべき最も関連するアイコンとして、挨拶1102をランク付けすることができる。その高い関連性のために、挨拶1102は、ユーザインターフェース画面1101で強調されるが、これは、挨拶1102を、表示される最も大きなアイコン、又は表示される唯一のアイコンとすることができることを意味する。しかし、挨拶1102が、表示される唯一のアイコンである場合、他の非アイコンのユーザインターフェース要素(現在時刻など)は、なおオンスクリーン表示することができることに留意されたい。
ユーザインターフェース画面1111は、ユーザが起きたときに機器100が表示することができる、別の例示的なユーザインターフェースを示す。画面1111は、現在時刻を示すアイコン1112を含んでいる。アイコン1113は、スヌーズの残り時間を示す周方向輪郭1113を有することができる。任意選択的に、アイコン1112は、現在の天候を示す背景を有し、例えば、青色は温暖な天候を、灰色は荒れ模様の天候を表す。画面1111はまた、ユーザが注意を払うべき未読メッセージを示すアイコン1115を含むことができる。
図12は、ユーザが起きた後に、追加の関連するユーザインターフェースオブジェクトを示すことができるユーザインターフェース画面1201を例示する。画面1201は、関連するアイコン1202〜1204を含む。アイコン1202は、健康アプリケーションに対応し、ユーザによる睡眠の持続時間などの睡眠情報を示すことができる。アイコン1203は、次のカレンダイベントの前の残り時間などのカレンダ情報に対応することができる。アイコン1204は、終日イベントなどの追加のカレンダ情報に対応することができる。
ユーザインターフェース画面1211は、ユーザが起きた後に機器100が表示することができる、追加の関連するユーザインターフェースオブジェクトを示している。画面1211は、関連するアイコン1212及び1213を含む。アイコン1212は、機器の現在位置の天候を示す天候アプリケーションに対応することができる。任意選択的に、アイコン1212は、ユーザの仕事場での天候などの、ユーザがこれまで午前中に移動した位置の天候を示すことができる。更に、アイコン1213は、ユーザが朝の通勤をあと45分で開始すべきであることを示すことができる。機器100は、例えば、今日のカレンダの最初のイベント、平日の午前中におけるユーザの通常の移動先、並びに距離及び交通情報に基づくその移動先までの移動予想時間、に基づいて、この判断を行うことができる。
ユーザインターフェース画面1221は、機器100が、午前中に後で表示することができる追加の関連するユーザインターフェースオブジェクトを示している。例示的なユーザインターフェース画面1221は、関連するアイコン1222〜1224を含む。天候状況を示すアイコン1222は、アイコン1212によって前に表示された同じ情報を、表示することができる。しかし、画面1211では、アイコン1212が最も関連するアイコンであったが、画面1221においては、その関連性は、交通アイコン1223に取って代わられている。交通アイコン1223は交通警報を示し、最大のアイコンとして表示されている。その理由は、ユーザの通常の朝の通勤に沿っての事故に関する情報は、その時点では非常に関連性が高いと、機器100が判断したためである。画面1221はまた、ユーザの通勤は、アイコン1213によって前に与えられた45分の指示ではなく、機器100により受信された交通情報(事故により発生)を考慮すれば、あと10分で開始すべきであることを示すアイコン1224を含んでいる。
図13を参照すると、画面1301は、ユーザが自分の車に接近したときにユーザの車のロックを解除するためのアイコン1302を示している。機器100とユーザの近くの車との間の距離の減少に基づいて、機器100は、アイコン1302を表示することができる。任意選択的に、画面1301は、図1に関連して説明したものなどの、付加的な関連するアイコンを含むことができる。ユーザが自分の車の中にいる間に、機器100は、視聴位置に持ち上げられた場合、ユーザインターフェース画面1311を表示することができる。画面1311は、仕事場までの到着推定時間(「ETA」)(即ち、アイコン1312)、ユーザのカレンダに記載された次の会議までの時間(即ち、アイコン1313)、及び音楽プレーヤ(即ち、アイコン1314により表されるような)、に関する情報が含まれる。これらは、ユーザが仕事場に向かう途中で、ユーザに関連するものである。機器100は、GPSの移動に基づいて、及び/又は、車載テレマティックスシステム(例えば、Bluetooth(登録商標)又はケーブル接続による)との通信によって、ユーザは運転中であると判断することができる。機器100は、ユーザの通勤パターンに関する履歴情報に基づいて、ユーザは仕事場へ運転中であると判断することができる。ユーザが職場に近づくにつれて、到着推定時間の関連性はより少なくなり、その情報はより低い重要度で表示されることになる。例えば、ユーザインターフェース画面1321には、音楽アイコン1322は、ETAアイコン1324より大きいフォーマットで表示されている。カレンダに記載された次の会議までの時間の情報は、関連性が高いままなので、アイコン1323は、この時間を表示し続けることができる。会議がオフサイト(即ち、ユーザの仕事場から物理的に遠い)である場合、機器100は、GPSセンサ及びカレンダ情報に基づいて、関連性が高いとしてリマインダをマークすることができる。
図14を参照すると、その日の遅くに、機器100のユーザは、コーヒーショップなどの店を訪れる場合がある。画面1401で、機器100は、ユーザがコーヒーショップで購入を承認することを可能にする電子決済アイコン1402を、表示することができる。機器100は、GPS情報、及び、地図アプリケーション又はStarbucks(登録商標)アプリケーションなどのサードパーティアプリケーションによって提供されるアプリケーションデータに基づいて、コーヒーショップへの近接度を判断することができる。機器100はまた、支払い読取機との近距離通信を介してなどの、その店の販売時点情報管理システムとの間の無線通信に基づいて、コーヒーショップへの近接度を判断することができる。更に、画面1401に、機器100は、コーヒーショップでの連絡先(例えば、友達)の近接度を示すアイコン1403を表示することができる。画面1411では、機器100は、新しい着信メッセージを示すアイコン1412、来るべきミーティングまでカウントダウンするアイコン1413、ユーザが追加の運動のために会議の場所まで階段を利用するべきであることを提案するアイコン1414、を表示することができる。ユーザが会議に遅れている場合、機器100は、ユーザにそれを思い出させることができる。例えば、画面1421には、機器100は、ユーザがカレンダに記載された会議に8分遅れていることをユーザに警告するアイコン1422、及び、ユーザに新しい着信メッセージ(そのうちのいくつかは、ユーザの会議不在に誘発されたものであり得る)を知らせるアイコン1422及び1424を表示することができる。
図15を参照すると、機器100は、就業日が終了に近づくと、関連する情報を表示することができる。ユーザインターフェース画面1501で、機器100はユーザの自宅へのETA(即ち、アイコン1502)、及びユーザの配偶者の自宅へのETA(即ち、アイコン1503)を表示することができる。ユーザインターフェース画面1511には、機器100は、ユーザの自宅へのETA(即ち、アイコン1512)を表示し続け、ユーザの車内の音楽を変更する音楽アプリケーション(即ち、アイコン1513)、及びストレスレベル指示計(即ち、アイコン1514)を表示することができる。機器100は、例えば、PPG、ECG及びGSRセンサの読取りを含むセンサ入力に基づいて、ユーザのストレスレベルを計算することができる。ユーザは、家に到着して、機器100を見ると、機器100は、無線通信可能なフロントドアのドアロックを解除するためのアイコン1522を表示することができる。機器100はまた、Wi−Fi対応の照明及びHVACコントローラによる、照明及び暖炉の設定などの、家庭内の電子機器を制御するためのアイコン1524を表示することができる。機器100はまた、夕食イベントを示すアイコン1523を表示することもできる。
図16を参照すると、機器100は、その日が終了するときに、関連する情報を表示することができる。ユーザインターフェース画面1601で、機器100は、例えば、ユーザの通常の睡眠時間及び翌朝のカレンダに記載された活動に基づいて、ユーザがすぐに眠る必要があることを提案するアイコン1602を、表示することができる。機器100はまた、夜にテレビを見るユーザの習慣に基づいて、テレビを制御するためのアイコン1604を表示することができる。機器100はまた、ユーザの通常の一日の終わりのルーチンに基づいて、照明制御のためのアイコン1603を表示することができる。ユーザの通常の就寝時刻が接近し続けると、機器100は、その日のユーザの物理的活動の概要(即ち、ユーザはその日の目標の75%を満たしたことを示すアイコン1612)、及び翌朝のアラームを設定するためのアラーム時計アイコン1613を表示することができる。機器100はまた、その日の終わりに表示されるユーザインターフェースオブジェクトの量を低減することができる。例えば、画面1621に示すように、機器100は、睡眠を提案する単一のアイコン1622を表示することができる。更に、アイコン1622は、ユーザの睡眠パターンを妨害する可能性が少ない光の波長を用いて、表示することができる。このようにして、機器100は、ユーザの覚醒を維持すること、及び/又は睡眠中のユーザを覚醒すること、を回避することができる。
任意選択的に、機器100は、時計の盤面を永続的に表示するように構成することができる。この態様は、図17に関して説明される。図示の例では、機器100は、機器の視聴位置への持ち上げに応じて、ユーザインターフェース画面1701を表示する。画面1701では、クロック1702は、関連するアイコン1703と共に表示される。機器100は、追加の関連するユーザインターフェースオブジェクトを識別すると、それらは、クロック1702の周囲に、タッチスクリーン104(図1)の最前面に表示することができる(画面1711及び1721上に追加の関連アイコン1712及び1703によって示されるように)。このようにして、ユーザは計時機能を重視するように、機器100を構成することができる。
図18は、関連するユーザインターフェースオブジェクトを表示するように、機器100によって実行することができる例示的なプロセス1800を示している。ブロック1810では、機器100は、機器の視聴位置への動きを示す動きセンサからの入力を取得する。いくつかの実施形態では、その動きは、上向きの動きとすることができる。ブロック1820で、機器100は、更なるセンサデータを取得する。かかるセンサデータは、GPS位置情報、光情報、動き情報、及び/又は加速度計情報を含むことができる。ブロック1830では、機器100は、アプリケーション又はオペレーティングシステムのデータを取得する。かかるデータは、Wi−Fi、Bluetooth、又はNFCなどの通信回線によって、獲得することができる。ブロック1840では、機器100は、センサデータ、及びアプリケーション/OSデータに基づいて、ユーザに表示するための関連するユーザインターフェースオブジェクトを識別する。機器100はまた、関連するユーザインターフェースオブジェクトをランク付けすることができる。ブロック1850において、最も関連するユーザインターフェースオブジェクトがユーザに表示される。ブロック1860では、機器100は、入力機構の動きを表す入力を受信する。これに応じて、ブロック1870で、機器100は、機器上で利用可能なユーザのお気に入りのアプリケーションを表すアイコンを表示する。ブロック1880では、機器100は、入力機構の動きを表す追加の入力を受信する。これに応じて、ブロック1890では、機器100は、機器上で利用可能な全てのアプリケーションを表すアイコンを表示する。
図7に戻ると、コンピューティングシステム700のメモリ部708は、1つ以上のコンピュータプロセッサ706により実行されると、例えば、コンピュータプロセッサにプロセス1800(図18)を含む上述されたユーザインターフェース技術を実行させることができる、コンピュータ実行可能命令を記憶する非一時的なコンピュータ可読記憶媒体とすることができる。コンピュータベースシステム、プロセッサを含むシステム、又は、命令実行システム、装置、若しくは機器から命令をフェッチし、命令を実行することができる他のシステム等の、命令実行システム、装置、若しくは機器による使用のため又はそれらに関連して、コンピュータ実行可能命令を任意の非一時的なコンピュータ可読記憶媒体内で記憶及び/又は転送することもできる。この文書の目的のために、「非一時的なコンピュータ可読記憶媒体」は、命令実行システム、装置、若しくは機器による使用のため又はそれらに関連して、コンピュータ実行可能命令を格納又は記憶できる任意の媒体とすることができる。非一時的なコンピュータ可読記憶媒体としては、磁気、光、及び/又は半導体のストレージを挙げることができるが、それらには限定されない。かかるストレージの例としては、磁気ディスク、CD、DVD、若しくはBlu−ray技術に基づく光ディスク、並びにRAM、ROM、EPROM、フラッシュメモリ、及びソリッドステートメモリを挙げることができる。コンピューティングシステム700は、図7の構成要素及び構成に限定されないが、複数の構成において、他の又は追加の構成要素を含むことができる。
本開示及び例が添付図面を参照して完全に記述されてきたが、各種の変更及び修正が当業者には明らかとなることを留意されたい。かかる変更及び修正は、添付の特許請求の範囲によって画定される、本開示及び実施例の範囲内に含まれるとして理解されたい。

Claims (72)

  1. 電子機器であって、
    1つ以上のプロセッサを備え、前記プロセッサは、
    前記電子機器の動きを検出するように構成された動きセンサと、
    メモリと、
    タッチ感知式ディスプレイと、
    に動作可能に連結され、
    前記1つ以上のプロセッサは、
    前記電子機器の動きに基づく、前記動きセンサからの入力を受信し、
    前記タッチ感知式ディスプレイに第1の複数アイコンを表示する、
    ように構成され、
    前記ディスプレイは、前記受信した動きセンサの入力に応答し、
    前記第1の複数アイコンは、表示に利用可能なより多数の複数アイコンのサブセットであり、
    前記第1の複数アイコンは、関連性アルゴリズムを使用して、前記より多数の複数アイコンから選択された、
    電子機器。
  2. 前記1つ以上のプロセッサは、
    回転可能な入力機構に更に動作可能に連結され、
    前記回転可能な入力機構の動きに基づく入力を受信し、
    前記受信した回転可能な入力機構の入力に応じて、前記タッチ感知式ディスプレイ上で、前記第1の複数アイコンを第2の複数アイコンと入れ換える、
    ように更に構成された、請求項1に記載の電子機器。
  3. 前記1つ以上のプロセッサは、
    タッチオブジェクトの動きに基づく、前記タッチ感知式ディスプレイからの入力を受信し、
    前記受信したタッチ感知式ディスプレイの入力に応じて、前記タッチ感知式ディスプレイ上で、前記第1の複数アイコンを第2の複数アイコンに入れ換える、
    ように更に構成された、請求項1又は2に記載の電子機器。
  4. 前記電子機器は、装着型機器である、請求項1から3のいずれか一項に記載の電子機器。
  5. 前記電子機器は、前記1つ以上のプロセッサに動作可能に連結されたGPSセンサを更に備える、請求項1から3のいずれか一項に記載の電子機器。
  6. 前記電子機器は、前記1つ以上のプロセッサに動作可能に連結された加速度計を更に備える、請求項1から3のいずれか一項に記載の電子機器。
  7. 前記電子機器は、前記1つ以上のプロセッサに動作可能に連結された方向センサを更に備える、請求項1から3のいずれか一項に記載の電子機器。
  8. 前記電子機器は、前記1つ以上のプロセッサに動作可能に連結されたジャイロスコープを更に備える、請求項1から3のいずれか一項に記載の電子機器。
  9. 前記電子機器は、前記1つ以上のプロセッサに動作可能に連結された光センサを更に備える、請求項1から3のいずれか一項に記載の電子機器。
  10. 前記電子機器は、前記1つ以上のプロセッサに動作可能に連結されたバイオメトリックセンサを更に備える、請求項1から3のいずれか一項に記載の電子機器。
  11. 前記電子機器は、外部機器と通信するように構成された無線通信ユニットを更に備える、請求項1から3のいずれか一項に記載の電子機器。
  12. 前記無線通信ユニットは、Bluetooth通信を実行する、請求項11に記載の電子機器。
  13. 前記無線通信ユニットは、近距離通信を実行する、請求項11又は12に記載の電子機器。
  14. 前記1つ以上のプロセッサは、
    前記電子機器の前記位置を表す前記GPSセンサからの入力を受信し、
    外部機器を識別するアプリケーションデータを取得する、
    ように更に構成され、
    前記関連性アルゴリズムは、前記電子機器の前記位置と前記外部機器の前記位置を入力として使用する、請求項5から13のいずれか一項に記載の電子機器。
  15. 前記電子機器と前記外部機器の前記位置との間の前記距離が減少するにつれて、前記関連性アルゴリズムは、前記より多数の複数アイコンの中から、前記外部機器に関連付けられたアイコンの前記関連性を増加させる、請求項14に記載の電子機器。
  16. 前記1つ以上のプロセッサは、
    前記GPSセンサからの入力を受信し、
    前記受信したGPSセンサの入力に基づいて、前記電子機器の移動速度を求める、
    ように更に構成され、
    前記関連性アルゴリズムは、前記電子機器の前記位置と前記外部機器の前記位置を入力として使用する、請求項5から15のいずれか一項に記載の電子機器。
  17. 前記関連性アルゴリズムは、現在時刻を入力として使用する、請求項5から16のいずれか一項に記載の電子機器。
  18. 前記1つ以上のプロセッサは、
    前記無線通信ユニットによって、前記外部機器から入力を受信し、
    前記外部機器を識別する、
    ように更に構成され、
    前記関連性アルゴリズムは、前記外部機器の識別を入力として使用する、請求項5から17のいずれか一項に記載の電子機器。
  19. 前記関連性アルゴリズムは、メタデータを入力として使用し、
    前記メタデータは、前記第1の複数アイコンの前記アイコンに対応する少なくとも1つのアプリケーションを識別する、請求項5から18のいずれか一項に記載の電子機器。
  20. 前記関連性アルゴリズムは、アプリケーションデータを入力として使用する、請求項5から19のいずれか一項に記載の電子機器。
  21. 前記アプリケーションデータは、メッセージを表し、
    前記関連性アルゴリズムは、前記より多数の複数アイコンの中から、メッセージングに関連付けられたアイコンの前記関連性を増加させる、請求項20に記載の電子機器。
  22. 前記アプリケーションデータは地図情報を表し、
    前記電子機器が所定速度より速く移動しているときに、前記関連性アルゴリズムは、前記より多数の複数アイコンの中から、地図情報に関連付けられたアイコンの前記関連性を増加させる、請求項20に記載の電子機器。
  23. 前記アプリケーションデータは、今後のカレンダイベントを表し、
    前記関連性アルゴリズムは、前記より多数の複数アイコンの中から、前記今後のカレンダイベントに関連付けられたアイコンの前記関連性を増加させる、請求項20に記載の電子機器。
  24. 前記1つ以上のプロセッサは、
    健康情報を表す前記バイオメトリックセンサからの入力を受信するように
    更に構成され、
    前記関連性アルゴリズムは、
    前記健康情報を入力として使用し、
    前記バイオメトリックセンサの入力が、前記電子機器のユーザが運動中であることを示したときに、前記より多数の複数アイコンの中から、前記健康情報を表示するためのアプリケーションに関連付けられたアイコンの前記関連性を増加させる、
    請求項5から23のいずれか一項に記載の電子機器。
  25. 前記1つ以上のプロセッサは、少なくとも1日前日からの入力を使用して決定されたデータを前記メモリに記憶するように更に構成され、
    前記関連性アルゴリズムは、前記前日から前記記憶されたデータを入力として使用する、請求項5から24のいずれか一項に記載の電子機器。
  26. 前記少なくとも1日前日からの前記入力は、
    前記GPSセンサ、前記加速度センサ、前記方向センサ、前記ジャイロスコープ、及び/又は前記光センサ、のうちの少なくとも1つからの入力を含む、請求項25に記載の電子機器。
  27. 前記第2の複数アイコンは、
    前記より多数の複数アイコンの別のサブセットであり、
    前記関連性アルゴリズムを使用して、前記より多数の複数アイコンの中から選択され、
    前記第1の複数アイコンとは異なる、請求項1から26のいずれか一項に記載の電子機器。
  28. 前記動きは、上向きの動きである、請求項1から27のいずれか一項に記載の電子機器。
  29. 前記第2の複数アイコンは、ユーザにより選択された、前記より多数の複数アイコンのサブセットである、請求項1から28のいずれか一項に記載の電子機器。
  30. 前記タッチスクリーンは、前記動きの直前は非アクティブであった、請求項1から29のいずれか一項に記載の電子機器。
  31. コンピュータが実行可能な方法であって、
    電子機器の動きに基づく、前記動きセンサからの入力を受信することと、
    タッチ感知式ディスプレイ上に第1の複数アイコンを表示することと、
    を含み、
    前記ディスプレイは、前記受信した動きセンサの入力に応答し、
    前記第1の複数アイコンは、表示に利用可能なより多数の複数アイコンのサブセットであり、
    前記第1の複数アイコンは、関連性アルゴリズムを使用して、前記より多数の複数アイコンから選択された、
    方法。
  32. 回転可能な入力機構の動きに基づく入力を受信することと、
    前記受信した回転可能な入力機構の入力に応じて、前記タッチ感知式ディスプレイ上で、前記第1の複数アイコンを第2の複数アイコンと入れ換えることと、
    を更に含む、請求項31に記載の方法。
  33. タッチオブジェクトの動きに基づく、前記タッチ感知式ディスプレイからの入力を受信することと、
    前記受信した感知式ディスプレイの入力に応じて、前記タッチ感知式ディスプレイ上で、前記第1の複数アイコンを第2の複数のアイコンと入れ換えることと、
    を更に含む、請求項31又は32に記載の方法。
  34. 前記電子機器は、装着型機器である、請求項31から33のいずれか一項に記載の方法。
  35. 前記電子機器の位置を表すGPSセンサからの入力を受信することと、
    外部機器を識別するアプリケーションデータを取得することと、
    を更に含み、
    前記関連性アルゴリズムは、前記電子機器の前記位置及び前記外部機器の前記位置を入力として使用する、請求項31から34のいずれか一項に記載の方法。
  36. 前記電子機器と前記外部機器の前記位置との間の前記距離が減少するにつれて、前記関連性アルゴリズムは、前記より多数の複数アイコンの中から、前記外部機器に関連付けられたアイコンの前記関連性を増加させる、請求項35に記載の方法。
  37. GPSセンサからの入力を受信することと、
    前記受信したGPSセンサの入力に基づいて、前記電子機器の移動速度を求めることと、
    を更に含み、
    前記関連性アルゴリズムは、前記電子機器の前記位置及び前記外部機器の前記位置を入力として使用する、請求項31から36のいずれか一項に記載の方法。
  38. 前記関連性アルゴリズムは、現在時刻を入力として使用する、請求項31から37のいずれか一項に記載の方法。
  39. 前記無線通信ユニットによって、前記外部機器から入力を受信することと、
    前記外部機器を識別することと、
    を更に含み、
    前記関連性アルゴリズムは、前記外部機器の識別を入力として使用する、請求項31から38のいずれか一項に記載の方法。
  40. 前記関連性アルゴリズムは、メタデータを入力として使用し、
    前記メタデータは、前記第1の複数アイコンの前記アイコンに対応する少なくとも1つのアプリケーションを識別する、請求項31から39のいずれか一項に記載の方法。
  41. 前記関連性アルゴリズムは、アプリケーションデータを入力として使用する、請求項31から40のいずれか一項に記載の方法。
  42. 前記アプリケーションデータは、メッセージを表し、
    前記関連性アルゴリズムは、前記より多数の複数アイコンの中から、メッセージングに関連付けられたアイコンの前記関連性を増加させる、請求項41に記載の方法。
  43. 前記アプリケーションデータは、今後のカレンダイベントを表し、
    前記関連性アルゴリズムは、前記より多数の複数アイコンの中から、前記今後のカレンダイベントに関連付けられたアイコンの前記関連性を増加させる、請求項41に記載の方法。
  44. 前記アプリケーションデータは、地図情報を表し、
    前記電子機器が所定速度より速く移動しているときに、前記関連性アルゴリズムは、前記より多数の複数アイコンの中から、地図情報に関連付けられたアイコンの前記関連性を増加させる、請求項41に記載の方法。
  45. 健康情報を表す前記バイオメトリックセンサからの入力を受信することを更に含み、
    前記関連性アルゴリズムは、
    前記健康情報を入力として使用し、
    前記バイオメトリックセンサの入力が、前記電子機器のユーザが運動中であることを示したときに、前記より多数の複数アイコンの中から、前記健康情報を表示するためのアプリケーションに関連付けられたアイコンの前記関連性を増加させる、
    請求項31から44のいずれか一項に記載の方法。
  46. 少なくとも1日前日からの入力を使用して決定されたデータをメモリに記憶することを更に含み、
    前記関連性アルゴリズムは、前記前日から記憶されたデータを入力として使用する、請求項31から45のいずれか一項に記載の方法。
  47. 前記少なくとも1日前日からの前記入力は、
    前記GPSセンサ、前記加速度センサ、前記方向センサ、前記ジャイロスコープ、及び/又は前記光センサ、のうちの少なくとも1つからの入力を含む、請求項46に記載の方法。
  48. 前記第2の複数アイコンは、
    前記より多数の複数アイコンの別のサブセットであり、
    前記関連性アルゴリズムを使用して、前記より多数の複数アイコンの中から選択され、
    前記第1の複数アイコンとは異なる、請求項31から47のいずれか一項に記載の方法。
  49. 前記動きは、上向きの動きである、請求項31から48のいずれか一項に記載の方法。
  50. 前記第2の複数アイコンは、ユーザにより選択された、前記より多数の複数アイコンのサブセットである、請求項31から49のいずれか一項に記載の方法。
  51. 前記タッチスクリーンは、前記動きの直前は非アクティブであった、請求項31から50のいずれか一項に記載の方法。
  52. コンピュータ実行可能命令を有する非一時的なコンピュータ可読記憶媒体であって、前記コンピュータ実行可能命令が、1つ以上のコンピュータプロセッサにより実行されると、前記1つ以上のコンピュータプロセッサに、ユーザインターフェースを表示させ、前記コンピュータ実行可能命令は、
    電子機器の動きに基づく、前記動きセンサから入力を受信し、
    タッチ感知式ディスプレイ上に第1の複数アイコンを表示する、
    命令群を含み、
    前記ディスプレイは、前記受信した動きセンサの入力に応答し、
    前記第1の複数アイコンは、表示が利用可能なより多数の複数アイコンのサブセットであり、
    前記第1の複数アイコンは、関連性アルゴリズムを使用して、前記より多数の複数アイコンから選択された、
    非一時的なコンピュータ可読記憶媒体。
  53. 前記コンピュータ実行可能命令は、
    回転可能な入力機構の動きに基づく入力を受信し、
    前記受信した回転可能な入力機構の入力に応じて、前記タッチ感知式ディスプレイ上で、前記第1の複数アイコンを第2の複数アイコンと入れ換える、
    命令群を更に含む、請求項52に記載の非一時的なコンピュータ可読記憶媒体。
  54. 前記コンピュータ実行可能命令は、
    タッチオブジェクトの動きに基づく、前記タッチ感知式ディスプレイから入力を受信し、
    前記受信したタッチ感知式ディスプレイの入力に応じて、前記タッチ感知式ディスプレイ上で、前記第1の複数アイコンを第2の複数アイコンと入れ換える、
    命令群を更に含む、請求項52又は53に記載の非一時的なコンピュータ可読記憶媒体。
  55. 前記電子機器は、装着型機器である、請求項52から54のいずれか一項に記載の非一時的なコンピュータ可読記憶媒体。
  56. 前記コンピュータ実行可能命令は、
    前記電子機器の位置を表すGPSセンサから入力を受信し、
    外部機器を識別するアプリケーションデータを取得する、
    命令群を更に含み、
    前記関連性アルゴリズムは、前記電子機器の前記位置及び前記外部機器の前記位置を入力として使用する、請求項52から55のいずれか一項に記載の非一時的なコンピュータ可読記憶媒体。
  57. 前記電子機器と前記外部機器の前記位置との間の前記距離が減少するにつれて、前記関連性アルゴリズムは、前記より多数の複数アイコンの中から、前記外部機器に関連付けられたアイコンの前記関連性を増加させる、請求項56に記載の非一時的なコンピュータ可読記憶媒体。
  58. 前記コンピュータ実行可能命令は、
    GPSセンサから入力を受信し、
    前記受信したGPSセンサの入力に基づいて、前記電子機器の移動速度を求める、
    命令群を更に含み、
    前記関連性アルゴリズムは、前記電子機器の前記位置及び前記外部機器の前記位置を入力として使用する、請求項52から57のいずれか一項に記載の非一時的なコンピュータ可読記憶媒体。
  59. 前記関連性アルゴリズムは、現在時刻を入力として使用する、請求項52から58のいずれか一項に記載の非一時的なコンピュータ可読記憶媒体。
  60. 前記コンピュータ実行可能命令は、
    前記無線通信ユニットによって前記外部機器から入力を受信し、
    前記外部機器を識別する、
    命令群を更に含み、
    前記関連性アルゴリズムは、前記外部機器の前記識別を入力として使用する、請求項52から59のいずれか一項に記載の非一時的なコンピュータ可読記憶媒体。
  61. 前記関連性アルゴリズムは、メタデータを入力として使用し、
    前記メタデータは、前記第1の複数アイコンの前記アイコンに対応する少なくとも1つのアプリケーションを識別する、請求項52から60のいずれか一項に記載の非一時的なコンピュータ可読記憶媒体。
  62. 前記関連性アルゴリズムは、アプリケーションデータを入力として使用する、請求項52から61のいずれか一項に記載の非一時的なコンピュータ可読記憶媒体。
  63. 前記アプリケーションデータは、メッセージを表し、
    前記関連性アルゴリズムは、前記より多数の複数アイコンの中から、前記メッセージングに関連付けられたアイコンの前記関連性を増加させる、請求項62に記載の非一時的なコンピュータ可読記憶媒体。
  64. 前記アプリケーションデータは、カレンダイベントを表し、
    前記関連性アルゴリズムは、前記より多数の複数アイコンの中から、前記イベントに関連付けられたアイコンの前記関連性を増加させる、請求項62に記載の非一時的なコンピュータ可読記憶媒体。
  65. 前記アプリケーションデータは、地図情報を表し、
    前記電子機器が所定速度より速く移動しているときに、前記関連性アルゴリズムは、前記より多数の複数アイコンの中から、地図情報に関連付けられたアイコンの前記関連性を増加させる、請求項62に記載の非一時的なコンピュータ可読記憶媒体。
  66. 前記コンピュータ実行可能命令は、
    健康情報を表す前記バイオメトリックセンサから入力を受信する命令群を更に含み、
    前記関連性アルゴリズムは、
    前記健康情報を入力として使用し、
    前記バイオメトリックセンサの入力が、前記電子機器のユーザが運動中であることを示したときに、前記より多数の複数アイコンの中から、前記健康情報を表示するためのアプリケーションに関連付けられたアイコンの前記関連性を増加させる、
    請求項52から65のいずれか一項に記載の非一時的なコンピュータ可読記憶媒体。
  67. 前記コンピュータ実行可能命令は、
    少なくとも1日前日からの入力を使用して決定されたデータをメモリに記憶する命令群を更に含み、
    前記関連性アルゴリズムは、前記前日から記憶されたデータを入力として使用する、請求項52から66のいずれか一項に記載の非一時的なコンピュータ可読記憶媒体。
  68. 前記少なくとも1日前日からの前記入力は、
    前記GPSセンサ、前記加速度センサ、前記方向センサ、前記ジャイロスコープ、及び/又は前記光センサ、のうちの少なくとも1つからの入力を含む、請求項67に記載の非一時的なコンピュータ可読記憶媒体。
  69. 前記第2の複数アイコンは、
    前記より多数の複数アイコンの別のサブセットであり、
    前記関連性アルゴリズムを使用して、前記より多数の複数アイコンの中から選択され、
    前記第1の複数アイコンとは異なる、請求項52から68のいずれか一項に記載の非一時的なコンピュータ可読記憶媒体。
  70. 前記動きは、上向きの動きである、請求項52から69のいずれか一項に記載の非一時的なコンピュータ可読記憶媒体。
  71. 前記第2の複数アイコンは、前記より多数の複数アイコンの、ユーザにより選択されたサブセットである、請求項52から70のいずれか一項に記載の非一時的なコンピュータ可読記憶媒体。
  72. 前記タッチスクリーンは、前記動きの直前は非アクティブであった、請求項52から71のいずれか一項に記載の非一時的なコンピュータ可読記憶媒体。
JP2018121118A 2013-10-30 2018-06-26 関連するユーザインターフェースオブジェクトの表示 Active JP6966980B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018121118A JP6966980B2 (ja) 2013-10-30 2018-06-26 関連するユーザインターフェースオブジェクトの表示

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016527367A JP6393325B2 (ja) 2013-10-30 2013-10-30 関連するユーザインターフェースオブジェクトの表示
JP2018121118A JP6966980B2 (ja) 2013-10-30 2018-06-26 関連するユーザインターフェースオブジェクトの表示

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016527367A Division JP6393325B2 (ja) 2013-10-30 2013-10-30 関連するユーザインターフェースオブジェクトの表示

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020046707A Division JP7142661B2 (ja) 2020-03-17 2020-03-17 関連するユースインターフェースオブジェクトの表示

Publications (2)

Publication Number Publication Date
JP2018185830A true JP2018185830A (ja) 2018-11-22
JP6966980B2 JP6966980B2 (ja) 2021-11-17

Family

ID=64357016

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018121118A Active JP6966980B2 (ja) 2013-10-30 2018-06-26 関連するユーザインターフェースオブジェクトの表示

Country Status (1)

Country Link
JP (1) JP6966980B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021179950A (ja) * 2020-05-11 2021-11-18 アップル インコーポレイテッドApple Inc. 電子デバイス上のスケジュールされたモード変更をサポートするシステム、方法、及びユーザインタフェース
US11379106B1 (en) 2021-05-12 2022-07-05 Apple Inc. Devices, methods, and graphical user interfaces for adjusting the provision of notifications
US11489803B2 (en) 2018-05-07 2022-11-01 Apple Inc. Devices, methods, and graphical user interfaces for proactive management of notifications
US11861159B2 (en) 2016-09-24 2024-01-02 Apple Inc. Devices, methods, and graphical user interfaces for selecting and interacting with different device modes

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09292262A (ja) * 1996-04-26 1997-11-11 Alpine Electron Inc 周辺施設検索表示方法及び誘導経路の目的地設定方法
JP2001092586A (ja) * 1999-07-22 2001-04-06 Canon Inc 情報処理装置及びその制御方法、コンピュータ可読メモリ
JP2001318751A (ja) * 2000-01-18 2001-11-16 Seiko Epson Corp 表示装置及び携帯型情報処理装置並びに情報記録媒体及び電子機器
JP2008102860A (ja) * 2006-10-20 2008-05-01 Nec Corp 小型電子機器およびメニュー表示プログラム
JP2008306667A (ja) * 2007-06-11 2008-12-18 Sharp Corp 情報通信端末および処理プログラム
JP2009009350A (ja) * 2007-06-27 2009-01-15 Nec Corp 健康管理システム、情報処理装置、健康管理方法及び制御プログラム
JP2009136456A (ja) * 2007-12-05 2009-06-25 Nec Corp 携帯端末装置
WO2012078079A2 (en) * 2010-12-10 2012-06-14 Yota Devices Ipr Ltd Mobile device with user interface
JP2013025357A (ja) * 2011-07-15 2013-02-04 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2013120468A (ja) * 2011-12-07 2013-06-17 Nikon Corp 電子機器、情報処理方法およびプログラム
JP2013206274A (ja) * 2012-03-29 2013-10-07 Toshiba Corp 携帯型電子機器および表示制御方法
WO2013157330A1 (ja) * 2012-04-20 2013-10-24 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09292262A (ja) * 1996-04-26 1997-11-11 Alpine Electron Inc 周辺施設検索表示方法及び誘導経路の目的地設定方法
JP2001092586A (ja) * 1999-07-22 2001-04-06 Canon Inc 情報処理装置及びその制御方法、コンピュータ可読メモリ
JP2001318751A (ja) * 2000-01-18 2001-11-16 Seiko Epson Corp 表示装置及び携帯型情報処理装置並びに情報記録媒体及び電子機器
JP2008102860A (ja) * 2006-10-20 2008-05-01 Nec Corp 小型電子機器およびメニュー表示プログラム
JP2008306667A (ja) * 2007-06-11 2008-12-18 Sharp Corp 情報通信端末および処理プログラム
JP2009009350A (ja) * 2007-06-27 2009-01-15 Nec Corp 健康管理システム、情報処理装置、健康管理方法及び制御プログラム
JP2009136456A (ja) * 2007-12-05 2009-06-25 Nec Corp 携帯端末装置
WO2012078079A2 (en) * 2010-12-10 2012-06-14 Yota Devices Ipr Ltd Mobile device with user interface
JP2013025357A (ja) * 2011-07-15 2013-02-04 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2013120468A (ja) * 2011-12-07 2013-06-17 Nikon Corp 電子機器、情報処理方法およびプログラム
JP2013206274A (ja) * 2012-03-29 2013-10-07 Toshiba Corp 携帯型電子機器および表示制御方法
WO2013157330A1 (ja) * 2012-04-20 2013-10-24 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11861159B2 (en) 2016-09-24 2024-01-02 Apple Inc. Devices, methods, and graphical user interfaces for selecting and interacting with different device modes
US11489803B2 (en) 2018-05-07 2022-11-01 Apple Inc. Devices, methods, and graphical user interfaces for proactive management of notifications
US11502984B2 (en) 2018-05-07 2022-11-15 Apple Inc. Devices, methods, and graphical user interfaces for proactive management of notifications
JP2021179950A (ja) * 2020-05-11 2021-11-18 アップル インコーポレイテッドApple Inc. 電子デバイス上のスケジュールされたモード変更をサポートするシステム、方法、及びユーザインタフェース
KR20210137878A (ko) * 2020-05-11 2021-11-18 애플 인크. 전자 디바이스 상의 스케줄링된 모드 변경을 지원하기 위한 시스템, 방법 및 사용자 인터페이스
JP7163347B2 (ja) 2020-05-11 2022-10-31 アップル インコーポレイテッド 電子デバイス上のスケジュールされたモード変更をサポートするシステム、方法、及びユーザインタフェース
KR102515506B1 (ko) 2020-05-11 2023-03-29 애플 인크. 전자 디바이스 상의 스케줄링된 모드 변경을 지원하기 위한 시스템, 방법 및 사용자 인터페이스
US11669235B2 (en) 2020-05-11 2023-06-06 Apple Inc. System, method and user interface for supporting scheduled mode changes on electronic devices
US11379106B1 (en) 2021-05-12 2022-07-05 Apple Inc. Devices, methods, and graphical user interfaces for adjusting the provision of notifications

Also Published As

Publication number Publication date
JP6966980B2 (ja) 2021-11-17

Similar Documents

Publication Publication Date Title
JP6393325B2 (ja) 関連するユーザインターフェースオブジェクトの表示
US20210294470A1 (en) Multi-device charging user interface
US10459887B1 (en) Predictive application pre-launch
JP6966980B2 (ja) 関連するユーザインターフェースオブジェクトの表示
EP3120219B1 (en) Adjusting information depth based on user's attention
US11792142B2 (en) Operational safety mode
EP3120227B1 (en) Determining user response to notifications based on a physiological parameter
US10929005B2 (en) Electronic device, wearable device, and method of controlling displayed object in electronic device
KR20170138667A (ko) 어플리케이션을 활성화하는 방법 및 이를 제공하는 전자 장치
KR102485356B1 (ko) 사용자 인터페이싱 방법 및 이를 수행하는 전자 장치
EP3093739B1 (en) Apparatus and method for providing additional information according to rotary input
KR20170019081A (ko) 휴대 장치 및 휴대 장치의 화면 표시방법
AU2021200894B2 (en) Multi-device charging user interface
KR20170122056A (ko) 전자 장치 및 전자 장치의 디스플레이를 이용한 적응적 터치 입력 방법
KR20170015143A (ko) 스마트 디바이스 및 그 동작 방법
JP7142661B2 (ja) 関連するユースインターフェースオブジェクトの表示

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180725

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190802

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200317

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200317

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200324

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200327

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20200605

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20200615

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20201113

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210129

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210209

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20210219

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210818

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20210827

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20210927

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20210927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211022

R150 Certificate of patent or registration of utility model

Ref document number: 6966980

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150