JP6013583B2 - 有効インターフェース要素の強調のための方式 - Google Patents
有効インターフェース要素の強調のための方式 Download PDFInfo
- Publication number
- JP6013583B2 JP6013583B2 JP2015500562A JP2015500562A JP6013583B2 JP 6013583 B2 JP6013583 B2 JP 6013583B2 JP 2015500562 A JP2015500562 A JP 2015500562A JP 2015500562 A JP2015500562 A JP 2015500562A JP 6013583 B2 JP6013583 B2 JP 6013583B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- computing device
- layer
- relative position
- interface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0489—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
- G06F3/04895—Guidance during keyboard input operation, e.g. prompting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/16—Using real world measurements to influence rendering
Description
1.インターフェースをレンダリングするコンピュータ実装方法であって、
コンピューティングデバイスのカメラを使用してユーザの画像を捕獲することと、
前記コンピューティングデバイスの少なくとも1つのプロセッサを使用して、前記捕獲された画像を分析して、
前記コンピューティングデバイスに対する前記ユーザの相対位置を判定することと、
前記コンピューティングデバイスの表示画面上に表示のために複数のインターフェース要素をレンダリングすることと、
前記インターフェース要素の1つの選択を受け取ることと、
前記選択されたインターフェース要素の外観を調整し、前記選択されたインターフェース要素が、前記ユーザの前記判定された相対位置から、非選択インターフェース要素よりも前記表示画面の表面により近く位置付けされるように見えるようにすることであって、前記コンピューティングデバイスは前記選択されたインターフェース要素が前記ユーザからの入力を受け取ることを可能とする、調整することと、
前記ユーザの新しい判定された相対位置に応答して、前記複数のインターフェース要素の前記レンダリングを更新することと、を含む、方法。
実行可能命令を備えて構成された1つ以上のコンピューティングシステムの制御の下で、コンピューティングデバイスの表示要素上に表示されるグラフィカルインターフェースを判定することであって、前記グラフィカルインターフェースは有効層および少なくとも1つの他の層を有し、前記有効層は前記グラフィカルインターフェース内の前記少なくとも1つの他の層の上に位置付けされるように見えるようにレンダリングされる、判定することと、前記グラフィカルインターフェースの一部として前記表示要素上に複数のインターフェース要素を表示することであって、前記複数のインターフェース要素のそれぞれが前記レンダリング層のうちの1つに関連付けられる、表示することと、
前記少なくとも1つの他の層と関連付けられたインターフェース要素の選択に応答して、前記選択されたインターフェース要素を前記有効層と関連付けることと、前記選択されたインターフェース要素の外観を前記有効層に対応するように調整することであって、前記選択されたインターフェース要素は、前記有効層と関連付けられたときに前記ユーザから入力を受け取ることができる、調整することと、を含む方法。
前記ユーザの前記判定された相対位置に少なくとも一部は基づく外観を用いて前記グラフィカルインターフェースの前記有効層および前記少なくとも1つの他の層のインターフェース要素をレンダリングすることと、をさらに含む、付記6に記載のコンピュータ実装方法。
前記追加画像情報を分析し、前記ユーザの前記相対位置の変化を判定することと、
前記有効層または前記少なくとも1つの他の層のうちの少なくとも1つの前記レンダリングを、前記有効層の前記インターフェース要素が、前記ユーザの現在の相対位置から、前記少なくとも1つの他の層の前記インターフェース要素の上方に距離を置いたままに見えるように調整することと、をさらに含む、付記12に記載のコンピュータ実装方法。
前記検出された変化に少なくとも部分的に基づき、前記ユーザの現在の相対位置を判定することと、
前記有効層または前記少なくとも1つの他の層のうちの少なくとも1つの前記レンダリングを、前記有効層の前記インターフェース要素が、前記ユーザの前記現在の相対位置から、前記少なくとも1つの他の層の前記インターフェース要素の上方に距離を置いたままに見えるように調整することと、をさらに含む、付記12に記載のコンピュータ実装方法。
プロセッサと、
表示画面と、
命令を含むメモリと、を備え、前記命令は、前記プロセッサによって実行されるとき、前記コンピューティングデバイスに、
グラフィカルインターフェースを前記表示画面上での表示のためにレンダリングすることであって、前記グラフィカルインターフェースは複数のインターフェース要素を含む、レンダリングすることと、
前記コンピューティングデバイスのユーザから前記インターフェース要素のうちの1つの選択を受け取ることと、
前記コンピューティングデバイスに関する前記ユーザの現在の相対位置を判定することと、
前記選択に応答して、前記ユーザの前記現在の相対位置に少なくとも一部は基づき、前記選択されたインターフェース要素が、少なくとも1つの他の表示されたインターフェース要素よりも前記ユーザにより近い距離であるかのように見えるように前記選択されたインターフェース要素のレンダリングを調整することと、を行わせる、コンピューティングデバイス。
前記コンピューティングデバイスのユーザから前記インターフェース要素の1つの選択を受け取ることと、
前記コンピューティングデバイスに関する前記ユーザの現在の相対位置を判定することと、
前記選択を受け取ることに応答して、前記ユーザの前記現在の相対位置に少なくとも部分的に基づき、前記選択されたインターフェース要素が、少なくとも1つの非選択インターフェース要素よりも前記表示画面の表面にあたかもより近いように見えるように、前記選択されたインターフェース要素のレンダリングを調整することと、を行わせる命令を記憶する、非一時的コンピュータ可読記憶媒体。
前記ユーザの前記現在の相対位置に少なくとも部分的に基づき、前記グラフィカルインターフェース内の前記コンピューティングデバイスの1つ以上の仮想側壁の外観を調整すること、をさらに行わせる、付記22に記載の非一時的コンピュータ可読記憶媒体。
以下に、本願出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
コンピュータ実装方法であって、実行可能命令を備えて構成された1つ以上のコンピューティングシステムの制御の下で、
コンピューティングデバイスの表示要素上に表示されるグラフィカルインターフェースを決定することであって、前記グラフィカルインターフェースは有効層および少なくとも1つの他の層を有し、前記有効層は前記グラフィカルインターフェース内の前記少なくとも1つの他の層の上に位置付けされるように見えるようにレンダリングされる、決定することと、
前記グラフィカルインターフェースの一部として前記表示要素上に複数のインターフェース要素を表示することであって、前記複数のインターフェース要素のそれぞれが前記レンダリング層のうちの1つに関連付けられる、表示することと、
前記少なくとも1つの他の層と関連付けられたインターフェース要素の選択に応答して、前記選択されたインターフェース要素を前記有効層と関連付けて、前記選択されたインターフェース要素の外観を前記有効層に対応するように調整することであって、前記選択されたインターフェース要素は、前記有効層と関連付けられたときにユーザから入力を受け取ることのできる、調整することと、を含む、コンピュータ実装方法。
[C2]
前記インターフェース要素のうちの1つの選択に応答して、前記有効層と以前に関連付けられていた以前に有効であったインターフェース要素を、前記少なくとも1つの他の層と関連付けられるようにして、前記以前に有効であったインターフェース要素の外観を前記少なくとも1つの他の層に対応するように調整することをさらに含む、[C1]に記載のコンピュータ実装方法。
[C3]
前記以前に有効であったインターフェース要素の前記外観を調整することは、前記インターフェース要素の大きさ、形状、色、陰影、またはぼかしのうちの少なくとも1つを調整することを含む、[C2]に記載のコンピュータ実装方法。
[C4]
第1の優先レベルを有するインターフェース要素が前記有効層と関連付けられ、第2の優先レベルを有するインターフェース要素が前記少なくとも1つの他の層と関連付けられ、前記第2の優先レベルは前記第1の優先レベルより低い、[C1]に記載のコンピュータ実装方法。
[C5]
前記コンピューティングデバイスのユーザの相対位置を判定することと、
前記ユーザの前記判定された相対位置に少なくとも部分的に基づく外観を用いて、前記グラフィカルインターフェースの前記有効層および前記少なくとも1つの他の層のインターフェース要素をレンダリングすることと、をさらに含む、[C1]に記載のコンピュータ実装方法。
[C6]
前記有効層のインターフェース要素は、前記ユーザの前記判定された相対位置から、前記少なくとも1つの他の層の前記インターフェース要素の上方に距離を置いて見えるようにレンダリングされる、[C5]に記載のコンピュータ実装方法。
[C7]
前記ユーザの前記相対位置を判定することは、前記コンピューティングデバイスの少なくとも1つのカメラを使用して画像情報を捕獲し、前記捕獲された画像情報を分析して前記ユーザの前記相対位置を判定することを含む、[C5]に記載のコンピュータ実装方法。
[C8]
前記グラフィカルインターフェースの表示中に、追加の画像情報を捕獲することと、
前記追加画像情報を分析し、前記ユーザの前記相対位置の変化を判定することと、
前記有効層または前記少なくとも1つの他の層のうちの少なくとも1つの前記レンダリングを、前記有効層の前記インターフェース要素が、前記ユーザの現在の相対位置から、前記少なくとも1つの他の層の前記インターフェース要素の上方に距離を置いたままに見えるように調整することと、をさらに含む、[C7]に記載のコンピュータ実装方法。
[C9]
前記コンピューティングデバイスの少なくとも1つのセンサを使用して、前記コンピューティングデバイスの向きまたは位置のうちの少なくとも1つにおける変化を検出することと、
前記検出された変化に少なくとも部分的に基づき、前記ユーザの現在の相対位置を判定することと、
前記有効層または前記少なくとも1つの他の層のうちの少なくとも1つの前記レンダリングを、前記有効層の前記インターフェース要素が、前記ユーザの前記現在の相対位置から、前記少なくとも1つの他の層の前記インターフェース要素の上方に距離を置いたままに見えるように調整することと、をさらに含む、[C7]に記載のコンピュータ実装方法。
[C10]
ユーザの前記相対位置を判定することは、前記ユーザの少なくとも1つの顔特徴の相対位置を判定することを含む、[C5]に記載のコンピュータ実装方法。
[C11]
コンピューティングデバイスであって、
プロセッサと、
表示画面と、
命令を含むメモリと、を備え、前記命令は、前記プロセッサによって実行されるとき、前記コンピューティングデバイスに、
グラフィカルインターフェースを前記表示画面上での表示のためにレンダリングすることであって、前記グラフィカルインターフェースは複数のインターフェース要素を含む、レンダリングすることと、
前記コンピューティングデバイスのユーザから前記インターフェース要素のうちの1つの選択を受け取ることと、
前記コンピューティングデバイスに対する前記ユーザの現在の相対位置を判定することと、
前記選択に応答して、前記ユーザの前記現在の相対位置に少なくとも一部は基づき、前記選択されたインターフェース要素が、少なくとも1つの他の表示されたインターフェース要素よりも前記ユーザにより近い距離であるかのように見えるように前記選択されたインターフェース要素のレンダリングを調整することと、を行わせる、コンピューティングデバイス。
[C12]
前記ユーザの少なくとも一部分の画像を捕獲するように位置付けされたカメラであって、前記現在の相対位置は、前記コンピューティングデバイスの前記プロセッサを使用して、少なくとも部分的に前記捕獲された画像を分析することによって判定される、カメラ、をさらに備える、[C11]に記載のコンピューティングデバイス。
[C13]
前記コンピューティングデバイスの向きまたは位置のうちの少なくとも1つにおける変化を検出するように構成されたセンサであって、前記現在の相対位置は、前記コンピューティングデバイスの前記プロセッサを使用して、少なくとも部分的に、前記検出された変化を分析することによって判定される、センサ、をさらに備える、[C11]に記載のコンピューティングデバイス。
[C14]
前記ユーザからの音声入力を受諾するように構成されたマイクロホンであって、前記選択されたインターフェース要素は、前記選択されたインターフェース要素のためにオーディオ入力が提供されることができることを表示するグラフィカル要素を含むことができる、マイクロホン、をさらに備える、[C11]に記載のコンピューティングデバイス。
[C15]
前記表示画面は接触感知型であり、前記インターフェース要素のうちの1つの前記選択は、前記表示画面との接触を通して受け取られることができる、[C11]に記載のコンピューティングデバイス。
Claims (13)
- コンピュータ実装方法であって、実行可能命令を備えて構成された1つ以上のコンピューティングシステムの制御の下で、
コンピューティングデバイスの表示スクリーン上に表示されるグラフィカルインターフェースを決定することであって、前記グラフィカルインターフェースは有効層および少なくとも1つの他の層を有し、前記有効層は前記グラフィカルインターフェース内の前記少なくとも1つの他の層の上に位置付けされるように見えるようにレンダリングされる、決定することと、
前記グラフィカルインターフェースの一部として前記表示スクリーン上に複数のフィールドを表示することであって、前記複数のフィールドが前記少なくとも1つの他の層に関連付けられる、表示することと、
選択されたフィールドが有効になるように、前記コンピューティングデバイスのユーザから前記選択されたフィールドを受けることと、
前記選択されたフィールドを前記有効層と関連付けて、前記選択されたフィールドの外観を前記有効層に対応し、前記選択されたフィールドを、前記表示スクリーンの表面に対して、前記複数のフィールドの選択されないフィールドよりも前記ユーザにより近い距離であるかのように見えさせるように調整することであって、前記選択されたフィールドは、前記有効層と関連付けられたときにユーザからテキスト入力を受け取ることのできる、調整することと、を含む、コンピュータ実装方法。 - 前記フィールドのうちの1つの選択に応答して、前記有効層と以前に関連付けられていた以前に有効であったフィールドを、前記少なくとも1つの他の層と関連付けられるようにして、前記以前に有効であったフィールドの外観を前記少なくとも1つの他の層に対応するように調整することをさらに含む、請求項1に記載のコンピュータ実装方法。
- 前記以前に有効であったインターフェース要素の前記外観を調整することは、前記フィールドの大きさ、形状、色、陰影、またはぼかしのうちの少なくとも1つを調整することを含む、請求項2に記載のコンピュータ実装方法。
- 前記コンピューティングデバイスのユーザの相対位置を判定することと、
前記ユーザの前記判定された相対位置に少なくとも部分的に基づく外観を用いて、前記グラフィカルインターフェースの前記有効層および前記少なくとも1つの他の層に関連付けられたフィールドをレンダリングすることと、をさらに含む、請求項1に記載のコンピュータ実装方法。 - 前記ユーザの前記相対位置を判定することは、前記コンピューティングデバイスの少なくとも1つのカメラを使用して画像情報を捕獲し、前記捕獲された画像情報を分析して前記ユーザの前記相対位置を判定することを含む、請求項4に記載のコンピュータ実装方法。
- 前記グラフィカルインターフェースの表示中に、追加の画像情報を捕獲することと、
前記追加の画像情報を分析し、前記ユーザの前記相対位置の変化を判定することと、
前記有効層または前記少なくとも1つの他の層のうちの少なくとも1つの前記レンダリングを、前記有効層に関連付けられた前記選択されたフィールドが、前記ユーザの現在の相対位置から、前記少なくとも1つの他の層に関連付けられた前記選択されないフィールドの上方に距離を置いたままに見えるように調整することと、をさらに含む、請求項5に記載のコンピュータ実装方法。 - 前記コンピューティングデバイスの少なくとも1つのセンサを使用して、前記コンピューティングデバイスの向きまたは位置のうちの少なくとも1つにおける変化を検出することと、
前記検出された変化に少なくとも部分的に基づき、前記ユーザの現在の相対位置を判定することと、
前記有効層または前記少なくとも1つの他の層のうちの少なくとも1つの前記レンダリングを、前記有効層に関連付けられた前記選択されたフィールドが、前記ユーザの前記現在の相対位置から、前記少なくとも1つの他の層に関連付けられた前記選択されないフィールドの上方に距離を置いたままに見えるように調整することと、をさらに含む、請求項5に記載のコンピュータ実装方法。 - ユーザの前記相対位置を判定することは、前記ユーザの少なくとも1つの顔特徴の相対位置を判定することを含む、請求項4に記載のコンピュータ実装方法。
- コンピューティングデバイスであって、
プロセッサと、
表示画面と、
命令を含むメモリと、を備え、前記命令は、前記プロセッサによって実行されるとき、前記コンピューティングデバイスに、
グラフィカルインターフェースを前記表示画面上での表示のためにレンダリングすることであって、前記グラフィカルインターフェースは複数のフィールドを含み、前記複数のフィールドの各々は、それが有効になったとき、前記コンピューティングデバイスのユーザからテキスト入力を受けることができる、レンダリングすることと、
選択されたフィールドが有効になるように、前記コンピューティングデバイスのユーザから前記選択されたフィールドを受け取ることと、
前記コンピューティングデバイスに対する前記ユーザの現在の相対位置を判定することと、
前記ユーザの前記現在の相対位置に少なくとも一部は基づき、前記選択されたフィールドが、少なくとも1つの他の選択されないフィールドよりも前記ユーザにより近い距離であるかのように見えるように前記選択されたフィールドのレンダリングを調整することと、
前記選択されたフィールドのために、ユーザからテキスト入力を受けることと、
を行わせる、コンピューティングデバイス。 - 前記ユーザの少なくとも一部分の画像を捕獲するように位置付けされたカメラであって、前記現在の相対位置は、前記コンピューティングデバイスの前記プロセッサを使用して、少なくとも部分的に前記捕獲された画像を分析することによって判定される、カメラ、をさらに備える、請求項9に記載のコンピューティングデバイス。
- 前記コンピューティングデバイスの向きまたは位置のうちの少なくとも1つにおける変化を検出するように構成されたセンサであって、前記現在の相対位置は、前記コンピューティングデバイスの前記プロセッサを使用して、少なくとも部分的に、前記検出された変化を分析することによって判定される、センサ、をさらに備える、請求項9に記載のコンピューティングデバイス。
- 前記テキスト入力のために、前記ユーザからの音声入力を受諾するように構成されたマイクロホンであって、前記選択されたフィールドは、前記選択されたフィールドのためにオーディオ入力が提供されることができることを表示するグラフィカル要素を含むことができる、マイクロホン、をさらに備える、請求項9に記載のコンピューティングデバイス。
- 前記表示画面は接触感知型であり、前記選択されたフィールドを受けることは、前記表示画面との接触を通して受け取られることができる、請求項9に記載のコンピューティングデバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/418,523 | 2012-03-13 | ||
US13/418,523 US9378581B2 (en) | 2012-03-13 | 2012-03-13 | Approaches for highlighting active interface elements |
PCT/US2013/030965 WO2013138489A1 (en) | 2012-03-13 | 2013-03-13 | Approaches for highlighting active interface elements |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015516624A JP2015516624A (ja) | 2015-06-11 |
JP6013583B2 true JP6013583B2 (ja) | 2016-10-25 |
Family
ID=49158885
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015500562A Active JP6013583B2 (ja) | 2012-03-13 | 2013-03-13 | 有効インターフェース要素の強調のための方式 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9378581B2 (ja) |
EP (1) | EP2825945A4 (ja) |
JP (1) | JP6013583B2 (ja) |
CN (1) | CN104364753B (ja) |
WO (1) | WO2013138489A1 (ja) |
Families Citing this family (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9378581B2 (en) | 2012-03-13 | 2016-06-28 | Amazon Technologies, Inc. | Approaches for highlighting active interface elements |
KR101873759B1 (ko) * | 2012-04-10 | 2018-08-02 | 엘지전자 주식회사 | 영상 표시 장치 및 그 제어방법 |
EP3264252B1 (en) | 2012-05-09 | 2019-11-27 | Apple Inc. | Device, method, and graphical user interface for performing an operation in accordance with a selected mode of operation |
CN105260049B (zh) | 2012-05-09 | 2018-10-23 | 苹果公司 | 用于响应于用户接触来显示附加信息的设备、方法和图形用户界面 |
WO2013169849A2 (en) | 2012-05-09 | 2013-11-14 | Industries Llc Yknots | Device, method, and graphical user interface for displaying user interface objects corresponding to an application |
JP6182207B2 (ja) | 2012-05-09 | 2017-08-16 | アップル インコーポレイテッド | ユーザインタフェースオブジェクトのアクティブ化状態を変更するためのフィードバックを提供するためのデバイス、方法、及びグラフィカルユーザインタフェース |
WO2013169843A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for manipulating framed graphical objects |
WO2013169842A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for selecting object within a group of objects |
WO2013169865A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input |
CN106201316B (zh) | 2012-05-09 | 2020-09-29 | 苹果公司 | 用于选择用户界面对象的设备、方法和图形用户界面 |
WO2013169853A1 (en) | 2012-05-09 | 2013-11-14 | Industries Llc Yknots | Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface |
JP6002836B2 (ja) | 2012-05-09 | 2016-10-05 | アップル インコーポレイテッド | ジェスチャに応答して表示状態間を遷移するためのデバイス、方法、及びグラフィカルユーザインタフェース |
US8922557B2 (en) | 2012-06-29 | 2014-12-30 | Embarcadero Technologies, Inc. | Creating a three dimensional user interface |
EP2939095B1 (en) | 2012-12-29 | 2018-10-03 | Apple Inc. | Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics |
KR102001332B1 (ko) | 2012-12-29 | 2019-07-17 | 애플 인크. | 콘텐츠를 스크롤할지 선택할지 결정하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스 |
US20140282269A1 (en) * | 2013-03-13 | 2014-09-18 | Amazon Technologies, Inc. | Non-occluded display for hover interactions |
KR20140126129A (ko) * | 2013-04-22 | 2014-10-30 | 삼성전자주식회사 | 잠금 및 해제를 제어하는 장치 및 방법 |
US10592064B2 (en) | 2013-09-17 | 2020-03-17 | Amazon Technologies, Inc. | Approaches for three-dimensional object display used in content navigation |
US20150082145A1 (en) * | 2013-09-17 | 2015-03-19 | Amazon Technologies, Inc. | Approaches for three-dimensional object display |
US10067634B2 (en) | 2013-09-17 | 2018-09-04 | Amazon Technologies, Inc. | Approaches for three-dimensional object display |
US9818037B2 (en) | 2015-02-04 | 2017-11-14 | Invensense, Inc. | Estimating heading misalignment between a device and a person using optical sensor |
US10095396B2 (en) | 2015-03-08 | 2018-10-09 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object |
US9632664B2 (en) * | 2015-03-08 | 2017-04-25 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US9639184B2 (en) | 2015-03-19 | 2017-05-02 | Apple Inc. | Touch input cursor manipulation |
US20170045981A1 (en) | 2015-08-10 | 2017-02-16 | Apple Inc. | Devices and Methods for Processing Touch Inputs Based on Their Intensities |
US9885887B2 (en) * | 2015-04-22 | 2018-02-06 | Kurt Matthew Gardner | Method of determining eyeglass frame measurements from an image by executing computer-executable instructions stored on a non-transitory computer-readable medium |
US9891811B2 (en) | 2015-06-07 | 2018-02-13 | Apple Inc. | Devices and methods for navigating between user interfaces |
US10200598B2 (en) | 2015-06-07 | 2019-02-05 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US9860451B2 (en) | 2015-06-07 | 2018-01-02 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US9830048B2 (en) | 2015-06-07 | 2017-11-28 | Apple Inc. | Devices and methods for processing touch inputs with instructions in a web page |
US9880735B2 (en) | 2015-08-10 | 2018-01-30 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10235035B2 (en) | 2015-08-10 | 2019-03-19 | Apple Inc. | Devices, methods, and graphical user interfaces for content navigation and manipulation |
US10621581B2 (en) | 2016-06-11 | 2020-04-14 | Apple Inc. | User interface for transactions |
EP3270371B1 (en) * | 2016-07-12 | 2022-09-07 | NXP USA, Inc. | Method and apparatus for managing graphics layers within a graphics display component |
CN106371723B (zh) * | 2016-08-26 | 2019-07-26 | 维沃移动通信有限公司 | 一种基于智能终端的界面处理方法及智能终端 |
KR20180072983A (ko) * | 2016-12-22 | 2018-07-02 | 삼성전자주식회사 | 디스플레이 장치 및 방법 |
US11221744B2 (en) * | 2017-05-16 | 2022-01-11 | Apple Inc. | User interfaces for peer-to-peer transfers |
CN112150133B (zh) | 2017-05-16 | 2022-05-03 | 苹果公司 | 用于对等传输的用户界面 |
EP3803649A1 (en) | 2018-06-03 | 2021-04-14 | Apple Inc. | User interfaces for transfer accounts |
CN108804014A (zh) * | 2018-06-28 | 2018-11-13 | 苏州乐米信息科技股份有限公司 | 一种三维视角的缩放方法和系统 |
KR102545598B1 (ko) * | 2018-08-02 | 2023-06-20 | 삼성전자주식회사 | 가상 입력 툴을 제공하기 위한 전자 장치 및 방법 |
CN109933255A (zh) * | 2019-03-21 | 2019-06-25 | 广州视源电子科技股份有限公司 | 一种页面元素突出显示方法、装置、设备及存储介质 |
US11328352B2 (en) | 2019-03-24 | 2022-05-10 | Apple Inc. | User interfaces for managing an account |
JP2021009630A (ja) * | 2019-07-02 | 2021-01-28 | メディア株式会社 | 入力手段、情報処理システム、情報処理システムの制御方法、プログラム、及び記録媒体 |
GB202009874D0 (en) * | 2020-06-29 | 2020-08-12 | Microsoft Technology Licensing Llc | Visual interface for a computer system |
GB202009876D0 (en) * | 2020-06-29 | 2020-08-12 | Microsoft Technology Licensing Llc | Visual interface for a computer system |
US11921992B2 (en) | 2021-05-14 | 2024-03-05 | Apple Inc. | User interfaces related to time |
US11784956B2 (en) | 2021-09-20 | 2023-10-10 | Apple Inc. | Requests to add assets to an asset account |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5574836A (en) * | 1996-01-22 | 1996-11-12 | Broemmelsiek; Raymond M. | Interactive display apparatus and method with viewer position compensation |
US5731805A (en) | 1996-06-25 | 1998-03-24 | Sun Microsystems, Inc. | Method and apparatus for eyetrack-driven text enlargement |
US20040212626A1 (en) | 2001-06-29 | 2004-10-28 | Urban Lyxzen | System and a method for user interaction |
US20030122777A1 (en) * | 2001-12-31 | 2003-07-03 | Grover Andrew S. | Method and apparatus for configuring a computer system based on user distance |
US20030142143A1 (en) | 2002-01-28 | 2003-07-31 | International Business Machines Corporation | Varying heights of application images to convey application status |
KR20030097310A (ko) * | 2002-06-20 | 2003-12-31 | 삼성전자주식회사 | 디스플레이장치의 화상크기조절방법 및 그화상크기조절시스템과 화상크기조절방법을 수행하는프로그램이 저장된 기록매체 |
US7883415B2 (en) * | 2003-09-15 | 2011-02-08 | Sony Computer Entertainment Inc. | Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion |
US20040075735A1 (en) | 2002-10-17 | 2004-04-22 | Koninklijke Philips Electronics N.V. | Method and system for producing a pseudo three-dimensional display utilizing a two-dimensional display device |
JP3971694B2 (ja) * | 2002-12-11 | 2007-09-05 | 日本電信電話株式会社 | オブジェクト表示方法及びその実施装置 |
JP2004318325A (ja) * | 2003-04-14 | 2004-11-11 | Dainippon Printing Co Ltd | 情報入力装置およびそのプログラムならびに電子フォーム |
EP1596271A1 (en) * | 2004-05-11 | 2005-11-16 | Hitachi Europe S.r.l. | Method for displaying information and information display system |
KR101309176B1 (ko) * | 2006-01-18 | 2013-09-23 | 삼성전자주식회사 | 증강 현실 장치 및 방법 |
US9086785B2 (en) * | 2007-06-08 | 2015-07-21 | Apple Inc. | Visualization object receptacle |
US8669938B2 (en) * | 2007-11-20 | 2014-03-11 | Naturalpoint, Inc. | Approach for offset motion-based control of a computer |
US8384718B2 (en) * | 2008-01-10 | 2013-02-26 | Sony Corporation | System and method for navigating a 3D graphical user interface |
US9092053B2 (en) * | 2008-06-17 | 2015-07-28 | Apple Inc. | Systems and methods for adjusting a display based on the user's position |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
JP4802231B2 (ja) | 2008-10-10 | 2011-10-26 | 東芝テック株式会社 | 電子メニュー装置及びそのプログラム |
US8788977B2 (en) * | 2008-11-20 | 2014-07-22 | Amazon Technologies, Inc. | Movement recognition as input mechanism |
JP5231571B2 (ja) * | 2008-12-04 | 2013-07-10 | 三菱電機株式会社 | 表示入力装置およびナビゲーション装置 |
JP5087532B2 (ja) * | 2008-12-05 | 2012-12-05 | ソニーモバイルコミュニケーションズ株式会社 | 端末装置、表示制御方法および表示制御プログラム |
US20100265181A1 (en) * | 2009-04-20 | 2010-10-21 | ShoreCap LLC | System, method and computer readable media for enabling a user to quickly identify and select a key on a touch screen keypad by easing key selection |
US8179449B2 (en) | 2009-05-20 | 2012-05-15 | Sony Ericsson Mobile Communications Ab | Portable electronic apparatus including a display and method for controlling display content based on movement of the display and user position |
KR101631451B1 (ko) * | 2009-11-16 | 2016-06-20 | 엘지전자 주식회사 | 영상표시장치 및 그 동작방법 |
KR20110055096A (ko) | 2009-11-19 | 2011-05-25 | 삼성전자주식회사 | 휴대용 단말기에서 입체 효과 설정 방법 및 장치 |
JP5401380B2 (ja) | 2010-03-29 | 2014-01-29 | 株式会社コナミデジタルエンタテインメント | 処理装置、処理方法、ならびに、プログラム |
US8982160B2 (en) | 2010-04-16 | 2015-03-17 | Qualcomm, Incorporated | Apparatus and methods for dynamically correlating virtual keyboard dimensions to user finger size |
US8913056B2 (en) * | 2010-08-04 | 2014-12-16 | Apple Inc. | Three dimensional user interface effects on a display by using properties of motion |
US9508160B2 (en) * | 2011-02-22 | 2016-11-29 | Xerox Corporation | User interface panel |
US8803800B2 (en) * | 2011-12-02 | 2014-08-12 | Microsoft Corporation | User interface control based on head orientation |
US20130181892A1 (en) * | 2012-01-13 | 2013-07-18 | Nokia Corporation | Image Adjusting |
US9378581B2 (en) | 2012-03-13 | 2016-06-28 | Amazon Technologies, Inc. | Approaches for highlighting active interface elements |
-
2012
- 2012-03-13 US US13/418,523 patent/US9378581B2/en active Active
-
2013
- 2013-03-13 JP JP2015500562A patent/JP6013583B2/ja active Active
- 2013-03-13 EP EP13762036.5A patent/EP2825945A4/en not_active Ceased
- 2013-03-13 WO PCT/US2013/030965 patent/WO2013138489A1/en active Application Filing
- 2013-03-13 CN CN201380014153.5A patent/CN104364753B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
US9378581B2 (en) | 2016-06-28 |
JP2015516624A (ja) | 2015-06-11 |
US20130246954A1 (en) | 2013-09-19 |
CN104364753B (zh) | 2017-11-21 |
EP2825945A1 (en) | 2015-01-21 |
EP2825945A4 (en) | 2015-12-09 |
WO2013138489A1 (en) | 2013-09-19 |
CN104364753A (zh) | 2015-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6013583B2 (ja) | 有効インターフェース要素の強調のための方式 | |
JP6605000B2 (ja) | 三次元オブジェクト表示のためのアプローチ | |
US9591295B2 (en) | Approaches for simulating three-dimensional views | |
US9437038B1 (en) | Simulating three-dimensional views using depth relationships among planes of content | |
US20180348988A1 (en) | Approaches for three-dimensional object display | |
US10564806B1 (en) | Gesture actions for interface elements | |
EP2864932B1 (en) | Fingertip location for gesture input | |
US10592064B2 (en) | Approaches for three-dimensional object display used in content navigation | |
US20150091903A1 (en) | Simulating three-dimensional views using planes of content | |
US9367951B1 (en) | Creating realistic three-dimensional effects | |
US20150082145A1 (en) | Approaches for three-dimensional object display | |
US9389703B1 (en) | Virtual screen bezel | |
US9400575B1 (en) | Finger detection for element selection | |
US9665249B1 (en) | Approaches for controlling a computing device based on head movement | |
US9262689B1 (en) | Optimizing pre-processing times for faster response | |
US9547420B1 (en) | Spatial approaches to text suggestion | |
US10585485B1 (en) | Controlling content zoom level based on user head movement | |
US10082936B1 (en) | Handedness determinations for electronic devices | |
US9524036B1 (en) | Motions for displaying additional content | |
US9898183B1 (en) | Motions for object rendering and selection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151211 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160401 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160823 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160921 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6013583 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |