JP6013583B2 - 有効インターフェース要素の強調のための方式 - Google Patents

有効インターフェース要素の強調のための方式 Download PDF

Info

Publication number
JP6013583B2
JP6013583B2 JP2015500562A JP2015500562A JP6013583B2 JP 6013583 B2 JP6013583 B2 JP 6013583B2 JP 2015500562 A JP2015500562 A JP 2015500562A JP 2015500562 A JP2015500562 A JP 2015500562A JP 6013583 B2 JP6013583 B2 JP 6013583B2
Authority
JP
Japan
Prior art keywords
user
computing device
layer
relative position
interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015500562A
Other languages
English (en)
Other versions
JP2015516624A (ja
Inventor
グレイ、ティモシー・ティー.
プリベット、マーク・アール.
Original Assignee
アマゾン・テクノロジーズ、インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アマゾン・テクノロジーズ、インコーポレイテッド filed Critical アマゾン・テクノロジーズ、インコーポレイテッド
Publication of JP2015516624A publication Critical patent/JP2015516624A/ja
Application granted granted Critical
Publication of JP6013583B2 publication Critical patent/JP6013583B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04895Guidance during keyboard input operation, e.g. prompting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Description

人々は様々な目的のために可搬型コンピューティングデバイスをますます利用している。これらのデバイスの小型携帯という要因およびレンダリングされる情報の量等の要因により、ユーザにとってどのインターフェースが有効で、入力を受け取ることができるかを判定することはしばしば困難となる可能性がある。ユーザにとって、ユーザが適切な要素を選択したことを確実にすることも困難となる可能性があり、それは、ユーザの指のレンダリングされる要素に対する相対的大きさが、望まれる要素を正確に選択するのを困難にする可能性があるからである。これらの問題は、軸のずれた視角において悪化され得、それは例えば、デバイスがテーブルの上に平らに置かれた場合や、そうでなければユーザが他にデバイスの真正面以外の位置に位置付けされた場合である。
本開示に従って種々の実施形態が、図面を参照して記述される。
ユーザが様々な実施形態に従って内容を閲覧し、コンピューティングデバイスと対話可能な状況例を図解する。 様々な実施形態に従って提供できるインターフェース表示例を図解する。 図3(a)は、様々な実施形態に従ってレンダリングされることができるインターフェースの様々な状態を図解する。 図3(b)は、様々な実施形態に従ってレンダリングされることができるインターフェースの様々な状態を図解する。 図4(a)は、様々な実施形態に従って利用され得る、ユーザの相対位置を判定するための方式例を図解する。 図4(b)は、様々な実施形態に従って利用され得る、ユーザの相対位置を判定するための方式例を図解する。 図5(a)は、様々な実施形態に従って利用され得るデバイスの動きを判定するための方式例を図解する。 図5(b)は、様々な実施形態に従って利用され得るデバイスの動きを判定するための方式例を図解する。 様々な実施形態に従って使用され得るジェスチャ入力を可能にするためのプロセス例を図解する。 様々な実施形態の態様を実現するために使用され得るデバイス例を図解する。 図7に図解されるようなデバイスで使用され得る構成部品例を図解する。 様々な実施形態が実現され得る環境例を図解する。
本開示の様々な実施形態に従うシステムおよび方法は、ユーザが電子デバイスと対話するのを可能にするための従来の方式で体験される1つ以上の前述のおよび他の欠点を克服し得る。特に、様々な方式は、ユーザの現在相対位置と一貫する視点を使用してインターフェースがレンダリングされることを可能にする。さらに、様々な実施形態は有効インターフェース要素をそれらのインターフェースのレンダリングにおいて、例えば、有効要素を、三次元表示または二次元表示要素上の疑似三次元レンダリングの表示画面の前面に向かって「前方に」もってくることによって、強調することを可能とする。ユーザの相対位置は、コンピューティングデバイスの少なくとも1つのカメラを使用して、画像情報を捕獲することにより、そしてその画像情報を分析してユーザの頭または目のデバイスに対する相対位置を判定することによって、判定することができる。コンピューティングデバイスの向きおよび/または位置の変化は、デバイスの少なくとも1つの動きセンサを使用しても監視することでき、その目的は、カメラによって捕獲された画像情報を使用して他の形で可能となるよりもより高いサンプリング周波数を提供すること、そうでなければ、相対位置の判定の改善を試みることである。ユーザは、本明細書中で考察され、提案される様々な方式を使用して、インターフェースの有効要素を閲覧し、対話することができ、様々なインターフェース要素の間を移動して操作することができる。
様々な他の適用、プロセス、および使用が様々な実施形態に関して以下に提示される。
図1は、ユーザ102がコンピューティングデバイス104と対話している状況例100を図解する。可搬型コンピューティングデバイス(例えば、スマートフォン、電子書籍リーダ、またはタブレットコンピュータ)が示されるが、入力の判定および処理をすることのできる様々な他のタイプの電子デバイスを、本明細書中で考察される様々な実施形態に従って使用することができることが理解されるべきである。それらのデバイスには、例えば、ノートコンピュータ、携帯用情報端末、テレビゲームコンソールまたはコントローラ、および可搬型メディアプレーヤ、その他を含むことができる。この例では、コンピューティングデバイス104は、画像および/または映像捕獲等の機能を実施するように動作可能なカメラ106を有する。デバイスは、追加の画像捕獲要素も含むことができ、すなわち、少なくとも1つの他のカメラ、電荷結合デバイス(CCD)、動き検出センサ、または他の赤外線センサ、その他を含み得る。この例では、ユーザ102はデバイスに対して相対的な位置に位置決めされ、それにより、ユーザの視点は、ユーザの頭または眼とデバイスとの間の判定可能軌道110を追う。本明細書中に後ほど考察されるように、デバイスはカメラ106の解像度および視野108等の情報、ならびに、捕獲された画像内のユーザの頭または眼の位置等の情報を使用して、ユーザの現在視点を判定することができる。視点は、ユーザの現在視点と一貫する遠近法により、表示画面またはコンピューティングデバイスの他のそのような要素上にインターフェースをレンダリングするために使用することができる。レンダリングは、ユーザおよび/またはコンピューティングデバイスの移動の結果として、判定された視点の変化につれて更新することができる。レンダリングは、層深さまたはzレベルのセット等の三次元写像情報を利用して、様々なインターフェース要素をどのようにして互いに関連付けるか、ならびに、現在のユーザ視点からどのようにしてそれらの要素をレンダリングするかを判定できる。
例えば、図2は、コンピューティングデバイスの表示画面202上のインターフェース表示例を図解する。この例では、ユーザは電子メールアプリケーションにアクセスしており、別のユーザに送られる電子メールメッセージを作成するために、書式フィールドに記入を行っている。しかしながら、様々な実施形態の態様を、様々な種類のインターフェースで使用でき、このことは、ユーザが対話を行うことのできる様々な異なるインターフェース要素を含むことができることを理解されるべきである。この例では、ユーザは、インターフェース要素と関連付けられた表示画面202のある領域をタッチすることによってインターフェース要素を選択することができる。指208または他のそのような物体を使用して、ユーザが接触感知式表示画面と対話できるようにする方式は、当業界においてよく知られており、したがって、本明細書中には詳細に論じない。様々な他の選択方式も使用することができ、それらは、カーソルの移動、ジェスチャの実行、または音声コマンドを発話すること、等である。この例では、ユーザは、「宛先:」フィールド204を、テキストをそのフィールドに入力するために選択する。少なくともいくつかの実施形態では、インターフェース要素を選択することは、その要素が「有効」となるようにするか、別様に、ユーザが何らかの方法でそのフィールドと対話できるようにする。述べたように、この例におけるユーザは、テキストを有効フィールド204に入力することができる。ユーザは仮想キーパッド212または他のそのような機構を利用してテキストをフィールドに入力することができる。論じたたように、ユーザはいくつかの実施形態においては、有効フィールド内に入力されるテキストとして解釈されることができるジェスチャを実行することもできる。音声入力が有効である場合は、ユーザは、デバイスによって解釈され、有効フィールド204内へ入力され得る(そうでなければ、有効フィールドに対する入力として受諾される)単語、文字、または他の入力を発声することができる。この例では、マイクロホンアイコン210または他のそのような図形要素が、有効フィールド内に、またはそれと関連して表示され得、それにより、ユーザは入力を受け取る有効フィールド、ならびに、音声またはオーディオ入力を受諾するデバイスの能力を判定することができる。スピーチ入力を解釈し、対応するテキスト入力を提供するために使用できる、様々な音声およびスピーチ認識アルゴリズムが当業界において知られており、したがって、それらのアルゴリズムは本明細書中では詳細に論じない。
述べたように、デバイス200は、インターフェース要素が有効となるときにその要素のレンダリングを変更することもできる。この例では、インターフェースは2つの異なる「レベル」またはz−深さを有するものとしてレンダリングされ得、有効要素204は、上部レベル(表示画面の外側表面近く)および無効要素206またはインターフェースのより低いレベルと関連付けられた他のインターフェース構成部品(表示画面の外側表面から距離をおいて分離された)へマッピングされ、さもなくばそれと関連付けられる。この例では、ユーザは、本明細書中の他所で論じられているように、デバイスの真「正面」にあると判定され、したがって、インターフェースは「通常」の遠近法でレンダリングされる。「上部」、「正面」および「通常」等の用語は説明の目的のために使用され、本明細書中に別様に述べられていない限り、特定の向きまたは関係を必要とすることは意図されていないことを理解されるべきである。この例では、「宛先:」フィールド204が有効フィールドとして選択されており、したがって、上部レベルに見えるようにレンダリングされる。そのようなレンダリングは多くの形態をとることができ、例えば、要素を少し大きくする、要素についてレンダリングされた陰影を作成または調整する、要素のシャープさまたは焦点レベルを強化する、要素の色または陰影を調整する等である。ユーザがテキストを入力するために使用することができる仮想キーパッド212などの様々な他の要素を、上部レベルに位置決めされたように見えるようにレンダリングすることができる。
この例で図解されるように、「無効」要素またはインターフェースの他の要素は、インターフェースのより低いレベルにおいて位置付けされて見えるようにレンダリングさ得る。例えば、選択されず、有効ではない書式フィールド206は、有効フィールドよりも僅かに小さくレンダリングされ得、陰影、ぼかし、または低い色彩強度を有して要素がより後ろに見えるようにすることができる等である。様々な実施形態において、インターフェースは少なくとも幾分か動画化され得、有効として選択されたフィールドは外観がゆっくりと調節されてフィールドが「前方に」動くように見えることが可能であり、そして以前に有効であった要素は外観がゆっくりと調節されて要素がインターフェース内で「後方へ」動くように見えることができる。本明細書に含まれる教示および提案に照らして明白であるように、様々な他の方式も使用され得る。
これらの要素のレンダリングは、デバイスに対するユーザの頭の相対位置が変化するにつれて、これらの要素のレンダリングも変化することもでき、それによって、ユーザはデバイスに対して異なる視点を有するようになる。例えば、図3(a)はコンピューティングデバイスの状態例300を図解し、そこでは、デバイスはユーザに対してある角度にある(この例では、ページの正面にいる読者の位置と想定される)。この例では、インターフェースは上部層の要素に関連付けられた陰影312のレンダリングを調整でき、それらの層がインターフェース内でより高く見えるようにでき、また、各陰影が、視点が変化するにつれて関連付けられた要素に対して位置を変え、例えば、実際の陰影がより上部レベルの要素によって投射されている印象を与える、三次元外観を与えることができる。さらに、インターフェースは、側壁310またはユーザの視点から仮想インターフェースの深さを提供するように見える他の要素をレンダリングでき、それらの要素の広がりおよび形状も視点の変化につれて調節できる。例えば、図2の正面図では側壁310は見られなかったが、表示される側壁の量は、視角が増えるにつれて増加することができる。様々な他の挙動も使用して三次元挙動を模倣することができる。この例では、より低いレベルの要素306、308は陰影なしでレンダリングされ、そして側壁310の底部縁と関連付けられ、インターフェースのより低いレベルの一部として見える。述べたように、陰影、灰色化、わずかなぼかし、より低い色の深さ、または他のそのような方式を使用して、無効要素に対してより低いz深さであるという外観を与えることができる。少なくともいくつかのインターフェースにおいては、3つ以上のレベルがあり得、そして陰影の量、色調整、および他のそのような様相は、要素が関連付けられたレベルに少なくとも部分的に依存し得る。少なくともいくつかの実施形態では、しかしながら、要素は、インターフェース内の見掛けレベルにかかわらず、ユーザによって読み取られることができるべきであり、ユーザは有効となる意図された要素を選択可能となる。
前に論じたように、インターフェース要素のレンダリングは、異なる要素が有効となる結果、変わることができ、レンダリングの変化も少なくとも部分的にユーザの視点に依存する。例えば、図3(b)のデバイス状態320において、異なるフィールド306が現在有効であり、そのフィールドがインターフェースのより高いレベルに位置付けられて見えるようにレンダリングされる。ユーザはいまや、フィールドは入力を受け取る準備ができたと判定することができる。また、以前は有効であったフィールド304は、より低いレベルと関連付けられて見えるようにレンダリングが変化され、したがって、そのフィールドが再び選択されない限り(または別のそのような動作が発生しない限り)ユーザはそのフィールドはもはや入力を受諾できないことを知る。変化はここでも動画化可能であり、ユーザにとって有効フィールドが変化したことをさらに明確にすることができる。
図解されるように、インターフェースのレンダリングは、有効フィールドまたはユーザ選択ばかりでなく、ユーザの現在視点にも依存し得る。ユーザがデバイスを回転させるか、またはデバイスに対して移動すると、デバイスはインターフェースのレンダリングを更新し、インターフェースの三次元外観を視点の変化と一貫させることができる。そのような一貫性を提供するために、デバイスは、デバイスに対するユーザの少なくとも1つの特徴の相対位置を追跡、さもなくば判定する機能を含むことができる。
少なくともいくつかの実施形態では、コンピューティングデバイスは1つ以上のカメラ、またはユーザの相対的方向を判定する他のセンサを利用することができる。例えば、図4(a)は、状況例400を図解し、そこでは、コンピューティングデバイス402は視点の判定の目的で、ユーザの頭または眼等の、ユーザの特徴を位置決めすることを試みるための少なくとも1つのカメラ要素406を利用するように構成される。この例では、ユーザの眼404が、コンピューティングデバイス402のカメラの視野408内に位置決めされる。本明細書中の別の場所で論じられるように、しかしながら、ユーザの視点は、ユーザの眼、瞳、頭、または少なくとも汎用視点を示すことが可能な他のそのような特徴の位置を使用して判定することができる。いくつかの実施形態では、デバイスは、レンダリングのために汎用視点を判定するため、ユーザによって保持されたさもなくば関連付けられた物体を、デバイスが探し得る。さらに、いくつかの実施形態では、デバイスは十分な距離をもってデバイス上に位置付けされた少なくとも2つの異なるカメラを利用し得、それにより、デバイスは、三次元でデバイスに関する1つ以上の特徴の相対位置を判定するために立体撮像(または別のそのような方式)を利用することができる。様々な実施形態の範囲内で、デバイス上の様々な他の位置においても同一または異なるタイプの追加撮像要素があり得ることが理解されるべきである。
コンピューティングデバイス上で実行する(さもなくばコンピューティングデバイスと通信する)ソフトウェアは、カメラの視野角、情報が現在捕獲されているズームレベル、およびカメラに関する少なくとも1つのユーザの眼の近似方向410をソフトウェアに判定させることが可能な、任意の他のそのような関連情報等の情報を取得することができる。多くの実施形態では、方向情報は不足のない視点依存レンダリングを提供するために十分である。少なくともいくつかの実施形態では、しかしながら、より一貫性があり、正確なレンダリングを提供するために、ユーザまでの距離を判定することも望ましい。いくつかの実施形態では、超音波検出、特徴サイズ分析、能動照明を通した輝度分析、または他のそのような距離測定方式等の方法を使用し、位置判定を支援することができる。他の実施形態では、第2のカメラを使用して、立体撮像を通して距離判定を可能とすることができる。いったん、少なくとも2つの画像捕獲要素からの方向ベクトルが所与の特徴に関して決定されると、それらのベクトルの交差ポイントを決定することができ、これは視差マッピングおよび他のそのようなプロセスとして知られる、それぞれの特徴の三次元の近似相対位置に対応する。
さらにそのように方式例を図解すると、図4(b)は、図4(a)のカメラ406を使用して、ユーザの頭および眼を捕獲され得る画像例420を図解する。1つ以上の画像分析アルゴリズムを使用して画像を分析し、パターン認識、形状認識、またはユーザの眼等の注目される特徴を識別するための別のそのようなプロセスを実行することができる。特徴検出、顔特徴抽出、特徴認識、立体視感知、文字認識、属性見積もり、または動径ベース関数(RBF)分析方式等の画像内の特徴を識別するための方式は当業界においてよく知られており、本明細書中では詳細に論じない。この例で図解されるように、ユーザの両方の眼が、捕獲された画像情報内に位置決めされ得る。少なくともいくつかのアルゴリズムは、各眼に関する近似位置または領域422、424、または、ユーザの頭の少なくとも近似位置428を判定することができ、それらの位置または領域の少なくとも1つが視点判定のために使用される。望ましい感度レベルおよびユーザとデバイスとの間の距離等の要因に依存して、しかしながら、そのような情報は視点判定の正確性に影響を与える可能性がある。様々な実施形態に従う方式は、人間の脳は両方の眼からの情報を組み合わせ、処理して「単一」視点を提供するという事実を利用することができる。このように、ソフトウェアは、ユーザの視点について使用するために、ユーザの眼の間の中間点426を判定しようと試みることができる。本明細書中の他の場所で論じられるような様々な他の方式も使用することができる。いったん相対位置が画像情報内で判定されると、デバイスは、カメラの視野、デバイスに関するカメラの位置、カメラのズームレベル、および他のユーザの相対的方向を判定するための情報等の情報を使用することができ、その相対的方向はインターフェースをレンダリングする際に使用する視点のために使用される。
位置を追跡するためにカメラを使用するとき、しかしながら、正確さは少なくとも部分的にカメラのフレームレートによって限定される。さらに、画像は処理にいくらかの時間を要するため、判定においていくらかの遅れがあり得る。デバイスの向きの変化は比較的素早く発生し得るので、少なくともいくつかの実施形態では、視点の正確性の判定を強化することが望ましい。いくつかの実施形態では、センサまたはコンピューティングデバイスの他のそのような要素を使用して、コンピューティングデバイスの動きを判定可能であり、これは視点判定の調整を支援することができる。センサはデバイスの回転および/または平行移動に関する情報を提供することのできる任意の適切なセンサであることができ、加速度計、慣性センサ、電子ジャイロスコープ、電子コンパス、等を含み得る。
例えば、図5(a)はコンピューティングデバイスのカメラ510の視野角508内の物体504(例えば、ユーザの頭)の画像を捕獲するように動作可能なコンピューティングデバイス502の「平面図」500を図解する。この例では、コンピューティングデバイス502は、電子コンパスまたは電子ジャイロスコープ等の、デバイスの第1の向きに関して二または三次元における座標系506を判定することのできる少なくとも1つの向きまたは回転判定要素を含む。少なくともいくつかの実施形態では、電子コンパスを使用して、北方角に対応する等の、座標系506の軸を判定し得る。他の実施形態では、電子ジャイロスコープ等の構成部品は、コンパス等の構成部品で定期的に較正し得るが、しかし、時間の経過につれて回転の三軸に沿う向きの変化を代わりに判定し得る。回転の1、2、または3軸に沿った向きの変化を判定するための様々な他の方式も、様々な実施形態の範囲内で使用することができる。
第1の座標系506または向きは、コンピューティングデバイス502のカメラ510によって、第1の画像の捕獲時またはその近くにおいて判定することができる。いくつかの実施形態では、判定は、画像を捕獲するための入力を受け取ることにより、または別のそのような動作によって起動することができるが、しかし他の実施形態では、座標系および/または向き情報を、電子ジャイロスコープのタイプおよび/または構成に基づき、1秒間に数回など、定期的に更新することができる。ジャイロスコープは、様々な消費者デバイスにおいて使用される従来型MEMSジャイロスコープ等の任意の適切な電子ジャイロスコープ構成部品もすることができる。そのようなジャイロスコープからの向きの変化の実施および取得のための方式は、当業界においてよく知られており、したがって、本明細書中では詳細に論じない。
図5(b)は、コンピューティングデバイス502の向きの変化後の第2の平面図510を図解する。電子ジャイロスコープ(または他のそのような構成部品または埋め込みセンサ)は、向きの変化を検出でき、この例では、図の面における座標系に対しての角度512の変化に対応する。ジャイロスコープは1、2、または3次(例えば、△x、△y、△z)に関する変化の角度またはラジアン、および、ピッチ、ロール、およびヨー等の百分率変化等の任意の適切な形式における向きの変化に関する情報を提示することができる。この例では、向きの変化は単一軸周りの所与の回転角度量512で判定される。図解されるように、このことは物体504を、カメラ510の視野508の右縁に移動させる。少なくともいくつかの実施形態では、ジャイロスコープは回転の厳格な量を提供するために十分に正確でないかもしれないが、しかし、探索空間を狭め、画像内の対応する物体の位置決めを容易にするために使用され得る回転量の見積もりを提供することができる。さらに、この情報は、少なくともいくつかの実施形態においてカメラから提供されるよりも、相対位置のより速い調整または予測を提供することができる。類似の方式を平行移動のために使用することができるが、捕獲された画像内の物体の平行移動の効果は、角度変化と比べてずっと意義が薄い可能性があり、したがって、画像情報が、少なくともいくつかの実施形態においては、平行移動変化を考慮するために十分であり得る。
図6は、様々な実施形態に従って使用され得る視点に依存するインターフェースレンダリングを提供するためのプロセス例を図解する。本明細書中で論じられる任意のプロセスに関し、異なる説明がない限り、様々な実施形態の範囲内において、類似のまたは代替的順番で、または平行に実施される追加の、より少ない、または代替のステップがあり得ることが理解されるべきである。この例では、視点判定モードがコンピューティングデバイス上で有効化602され、この例では、少なくとも1つのカメラを使用する画像捕獲とコンピューティングデバイスの少なくとも1つの動きセンサを使用する動き検出の両方を含む。いくつかの実施形態では、視点判定モードは、休眠モードまたは他のそのような低電力状態においてさえ、コンピューティングデバイスが有効状態であるときはいつでも自動的にオンとすることができる。他の実施形態では、動き検出モードはアプリケーションの実行またはインターフェースへのアクセス時に自動的に、またはユーザ選択時に手動で有効化される。様々な他の有効化事象も利用することができる。
捕獲された画像情報は、本明細書中の別の場所において論じられるように、分析されて、コンピューティングデバイスに対するユーザの頭(または他のそのような特徴)の相対位置を判定604することができる。論じられたように、最初の相対位置は画像情報を使用して判定することができ、そして、その相対位置の変化は、画像情報および動きセンサ情報の組み合わせを使用して判定することができる。例えば、動きセンサデータを使用して、画像データから追加の位置判定情報が利用可能となるまで視点を更新することができ、それにより、判定に対する任意の必要な訂正または調整が行われ得る。現在の相対的ユーザの視点に関して、インターフェースは、三次元または多重層外観、または他のそのような様相がユーザの現在視点に関して一貫しているように、インターフェースをレンダリングする606ことができる。
インターフェースがユーザに対してレンダリングされると、インターフェース要素の選択をユーザから受け取る608ことができる。論じられたように、選択された要素のレンダリングは、選択された要素がインターフェース内で有効であることを表示するように調整でき、この例では、プロセスは要素が表示要素の表面により近く見えるように、レンダリングにおいて有効要素を「前方」にもたらす610ことを伴う。要素を前方へもたらすことは、例えば、要素の大きさ、形状、陰影、焦点/ぼかし、および/または色の調整を伴うことができる。フィールドが有効の間、ユーザは、有効フィールドに対して入力の提供、さもなくばそれとの対話を可能とされる612。入力が完了したとき、さもなくばユーザがその要素の非選択を行うか別の要素を選択すると、要素は「後方へ」移動614、または非選択として示すことができ、これは、たとえば要素が有効であると示されたときに実施されたことと反対のまたは代わりの調整を実施することによる。別の要素の選択がユーザから受け取られた616場合、類似調整を使用してその要素を有効であると示すことができる。そうでない場合、そしてユーザがインターフェースでの操作を完了した等のとき、インターフェースに関するレンダリングプロセスは終了618することができる。
少なくともいくつかのプロセスにおいて、ユーザは上に論じられたように、スピーチ入力を提供できるようになることもできる。アイコンまたは他の表示手段を使用して、ユーザに対してスピーチ入力が利用することができることを表示することができる。いくつかの実施形態では、ユーザはスピーチ入力のオンおよびオフを切り替えるためにアイコンを選択することができ、それにより、ユーザは事務所内で一人のとき等の適切な環境においてスピーチを使用することができ、そして他の人々が話をしている混雑した場所等の誤検知があり得る環境にいるときにスピーチ入力をオフにできる。いくつかの実施形態では、ユーザが積極的にアイコンまたはデバイス上の別のそのような要素を押している間、さもなくばそれらと対話している間にのみ、デバイスは音声入力を受諾し得る。様々なオーディオ処理アルゴリズムを使用して、オーディオ入力および認識の正確性を改善するための試みを行うことができ、これは環境雑音削減の実施、音声認識等による。いくつかの実施形態では、ユーザは音声コマンドを使用して異なるフィールドを有効として選択すること、さもなくばインターフェースをナビゲートまたは対話することができる。
さらに、いくつかの実施形態では、一定要素がより画面に近く見えるようにする能力は、他の目的のためにも使用することができる。例えば、より高い優先度の項目(例えば、もうすぐ来る予約または新規メッセージ)は、インターフェース内でより高いレベルでレンダリングすることができる。未読メッセージを既読メッセージよりもより高いレベルにもたらすことや、新しいソーシャルネットワークコメントを古いコメントよりも近くする等の他の方式も使用することができる。様々なインターフェース方式が、本明細書中に含まれる教示および提案に照らして、当業界においては明白な、本明細書中に論じられ提案される態様を利用することができる。
図7は、様々な実施形態に従って使用され得るコンピューティングデバイス例700を図解する。この例では、デバイスは、デバイスの表示画面702と同一の側に従来型デジタルカメラ704を有し、ユーザが少なくとも部分的に表示画面の正面にいる典型的操作中に、デバイスのユーザに関する画像情報をデバイスが捕獲することを可能にする。様々な実施形態の範囲内において、デバイスの同一または他の側または位置の、追加のカメラ、センサ、または他のそのような要素も存在可能であり、それはジェスチャ−または画像入力を、デバイスに対して任意の望まれる方向または位置から可能とし得ることが理解されるべきである。デバイスは、画像捕獲を支援するために使用され得る追加要素も含むことができ、これには、捕獲される画像の一般的方向における光の量を判定するための光センサ、および、例えば、光センサによって判定される不十分な環境光が存在するとき、特定の範囲の方向において照明を提供するための、白色発光ダイオード(LED)または赤外線(IR)発光器等の照明要素が含まれる。本明細書中に含まれる教示および提案に照らして明白なように、様々な実施形態の範囲内で、様々な他の要素および要素の組み合わせも使用することができる。デバイスは、本明細書中で論じられるように、視点の判定に使用するための、デバイスの回転および/または平行移動を判定するように動作可能な少なくとも1つの動きセンサ706も含む。
本明細書中に記述される様々な機能性を提供するために、図8は、図7に関して記述されるデバイス700等の、コンピューティングデバイス800の基本構成部品のセット例を図解する。この例では、デバイスは、少なくとも1つのメモリデバイスまたは要素804に記憶することができる命令を実行するための、少なくとも1つの中央処理装置802を含む。当業者にとって明白であるように、デバイスはプロセッサ802によって実行されるプログラム命令のための第1のデータ記憶装置等の、多くのタイプのメモリ、データ記憶装置、またはコンピュータ可読記憶媒体を含むことができ、同一または別個の記憶装置を画像またはデータのために使用でき、取り外し可能記憶メモリが他のデバイスとの情報の共有のために利用できる、等である。デバイスは典型的にはタッチスクリーン、電子インク(e−ink)、有機発光ダイオード(OLED)または液晶表示(LCD)等の、いくつかのタイプの表示要素806を含むが、可搬型メディアプレーヤ等のデバイスは、オーディオスピーカを通して等の、他の手段を介して情報を伝達し得る。少なくともいくつかの実施形態では、表示画面は、例えば、容量または抵抗のタッチ技術を使用して、タッチまたはスワイプベースの入力を提供する。
論じられたように、多くの実施形態におけるデバイスは、デバイスの近くにあるユーザ、人々、または物体を撮像することのできる1つ以上のカメラ等の少なくとも1つの画像捕獲要素808を含む。画像捕獲要素は、判定解像度、焦点距離、可視領域、およびキャプチャレートを有するCCDまたはCMOS画像捕獲要素等の、任意の適切な技術を含む、または少なくとも部分的にそれに基づくことができる。デバイスはまた、デバイスの向きに関する情報、ならびに、デバイスの回転または平行移動に関する情報を提供するように動作可能な慣性センサ、加速度計、電子ジャイロスコープ、または電子コンパス等の少なくとも1つの動き判定要素810を含む。プロセッサ802は、様々な実施形態に従い、視点の変化を判定するために、カメラおよび動きセンサからの情報を利用することができる。
例となるデバイスは、ユーザから従来型入力を受けとることのできる少なくとも1つの追加入力デバイス812を含むことができる。この従来型入力は、例えば、押しボタン、タッチパッド、タッチスクリーン、ホイール、ジョイスティック、キーボード、マウス、トラックボール、キーパッド、または任意の他のそのようなデバイスもしくは要素を含み得、それによって、ユーザがコマンドをデバイスに入力することができる。これらのI/Oデバイスは、いくつかの実施形態において、無線赤外線もしくはブルートゥースまたは他のリンクによっても接続され得る。いくつかの実施形態では、しかしながら、そのようなデバイスはいかなるボタンも含まず、そして視覚的(例えば、ジェスチャ)およびオーディオ(例えば、話す)コマンドの組み合わせのみを通して制御され得、したがって、ユーザはデバイスと接触する必要なく、デバイスを制御することができる。
論じられたように、記載された実施形態に従い、様々な実施形態において異なる方式を実施することができる。例えば、図9は、様々な実施形態に従う態様を実施するための環境例900を図解する。理解されるであろうように、ウェブベースの環境が説明の目的のために使用されるが、実施形態を実現するために、適宜、異なる環境が使用され得ることが理解されるであろう。このシステムは、電子クライアントデバイス902を含み、これは、適切なネットワーク904を介して要求、メッセージ、または情報を送信および受信し、デバイスのユーザに情報を伝達し戻すように動作可能な任意の適切なデバイスを含むことができる。このようなクライアントデバイスの例は、パーソナルコンピュータ、携帯電話、携帯型メッセージングデバイス、ラップトップコンピュータ、セットトップボックス、携帯情報端末、電子ブックリーダ等を含む。ネットワークは、任意の適切なネットワークを含むことができ、それらはイントラネット、インターネット、携帯電話ネットワーク、ローカルエリアネットワーク、または任意の他のそのようなネットワークもしくはそれらの組み合わせを含む。そのようなシステムに用いられる構成部品は、少なくとも一部は、ネットワークの種類および/または選択される環境に依存すし得る。そのようなネットワークを介した通信用のプロトコルおよび構成要素は周知であり、本明細書で詳細に論じない。ネットワークを介する通信は、有線または無線接続およびそれらの組み合わせを介して可能となる。この例では、環境は要求を受け取りそれに応えて内容をサービスするためのウェブサーバ906を含むので、ネットワークはインターネットを含むが、しかしながら、当業者にとっては明白であろうが、他のネットワークに関しては、類似目的に対してサービスする代替デバイスを使用することができる。
この例示説明となる環境は、少なくとも1つのアプリケーションサーバ908およびデータ記憶910を含む。いくつかのアプリケーションサーバ、層または他の要素、プロセス、または構成要素が存在可能であり、これらは連鎖、または別様に構成され得、適切なデータ記憶からデータを取得する等のタスクを実施するためにやりとりすることができることが理解されるべきである。本明細書での使用において、「データ記憶」という用語はデータの記憶、アクセス、および読み出しをすることのできる任意のデバイスまたはデバイスの組み合わせを指し、これは、任意の標準、分散またはクラスタ環境における、任意の数のデータサーバ、データベース、データ記憶デバイス、およびデータ記憶媒体および任意の組み合わせを含み得る。アプリケーションサーバ908は、クライアントデバイスのために1つ以上のアプリケーションの態様を実行するために、必要に応じてデータ記憶910と統合するための、アプリケーションのための大部分のデータアクセスおよびビジネスロジックを取り扱うための任意の適切なハードウェアおよびソフトウェアを含むことができる。アプリケーションサーバは、データ記憶と協働してアクセス制御サービスを提供し、そしてユーザに転送されることになるテキスト、グラフィック、オーディオおよび/または映像等の内容を生成することができ、これは、この例では、HTML、XML、または別の適切な構造化言語の形式で、ウェブサーバ906によってユーザに対してサービスされ得る。すべての要求および応答の取扱、ならびにクライアントデバイス902とアプリケーションサーバ908との間の内容の送達は、ウェブサーバ906によって取り扱われ得る。本明細書中で論じらされる構造化コードは、本明細書中の別の場所で論じられるように、任意の適切なデバイスまたはホスト機械上で実行することができるので、ウェブサーバおよびアプリケーションサーバは必要とされず、それらは単に構成要素の例であることが理解されるべきである。
データ記憶910は、特定の態様に関するデータを記憶するために、いくつかの別個のデータ表、データベース、または他のデータ記憶機構および媒体を含むことができる。例えば、図解されるデータ記憶は、内容(例えば、生産データ)912およびユーザ情報916を記憶するための機構を含み、これを使用して、生産側のために内容をサービスすることができる。データ記憶は、ログまたはセッションデータ914を記憶するための機構を含むことも示される。データ記憶内に記憶されることが必要な多くの他の態様が可能であり、ページの画像情報およびアクセス権限情報であり、これらは、適宜任意の上に列挙された機構またはデータ記憶910内の追加機構内に記憶することができることが理解されるべきである。データ記憶910は、それと関連付けられたロジックを通して、アプリケーションサーバ908から命令を受け取り、そしてそれに応答してデータを取得、更新、または別様に処理するように動作することができる。1つの例では、ユーザは一定タイプの項目に関する検索要求を提出し得る。この場合において、データ記憶はユーザの一致性を検証するためにユーザ情報にアクセスし得、また項目のそのタイプに関する情報を取得するためにカタログの詳細情報にアクセスすることができる。次に情報はユーザに返すことができ、ユーザがユーザデバイス902上のブラウザを介して閲覧することができる、ウェブページ上の結果リスト等である。関心のある特定項目の情報は、ブラウザの専用ページまたはウィンドウ内で閲覧することができる。
各サーバは典型的に、サーバの一般管理および操作のための実行可能プログラム命令を提供するオペレーティングシステムを含み、また、サーバのプロセッサによって実行されるとき、サーバがその意図された機能を実施することを可能にする命令を記憶するコンピュータ可読媒体を典型的に含む。オペレーティングシステムおよびサーバの一般的機能性のための好適な実装は既知であり、または商業的に利用可能であり、特に本明細書の公開に照らして、当業者によって容易に実装される。
1つの実施形態における環境は、1つ以上のコンピュータネットワークまたは直接接続を使用して、通信リンクを介して相互接続されたいくつかのコンピュータシステムおよび構成要素を利用する、分散型コンピューティング環境である。しかしながら、このようなシステムは、図9に図解されるものよりも少ないかまたは多くの構成要素を有するシステムにおいても、同様に良好に動作することができることが、当業者には理解されるであろう。このように、図9におけるシステム900の描写は、例示説明の性質を帯びるものと解されるべきであり、本開示の範囲を限定するものではない。
様々な実施形態が広範様々な操作環境においてさらに実施することができ、いくつかの場合においては、任意のいくらかのアプリケーションを操作するために使用可能な1つ以上のユーザコンピュータまたはコンピューティングデバイスを含み得る。ユーザまたはクライアントデバイスは、任意のいくらかの汎用パーソナルコンピュータを含むことが可能であり、それらは、標準オペレーティングシステムを稼働させるデスクトップまたはラップトップコンピュータ、ならびに、モバイルソフトウェアを稼働し、そしていくつかのネットワーキングおよびメッセージングプロトコルに対応することのできるセル方式、無線、および手持ちデバイスである。そのようなシステムは、任意の多様な商業的に利用可能なオペレーティングシステムおよび開発およびデータベース管理等の目的のための他の既知のアプリケーションを稼働させるいくつかのワークステーションも含むことができる。これらのデバイスは、ダミー端末、シンクライアント、ゲームシステム、およびネットワークを介して通信可能な他のデバイス等、他の電子デバイスを含むことができる。
ほとんどの実施形態は、TCP/IP、OSI、FTP、UPnP、NFS、CIFS、およびAppleTalk等の、任意の様々な商業的に利用可能なプロトコルを使用して、通信を支持するために、当業者によく知られた少なくとも1つのネットワークを利用する。ネットワークは、例えば、ローカルエリアネットワーク、広域ネットワーク、仮想私設ネットワーク、インターネット、イントラネット、エクストラネット、公衆交換電話網、赤外線ネットワーク、無線ネットワーク、およびそれらの任意の組み合わせであり得る。
ウェブサーバを利用する実施形態においては、ウェブサーバは、任意の様々なサーバまたは中間層アプリケーションを実行することが可能で、これには、HTTPサーバ、FTPサーバ、CGIサーバ、データサーバ、Java(登録商標)サーバ、およびビジネスアプリケーションサーバが含まれる。サーバ(複数可)は、ユーザデバイスからの要求に応答して、プログラムまたはスクリプトも実行することができ、それらは、Java(登録商標)、C、C#、もしくはC++等の任意のプログラム言語、またはPerl、Python、もしくはTCL等の任意のスクリプティング言語、ならびにそれらの組み合わせで書かれた1つ以上のスクリプトまたはプログラムとして実装し得る、1つ以上のウェブアプリケーションを実行することである。サーバ(複数可)は、データベースサーバも含み得、それらに含まれるのは、限定されずに、Oracle(登録商標)、Microsoft(登録商標)、Sybase(登録商標)、およびIBM(登録商標)から商業的に利用可能なものである。
環境は、上述の様々なデータ記憶ならびに他のメモリおよび記憶媒体を含むことができる。これらは、1つ以上のコンピュータに対してローカルな(および/またはその中に存在する)記憶媒体上、またはネットワークを介して任意のまたはすべてのコンピュータから離れて等、様々な位置で存在することができる。実施形態の特定セットでは、情報は、当業者に熟知された記憶域ネットワーク(SAN)内に存在し得る。同様に、コンピュータ、サーバ、または他のネットワークデバイスに属する機能を実施するための必要な任意のファイルは、適宜、ローカルおよび/または遠方に記憶され得る。システムがコンピュータ化デバイスを含む場合、このような各デバイスは、バスを介して電気的に接続され得るハードウェア要素を含み得、この要素には、例えば、少なくとも1つの中央処理装置(CPU)、少なくとも1つの入力デバイス(例えば、マウス、キーボード、コントローラ、接触感知式表示要素、またはキーパッド)、および少なくとも1つの出力デバイス(例えば、表示装置、プリンタ、またはスピーカ)が含まれる。このようなシステムは、1つ以上の記憶デバイス、例えば、ディスクドライブ、光記憶デバイス、およびソリッドステート記憶デバイス、例えばランダムアクセスメモリ(RAM)または読み出し専用メモリ(ROM)、ならびに取り外し可能メディアデバイス、メモリカード、フラッシュカード等も含み得る。
このような装置は、コンピュータ可読記憶媒体リーダ、通信デバイス(例えば、モデム、ネットワークカード(無線または有線)、赤外線通信デバイス)、および上に記述された作業メモリを含み得る。コンピュータ可読記憶媒体リーダは、遠隔、ローカル、固定、および/または取り外し可能な記憶デバイス、ならびにコンピュータ可読情報を一時的および/またはより恒久的に含み、記憶し、送信し、および受信するための記憶媒体を表す、コンピュータ可読記憶媒体を受け取るように接続され、または構成されることができる。システムおよび様々なデバイスはまた、典型的には、いくつかのソフトウェアアプリケーション、モジュール、少なくとも1つの作業記憶デバイス内に位置するサービス、または他の要素を含み、これに含まれるのは、オペレーティングシステムおよびクライアントアプリケーションまたはウェブブラウザ等のアプリケーションプログラムである。代替の実施形態が、上述のものの多数の変形を有し得ることを理解されるべきである。例えば、カスタマイズされたハードウェアも使用され得、および/または、特定の要素はハードウェア、ソフトウェア(アプレット等の可搬型ソフトウェアを含む)または両方において実装され得る。さらに、ネットワーク入力/出力デバイス等の他のコンピューティングデバイスへの接続が採用され得る。
コード、またはコードの一部分を含むための記憶媒体およびコンピュータ可読媒体は、当業界において知られた、または使用されている任意の適切な媒体を含むことができ、これに含まれるのは、記憶媒体および通信媒体であり、例えば、それらに限定されないが、情報の記憶および/または送信のために任意の方法または技術で実装される揮発性および不揮発性、取り外し可能および取り外し不能媒体である。それらの情報はコンピュータ可読命令、データ構造、プログラムモジュールまたは他のデータであり、ROM、RAM、EEPROM、フラッシュメモリーまたは他のメモリ技術、CD−ROM、デジタル汎用ディスク(DVD)または他の光学記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶装置、または他の磁気記憶デバイス、または望まれる情報を記憶するために使用可能で、システムデバイスによってアクセスできる任意の他の媒体が含まれる。本明細書に提供される開示および教示に基づき、当業者は、様々な実施形態を実現するための他の様式および/または方法を理解するであろう。
仕様および図は、したがって、制限的な意味をもつのではなく、例示説明であるとみなされるべきである。しかしながら、様々な修正および変更が、請求項に明記される本発明のより広範な精神と範囲から逸脱することなく、行われ得ることは明らかであろう。
付記
1.インターフェースをレンダリングするコンピュータ実装方法であって、
コンピューティングデバイスのカメラを使用してユーザの画像を捕獲することと、
前記コンピューティングデバイスの少なくとも1つのプロセッサを使用して、前記捕獲された画像を分析して、
前記コンピューティングデバイスに対する前記ユーザの相対位置を判定することと、
前記コンピューティングデバイスの表示画面上に表示のために複数のインターフェース要素をレンダリングすることと、
前記インターフェース要素の1つの選択を受け取ることと、
前記選択されたインターフェース要素の外観を調整し、前記選択されたインターフェース要素が、前記ユーザの前記判定された相対位置から、非選択インターフェース要素よりも前記表示画面の表面により近く位置付けされるように見えるようにすることであって、前記コンピューティングデバイスは前記選択されたインターフェース要素が前記ユーザからの入力を受け取ることを可能とする、調整することと、
前記ユーザの新しい判定された相対位置に応答して、前記複数のインターフェース要素の前記レンダリングを更新することと、を含む、方法。
2.前記ユーザの前記新しい判定された相対位置は、少なくとも部分的に、その後の時点において前記カメラによって捕獲された追加画像を分析することに基づいて判定される、付記1に記載のコンピュータ実装方法。
3.前記ユーザの前記新しい判定された相対位置は、少なくとも部分的に、少なくとも1つのセンサによって判定される前記コンピューティングデバイスの向きにおける変化に基づいて判定される、付記1に記載のコンピュータ実装方法。
4.前記選択されたインターフェース要素の外観を調整することは、前記選択されたインターフェース要素の大きさ、形状、色、陰影、またはぼかしの少なくとも1つを調整することを含む、付記1に記載のコンピュータ実装方法。
5.前記コンピューティングデバイスが、前記選択されたインターフェース要素と関連付けられたオーディオ入力を受諾するように構成されていることを前記ユーザに対して表示する、前記選択されたインターフェース要素のためのアイコンをレンダリングすること、をさらに含む、付記1に記載のコンピュータ実装方法。
6.コンピュータ実装方法であって、
実行可能命令を備えて構成された1つ以上のコンピューティングシステムの制御の下で、コンピューティングデバイスの表示要素上に表示されるグラフィカルインターフェースを判定することであって、前記グラフィカルインターフェースは有効層および少なくとも1つの他の層を有し、前記有効層は前記グラフィカルインターフェース内の前記少なくとも1つの他の層の上に位置付けされるように見えるようにレンダリングされる、判定することと、前記グラフィカルインターフェースの一部として前記表示要素上に複数のインターフェース要素を表示することであって、前記複数のインターフェース要素のそれぞれが前記レンダリング層のうちの1つに関連付けられる、表示することと、
前記少なくとも1つの他の層と関連付けられたインターフェース要素の選択に応答して、前記選択されたインターフェース要素を前記有効層と関連付けることと、前記選択されたインターフェース要素の外観を前記有効層に対応するように調整することであって、前記選択されたインターフェース要素は、前記有効層と関連付けられたときに前記ユーザから入力を受け取ることができる、調整することと、を含む方法。
7.前記インターフェース要素のうちの1つの選択に応答して、前記有効層と以前に関連付けられていた以前に有効であったインターフェース要素を、前記少なくとも1つの他の層と関連付けられるようにして、前記以前に有効であったインターフェース要素の外観を前記少なくとも1つの他の層に対応するように調整すること、をさらに含む、付記6に記載のコンピュータ実装方法。
8.前記以前に有効であったインターフェース要素の前記外観を調整することは、前記インターフェース要素の大きさ、形状、色、陰影、またはぼかしのうちの少なくとも1つを調整することを含む、付記7に記載のコンピュータ実装方法。
9.第1の優先レベルを有するインターフェース要素が前記有効層と関連付けられ、第2の優先レベルを有するインターフェース要素が前記少なくとも1つの他の層と関連付けられ、前記第2の優先レベルは前記第1の優先レベルより低い、付記6に記載のコンピュータ実装方法。
10.前記コンピューティングデバイスのユーザの相対位置を判定することと、
前記ユーザの前記判定された相対位置に少なくとも一部は基づく外観を用いて前記グラフィカルインターフェースの前記有効層および前記少なくとも1つの他の層のインターフェース要素をレンダリングすることと、をさらに含む、付記6に記載のコンピュータ実装方法。
11.前記有効層のインターフェース要素は、前記ユーザの前記判定された相対位置から、前記少なくとも1つの他の層の前記インターフェース要素の上方に距離を置いて見えるようにレンダリングされる、付記10に記載のコンピュータ実装方法。
12.前記ユーザの前記相対位置を判定することは、前記コンピューティングデバイスの少なくとも1つのカメラを使用して画像情報を捕獲し、前記捕獲された画像情報を分析して前記ユーザの前記相対位置を判定することを含む、付記10に記載のコンピュータ実装方法。
13.前記グラフィカルインターフェースの表示中に、追加画像情報を捕獲することと、
前記追加画像情報を分析し、前記ユーザの前記相対位置の変化を判定することと、
前記有効層または前記少なくとも1つの他の層のうちの少なくとも1つの前記レンダリングを、前記有効層の前記インターフェース要素が、前記ユーザの現在の相対位置から、前記少なくとも1つの他の層の前記インターフェース要素の上方に距離を置いたままに見えるように調整することと、をさらに含む、付記12に記載のコンピュータ実装方法。
14.前記コンピューティングデバイスの少なくとも1つのセンサを使用して、前記コンピューティングデバイスの向きまたは位置のうちの少なくとも1つにおける変化を検出することと、
前記検出された変化に少なくとも部分的に基づき、前記ユーザの現在の相対位置を判定することと、
前記有効層または前記少なくとも1つの他の層のうちの少なくとも1つの前記レンダリングを、前記有効層の前記インターフェース要素が、前記ユーザの前記現在の相対位置から、前記少なくとも1つの他の層の前記インターフェース要素の上方に距離を置いたままに見えるように調整することと、をさらに含む、付記12に記載のコンピュータ実装方法。
15.前記少なくとも1つのセンサから前記検出された変化が、前記捕獲された画像情報から取得された更新間の前記ユーザの相対位置における更新を提供するために使用される、付記14に記載のコンピュータ実装方法。
16.ユーザの前記相対位置を判定することは、前記ユーザの少なくとも1つの顔特徴の相対位置を判定すること、を含む、付記10に記載のコンピュータ実装方法。
17.コンピューティングデバイスであって、
プロセッサと、
表示画面と、
命令を含むメモリと、を備え、前記命令は、前記プロセッサによって実行されるとき、前記コンピューティングデバイスに、
グラフィカルインターフェースを前記表示画面上での表示のためにレンダリングすることであって、前記グラフィカルインターフェースは複数のインターフェース要素を含む、レンダリングすることと、
前記コンピューティングデバイスのユーザから前記インターフェース要素のうちの1つの選択を受け取ることと、
前記コンピューティングデバイスに関する前記ユーザの現在の相対位置を判定することと、
前記選択に応答して、前記ユーザの前記現在の相対位置に少なくとも一部は基づき、前記選択されたインターフェース要素が、少なくとも1つの他の表示されたインターフェース要素よりも前記ユーザにより近い距離であるかのように見えるように前記選択されたインターフェース要素のレンダリングを調整することと、を行わせる、コンピューティングデバイス。
18.前記ユーザの少なくとも一部分の画像を捕獲するように位置付けされたカメラであって、前記現在の相対位置は、少なくとも部分的に、前記コンピューティングデバイスの前記プロセッサを使用して、前記捕獲された画像を分析することによって判定される、カメラ、をさらに備える、付記17に記載のコンピューティングデバイス。
19.前記コンピューティングデバイスの向きまたは位置の少なくとも1つにおける変化を検出するように構成されたセンサであって、前記現在の相対位置は、少なくとも部分的に、前記コンピューティングデバイスの前記プロセッサを使用して、前記検出された変更を分析することによって判定される、センサ、をさらに備える、付記17に記載のコンピューティングデバイス。
20.前記ユーザからの音声入力を受諾するように構成されたマイクロホンであって、前記選択されたインターフェース要素は、前記選択されたインターフェース要素のためにオーディオ入力が提供されることができることを表示する、グラフィカル要素を含むことができる、マイクロホン、をさらに備える、付記17に記載のコンピューティングデバイス。
21.前記表示画面は接触感知型であり、前記インターフェース要素のうちの1つの前記選択は、前記表示画面との接触を通して受け取られることができる、付記17に記載のコンピューティングデバイス。
22.コンピューティングデバイスの少なくとも1つのプロセッサによって実行されたとき、前記コンピューティングデバイスに対し、前記コンピューティングデバイスの表示画面上に表示させるためにグラフィカルインターフェースをレンダリングすることであって、前記グラフィカルインターフェースは複数のインターフェース要素を含む、レンダリングすることと、
前記コンピューティングデバイスのユーザから前記インターフェース要素の1つの選択を受け取ることと、
前記コンピューティングデバイスに関する前記ユーザの現在の相対位置を判定することと、
前記選択を受け取ることに応答して、前記ユーザの前記現在の相対位置に少なくとも部分的に基づき、前記選択されたインターフェース要素が、少なくとも1つの非選択インターフェース要素よりも前記表示画面の表面にあたかもより近いように見えるように、前記選択されたインターフェース要素のレンダリングを調整することと、を行わせる命令を記憶する、非一時的コンピュータ可読記憶媒体。
23.前記レンダリングの調節は、前記選択されたインターフェース要素の大きさ、形状、色、またはぼかしレベルのうちの少なくとも1つにおける変化を動画化することを含む、付記22に記載の非一時的コンピュータ可読記憶媒体。
24.前記命令が実行されたとき、前記コンピューティングデバイスに、
前記ユーザの前記現在の相対位置に少なくとも部分的に基づき、前記グラフィカルインターフェース内の前記コンピューティングデバイスの1つ以上の仮想側壁の外観を調整すること、をさらに行わせる、付記22に記載の非一時的コンピュータ可読記憶媒体。
25.前記命令が実行されたとき、前記コンピューティングデバイスに、前記コンピューティングデバイスのカメラを使用して前記ユーザの画像情報を捕獲することと、前記画像情報を分析して前記捕獲された画像内の前記ユーザの顔特徴を認識することであって、前記ユーザの前記現在の相対位置を前記コンピューティングデバイスに関して判定することは、前記認識された顔特徴の前記現在の相対位置を判定することを含む、分析することと、をさらに行わせる、付記22に記載の非一時的コンピュータ可読記憶媒体。
以下に、本願出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
コンピュータ実装方法であって、実行可能命令を備えて構成された1つ以上のコンピューティングシステムの制御の下で、
コンピューティングデバイスの表示要素上に表示されるグラフィカルインターフェースを決定することであって、前記グラフィカルインターフェースは有効層および少なくとも1つの他の層を有し、前記有効層は前記グラフィカルインターフェース内の前記少なくとも1つの他の層の上に位置付けされるように見えるようにレンダリングされる、決定することと、
前記グラフィカルインターフェースの一部として前記表示要素上に複数のインターフェース要素を表示することであって、前記複数のインターフェース要素のそれぞれが前記レンダリング層のうちの1つに関連付けられる、表示することと、
前記少なくとも1つの他の層と関連付けられたインターフェース要素の選択に応答して、前記選択されたインターフェース要素を前記有効層と関連付けて、前記選択されたインターフェース要素の外観を前記有効層に対応するように調整することであって、前記選択されたインターフェース要素は、前記有効層と関連付けられたときにユーザから入力を受け取ることのできる、調整することと、を含む、コンピュータ実装方法。
[C2]
前記インターフェース要素のうちの1つの選択に応答して、前記有効層と以前に関連付けられていた以前に有効であったインターフェース要素を、前記少なくとも1つの他の層と関連付けられるようにして、前記以前に有効であったインターフェース要素の外観を前記少なくとも1つの他の層に対応するように調整することをさらに含む、[C1]に記載のコンピュータ実装方法。
[C3]
前記以前に有効であったインターフェース要素の前記外観を調整することは、前記インターフェース要素の大きさ、形状、色、陰影、またはぼかしのうちの少なくとも1つを調整することを含む、[C2]に記載のコンピュータ実装方法。
[C4]
第1の優先レベルを有するインターフェース要素が前記有効層と関連付けられ、第2の優先レベルを有するインターフェース要素が前記少なくとも1つの他の層と関連付けられ、前記第2の優先レベルは前記第1の優先レベルより低い、[C1]に記載のコンピュータ実装方法。
[C5]
前記コンピューティングデバイスのユーザの相対位置を判定することと、
前記ユーザの前記判定された相対位置に少なくとも部分的に基づく外観を用いて、前記グラフィカルインターフェースの前記有効層および前記少なくとも1つの他の層のインターフェース要素をレンダリングすることと、をさらに含む、[C1]に記載のコンピュータ実装方法。
[C6]
前記有効層のインターフェース要素は、前記ユーザの前記判定された相対位置から、前記少なくとも1つの他の層の前記インターフェース要素の上方に距離を置いて見えるようにレンダリングされる、[C5]に記載のコンピュータ実装方法。
[C7]
前記ユーザの前記相対位置を判定することは、前記コンピューティングデバイスの少なくとも1つのカメラを使用して画像情報を捕獲し、前記捕獲された画像情報を分析して前記ユーザの前記相対位置を判定することを含む、[C5]に記載のコンピュータ実装方法。
[C8]
前記グラフィカルインターフェースの表示中に、追加の画像情報を捕獲することと、
前記追加画像情報を分析し、前記ユーザの前記相対位置の変化を判定することと、
前記有効層または前記少なくとも1つの他の層のうちの少なくとも1つの前記レンダリングを、前記有効層の前記インターフェース要素が、前記ユーザの現在の相対位置から、前記少なくとも1つの他の層の前記インターフェース要素の上方に距離を置いたままに見えるように調整することと、をさらに含む、[C7]に記載のコンピュータ実装方法。
[C9]
前記コンピューティングデバイスの少なくとも1つのセンサを使用して、前記コンピューティングデバイスの向きまたは位置のうちの少なくとも1つにおける変化を検出することと、
前記検出された変化に少なくとも部分的に基づき、前記ユーザの現在の相対位置を判定することと、
前記有効層または前記少なくとも1つの他の層のうちの少なくとも1つの前記レンダリングを、前記有効層の前記インターフェース要素が、前記ユーザの前記現在の相対位置から、前記少なくとも1つの他の層の前記インターフェース要素の上方に距離を置いたままに見えるように調整することと、をさらに含む、[C7]に記載のコンピュータ実装方法。
[C10]
ユーザの前記相対位置を判定することは、前記ユーザの少なくとも1つの顔特徴の相対位置を判定することを含む、[C5]に記載のコンピュータ実装方法。
[C11]
コンピューティングデバイスであって、
プロセッサと、
表示画面と、
命令を含むメモリと、を備え、前記命令は、前記プロセッサによって実行されるとき、前記コンピューティングデバイスに、
グラフィカルインターフェースを前記表示画面上での表示のためにレンダリングすることであって、前記グラフィカルインターフェースは複数のインターフェース要素を含む、レンダリングすることと、
前記コンピューティングデバイスのユーザから前記インターフェース要素のうちの1つの選択を受け取ることと、
前記コンピューティングデバイスに対する前記ユーザの現在の相対位置を判定することと、
前記選択に応答して、前記ユーザの前記現在の相対位置に少なくとも一部は基づき、前記選択されたインターフェース要素が、少なくとも1つの他の表示されたインターフェース要素よりも前記ユーザにより近い距離であるかのように見えるように前記選択されたインターフェース要素のレンダリングを調整することと、を行わせる、コンピューティングデバイス。
[C12]
前記ユーザの少なくとも一部分の画像を捕獲するように位置付けされたカメラであって、前記現在の相対位置は、前記コンピューティングデバイスの前記プロセッサを使用して、少なくとも部分的に前記捕獲された画像を分析することによって判定される、カメラ、をさらに備える、[C11]に記載のコンピューティングデバイス。
[C13]
前記コンピューティングデバイスの向きまたは位置のうちの少なくとも1つにおける変化を検出するように構成されたセンサであって、前記現在の相対位置は、前記コンピューティングデバイスの前記プロセッサを使用して、少なくとも部分的に、前記検出された変化を分析することによって判定される、センサ、をさらに備える、[C11]に記載のコンピューティングデバイス。
[C14]
前記ユーザからの音声入力を受諾するように構成されたマイクロホンであって、前記選択されたインターフェース要素は、前記選択されたインターフェース要素のためにオーディオ入力が提供されることができることを表示するグラフィカル要素を含むことができる、マイクロホン、をさらに備える、[C11]に記載のコンピューティングデバイス。
[C15]
前記表示画面は接触感知型であり、前記インターフェース要素のうちの1つの前記選択は、前記表示画面との接触を通して受け取られることができる、[C11]に記載のコンピューティングデバイス。

Claims (13)

  1. コンピュータ実装方法であって、実行可能命令を備えて構成された1つ以上のコンピューティングシステムの制御の下で、
    コンピューティングデバイスの表示スクリーン上に表示されるグラフィカルインターフェースを決定することであって、前記グラフィカルインターフェースは有効層および少なくとも1つの他の層を有し、前記有効層は前記グラフィカルインターフェース内の前記少なくとも1つの他の層の上に位置付けされるように見えるようにレンダリングされる、決定することと、
    前記グラフィカルインターフェースの一部として前記表示スクリーン上に複数のフィールドを表示することであって、前記複数のフィールドが前記少なくとも1つの他の層に関連付けられる、表示することと、
    選択されたフィールドが有効になるように、前記コンピューティングデバイスのユーザから前記選択されたフィールドを受けることと、
    記選択されたフィールドを前記有効層と関連付けて、前記選択されたフィールドの外観を前記有効層に対応し、前記選択されたフィールドを、前記表示スクリーンの表面に対して、前記複数のフィールドの選択されないフィールドよりも前記ユーザにより近い距離であるかのように見えさせるように調整することであって、前記選択されたフィールドは、前記有効層と関連付けられたときにユーザからテキスト入力を受け取ることのできる、調整することと、を含む、コンピュータ実装方法。
  2. 前記フィールドのうちの1つの選択に応答して、前記有効層と以前に関連付けられていた以前に有効であったフィールドを、前記少なくとも1つの他の層と関連付けられるようにして、前記以前に有効であったフィールドの外観を前記少なくとも1つの他の層に対応するように調整することをさらに含む、請求項1に記載のコンピュータ実装方法。
  3. 前記以前に有効であったインターフェース要素の前記外観を調整することは、前記フィールドの大きさ、形状、色、陰影、またはぼかしのうちの少なくとも1つを調整することを含む、請求項2に記載のコンピュータ実装方法。
  4. 前記コンピューティングデバイスのユーザの相対位置を判定することと、
    前記ユーザの前記判定された相対位置に少なくとも部分的に基づく外観を用いて、前記グラフィカルインターフェースの前記有効層および前記少なくとも1つの他の層に関連付けられたフィールドをレンダリングすることと、をさらに含む、請求項1に記載のコンピュータ実装方法。
  5. 前記ユーザの前記相対位置を判定することは、前記コンピューティングデバイスの少なくとも1つのカメラを使用して画像情報を捕獲し、前記捕獲された画像情報を分析して前記ユーザの前記相対位置を判定することを含む、請求項に記載のコンピュータ実装方法。
  6. 前記グラフィカルインターフェースの表示中に、追加の画像情報を捕獲することと、
    前記追加画像情報を分析し、前記ユーザの前記相対位置の変化を判定することと、
    前記有効層または前記少なくとも1つの他の層のうちの少なくとも1つの前記レンダリングを、前記有効層に関連付けられた前記選択されたフィールドが、前記ユーザの現在の相対位置から、前記少なくとも1つの他の層に関連付けられた前記選択されないフィールドの上方に距離を置いたままに見えるように調整することと、をさらに含む、請求項に記載のコンピュータ実装方法。
  7. 前記コンピューティングデバイスの少なくとも1つのセンサを使用して、前記コンピューティングデバイスの向きまたは位置のうちの少なくとも1つにおける変化を検出することと、
    前記検出された変化に少なくとも部分的に基づき、前記ユーザの現在の相対位置を判定することと、
    前記有効層または前記少なくとも1つの他の層のうちの少なくとも1つの前記レンダリングを、前記有効層に関連付けられた前記選択されたフィールドが、前記ユーザの前記現在の相対位置から、前記少なくとも1つの他の層に関連付けられた前記選択されないフィールドの上方に距離を置いたままに見えるように調整することと、をさらに含む、請求項に記載のコンピュータ実装方法。
  8. ユーザの前記相対位置を判定することは、前記ユーザの少なくとも1つの顔特徴の相対位置を判定することを含む、請求項に記載のコンピュータ実装方法。
  9. コンピューティングデバイスであって、
    プロセッサと、
    表示画面と、
    命令を含むメモリと、を備え、前記命令は、前記プロセッサによって実行されるとき、前記コンピューティングデバイスに、
    グラフィカルインターフェースを前記表示画面上での表示のためにレンダリングすることであって、前記グラフィカルインターフェースは複数のフィールドを含み、前記複数のフィールドの各々は、それが有効になったとき、前記コンピューティングデバイスのユーザからテキスト入力を受けることができる、レンダリングすることと、
    選択されたフィールドが有効になるように、前記コンピューティングデバイスのユーザから前記選されたフィールドを受け取ることと、
    前記コンピューティングデバイスに対する前記ユーザの現在の相対位置を判定することと、
    記ユーザの前記現在の相対位置に少なくとも一部は基づき、前記選択されたフィールドが、少なくとも1つの他の選択されないフィールドよりも前記ユーザにより近い距離であるかのように見えるように前記選択されたフィールドのレンダリングを調整することと、
    前記選択されたフィールドのために、ユーザからテキスト入力を受けることと、
    を行わせる、コンピューティングデバイス。
  10. 前記ユーザの少なくとも一部分の画像を捕獲するように位置付けされたカメラであって、前記現在の相対位置は、前記コンピューティングデバイスの前記プロセッサを使用して、少なくとも部分的に前記捕獲された画像を分析することによって判定される、カメラ、をさらに備える、請求項に記載のコンピューティングデバイス。
  11. 前記コンピューティングデバイスの向きまたは位置のうちの少なくとも1つにおける変化を検出するように構成されたセンサであって、前記現在の相対位置は、前記コンピューティングデバイスの前記プロセッサを使用して、少なくとも部分的に、前記検出された変化を分析することによって判定される、センサ、をさらに備える、請求項に記載のコンピューティングデバイス。
  12. 前記テキスト入力のために、前記ユーザからの音声入力を受諾するように構成されたマイクロホンであって、前記選択されたフィールドは、前記選択されたフィールドのためにオーディオ入力が提供されることができることを表示するグラフィカル要素を含むことができる、マイクロホン、をさらに備える、請求項に記載のコンピューティングデバイス。
  13. 前記表示画面は接触感知型であり、前記選択されたフィールドを受けることは、前記表示画面との接触を通して受け取られることができる、請求項に記載のコンピューティングデバイス。
JP2015500562A 2012-03-13 2013-03-13 有効インターフェース要素の強調のための方式 Active JP6013583B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/418,523 2012-03-13
US13/418,523 US9378581B2 (en) 2012-03-13 2012-03-13 Approaches for highlighting active interface elements
PCT/US2013/030965 WO2013138489A1 (en) 2012-03-13 2013-03-13 Approaches for highlighting active interface elements

Publications (2)

Publication Number Publication Date
JP2015516624A JP2015516624A (ja) 2015-06-11
JP6013583B2 true JP6013583B2 (ja) 2016-10-25

Family

ID=49158885

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015500562A Active JP6013583B2 (ja) 2012-03-13 2013-03-13 有効インターフェース要素の強調のための方式

Country Status (5)

Country Link
US (1) US9378581B2 (ja)
EP (1) EP2825945A4 (ja)
JP (1) JP6013583B2 (ja)
CN (1) CN104364753B (ja)
WO (1) WO2013138489A1 (ja)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9378581B2 (en) 2012-03-13 2016-06-28 Amazon Technologies, Inc. Approaches for highlighting active interface elements
KR101873759B1 (ko) * 2012-04-10 2018-08-02 엘지전자 주식회사 영상 표시 장치 및 그 제어방법
EP3264252B1 (en) 2012-05-09 2019-11-27 Apple Inc. Device, method, and graphical user interface for performing an operation in accordance with a selected mode of operation
CN105260049B (zh) 2012-05-09 2018-10-23 苹果公司 用于响应于用户接触来显示附加信息的设备、方法和图形用户界面
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
JP6182207B2 (ja) 2012-05-09 2017-08-16 アップル インコーポレイテッド ユーザインタフェースオブジェクトのアクティブ化状態を変更するためのフィードバックを提供するためのデバイス、方法、及びグラフィカルユーザインタフェース
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
CN106201316B (zh) 2012-05-09 2020-09-29 苹果公司 用于选择用户界面对象的设备、方法和图形用户界面
WO2013169853A1 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
JP6002836B2 (ja) 2012-05-09 2016-10-05 アップル インコーポレイテッド ジェスチャに応答して表示状態間を遷移するためのデバイス、方法、及びグラフィカルユーザインタフェース
US8922557B2 (en) 2012-06-29 2014-12-30 Embarcadero Technologies, Inc. Creating a three dimensional user interface
EP2939095B1 (en) 2012-12-29 2018-10-03 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
KR102001332B1 (ko) 2012-12-29 2019-07-17 애플 인크. 콘텐츠를 스크롤할지 선택할지 결정하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
US20140282269A1 (en) * 2013-03-13 2014-09-18 Amazon Technologies, Inc. Non-occluded display for hover interactions
KR20140126129A (ko) * 2013-04-22 2014-10-30 삼성전자주식회사 잠금 및 해제를 제어하는 장치 및 방법
US10592064B2 (en) 2013-09-17 2020-03-17 Amazon Technologies, Inc. Approaches for three-dimensional object display used in content navigation
US20150082145A1 (en) * 2013-09-17 2015-03-19 Amazon Technologies, Inc. Approaches for three-dimensional object display
US10067634B2 (en) 2013-09-17 2018-09-04 Amazon Technologies, Inc. Approaches for three-dimensional object display
US9818037B2 (en) 2015-02-04 2017-11-14 Invensense, Inc. Estimating heading misalignment between a device and a person using optical sensor
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9632664B2 (en) * 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US9885887B2 (en) * 2015-04-22 2018-02-06 Kurt Matthew Gardner Method of determining eyeglass frame measurements from an image by executing computer-executable instructions stored on a non-transitory computer-readable medium
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10621581B2 (en) 2016-06-11 2020-04-14 Apple Inc. User interface for transactions
EP3270371B1 (en) * 2016-07-12 2022-09-07 NXP USA, Inc. Method and apparatus for managing graphics layers within a graphics display component
CN106371723B (zh) * 2016-08-26 2019-07-26 维沃移动通信有限公司 一种基于智能终端的界面处理方法及智能终端
KR20180072983A (ko) * 2016-12-22 2018-07-02 삼성전자주식회사 디스플레이 장치 및 방법
US11221744B2 (en) * 2017-05-16 2022-01-11 Apple Inc. User interfaces for peer-to-peer transfers
CN112150133B (zh) 2017-05-16 2022-05-03 苹果公司 用于对等传输的用户界面
EP3803649A1 (en) 2018-06-03 2021-04-14 Apple Inc. User interfaces for transfer accounts
CN108804014A (zh) * 2018-06-28 2018-11-13 苏州乐米信息科技股份有限公司 一种三维视角的缩放方法和系统
KR102545598B1 (ko) * 2018-08-02 2023-06-20 삼성전자주식회사 가상 입력 툴을 제공하기 위한 전자 장치 및 방법
CN109933255A (zh) * 2019-03-21 2019-06-25 广州视源电子科技股份有限公司 一种页面元素突出显示方法、装置、设备及存储介质
US11328352B2 (en) 2019-03-24 2022-05-10 Apple Inc. User interfaces for managing an account
JP2021009630A (ja) * 2019-07-02 2021-01-28 メディア株式会社 入力手段、情報処理システム、情報処理システムの制御方法、プログラム、及び記録媒体
GB202009874D0 (en) * 2020-06-29 2020-08-12 Microsoft Technology Licensing Llc Visual interface for a computer system
GB202009876D0 (en) * 2020-06-29 2020-08-12 Microsoft Technology Licensing Llc Visual interface for a computer system
US11921992B2 (en) 2021-05-14 2024-03-05 Apple Inc. User interfaces related to time
US11784956B2 (en) 2021-09-20 2023-10-10 Apple Inc. Requests to add assets to an asset account

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5574836A (en) * 1996-01-22 1996-11-12 Broemmelsiek; Raymond M. Interactive display apparatus and method with viewer position compensation
US5731805A (en) 1996-06-25 1998-03-24 Sun Microsystems, Inc. Method and apparatus for eyetrack-driven text enlargement
US20040212626A1 (en) 2001-06-29 2004-10-28 Urban Lyxzen System and a method for user interaction
US20030122777A1 (en) * 2001-12-31 2003-07-03 Grover Andrew S. Method and apparatus for configuring a computer system based on user distance
US20030142143A1 (en) 2002-01-28 2003-07-31 International Business Machines Corporation Varying heights of application images to convey application status
KR20030097310A (ko) * 2002-06-20 2003-12-31 삼성전자주식회사 디스플레이장치의 화상크기조절방법 및 그화상크기조절시스템과 화상크기조절방법을 수행하는프로그램이 저장된 기록매체
US7883415B2 (en) * 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US20040075735A1 (en) 2002-10-17 2004-04-22 Koninklijke Philips Electronics N.V. Method and system for producing a pseudo three-dimensional display utilizing a two-dimensional display device
JP3971694B2 (ja) * 2002-12-11 2007-09-05 日本電信電話株式会社 オブジェクト表示方法及びその実施装置
JP2004318325A (ja) * 2003-04-14 2004-11-11 Dainippon Printing Co Ltd 情報入力装置およびそのプログラムならびに電子フォーム
EP1596271A1 (en) * 2004-05-11 2005-11-16 Hitachi Europe S.r.l. Method for displaying information and information display system
KR101309176B1 (ko) * 2006-01-18 2013-09-23 삼성전자주식회사 증강 현실 장치 및 방법
US9086785B2 (en) * 2007-06-08 2015-07-21 Apple Inc. Visualization object receptacle
US8669938B2 (en) * 2007-11-20 2014-03-11 Naturalpoint, Inc. Approach for offset motion-based control of a computer
US8384718B2 (en) * 2008-01-10 2013-02-26 Sony Corporation System and method for navigating a 3D graphical user interface
US9092053B2 (en) * 2008-06-17 2015-07-28 Apple Inc. Systems and methods for adjusting a display based on the user's position
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
JP4802231B2 (ja) 2008-10-10 2011-10-26 東芝テック株式会社 電子メニュー装置及びそのプログラム
US8788977B2 (en) * 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
JP5231571B2 (ja) * 2008-12-04 2013-07-10 三菱電機株式会社 表示入力装置およびナビゲーション装置
JP5087532B2 (ja) * 2008-12-05 2012-12-05 ソニーモバイルコミュニケーションズ株式会社 端末装置、表示制御方法および表示制御プログラム
US20100265181A1 (en) * 2009-04-20 2010-10-21 ShoreCap LLC System, method and computer readable media for enabling a user to quickly identify and select a key on a touch screen keypad by easing key selection
US8179449B2 (en) 2009-05-20 2012-05-15 Sony Ericsson Mobile Communications Ab Portable electronic apparatus including a display and method for controlling display content based on movement of the display and user position
KR101631451B1 (ko) * 2009-11-16 2016-06-20 엘지전자 주식회사 영상표시장치 및 그 동작방법
KR20110055096A (ko) 2009-11-19 2011-05-25 삼성전자주식회사 휴대용 단말기에서 입체 효과 설정 방법 및 장치
JP5401380B2 (ja) 2010-03-29 2014-01-29 株式会社コナミデジタルエンタテインメント 処理装置、処理方法、ならびに、プログラム
US8982160B2 (en) 2010-04-16 2015-03-17 Qualcomm, Incorporated Apparatus and methods for dynamically correlating virtual keyboard dimensions to user finger size
US8913056B2 (en) * 2010-08-04 2014-12-16 Apple Inc. Three dimensional user interface effects on a display by using properties of motion
US9508160B2 (en) * 2011-02-22 2016-11-29 Xerox Corporation User interface panel
US8803800B2 (en) * 2011-12-02 2014-08-12 Microsoft Corporation User interface control based on head orientation
US20130181892A1 (en) * 2012-01-13 2013-07-18 Nokia Corporation Image Adjusting
US9378581B2 (en) 2012-03-13 2016-06-28 Amazon Technologies, Inc. Approaches for highlighting active interface elements

Also Published As

Publication number Publication date
US9378581B2 (en) 2016-06-28
JP2015516624A (ja) 2015-06-11
US20130246954A1 (en) 2013-09-19
CN104364753B (zh) 2017-11-21
EP2825945A1 (en) 2015-01-21
EP2825945A4 (en) 2015-12-09
WO2013138489A1 (en) 2013-09-19
CN104364753A (zh) 2015-02-18

Similar Documents

Publication Publication Date Title
JP6013583B2 (ja) 有効インターフェース要素の強調のための方式
JP6605000B2 (ja) 三次元オブジェクト表示のためのアプローチ
US9591295B2 (en) Approaches for simulating three-dimensional views
US9437038B1 (en) Simulating three-dimensional views using depth relationships among planes of content
US20180348988A1 (en) Approaches for three-dimensional object display
US10564806B1 (en) Gesture actions for interface elements
EP2864932B1 (en) Fingertip location for gesture input
US10592064B2 (en) Approaches for three-dimensional object display used in content navigation
US20150091903A1 (en) Simulating three-dimensional views using planes of content
US9367951B1 (en) Creating realistic three-dimensional effects
US20150082145A1 (en) Approaches for three-dimensional object display
US9389703B1 (en) Virtual screen bezel
US9400575B1 (en) Finger detection for element selection
US9665249B1 (en) Approaches for controlling a computing device based on head movement
US9262689B1 (en) Optimizing pre-processing times for faster response
US9547420B1 (en) Spatial approaches to text suggestion
US10585485B1 (en) Controlling content zoom level based on user head movement
US10082936B1 (en) Handedness determinations for electronic devices
US9524036B1 (en) Motions for displaying additional content
US9898183B1 (en) Motions for object rendering and selection

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160921

R150 Certificate of patent or registration of utility model

Ref document number: 6013583

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250