JP2017501500A - 三次元オブジェクト表示のためのアプローチ - Google Patents

三次元オブジェクト表示のためのアプローチ Download PDF

Info

Publication number
JP2017501500A
JP2017501500A JP2016542873A JP2016542873A JP2017501500A JP 2017501500 A JP2017501500 A JP 2017501500A JP 2016542873 A JP2016542873 A JP 2016542873A JP 2016542873 A JP2016542873 A JP 2016542873A JP 2017501500 A JP2017501500 A JP 2017501500A
Authority
JP
Japan
Prior art keywords
computing device
user
interface
page
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016542873A
Other languages
English (en)
Other versions
JP6201058B2 (ja
Inventor
チャーリー エイムス
チャーリー エイムス
デニス ピラリノス
デニス ピラリノス
ピーター フランク ヒル
ピーター フランク ヒル
サーシャ ミカイル ペレズ
サーシャ ミカイル ペレズ
ティモシー トーマス グレイ
ティモシー トーマス グレイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Amazon Technologies Inc
Original Assignee
Amazon Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US14/029,747 external-priority patent/US20150082145A1/en
Priority claimed from US14/029,736 external-priority patent/US10592064B2/en
Priority claimed from US14/029,756 external-priority patent/US10067634B2/en
Application filed by Amazon Technologies Inc filed Critical Amazon Technologies Inc
Publication of JP2017501500A publication Critical patent/JP2017501500A/ja
Application granted granted Critical
Publication of JP6201058B2 publication Critical patent/JP6201058B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

アプローチは、デバイスが3D表示モードで作動しているときに、三次元(3D)表示及び(ウェブ・ページ、アプリケーション等の)インターフェイスとのインタラクションを可能にする。例えば、インターフェイス・エレメントは、デバイスの方位、あるいはデバイスを使用しているユーザーの位置に少なくとも部分的に基づき、インターフェイスのレンダリングにおいて、ハイライト化、強調化、アニメ化、あるいは外観及び/または配置が変更できる。さらに、3D表示モードは、デバイスが現在のページから新しいページへナビゲートするとき、エレメントのアニメ化3D退去及び出現を提供できる。さらに加えて、アプローチは、インターフェイス・エレメントの(外観、アクション等の)3D属性を指定する機能を提供する。このようにすれば、そのようなインターフェイスの開発者は、3D表示モードが起動されるときに少なくとも一つのインターフェイス・エレメントに適用すべき3D外観変化を指定するために、(例えば、タグ、CSS、JavaScript等の)情報を使用できる。【選択図】図1

Description

本発明は、三次元オブジェクト表示のためのアプローチに関する。
人々が、多種多様なタスクを遂行するのにコンピュータ及び他の電子デバイスを使用する機会は増加の一途である。ユーザーが、より直観的でユーザーフレンドリーな方式で、それらのタスクをナビゲートし実行することを支援するために、インターフェイスは、ますます、新しい表示及び新しいタイプのインタラクティヴ性を提供するように進化している。そのようなアプローチの一つに、アニメーション化、ハイライト化、すなわち、ユーザーの関心を引こうとするコンテンツ態様の強調化がある。そのようなアプローチは、その種のコンテンツとのインタラクトによりユーザー体験が増強される反面、多くの状況においては、コンテンツが直観的な方式で組織または提示されてはいない。例えば、コンピューティング・デバイスの表示スクリーン上への提示方式に起因して、ユーザーが所望のコンテンツを見つけることが困難な場合もある。さらに、携帯型コンピューティング・デバイスの小さなフォーム・ファクターでは、しばしば、ウェブ・ページ、ドキュメント、アプリケーション及び/またはフォーム上に表示されるコンテンツが、直観的でユーザーフレンドリーな方式でユーザーに示されることは不可能である。
米国特許公開第2010/0064209号
アプローチは、デバイスが3D表示モードで作動しているときに、三次元(3D)表示及び(ウェブ・ページ、アプリケーション等の)インターフェイスとのインタラクションを可能にする。例えば、インターフェイス・エレメントは、デバイスの方位、あるいはデバイスを使用しているユーザーの位置に少なくとも部分的に基づき、インターフェイスのレンダリングにおいて、ハイライト化、強調化、アニメ化、あるいは外観及び/または配置が変更できる。さらに、3D表示モードは、デバイスが現在のページから新しいページへナビゲートするとき、エレメントのアニメ化3D退去及び出現を提供できる。さらに加えて、アプローチは、インターフェイス・エレメントの(外観、アクション等の)3D属性を指定する機能を提供する。このようにすれば、そのようなインターフェイスの開発者は、3D表示モードが起動されるときに少なくとも一つのインターフェイス・エレメントに適用すべき3D外観変化を指定するために、(例えば、タグ、CSS、Java(登録商標)Script等の)情報を使用できる。
本開示による種々の実施形態を、以下の図面を参照して説明する。
種々の実施形態によるコンピューティング・デバイスで、ユーザーがコンテンツを見てインタラクトすることができる実施例状況を表す。 実施形態に従って描画可能なインターフェイスの実施例を表す。 種々の実施形態に従って描画可能なインターフェイスの種々の状態を表す。 種々の実施形態に従って描画可能なインターフェイスの種々の状態を表す。 種々の代替実施形態に従って描画可能なインターフェイスの種々の状態を表す。 種々の代替実施形態に従って描画可能なインターフェイスの種々の状態を表す。 種々の代替実施形態に従って描画可能なインターフェイスの種々の状態を表す。 種々の代替実施形態に従って描画可能なインターフェイスの種々の状態を表す。 種々の代替実施形態に従って描画可能なインターフェイスの種々の状態を表す。 種々の代替実施形態に従って描画可能なインターフェイスの種々の状態を表す。 種々の代替実施形態に従って描画可能なインターフェイスの種々の状態を表す。 種々の代替実施形態に従って描画可能なインターフェイスの種々の状態を表す。 種々の代替実施形態に従って描画可能なインターフェイスの種々の状態を表す。 種々の代替実施形態に従って描画可能なインターフェイスの種々の状態を表す。 種々の代替実施形態に従って描画可能なインターフェイスの種々の状態を表す。 種々の代替実施形態に従って描画可能なインターフェイスの種々の状態を表す。 種々の代替実施形態に従って描画可能なインターフェイスの種々の状態を表す。 種々の代替実施形態に従って描画可能なインターフェイスの種々の状態を表す。 種々の代替実施形態に従って描画可能なインターフェイスの種々の状態を表す。 種々の代替実施形態に従って描画可能なインターフェイスの種々の状態を表す。 種々の代替実施形態に従って描画可能なインターフェイスの状態を表す。 種々の実施形態に従って種々のインターフェイスを描画するための実施例プロセスを表す。 種々の代替実施形態に従って描画可能なインターフェイスの種々の状態を表す。 種々の代替実施形態に従って描画可能なインターフェイスの種々の状態を表す。 種々の代替実施形態に従って描画可能なインターフェイスの種々の状態を表す。 種々の代替実施形態に従って描画可能なインターフェイスの種々の状態を表す。 種々の実施形態に従って種々のインターフェイスを描画するための実施例プロセスを表す。 種々の実施形態に従って種々のインターフェイスを描画するための実施例プロセスを表す。 種々の実施形態に従って利用可能な、ユーザーの相対位置を判定するための実施例アプローチを表す。 種々の実施形態に従って利用可能な、ユーザーの相対位置を判定するための実施例アプローチを表す。 種々の実施形態に従って利用可能な、デバイス移動を判定するための実施例アプローチを表す。 種々の実施形態に従って利用可能な、デバイス移動を判定するための実施例アプローチを表す。 種々の実施形態の態様を具現するために使用可能な実施例デバイスを表す。 図17に示すようなクライアント・デバイスの実施例構成部品を表す。 種々の実施形態が具現可能な環境を表す。
本開示の種々の実施形態によるシステム及び方法は、ユーザーが電子デバイスとインタラクトすることを可能にする従来のアプローチで経験する前述の課題や他の問題の一つ以上を克服してもよい。特に、種々のアプローチは、デバイスが3D表示モードで作動している場合、(ウェブ・ページ、コンテンツ・ページ、アプリケーション等の)インターフェイスで、三次元(3D)表示及びインタラクションを可能にする。例えば、種々の実施形態は、それらインターフェイスの描画の際に、インターフェイス・エレメントのハイライト化、強調化、アニメ化、あるいは外観及び/または配置の変更が可能である。このことは、エレメントを、3D表示内で表示スクリーンの前面に向けて「前進」させること、すなわち、二次元(2D)表示エレメントに対して疑似三次元レンダリングを施すことを含んでもよい。例えば、インターフェイス・エレメントは、他のインターフェイス・エレメント(例えば、広告)を、3D深度において「後退」、あるいはより小さく見せながら、特定なインターフェイス・エレメント(例えば、テキスト、画像など)が、3D深度において、より大きくなる、及び/または、コンピューティング・デバイスの表示スクリーンの、より表面近くに見えるよう、3D空間内に配置及び/または表示させてもよい。ユーザーが、デバイスを傾ける、回転させる、すなわちデバイスの方位を変化させる、あるいはジェスチャーを実行する(例えば、デバイスに向かって手を振る)またはタッチ入力するとき、インターフェイス・エレメントは、前後に移動しても、あるいは形状または外観を変化させてもよい。いくつかの状況における3D深度または外観は、コンテンツのよりパーソナライズされた表示を提供するために使用可能なユーザー・プロファイル、あるいはコンテンツのデフォルト表示を提供するために使用可能なドキュメント・プロファイルに基づいてもよい。種々の実施形態におけるインターフェイスの外観は、コンピューティング・デバイスの少なくとも一つのカメラを使用して画像をキャプチャすることによって判定可能な、デバイスに対するユーザーの相対位置に基づいて変更させてもよい。この場合、画像を分析することによって、デバイスに対するユーザーの頭または眼の相対位置が判定される。コンピューティング・デバイスの方位及び/または位置の変化は、また、デバイスの少なくとも一つの運動センサを使用しても判定できる。これにより、カメラでキャプチャされた画像情報を使用するものに比べ、より高いサンプリング頻度を提供できる、すなわち、相対位置判定を改善できる。いくつかの状況においては、デバイスの方位及び/または位置の変化を検出するために、デバイスから遠隔に位置して通信接続された別個のセンサが使用されてもよい。方位情報はセンサからデバイスで受信でき、デバイスは、受信方位及び/または位置情報に少なくとも部分的に基づいて、インターフェイスの外観を変更させることができる。いくつかの状況においては、センサが受信した方位及び/または位置情報は、3D表示モードを起動させるために使用できる。したがって、ユーザーは、インターフェイスのインターフェイス・エレメントを見て、それらとインタラクトすることができ、本文で考察及び示唆される種々のアプローチを使用して、種々のインターフェイス・エレメントを介する操作が可能となる。
特定な実施形態においては、(例えば、ウェブ・ページの)第一コンテンツ・ページから第二コンテンツ・ページへナビゲートすべきリクエストが受信された場合、デバイスは、表示スクリーン上の第一コンテンツ・ページの3D表示からの、インターフェイス・エレメントの少なくとも一つのサブセットの3D退去をアニメ化させることができる。例えば、コンテンツ・ページ(例えば、ウェブ・ページ)は、画像、ヘッダ、記事テキスト等の、一つ以上のインターフェイス・エレメントを含んでもよい。上記説明のように、デバイスが3D表示モードで作動する場合、インターフェイス・エレメントは、ハイライト化、強調化、アニメ化、あるいは外観及び/または配置の変更が可能である。種々の実施形態によれば、3D表示モードは、多数の異なるアクティブ化イベントに応じて起動させることができる。例えば、3D表示モードは、デバイスの傾き、回転、振動などの、デバイスの方位及び/または位置の変化の検出に応じて起動させることができる。加えて、あるいは択一的に、3D表示モードは、種々の入力タイプの中から、タッチ入力、音声入力及び/またはジェスチャー入力を介して起動させてもよい。いくつかの状況においては、3D表示モードは、ユーザーが特定なアプリケーションを実行するときに起動させてもよい。種々の実施形態においては、ユーザーが、どのアプリケーションをいつ3D表示モードで作動させるのかを選択可能であってもよい。例えば、3D表示モードが常に有効、いつも不能、あるいは特定な時間にのみ有効を、ユーザーが制御できる。ユーザーは、(もし、そうしたいなら)どのアプリケーションを3D表示モードで作動させるのかを選択できる。さらに、上記説明のように、3D表示モードは遠隔センサで起動できる。例えば、デバイスがセンサの所定検出可能範囲内にある場合に3D表示モードは起動可能になる。
種々の実施形態によれば、3D表示モードは、デバイスが現在のページから新しいページへナビゲートするとき、エレメントのアニメ化3D退去及び3D出現を提供することもできる。アニメーションは、3D空間内で第一ページを「落下させる」ことを含んでもよい。この場合、インターフェイス・エレメントが落下するとき、インターフェイス・エレメントの少なくとも一つのサブセットを、異なる速度でユーザーから離れて行くように表示させてもよい。したがって、インターフェイス・エレメントは、インターフェイス・エレメントが表示スクリーンから出て行くときに回転する、進路を変える、あるいは多数の異なる方式及び異なる速度でアニメ化されるよう表示できる。アニメーションは、さらに、表示スクリーン上に、第一ページのインターフェイス・エレメントの代わりに現れる、第二コンテンツ・ページの一つ以上のインターフェイス・エレメントの3D出現を表示できる。そのようなアニメーションは、ページ・ロードの遅延を覆い隠すために有利に利用できるし、ページの外観を修正、すなわち見栄えを良くするために使用してもよい。本文で説明する実施形態によれば、種々の他のアニメーションも可能であることに注目すべきである。
種々の実施形態は、インターフェイス・エレメントの(外観、アクション等の)3D属性を指定する機能を提供する。例えば、そのようなページの開発者は、3D表示モードが起動されるときに少なくとも一つのインターフェイス・エレメントに適用すべき3D外観変化を指定するのに、(例えば、タグ、CSS、Java(登録商標)Script等の)情報を使用できる。種々の実施形態におけるインターフェイスは、開発者による3D外観変化の指定なく、インターフェイスの少なくとも一つのエレメントに適用すべき3D外観変化を決定してもよい。例えば、インターフェイスは、3D空間内にインターフェイス・エレメントの外観をどのように表示または変更すべきか(例えば、表示スクリーンの前面に向けてエレメントを「前進」させる、あるいはエレメントを表示スクリーンの前面から「後退」させる等)を決定するような情報を含むドキュメント・オブジェクト・モデル(DOM)階層または他のモデル階層を利用できる。
種々の実施形態に関して、以下に、種々の他のアプリケーション、プロセス及び用途を提示する。
図1は、ユーザー102がコンピューティング・デバイス104を使用している実施例状況100を表す。ポータブル・コンピューティング・デバイス(例えば、スマートフォン、電子ブック・リーダまたはタブレット型コンピュータ)が示されているが、入力を確定及び処理可能な種々の他のタイプの電子デバイスが、本文において考察する種々の実施形態に従って使用できることは理解すべきである。これらのデバイスは、例えば、ノート・パソコン、個人データ・アシスタント、ビデオ・ゲーム・コンソールまたはコントローラ、ポータブル・メディアプレーヤと装着型コンピュータ(例えば、スマートウォッチ、スマートグラス等)を含むことができる。この実施例におけるコンピューティング・デバイス104は、画像及び/または動画キャプチャ等の機能を実行するのに利用可能なカメラ106を含む。デバイスは、追加の撮像素子を含んでもよい。例えば、少なくとももう一つのカメラ、電荷結合デバイス(CCD)、運動検出センサまたは赤外線センサ等を含んでもよい。この実施例においては、ユーザー102は、デバイスに対する相対位置関係にあり、ユーザーの視点は、ユーザーの頭または眼とデバイスとの間で決定可能な軌跡110に追従する。本文で考察するように、デバイスは、デバイスの方位を示す情報及びユーザーの頭または眼の位置を示す情報などを利用でき、表示スクリーン上に、あるいはコンピューティング・デバイスの他のそのような構成部品上にインターフェイスを描画し、デバイスが3D表示モードで作動しているときにインターフェイス(例えばウェブ・ページ)の3D表示及びインタラクションを可能にする。種々の実施形態によれば、3D表示モードで作動しているとき、表示スクリーンは、3Dのように見える、あるいは3Dのように作用するが、標準2D表示である場合もある。したがって、種々の実施形態は、それらインターフェイスのレンダリングにおいて、インターフェイス・エレメント(例えば、画像、テキスト、広告など)がハイライト化されることを可能にする。例えば、コンピューティング・デバイスの方位及びユーザーの頭または眼の位置に基づいて、エレメントは、3D表示内で表示スクリーンの前面に向けて「前進」される、すなわち、2D表示エレメントに対する疑似三次元レンダリングが行われる。ユーザー及び/またはコンピューティング・デバイスの移動及びデバイスの方位の変化の結果として、コンピューティング・デバイスに対するユーザーの視点が変化するのに応じて、レンダリングが更新されてもよい。さらに、レンダリングは、種々のインターフェイス・エレメントをどのように相互へ関連付けるかを決定するために、一セットの層深度またはz?レベル等の3Dマッピング情報を利用できる。
例えば、図2は、コンピューティング・デバイス200の表示スクリーン202上に、実施例インターフェイスを表す。この実施例においては、ユーザーは、ウェブ・ページ201の従来の2D表現を見ている。多くの従来のウェブ・ページと同様に、ウェブ・ページの領域は、コンテンツ・タイプ、ウェブ・ページのマークアップ、ウェブ・ページの視覚的分類、及び/またはウェブ・ページのホワイトスペース分析に応じて、ゾーンまたはエリアへ分割できる。この実施例におけるウェブ・ページは、ヘッダ204、記事テキスト206、少なくとも一つの画像208、少なくとも一つのリンク210、広告214、及び種々の他のリンク216を含む。しかしながら、種々の実施形態の態様が、ユーザーがインタラクトできる多種多様な異なるインターフェイス・エレメントを含むことが可能な、種々のタイプのインターフェイスに利用できることは理解すべきである。この実施例においては、ユーザーは、インターフェイス・エレメントを、表示スクリーン202のそのインターフェイス・エレメントに関連づけられた領域に触れることによって選択することができる。ユーザーが、指またはそのようなものでタッチ感応表示スクリーンとインタラクトすることを可能にするアプローチは、本技術において周知であるため、そのようなことは詳述しない。また、とりわけ、カーソルを移動させる、ジェスチャーを実行する、音声指令を発する等の、種々の他の選択アプローチも同様に利用できる。
上述のとおり、デバイスが3D表示モードで作動するとき、デバイスは、例えば、インターフェイス・エレメントの3D表現を描画するよう、インターフェイス・エレメントのレンダリングを変更できる。種々の実施形態においては、ユーザーは、傾ける、回転させる、直進移動させる、瞬時に振る、あるいは、ユーザーに対するデバイスの相対配向を調整するなどして、デバイスの方位を変えることによって、そのようなモードへ入ることができる。デバイスを3D表示モードへ移行させるのに、他の検知可能な入力として、音声指令、タッチ入力、ジェスチャー入力などの、種々の他のアプローチも使用できる。その後、一つ以上のインターフェイス・エレメントを、異なる高さで3D空間内に配置及び/または表示されるよう、出現させてもよい。いくつかの実施形態においては、各インターフェイス・エレメントの高さは、デバイスのユーザーが最も興味があるものに関連させてもよい。このようにすれば、インターフェイス・エレメントの高さによって、関連情報または重要情報を視覚的に示すことが可能である。例えば、記事の最も重要な部分を、最も大きく最も読み易いように隆起させることができる。より重要でないコンテンツは、3D空間内の後方へ移動させてもよい。例えば、広告が、表示スクリーンから後退しているように見えてもよい。いくつかの状況においては、ウェブ・ページ上で広告が高さを競ってもよい。この場合、より高価な広告、あるいは、より関連のある広告は、他の広告またはインターフェイス・エレメントよりも、空間内でより高く視覚化されてもよい。
図3Aに示すように、3D表示モードの起動が検出されると即座に、コンピューティング・デバイス300の表示スクリーン302上に表示されるインターフェイス301は、少なくとも二つの(及び、多くの状況ではより多くの)異なる「レベル」、すなわちz?深度を有するように描画できる。これにより、いくつかのインターフェイス・エレメントの上位レベルが、表示スクリーンの外面近くに現れるように描画され、他のインターフェイス・エレメントの上位レベルが、インターフェイスに対して下位レベルに現れるように(例えば、表示スクリーンの外面から特定な距離で分離して)描画できる。上記説明のように、インターフェイス・エレメントは、とりわけ、ヘッダ304、記事テキスト306、少なくとも一つの画像308、少なくとも一つのリンク310、広告314、及び、種々の他のリンク316などを含むことができる。
種々の実施形態においては、上位レベルに現れるように描画されるインターフェイス・エレメントは、ユーザーに、より重要または関連があると判定されたエレメントであってよい。これらのエレメントは、関連したリンク、記事、画像などを含んでもよい。本文で後に説明するように、重要または関連エレメント及び/またはコンテンツは、一つ以上のユーザー・プロファイル内に含まれてもよいユーザーに関する情報に基づいて決定できる。この実施例においては、リンク316エレメントが、上位レベルに現れるように描画される。そのようなレンダリングは、多くの形態を採ることができる。例えば、エレメントを僅かに大きくする、エレメントに対して影を付ける、及び/または描画した影を調整する、エレメントの鮮明度または焦点レベルを上昇させる、エレメントの色または陰影を調整する、などを行う。画像308エレメント等の種々の他のエレメントを、同様に、上位レベルに位置するように見えるよう描画することもできる。この実施例で説明したように、重要性が低いと判定されたインターフェイス・エレメント、またはインターフェイスの他のエレメントは、インターフェイスの下位レベルに位置するように見えるよう描画できる。例えば、広告314は、ユーザーに重要と判定されたインターフェイス・エレメントよりも、小さく(例えば、短く)見えるよう、または後退させて描画できる。また、エレメントが表示スクリーン等から更に後退したように見せるため、陰影、ぼかし、または低いカラー輝度を施してもよい。種々の実施形態におけるインターフェイスは、少なくとも幾分、アニメ化が可能である。例えば、デバイスの方位及び/またはユーザーの相対位置が変化するときに、特定な重要なエレメントまたは重要度の低いあるいは全く重要でないエレメントが、インターフェイス内で「前進」または「後退」するように見えるよう、外観をゆっくりと変化させてもよい。
種々の実施形態によれば、インターフェイス・エレメントの重要度は、ユーザー・プロファイル、ページ・プロファイル、ユーザー・プロファイルとページ・プロファイルの組み合わせ、または他の情報の一つの少なくとも部分的に基づくことができる。例えば、ユーザー・プロファイルは、ユーザーの視聴の好み、閲覧履歴を示す情報、及び/またはユーザーに関連する他の個人情報を含んでもよい。ユーザーは、とりわけ、オペレーティング・システム・プロファイル、一つ以上のアプリケーションに関連するプロファイル、オンライン・ソーシャル・ネットワーク・プロファイル等の、多数のプロファイルを有してもよく、これらのプロファイルのいずれに含まれる情報も、重要コンテンツまたは関連コンテンツを判定するために使用できる。例えば、ユーザー・プロファイルは、スポーツ、健康、金融、ニュース等に対するユーザーの興味を判定するために使用できるため、これを、他のインターフェイス・エレメントに対するいくつかのインターフェイス・エレメントの相対サイズ(例えば、インターフェイスからの突出)、位置、配置、及び/または外観を決定するために使用できる。例えば、インターフェイス上の特定なリンクが関連コンテンツにリンクすることが判明した場合、そのリンクが、他のインターフェイス・エレメントよりも(例えば、より高く見える)、より前方へ移動するように表示できる。もう一つの実施例では、特定な記事が関連情報であることが判明した場合、その記事のテキストは、そのテキストにインターフェイスの主なフォーカスをあててその相対サイズ及び位置が他のエレメントよりも読みやすくなるよう、3D空間内で配置及び/または表示可能である。このようにすれば、ユーザーに関連すると判定された広告、画像、リンク、記事テキスト、あるいは他のインターフェイス・エレメントは、判定関連度に基づいて、「前進」または「後退」させて配置できる。
種々の他の実施形態におけるページ・プロファイルは、種々のインターフェイス・エレメントの重要度を示す情報を含んでもよく、この情報は、3D空間内でのデバイスの方位、及び/またはデバイスに対するユーザーの相対位置が変化するときに、インターフェイス・エレメントの3D外観(例えば、高さ、位置など)を決定するために使用できる。例えば、インターフェイス・エレメントの外観は、インターフェイスの開発者、デバイスのプロバイダまたは他の者が予め設定できる。例えば、開発者または他の者が、エレメントに対して、異なる重みを割り当ててもよい。この重みは、エレメントの関連性を示し、エレメントの一つ以上に対する高さ、色、外観の少なくとも一つを調整するために使用できる。したがって、種々の実施形態は、インターフェイス・エレメント(例えば、画像、テキスト、広告など)が、それらインターフェイスのレンダリングにおいて、エレメントの重みに少なくとも部分的に基づいてハイライト化されることを可能にする。例えば、コンピューティング・デバイスの方位及びユーザーの頭または眼の位置に基づいて、エレメントは、3D表示内で表示スクリーンの前面に向けて「前進」される、すなわち、2D表示エレメントに対する疑似三次元レンダリングによって、ハイライト化が行われる。種々の実施例における重みは、受けたクリック回数、ユーザーによるエレメントとのインタラクションの量などに基づいてもよい。このようにすれば、インターフェイス・エレメントは、インターフェイス・エレメントの高さが、特定なインターフェイス・エレメントに対する関心度に少なくとも部分的に基づくよう動的に変化することが可能である。例えば、他のインターフェイス・エレメントよりも多くクリックを受けるインターフェイス・エレメントは、他のインターフェイス・エレメントに比べ、高く見えるよう表示できる。
特定な実施形態におけるページ・プロファイル、システム・プロファイル、アクション・プロファイル、または情報の他のリポジトリーは、特定なタイプのインターフェイス・エレメント(例えば、電話番号、電子メール・アドレス等)を識別するように構成された情報を含んでもよい。この場合、エレメントのタイプに基づいて、各々のエレメントの3D外観を変更できる(例えば、エレメントは、デバイスの表示スクリーンの、より表面近くにあるように見えてもよい、エレメントが強調表示されてもよい、など)。また、エレメントの選択、すなわちエレメントとのインタラクションがあった場合は、一つ以上のアクションを発生させてもよい。種々の実施形態によれば、エレメントは、電話番号、アドレス、URL、画像、連絡情報、日付、イベント情報などを含むことができる。アクションは、デバイスに電話アプリケーションを開かせて電話番号をダイヤルさせること、デバイスにナビゲーション・アプリケーションを開かせて住所への道順を提供させること、デバイスにアドレス帳を開かせてアドレスを保存させること、デバイスにウェブ・ブラウザを開かせてURLに示されたウェブ・ページへナビゲートさせること、デバイスに写真アルバムを開かせて画像を保存させること、デバイスにアドレス帳を開かせて連絡情報を保存させること、などを含んでもよい。いくつかの状況においては、ユーザーは、特定されたエレメント、例えば、電話番号を「覗く」ことができ、電話番号に関連する住所、あるいは電話番号の3D表現の一側に表示された電話番号の所有者の画像などの、追加情報を見ることができる。種々の他のエレメント(と関連アクション及び関連情報)が表示できる。提示の実施例が限定するもの、と解釈されないことに注意すべきである。
上記説明のように、インターフェイス・エレメントのレンダリングは、デバイスの方位が変化するにつれ、変わることができる。これには、傾斜、回転、すなわち、デバイスの位置を変化させることを含んでもよい。図3Bは、インターフェイス・エレメントの積み重ねアレンジメントを表す。この実施例におけるコンピューティング・デバイス300は、傾けられている、あるいは回転されている。この場合、そのような変化に起因して、デバイスはインターフェイスの外観を変更可能である。この実施例においては、コンピューティング・デバイス300の方位の変化が検出されると即座に、インターフェイス301は、インターフェイス・エレメントがスタックのようなアレンジメントへ分かれるように描画される。この場合、インターフェイス・エレメントは、積み重なって、すなわち相互に重なって配置されたように見える。デバイスがインターフェイス・エレメントの外観を変更させるために、他の入力も使用できることに注意すべきである。そのような入力は、音声、タッチ及び/またはジェスチャー入力を含んでもよい。例えば、ユーザーが、デバイスの視野内で、デバイスが表示インターフェイス・エレメントの外観を変更させることが可能な身動き、すなわちジェスチャーを行ってもよい。ユーザーによるデバイスの保持、接触、あるいは掌握の検出などの、他の情報も同様に使用できる。例えば、記事テキスト306エレメントは、ビジネス・セクション330に対するリンク・エレメント、スポーツ・セクション332に対するリンク・エレメント、及びカレンダー・セクション334に対するリンク・エレメント上に積み重ねてもよい。種々の実施形態においては、位置、配置及び/または深度などのインターフェイス・エレメントの外観は、ページの著者または開発者、及び/またはこれら二人が共同して設定する等の、インターフェイス・エレメントのユーザーへの重要度または関連度に少なくとも部分的に基づいて決定できる。種々の実施形態におけるデバイスは、関連インターフェイス・エレメントに関連する影の見え方を、それらエレメントがインターフェイス内でより高くに現れるよう調整できる。また、視点が変化するとき、例えば、関連エレメントによる実際の影である印象を与えるために、各影が関連エレメントに対して位置移動可能な3D外観を提供できる。さらに、インターフェイスは、インターフェイス・エレメントの奥行をユーザーの視点から提供するよう現れる側壁または他のエレメントを描画できる。これらエレメントの範囲及び形状は、視点及びデバイスの方位の変化に関連させて調整できる。種々の他の作用も、3D作用を、また、積み重ねたインターフェイス・エレメントの外観を模倣するために、同様に使用できる。この実施例においては、広告は、影なしで下位レベルに描画され、そのインターフェイス・エレメントが低いz?深度に位置する外観を与えるために、リンク330、332及び334の下に配置される。少なくともいくつかのインターフェイスには、3レベル以上があってもよく、付影処理、カラー調整、及び、他のそのような態様の量は、エレメントが関連付けられたレベルに少なくとも部分的に依存してもよい。
上記説明のように、表示コンテンツのタイプ及び/またはコンテンツの配置は、ユーザーのユーザー・プロファイルに少なくとも部分的に基づいて決定できる。上記説明のように、ユーザー・プロファイルは、ユーザーの閲覧履歴またはユーザーに基づく他の嗜好情報などの情報を含むことができる。このようにすれば、デバイスが3D表示モードで作動しているときに、ユーザーに関連すると判定されたコンテンツは、ハイライト化できる、あるいは他のコンテンツよりも目立つように表示できる。例えば、ユーザーのユーザー・プロファイルの情報に基づいて、ビジネス・セクション、スポーツ・セクション及びカレンダー・セクションへのリンクが表示可能である。その理由は、ユーザーがこれらのセクションをしばしば閲覧すると判定されたためである。
種々の状況においては、例えば、読みやすさ、外観、及び/またはコンテンツへのアクセスを改善するため、コンテンツの表示様式が変えられることは有用である。例えば、いくつかの状況においては、立方体等の、3D形状内にコンテンツを表示することは有用である。この場合、コンテンツは、3D形状の壁に表示でき、ユーザーは、異なる壁に表示されたコンテンツ間でナビゲートできる。例えば、図4(a)に示すように、3D表示モードの起動が検出されると即座に、コンピューティング・デバイス400の表示画面402に表示されるインターフェイス401は、3D形状の異なる複数の壁へ分離されたページ・コンテンツ・ゾーンを表示するように描画できる。ページ・コンテンツ・ゾーンは、3D形状の壁のいずれか一つ(または壁の一部)であってもよい。ユーザーは、壁の一つのコンテンツを見るために、そのコンテンツを3D空間内で移動させることができる。また、各々の壁に対して表示されるコンテンツは、一つ以上のインターフェイス・エレメントを含むことができる。上記説明のように、インターフェイス・エレメントは、とりわけ、ページ・ヘッダー404、記事テキスト406、少なくとも一つの画像408、少なくとも一つのリンク410、広告414、及び種々の他のリンク416を含むことができる。立方体を示したが、コンテンツは、どのような3D形状の側面または壁にも描画できることに注意すべきである。
コンピューティング・デバイスのユーザーが、デバイスを傾ける、回転させる、直線移動させる、瞬時に振る、すなわち、デバイスの相対配向を変化させると、コンテンツの表示は、壁の異なる一つのビューを提供するよう調整できる。例えば、ユーザーが、デバイスの軸430の周りに、反時計方向432へデバイスを回転させると、デバイスの回転は、表示コンテンツを相応に(例えば、反時計方向へ)変位させることが可能である。このようにすれば、ユーザーは、その都度、一つの壁または面に集中でき、デバイスを動かすことで、コンテンツをフォーカスへ移動できる。デバイスがインターフェイス・エレメントの外観を変更させるのに、他の入力も使用できることに注意すべきである。例えば、ユーザーは、デバイスの視野内で、表示コンテンツを相応に(例えば、反時計方向へ)転移可能な、反時計方向への動き、すなわちジェスチャーを行ってもよい。図4(b)に示すように、反時計方向へデバイスを回転させる(または、例えば、反時計方向へのジェスチャーを実行する)ことで、インターフェイス・エレメントの相応な回転を引き起こすことができる。この場合、インターフェイスの周りで、広告414、記事テキスト406及びリンク410が、反時計回りの方向に回転する。種々の実施形態によれば、デバイスの回転は、インターフェイス・エレメントの方位及び/または外観に対して多数の変化を引き起こすことができる。例えば、デバイスの回転、あるいは方位における他の変化は、デバイスが読み取りモードまたは他の類似モードへ入ることを引き起こしてもよい。そのようなモードでは、デバイスは、インターフェイスに、例えば、画像、テキスト等の、ページの最も重要な有用部分にピントを合わせさせることが可能である。この場合、そのようなコンテンツは、ページの中央に配置され、他のコンテンツが表示スクリーンの縁へ移動される。
種々の実施形態におけるデバイスは、ユーザーの現在の視点を判定するために、カメラの視野及びユーザーの頭または眼の位置などの情報を使用できる。この視点は、表示スクリーンまたはコンピューティング・デバイスのそのような他のエレメント上にインターフェイスを描画するために使用できる。レンダリングは、ユーザー及び/またはコンピューティング・デバイスの移動の結果として判定視点が変化するのに応じて更新できる。レンダリングは、種々のインターフェイス・エレメントをどのように相互へ関連付けるかを決定するための、一セットの層深度またはz?レベル等の3Dマッピング情報を利用することができる。
例えば、図5Aは、コンピューティング・デバイス500の表示スクリーン502上に表示された実施例インターフェイスを表す。この実施例においては、ユーザー540は、ウェブ・ページ501の従来の2D表現を見ている。多くの従来のウェブ・ページと同様に、このウェブ・ページの領域は、ゾーンまたはエリアへ分割できる。この実施例におけるウェブ・ページは、ヘッダ504と少なくとも一つのリンク510を含む。デバイスは、さらに、カメラの視野542内で、ユーザーの画像などの、一つ以上の画像をキャプチャするように構成された少なくとも一つのカメラ550を含んでもよい。ユーザーの画像は、デバイスに対するユーザーの見方、すなわち凝視方向を判定するために、一つ以上の顔及び/または凝視追跡アルゴリズムを使用して処理できる。凝視方向は、コンピューティング・デバイスの表示スクリーンの、ユーザーが見ているエリア、インターフェイス・オブジェクトまたは他の部分を判定するために使用できる。したがって、インターフェイス・エレメントのレンダリングは、デバイスに対するユーザーの相対凝視方向の変化に応じて、変化可能である。例えば、図5Bに示すように、ユーザーの凝視は、実質的にヘッダ504への視線から、リンク・インターフェイス・アイコン510へ実質的に向いたものへ変化する。種々の実施形態によれば、視線方向の変化は、デバイスがインターフェイス・エレメントの外観を修正することを引き起こす。例えば、ユーザー凝視方向の変化は、表示スクリーン上の、ユーザーが見たい重要なコンテンツまたはエリアを示す可能性がある。したがって、種々の実施形態によるアプローチは、ユーザー凝視方向の変化に基づいて3D表示モードを起動させることを提供できる。したがって、ユーザーが「覗く」、すなわち、デバイスを見渡すことによって、インターフェイス・エレメントの3D表現の縁及び/または側面に追加情報及び/またはコンテンツの表示を可能にするために、インターフェイス・エレメント、コンテンツ、あるいはユーザーの凝視方向にあると判定されるデバイスの他のエリアはインターフェイス・エレメントの3D表現を描画する等の、変更がなされてもよい。このようにすれば、ユーザーが、特定なコンテンツを見るために、表示スクリーンの周りを覗くと、コンテンツは、そのようなコンテンツの読みやすさを改善するハイライト化、強調化、あるいは修正が施されてもよい。また、コンテンツに関連する追加情報が提供されてもよい。
例えば、図6A及び6Bは、コンピューティング・デバイスのインターフェイス上に表示された2Dインターフェイス・エレメントまたは他の2Dコンテンツが、追加のコンテンツ及び/または情報を表示可能な3Dインターフェイス・エレメントへ変形される状況を表す。上記説明のように、デバイスは、デバイスが3D表示モードへ入ったことに応じて、コンテンツを変形できる。3D表示モードは、多数の異なる3D表示モード・アクティブ化イベントに応じて起動できる。例えば、3D表示モードは、傾き、回転、シェイク等の、デバイス方位の変化の検出に応じて起動できる。いくつかの状況においては、3D表示モードを起動させるために使用される方位シフトは、予め設定できるが、種々の実施形態においては、ユーザーは、3D表示モードを起動させるためのアクションとして個人用方位シフトを認識するようデバイスを設定できる、あるいはプログラムできる。3D表示モードを起動させるために、種々の他のアプローチも、同様に使用できる。例えば、3D表示モードは、タッチ入力を介して起動させることができる。この場合、ユーザーは、3D表示モードを起動させるために、物理的なインターフェイス・エレメント及び/またはユーザー選択可能なインターフェイス・エレメントを選択できる、タッチできる、あるいはインタラクトできる。種々の他の実施形態における3D表示モードは、音声及び/またはジェスチャー入力を介して起動できる。いくつかの実施形態においては、3D表示モードは、デバイスが一つ以上の外部ソース(例えば、3D表示モード起動信号、無線信号など)を検出した場合に起動できる。例えば、デバイスが外部ソースの一つの近くに位置するとき、デバイスは、3D表示モードを起動させる。実施例外部ソースは、無線ネットワーク、ピア・ツー・ピア・ネットワーク、電話回線網、RFID信号、モバイル・デバイス、あるいは他のコンピューティング・デバイスなどを含んでもよい。
図6Aは、デバイス方位の変化またはデバイスに対するユーザー凝視方向の変化に応じて、個人のプロファイル表示620を行う2Dインターフェイスを表す。プロファイル表示は、コンピューティング・デバイス600の表示スクリーン602上に表示できる。インターフェイス601、ウェブ・ページまたは他のコンテンツ・ページは、少なくとも、個人に関するプロファイル及び情報622内に個人の画像624を表示できる。この実施例においては、デバイス方位を変化させることによって、3D表示モードが起動できる。例えば、デバイスがユーザーから離れるよう傾斜される(すなわち、デバイスの頂部がユーザーから離れ、デバイスの底部がユーザーへ向かう)。上述のとおり、デバイスが3D表示モードで作動すると、デバイスは、例えば、インターフェイスの3D表現を描画するよう、インターフェイスのレンダリングを変更できる。例えば、図6Bに示すように、デバイス方位の変化を検出すると即座に、個人の画像624の3D表現が描画可能である。種々の実施形態においては、コンテンツの外観及び/または配置に加えて、追加のコンテンツを提供してもよい。追加のコンテンツは、3Dインターフェイス・エレメントに沿って、エレメントの側面または縁などに表示できる。この場合、追加のコンテンツは、テキスト、画像、リンクまたは他の情報を含んでもよい。種々の実施形態においては、コンテンツの外観及び/または配置に加えて、関連する、及び/または興味深い、あるいは有用であると判定された追加コンテンツも提供できる。追加コンテンツは、3Dインターフェイス・エレメントに沿って、エレメントの側面または縁などに表示できる。この場合、追加コンテンツは、テキスト、画像、リンクまたは他の情報を含んでもよい。
例えば、デバイスの3D表現の少なくとも一側に描画されるのが、その個人に関連した情報626であってもよい。関連情報は、他のページへのリンク、プロファイルに関連する情報、プロファイルに関連する画像、あるいは他のタイプの情報を含んでもよい。ユーザーが、インターフェイス・エレメントの異なる側面上のコンテンツを見たい場合は、ユーザーは、エレメントの異なる側面を見せるようインターフェイス・エレメントの表示を変化させるために、デバイスを傾ける、あるいは回転させることができる。図6Cに示すように、デバイスの傾斜に応じて、インターフェイス・エレメントの異なる側面が表示されるようにできる。この実施例におけるインターフェイス・エレメントの露出側面は、プロファイル画像624に関連する一セットの関連画像628などの情報を含んでもよい。デバイスの更なる回転及び/または傾斜は、インターフェイス・オブジェクトの追加の側面が表示されることを引き起こす。この場合、各側面が情報及び/またはコンテンツを含んでもよい。図6Dは、ユーザーが、インターフェイス・エレメントを「覗く」ために、ユーザーへ向けてデバイスを傾斜させた状態を示す。そのような状況では、個人のプロファイルに関連する情報628が、3Dインターフェイス・エレメント内側に描画されてもよい。上記説明のように、この情報は、プロファイルに関連する情報及び/または他のそのような情報を含むことができる。インターフェイス・オブジェクトは、多くの側面、縁または表面を含むことができ、異なる面は、その上に描画されるいずれのタイプの情報を含んでもよいことに注意すべきである。
上記説明のように、種々の状況においては、例えば、読みやすさ、外観、及び/またはコンテンツへのアクセスを改善するために、コンテンツの表示様式を変更できることが有用である。例えば、種々の実施形態においては、インターフェイス・エレメント及び/または他のコンテンツは、単一ページ上に提示でき、ユーザーは、リンクに関連するページをロードする(例えば、エレメント、オブジェクト、あるいは一連のページ・コンテンツ内のコンテンツのページを示す数などの)リンクを選択することによって、一つのページから他のページへナビゲートできる。例えば、図7Aに示すように、コンピューティング・デバイス700の表示スクリーン702上に描画されるインターフェイス701(例えば、ウェブ・ページ)上に、象の画像708が表示される。この実施例においては、ユーザーは、ナビゲーション・リンクまたはエレメント750、752を選択することによって、ウェブ・ページの異なるページへナビゲートできる。例えば、ユーザーは、ナビゲーション・リンク750を選択することによって、ウェブ・ページの第二ページへナビゲートできる。択一的に、ユーザーは、ナビゲーション・リンク752を選択することによって、ウェブ・ページの第三ページへナビゲートできる。少なくともいくつかの実施形態においては、ユーザーは、例えば、画像の3D表現を描画するよう画像のレンダリングを変更するために、3D表示モードを起動させることができる。3D表示モードは、ユーザーがコンテンツとインタラクトする様式をも変更できる。上記説明のように、3D表示モードは、例えば、図7Bに示すように、デバイスを傾けることによって起動できる。この実施例における関連ページは、ページの積み重ねアレンジメントとして表示される。これは、リンク・ページの視覚的な表現を提供する。ユーザーは、図7Cに示すように、例えば、デバイスを傾けることによって、ページをさらに「覗い」てもよい。この場合、デバイスが傾斜されることで、ページは、ユーザーへ少なくともページの一部分が提示されるように積み重なる。それらページ上のコンテンツの少なくとも一部が見えるようにページが積み重なる、すなわち配置されるアレンジメント等の、他のアレンジメントも可能である。ユーザーは、例えば、タッチ入力またはジェスチャー入力を介して、デバイスが選択ページへナビゲートするよう、それらのページとインタラクトすることができる。例えば、ユーザーは、所望のページを選択するのに「タップ」することもできる。ページが選択されると即座に、デバイスは各々のページをロードさせることができる。
種々の実施形態においては、インターフェイス・エレメントは、そのエレメントの縁または側面あるいは他の面に、追加のコンテンツまたは情報を表示できる。例えば、図8Aに示すように、コンピューティング・デバイス800の表示スクリーン802は、インターフェイス801上に少なくとも一つのインターフェイス・オブジェクト808を表示できる。この実施例におけるインターフェイス・オブジェクトは、象の画像である。提示される画像は、象の画像検索の結果、あるいは記事または他のページからの画像であってもよい。この実施例においては、象の3D表現の位置は、表示画像の重要度または関連度を視覚的に示すように調整できる。例えば、3D表現は、「浮く」ように現れてもよい、すなわち、他のインターフェイス・オブジェクトの上方に配置されてもよい。そのように表示することで、その画像が他の画像よりも重要である、あるいは関連性があることを示す。この実施例における他のインターフェイス・エレメント860、862は、画像検索クエリからの関連画像またはインターフェイス・オブジェクトに関連するコンテンツであってもよい。種々の実施形態においては、コンテンツの側面または縁は、その象に関する追加情報を表示するために、外観が変更可能である。例えば、ユーザーが象を選択したことに応答して、側面及び/または縁は、追加情報の表示を許容するために形状変化が可能である。図8Bに示すように、側面812は、追加のコンテンツを収容するために、インターフェイス・エレメント860及び862を更に覆って傾斜するようになる。側面及び/または縁は、象の3D表現の縁及び/または側面の高さ、形状、色などを調整することによって、更に変更させることができる。
上記説明のように、ユーザーの凝視方向は、コンピューティング・デバイスの表示スクリーンの、ユーザーが見ているインターフェイス・エリア、インターフェイス・エレメント、または他の部分を判定するために使用でき、3D表示モードが起動するときに、そのウェブ・ページまたはアプリケーションの、ユーザーが見ているエリアの外観は変更が可能である。例えば、図9(a)は、コンピューティング・デバイス900の表示スクリーン902上の実施例インターフェイス表示を表す。この実施例におけるデバイスは、カメラの視野942内でユーザーの画像などの、一つ以上の画像をキャプチャするように構成された少なくとも一つのカメラ950を含むことができる。ユーザーの画像は、デバイスに対するユーザーの見方、すなわち凝視方向を判定するために、一つ以上の顔及び/または凝視追跡アルゴリズムを使用して処理可能である。凝視方向は、コンピューティング・デバイスの表示スクリーンの、ユーザーが見ているエリア、インターフェイス・オブジェクトまたは他の部分を判定するために使用できる。種々の実施形態によれば、インターフェイス・エレメントのレンダリングは、デバイスに対するユーザーの相対凝視方向の変化に応じて変化が可能である。例えば、従来のウェブ・ページを見ている場合、ユーザーが見ているコンテンツは、ウェブ・ページ上の、それほど重要ではない辺縁のコンテンツ等の、他のコンテンツと同じズーム量にある。種々の実施形態によれば、ユーザーが見ているコンテンツは、コンテンツを見るために拡大鏡を使用したかのように、周囲のコンテンツよりも大きく変更可能である。このようにすれば、コンテンツは、ユーザーがそのコンテンツに目を向けるに応じて、拡大可能である。これにより、ウェブ・ページのいくつかのエリアは大きく見えるよう、コンテンツの他エリアは縮んで見えるようにできる。コンテンツは、異なる独立した比率で拡大及び縮小可能である。これは、コンテンツの同時グローバル及びローカル表示を有利に許容する。
例えば、図9Aに示すように、ユーザーは、ウェブ・ページのエリア916に凝視を集中させている。そのフォーカス・エリアは、ウェブ・ページの縁912及び914等の、ウェブ・ページの他のエリアに比べ、拡大したように見える。ウェブ・ページの縁は、ウェブ・ページ上の他のコンテンツ、フォーカス・エリアに関連するコンテンツ及び/または他のどんなコンテンツであってもよい。ユーザーは、凝視の焦点を変えることによって、ウェブ・ページをナビゲートできる。ユーザーが視線を変え、ユーザーが関心を向けたコンテンツは、拡大可能である、すなわち、関心が集中していることを反映させた外観の変化が可能である。このとき、他のコンテンツは縮小させてもよい。例えば、図9Bに示すように、ユーザーが視線をページの頂部へ移すと、ページ頂部のコンテンツは、拡大される、あるいは、付影処理、強調表示、アニメーションまたは他の外観変化を介して強調化されてもよい。ゆえに、種々の実施形態によれば、ユーザーが、関心エリア間で「移動する」(例えば、ページ内を視点を変えて見渡す)とき、フォーカス・セクションの外観は、フォーカス・エリアのコンテンツを最大化するために、拡大などによって調整可能である。このようにすれば、例えば図9Cに示すように、ユーザーは、単純に凝視の焦点を変えることによって、ページをナビゲートすることができる。この実施例においては、ユーザーの視線がページの左上へ移り、その位置のコンテンツが、拡大されている、すなわち強調されている。コンテンツは、他の様式で強調化できることに注意すべきである。コンテンツの拡大は、コンテンツの外観を変更するアイデアを一般的に表すために使用している。例えば、強調コンテンツは、例えば、スクリーンの特定な部分のみを拡大させ他の部分を拡大させずに、カーブさせても、傾斜させてもよい、すなわち、表示スクリーンの周りに湾曲させてもよい。例えば、表示スクリーン上に表示される物の明瞭度、サイズ及び量を調整可能な、フォーカス・エリアのスクリーン解像度を変化させる等の、他の効果も可能である。
種々の実施形態においては、デバイスは、デバイスが傾けられた、または回転された場合は常に、あるいはデバイスが、ユーザーがメタデータの方向に視線を向けていると判定した場合、ページ上の各オブジェクトに関連するメタデータを表示可能である。この状況において、インターフェイス・エレメントの外観は、同じに留まってもよく、代わりに、エレメント及び/またはページに関連する情報が、強調化される、ハイライト化される、すなわち、情報の3D深度及び/または外観を増大させる等によって修正される。例えば、(例えば、カーソルがオブジェクトの上にあるときに)通常「ホバー」モードで表示される情報が、デバイスが3D表示モードで作動しているときに表示可能な情報の候補であってもよい。メタデータの他の例は、ページ更新の最終時刻、見ている記事へのリンク、記事からの画像、関連データ、見ているページのコンテンツ内に含まれるものに関するメタデータを含んでもよい。
少なくともいくつかの実施形態においては、3D表示モードは、サイト・マップの3D表現を起動させるために使用できる。例えば、図10は、コンピューティング・デバイス1000の表示スクリーン1001上の実施例インターフェイス1002を表す。この実施例においては、現ウェブ・ページ(例えば、ホームページ)は、デバイスを特定な方位に動かすことで、サムネイル・サイズのインターフェイス・エレメントへ縮小される。例えば、ユーザーから離すようデバイスを移動させることで、サイト・マップの表現が描画される。この実施例においては、現ページ(例えば、ホームページ)の周りに結合されたものは、関連ページ、トラフィックの流れ、及び/またはホームページと、その兄弟ページ、親または子ページとの間のリンク接続を表す他のインターフェイス・エレメントである。例えば、図10に示すように、ホームページ1060は、スポーツ・ページ1010、金融ページ1020、ビジネス・ページ1030、カレンダー・ページ1040及び関連ウェブ・ページ1050へ結合されている。ページ間の結合は、種々の厚さ(または重み)、色などの線で表すことができる。種々の実施形態によるサムネイルの高さは、ユーザーがその行き先に移動する可能性に基づいている。この場合、ユーザーが最も興味を示すコンテンツを有するページは、ユーザーの興味が低いページに比べ、より高く表示できる。ページのいずれに対するユーザーの関心も、ユーザーの閲覧履歴または他のプロファイル・データに少なくとも部分的に基づいて判定できる。サムネイルは、3D空間内に相対的に配置可能である。より関連がある、興味深いと判定されたサムネイルはユーザー近くに配置され、ユーザーが興味を示しそうにないサムネイルは、ユーザーから、より離れて配置される。奥行、距離及び方位の出現を描画するのに、陰影、影、及び、種々の他の視覚特性を使用できる。特定なサムネイルへのトラフィック量は、そのサムネイルへのリンクの重みを調整することによって表すことができる。例えば、多くのトラフィック量があるサムネイル(すなわち、ページ)は、閲覧の少ないページに比べ、より重く重みを与えてもよい。リンク数、サムネイル、関連ページ及び他の情報は、ユーザーがページ内へズーム・インまたはアウトしている程度に少なくとも部分的に基づいてもよい。例えば、ズーム・アウト状態では、関連または主要サムネイルは、サムネイル間の接続と共に表示される。ページがズーム・インされると、サムネイルに関連したページが、そのようなページに関連する情報と、(例えば、それらページのコンテンツの現在の表示の)スナップショット等のサムネイルと一緒に表示されてもよい。
図11は、種々の実施形態による種々のインターフェイスを描画するための実施例プロセスを表す。本文で考察するプロセスに対しては、特に明記しない限り種々の実施形態の範囲内で、類似または代替順序で、あるいは平行に実行可能な追加の、より少ない、あるいは代わりのステップが存在できることを理解すべきである。この実施例においては、3D表示モードは、コンピューティング・デバイス上で起動される1102。この実施例は、3D表示、及び(ウェブ・ページ、コンテンツ・ページ、アプリケーション等の)インターフェイスとのインタラクションを可能にすることを含む。例えば、種々の実施形態は、デバイスの方位及び/またはユーザーのデバイスに対する視点に少なくとも基づいて、インターフェイス・エレメントが、それらインターフェイスのレンダリングにおいて、ハイライト化、強調化、アニメ化、あるいは外見及び/または配置の変更を受けることを可能にする。いくつかの実施形態における3D表示モードは、コンピューティング・デバイスが作動しているときはいつでも、スリープ・モードまたは他のそのような低電力状態にあってさえ、自動的にオンになってもよい。他の実施形態における3D表示モードは、アプリケーションを実行される、またはインターフェイスにアクセスがあると即座に自動的に起動する、あるいはユーザー選択によって手動で起動される。同様に、種々の他のアクティブ化イベントが利用されてもよい。
キャプチャした画像情報は、コンピューティング・デバイスに対するユーザーの頭(または他のそのような部位)の相対位置を判定する1104ために、本文の他の箇所で考察したように分析できる。考察したように、画像情報を使用して、初期相対位置が判定できる。その相対位置の変化は、画像情報と運動センサ情報との組み合わせを使用して判定できる。例えば、画像データから追加の位置特定情報が利用可能になるまで、視点を更新するのに運動センサ・データを使用できる。そうすることによって、判定への必要な補正または調整が行える。現在の相対ユーザー視点に対して、ウェブ・ページの2D表現がデバイスの表示スクリーン上に表示されるよう、インターフェイスが描画できる1106。上記説明のように、ウェブ・ページは、ヘッダ、記事テキスト、少なくとも一つの画像、少なくとも一つのリンク、広告及び種々の他のリンク等の、一つ以上のインターフェイス・エレメントを含むことができる。デバイス方位の変化が検出された1108場合、一つ以上のインターフェイス・エレメントの少なくとも一つのサブセットからなる三次元外観または多層外観、あるいは他のそのような態様が描画される1110。これは、3D表示のレンダリングにおいて、すなわち二次元(2D)表示スクリーン上の疑似三次元レンダリングにおいて、エレメントが表示スクリーンの表面近くに現れるようエレメントを「前進」させることを含んでもよい。種々の実施形態によれば、エレメントを前進させることは、例えば、エレメントのサイズ、形状、付影処理、焦点/ぼかし及び/または着色を調整することを伴ってもよい。例えば、インターフェイス・エレメントは、特定なインターフェイス・エレメント(例えば、テキスト、画像など)が、3D深度において大きくなるよう、及び/または、コンピューティング・デバイスの表示スクリーンの、より表面近くに現れるようにしながら、他のインターフェイス・エレメント(例えば、広告)は、3D深度において「後退」させる、すなわち、小さく現れるよう、3D空間内に配置されても、及び/または表示されてもよい。ユーザーがデバイスを傾ける、回転させる、すなわち、デバイスの方位を変化させる1112と、インターフェイス・エレメント1114は、前後に移動しても、あるいは形状または外観を変化させてもよい。入力が完了したら、あるいはユーザーが3D表示モードを終えたら、エレメントは、「後退」させても、あるいは2D描画へ戻ってもよい。例えば、エレメントが有効に表示されたときに実行されたものに逆行する調整、あるいは他の調整を実行することによって、そのインターフェイスに対するレンダリング・プロセスは、終了できる。
さらに、いくつかの実施形態においては、特定なエレメントをスクリーンにより近く見せる機能は、同様に、他の目的にも使用できる。例えば、高優先度アイテム(例えば、迫ってきた面会の約束または新しいメッセージ)は、インターフェイス内の高いレベルに描画してもよい。他のアプローチ、例えば、既読メッセージに対して未読メッセージを高いレベルへ上げる、古いコメントに対して新しいソーシャル・ネットワーク・コメントを近くに寄せる等も、同様に使用できる。本文に含む教示及び提案を参照する本技術における通常の知識を有する者には明白であるが、本文で考察及び示唆する態様は、種々のインターフェイス・アプローチに利用可能である。
種々の実施形態によれば、ユーザーが、他のページへナビゲートするリンクを選択、クリック、すなわちインタラクトすると、デバイスは、表示スクリーン上の第一コンテンツ・ページの3D表示からの、インターフェイス・エレメントの少なくとも一つのサブセットの3D退去をアニメ化させてもよい。例えば、図12Aは、コンピューティング・デバイス1200の表示スクリーン1202上の実施例インターフェイス表示1201を表す。表示スクリーン上に表示されているのが、現ページの表現である。この実施例における表示は、象の画像である。現ページから他のページへのナビゲート・アニメーションは、そのページの3D空間内における第一の高さ1222から第二の高さ1224への「落下」1220を含んでもよい。ページは、一つ以上のセクション、エリア、セグメントまたはインターフェイス・エレメント(1230、1232、1234)へ分離されてもよい。その後、インターフェイス・エレメントの少なくとも一つのサブセットは、図12Cに図示するように、異なる速度で移動するように表示させてもよい。さらに、インターフェイス・エレメントがコンピューティング・デバイスの表示スクリーンから出て行くときに、インターフェイス・エレメントは、回転させて、傾斜させて、振動させて表示させてもよい、すなわち、多数の異なる様式でアニメ化させてもよい。アニメーションは、さらに、表示スクリーン上の第二のページの一つ以上のインターフェイス・エレメント(1260、1262、1264、1266、1268)の3D外観を表示させてもよい。第二のページの複数のインターフェイス・エレメントは、図12Dに示す第二のページ1280を描画する等の、第二のページのレンダリングが完了するまで、第一ページの複数のインターフェイス・エレメントを置換することができる。いくつかの状況においては、第二ページ生成アニメーションは、スティッチイング、フュージング、すなわち、第二のページの複数のインターフェイス・エレメントを結合させることを含んでもよい。他のアニメーションも可能である。特定な実施形態においては、第二セットのコンテンツがロードする、すなわち第二のページが描画される出現速度または時間は、ネットワーク速度(例えば、データ接続速度)に依存する場合もある。例えば、デバイスが高速ネットワークへ接続された状況(例えば、高速モバイル接続またはネットワーク・データ接続)では、出現アニメーションは、第一ページから第二ページへのナビゲート遅延が比較的短いため、素早く実行される。デバイスが低速ネットワーク接続へ結合された状況では、第二ページ出現アニメーションは、遅延が比較的長いため、より時間を要する。いずれの状況であっても、そのようなアニメーションは、コンテンツ・ページのロード中の遅延を覆い隠すのに有利に使用できる。また、ページの出現及び/または退去を修正または向上させるために使用できる。
図13は、種々の実施形態による種々のインターフェイスを描画するための実施例プロセスを表す。この実施例においては、3D表示モードは、コンピューティング・デバイス上で起動される1302。この実施例は、3D表示及び(ウェブ・ページ、コンテンツ・ページ、アプリケーション等の)インターフェイスとのインタラクションを可能とする。上記説明のように、3D表示モードは、コンピューティング・デバイスが作動しているときはいつでも、スリープ・モードまたは他のそのような低電力状態にあってさえ、自動的に起動されてもよい。他の実施形態における3D表示モードは、アプリケーションが実行される、あるいはインターフェイスにアクセスがあると即座に、自動的に起動される、または手動でユーザーの選択と同時に起動される。種々の他のアクティブ化イベントも、同様に利用できる。3D表示モードは、デバイスに、3D空間内に一つ以上のインターフェイス・エレメントを表示させる。例えば、インターフェイス・エレメントは、特定なインターフェイス・エレメント(例えば、テキスト、画像など)が、3D深度において、より大きく、及び/またはコンピューティング・デバイスの表示スクリーンの、より表面近くに現れ、他のインターフェイス・エレメント(例えば、広告)が、3D深度において「後退」する、あるいはより小さく見えるよう、3D空間内に配置及び/または表示されてもよい。ユーザーがデバイスを傾斜させる、回転させる、すなわち、デバイスの方位を変化させると、インターフェイス・エレメントは、前後に移動できる、あるいは形状または外観を変化させることができる。この実施例においては、第一ウェブ・ページの三次元表示が、コンピューティング・デバイスの表示スクリーン上に表示されている1304。第一ページは、画像、テキスト、広告などの、複数のインターフェイス・エレメントを含むことができる。
第一ページ(例えば、ウェブ・ページ)から第二ページへナビゲートするようリクエストが受信される1306と、デバイスは、表示スクリーン上の第一コンテンツ・ページの3D表示からの、インターフェイス・エレメントの少なくとも一つのサブセットの3D退去をアニメ化させる1308。例えば、アニメーションは、3D空間内で第一ページを「落下」させることを含んでもよい。この場合、インターフェイス・エレメントが落下するときに、インターフェイス・エレメントの少なくとも一つのサブセットは、異なる速度でユーザーから離れて行くように表示できる。したがって、インターフェイス・エレメントは、インターフェイス・エレメントが表示スクリーンから出て行くときに回転する、向きを変えるように表示できる。すなわち、多数の異なる方式及び異なる速度でアニメ化されてもよい。そのアニメーションは、さらに、表示スクリーン上に、第一ページのインターフェイス・エレメントの代わりに現れる第二コンテンツ・ページの一つ以上のインターフェイス・エレメントの3D外観を表示できる1310。その後、第二ウェブ・ページの表現が表示可能である1312。種々の実施形態においては、そのウェブ・ページの表現は2D表現であってもよい。また、他の実施形態においては、その表現は3D表現であってもよい。種々の実施形態によれば、そのようなアニメーションは、ページ・ロードの遅延を覆い隠すために有利に使用できる。また、ページの見栄えを修正する、あるいは向上させるために使用できる。
図14は、種々の実施形態による種々のインターフェイスを描画するための実施例プロセスを表す。上記説明のように、種々の実施形態は、インターフェイス(例えば、ウェブ・ページ、アプリケーション等)または他のページ上に表示されたインターフェイス・エレメントの(外観、アクション等の)3D属性を指定する機能を提供する。この実施例においては、コンピューティング・デバイスの表示スクリーン上にウェブ・ページを表示するようユーザーからのリクエストが受信される1402。ウェブ・ページは、インターフェイス・エレメントの中から、画像、テキスト、リンク等の、一つ以上のインターフェイス・エレメントを含んでもよい。ドキュメント・オブジェクト・モデルが生成されてもよい1404。ドキュメント・オブジェクト・モデルは、ウェブ・ページ上に少なくとも一つのインターフェイス・エレメントを表示するために使用される情報を含むことができる。ドキュメント・モデルは、一つ以上のノードを含むツリー構造に組織されてもよい。また、それらのノードの少なくとも一つのサブセットは、少なくとも一つのタグと関連させてもよい。
また、インターフェイス・エレメントの少なくとも一つのサブセットは、3D表示モードが起動されるときに各々のインターフェイス・エレメントに適用すべき3D外観変化を指定するタグ、属性または他のエレメントに関連させてもよい。タグによって指定される3D外観変化は、少なくとも一つのエレメントのサイズ、形状、陰影効果、焦点、着色、位置及び/またはアニメーションの、少なくとも一つの変化を含むことができる。いくつかの状況においては、タグによって指定される外観変化のタイプは、ユーザー・プロファイルまたはページ・プロファイルの一方に少なくとも部分的に基づいてもよい。この場合、ユーザー・プロファイルは、ユーザーのウェブ履歴またはユーザー・プレファレンスの少なくとも一方を示す情報を含み、ページ・プロファイルは、デフォルト三次元表現を示す情報を含む。いくつかの状況におけるタグは、複数の三次元外観変化を指定するように構成できる。この場合、各々のタグは、コンピューティング・デバイスの方位に少なくとも部分的に基づき、三次元外観変化を引き起こす。例えば、タグは、デバイスが第一方位にある場合に第一の三次元外観変化を指定でき、また、タグは、デバイスが第二の方位にある場合に第二の三次元変化を指定できる。
いくつかの実施形態においては、そのようなページの開発者が、適用すべき3D外観変化を指定するための情報(例えば、タグ、CSS、Java(登録商標)Script等)を使用できる。また、他の実施形態においては、インターフェイスが、インターフェイスの少なくとも一つのエレメントに適用すべき3D外観変化を、開発者による3D外観変化の指定なく決定してもよい。例えば、インターフェイスは、3D空間内におけるインターフェイス・エレメントの、(例えば、表示スクリーンの前面に向けてエレメントを「前進」させること、または表示スクリーンの前面からエレメントを「後退」させることによる)外観の表示方法または変更方法を決定するような情報を含むDOM階層、オブジェクト・モデルまたは他のモデル階層を利用できる。
ウェブ・ページの2D表現が表示されている1406。デバイス方位の変化が検出されると1408、三次元表示モードが起動される1410。このことが、デバイスに、一つ以上のインターフェイス・エレメントの少なくとも一つのサブセットからなる3Dまたは多層外観、あるいは他のそのような態様を描画させる。上記説明のように、種々の実施形態は、インターフェイス・エレメントが、それらインターフェイスのレンダリングにおいて、デバイスの方位及び/またはユーザーのデバイスに対する視点に少なくとも基づいて、ハイライト化、強調化、アニメ化、あるいは外見及び/または配置の変更を受けることを可能にする。デバイス方位の以降の変化が検出される1410と、3D外観変化は、タグで指定されているように、少なくとも一つのインターフェイス・エレメントへ適用されてもよい1412。その後、ウェブ・ページの少なくとも一部分の3D表現が表示される1414。種々の実施形態においては、タグ付けがされていないエレメントに、アクションが関連付けられてもよい。例えば、エレメントのタイプに基づいて、エレメントの外観は、デバイスの表示スクリーンの、より表面近くに現れるように変更でき、エレメントの選択、すなわちエレメントとのインタラクションがあった場合に一つ以上のアクションが発生する。種々の実施形態によれば、エレメントは、電話番号、アドレス、URL、画像、連絡情報、日付、イベント情報などを含むことができる。アクションは、デバイスに電話アプリケーションを開かせて電話番号をダイヤルさせること、デバイスにナビゲーション・アプリケーションを開かせて住所への道順を提供させること、デバイスにアドレス帳を開かせてアドレスを保存させること、デバイスにウェブ・ブラウザを開かせてURLに示されたウェブ・ページへナビゲートさせること、デバイスに写真アルバムを開かせて画像を保存させること、デバイスにアドレス帳を開かせて連絡情報を保存させること等を含んでもよい。例えば、インターフェイス・エレメントが電話番号である状況では、電話番号を選択することにより、デバイスの電話アプリケーションがその電話番号へ電話をすることになる。もう一つの実施例は、画像の3D表現を描画すること、及び、その画像が選択された場合に画像をセーブする、あるいは保存するように構成されたプロンプトまたは他のインターフェイス・エレメントを提供することを含んでもよい。さらにもう一つの実施例は、ページ上で製品を特定すること、製品の3D表現を描画すること、及び、とりわけ、電子マーケットのウィッシュ・リストまたはショッピングカートへその製品を保存するように構成されたボタンまたは他のインターフェイス・エレメントを製品と一緒に提供することを含んでもよい。
少なくともいくつかの実施形態においては、コンピューティング・デバイスは、ユーザーの相対方向を判定するための一つ以上のカメラまたは他のそのようなセンサを利用可能である。例えば、図15Aは、コンピューティング・デバイス1502が、視点判定のために、ユーザーの容貌、例えばユーザーの頭または眼を位置づけようとする、少なくとも一つのカメラ・エレメント1506を利用するように構成された実施例状況1500を表す。この実施例におけるユーザーの眼1504は、コンピューティング・デバイス1502のカメラの視野1508内に位置している。しかし、本文の他の箇所で考察するように、ユーザーの視点は、ユーザーの眼、瞳、頭、あるいは少なくとも一般的な視点を示すことが可能な他のそのような特徴の位置を用いて判定できる。いくつかの実施形態におけるデバイスは、レンダリングのために一般的な視点を判定するのに、ユーザーが保持している、あるいはユーザーが身に着けているオブジェクトを探してもよい。さらに、いくつかの実施形態においては、デバイスは、デバイス上に十分に離れて配置された少なくとも二つの異なるカメラを利用してもよい。その場合、デバイスは、三次元において、デバイスに対する一つ以上の容貌的特徴の相対位置を判定するために、立体撮像(または他のそのようなアプローチ)を利用できる。同じまたは異なるタイプの追加の撮像素子が、種々の実施形態の範囲内で、同様に、デバイスの種々の他の位置に備えられてもよいことは、理解すべきである。
コンピューティング・デバイス(あるいはコンピューティング・デバイスと通信状態にあるデバイス)上で実行中のソフトウェアは、例えば、カメラの視野角、情報が現在キャプチャされているズーム・レベル等の情報、及び他のそのような関連情報を取得できる。このことは、ソフトウェアが、カメラに対するユーザーの眼の少なくとも一つのおよその方向1510を判定することを可能にする。多くの実施形態においては、方向情報は、妥当な視点依存レンダリングを提供するのに十分である。しかし、少なくともいくつかの実施形態においては、より一貫性のある正確なレンダリングを提供するために、ユーザーまでの距離をも判定できることが望ましい場合もある。いくつかの実施形態においては、位置判定を支援するために、超音波検出、特徴サイズ分析、動的照明による輝度分析などの方法、または他のそのような距離測定アプローチを利用してもよい。他の実施形態においては、立体撮像を介しての距離判定を可能にするために、第二のカメラを使用してもよい。任意の容貌的特徴に対する少なくとも二つの撮像素子からの方向ベクトルが決定されたら、それらのベクトルの交点が確定できる。これは、視差マッピング及び他のそのような手法で知られるように、その特徴の三次元におけるおよその相対位置に一致する。
そのような実施例アプローチをさらに説明するために、図15Bは、図15Aのカメラ1506を使用してキャプチャ可能な、ユーザーの頭及び眼の実施例画像1520を表す。ユーザーの眼などの目立つ特徴を認識するために、パターン認識、形状認識、または他のそのようなプロセスを画像分析の目的で実行する一つ以上の画像解析アルゴリズムを使用してもよい。画像内の特徴を識別するそのようなアプローチは、特徴検出、顔面特徴抽出、特徴認識、立体視検知、文字認識、属性推定、または放射基底関数(RBF)分析アプローチを含んでもよい。これらは、本技術において周知であるため、本文では詳細に考察しない。この実施例で説明するように、ユーザーの両眼は、キャプチャ画像情報内に位置付け可能である。少なくともいくつかのアルゴリズムは、各々の眼に対するおよその位置または領域1522、1524、あるいはユーザーの頭の少なくともおよその位置1528を判定可能である。この場合、それらの位置または領域の少なくとも一つは、視点判定に使用される。しかし、そのような情報は、所望の感度レベル及びユーザーとデバイスとの間の距離等の要因に応じて、視点判定の精度に影響を与える可能性がある。種々の実施形態によるアプローチは、人間の脳が、「単一の」視点を提供するのに両眼からの情報を組み合わせて処理するという事実を利用してもよい。したがって、ソフトウェアは、ユーザーの視点に関して利用するために、ユーザー両眼の中間点1526を判定しようとしてもよい。本文の他の箇所で考察するような、種々の他のアプローチも、同様に使用できる。画像情報内に相対位置を決定したならば、デバイスは、カメラの視野、デバイスに対するカメラの位置、カメラのズーム・レベル等の情報、及び他のそのような情報を使用して、ユーザーの相対方向を判定できる。その相対方向は、インターフェイスを描画する際に使用する視点のために用いる。
しかし、位置を追跡するためにカメラを使用する場合、精度は、カメラのフレーム率によって少なくとも部分的に制限される。さらに、画像はプロセスにいくらかの時間がかかるため、判定には、幾分の遅延が発生する可能性がある。デバイス方位の変化は比較的急速に発生するため、少なくともいくつかの実施形態においては、視点判定の精度を向上させることが望ましい。いくつかの実施形態においては、コンピューティング・デバイスの、視点判定の調整を支援可能なセンサまたは他のそのようなエレメントが、コンピューティング・デバイスの動きを判定するために使用されてもよい。センサは、デバイスの回転及び/または並進移動に関する情報を提供可能な、いずれの適切なセンサであってもよく、加速度計、慣性センサ、電子ジャイロスコープ、電子コンパス等を含んでもよい。
例えば、図16Aは、コンピューティング・デバイスのカメラ1610の視角1608内で、オブジェクト1604(例えば、ユーザーの頭)の画像をキャプチャ可能なコンピューティング・デバイス1602を表す「平面図」1600である。この実施例においては、コンピューティング・デバイス1602は、二次元または三次元でデバイスの第一方位に対する基準系1606を決定可能な、少なくとも一つの方位定素子または回転測定素子、例えば電子コンパスまたは電子ジャイロスコープを含む。少なくともいくつかの実施形態においては、電子コンパスが、基準系1606の軸を決定するために使用されてもよく、これが北の方角などと一致してもよい。他の実施形態においては、電子ジャイロスコープ等の構成部品は、コンパス等の構成部品で周期的に較正してもよいが、代わりに、3回転軸に関する経時的方位変化を測定してもよい。1、2または3回転軸に関する方位変化を測定する種々の他のアプローチが、同様に、種々の実施形態の範囲内で使用されてもよい。
第一基準系1606または方位は、コンピューティング・デバイス1602のカメラ1610による第一画像のキャプチャ時に、または、その近くで決定されてもよい。いくつかの実施形態におけるその決定は、画像をキャプチャする入力、あるいは他のそのようなアクションの入力を受信することによって実行されてもよい。しかし、他の実施形態においては、基準系及び/または方位情報は、電子ジャイロスコープのタイプ及び/または構成に基づいて、1秒ごとに数回などと周期的に更新されてもよい。ジャイロスコープは、種々の消費者向けデバイスに使用される従来のMEMSジャイロスコープ等の、いずれの適切な電子ジャイロスコープ部品であってもよい。そのようなジャイロスコープを実装して方位変化を取得するアプローチは、本技術において周知であるため、そのようなことは詳述しない。
図16Bは、コンピューティング・デバイス1602の方位変化後を表す第二の平面図1610である。この実施例における電子ジャイロスコープ(または他のそのような構成部品あるいは埋込型センサ)は、標的特徴の平面における基準系に対する角度1612変化に対応して、方位変化を検出可能である。ジャイロスコープは、方位変化に関する情報を適切な形態で、例えば、一つ、二つまたは、三つの角(例えば、Δx、Δy、Δz)に対する変化を角度またはラジアン等で、傾斜、横揺れ及び偏揺などをパーセンテージ変化で提示できる。この実施例における方位変化は、単軸の周りの、任意の回転角度量1612として測定される。図解するように、ここでは、オブジェクト1604が、カメラ1610の視野1608の右縁へ移動されている。少なくともいくつかの実施形態におけるジャイロスコープは、正確な回転量を提供する十分な精度を有しなくともよいが、サーチ領域を狭めて画像内の対応するオブジェクトの位置づけを促進可能な回転量の近似または推定を提供できることが好ましい。さらに、その情報は、少なくともいくつかの実施形態のカメラから提供可能なものに比べ、相対位置の、より高速な調整または予測を提供してもよい。類似のアプローチは平行移動にも使用できる。キャプチャ画像内のオブジェクトに関する平行移動の影響は、角変化ほど大きくはないが、画像情報は、少なくともいくつかの実施形態における平行移動変化を判定するのに十分かもしれない。
図17は、種々の実施形態に従って使用可能な実施例電子コンピューティング・デバイス1700を表す前面及び背面図である。ポータブル・コンピューティング・デバイス(例えば、スマートフォン、電子ブック・リーダまたはタブレット型コンピュータ)を示しているが、入力を受信及び処理可能ないずれのデバイスも、本文で考察する種々の実施形態に従って使用できることは理解すべきである。デバイスは、例えば、デスクトップ・コンピュータ、ノート・パソコン、電子ブック・リーダ、個人データ・アシスタント、携帯電話、ビデオ・ゲーム・コンソールまたはコントローラ、テレビ受信機セット・トップ・ボックス、及びポータブル・メディアプレーヤ等を含むことができる。
この実施例におけるコンピューティング・デバイス1700は、デバイスの一人以上のユーザーまたは視聴者へ情報または画像コンテンツを表示するように作動可能な表示スクリーン1702(例えば、LCD素子)を有する。いくつかの実施形態の表示スクリーンは、表示スクリーン(例えば、表示スクリーンと同じ、コンピューティング・デバイスの側面)に対向する視聴者へ情報を表示する。この実施例におけるコンピューティング・デバイスは、一つ以上の撮像素子を含んでもよい。この実施例では、デバイスの前側に二つの撮像素子1704、及び、デバイスの裏側に少なくとも一つの撮像素子1710を含む。しかし、撮像素子は、また、デバイスの側面または角にも、あるいは択一的に配置され、類似の、あるいは異なるタイプの、適切な数の撮像素子があってもよいことは理解すべきである。撮像素子1704及び1710の各々は、例えば、カメラ、電荷結合デバイス(CCD)、運動検出センサまたは赤外線センサ、あるいは他の撮像技術であってもよい。
本文で考察するように、デバイスは、周囲環境の三次元シミュレーション(例えば、デバイスの表示素子上に表示される周囲環境の仮想現実)を生成するために、撮像素子1704及び1710からキャプチャされた画像(例えば、スチールまたはビデオ)を使用できる。さらに、デバイスは、ユーザーの位置及び/または方位を判定する際に、及び近くの人、物体または位置を認識する際に支援するために、撮像素子1704及び1710の少なくとも一つからの出力を利用できる。例えば、ユーザーがデバイスを保持している場合、キャプチャ画像情報は、ユーザーのおよその位置及び/または方位を判定するために、(例えば、特定エリアに関するマッピング情報を使用して)分析できる。キャプチャ画像情報は、近くの人、物体または位置を認識するために、(例えば、マッピング情報からのパラメータまたはエレメントに合致させることによって)分析されてもよい。
コンピューティング・デバイスは、少なくともいくつかのデバイスには音響要素は必要ではないが、オーディオ・データ、例えば、デバイスのユーザーが話すことば、デバイス近くの人による鼻歌、または近くのスピーカから発生している音楽、あるいは他のそのような要素をキャプチャすることが可能な、少なくとも一つのマイクまたは他の録音素子を含んでもよい。この実施例では、前側に一つのマイク1708、後側に一つのマイク1712、及び、デバイスの頂部または側面に、あるいはその近くに一つのマイク1706と、三つのマイクが設けられている。いくつかのデバイスでは、単一のマイクを備えてもよいし、他のデバイスでは、デバイスの各側面及び/または角に、あるいは他の適切な位置に少なくとも一つのマイクを備えてもよい。
この実施例におけるデバイス1700は、また、デバイスの位置、方向、移動または方位などの情報を提供するように作動可能な、一つ以上の方位または位置測定素子1718も含む。これらの素子は、例えば、加速度計、慣性センサ、電子ジャイロスコープ及び電子コンパスを含んでもよい。
実施例デバイスは、また、少なくとも一つの通信メカニズム1714も含む。例えば、一つ以上の電子デバイスと通信するように作動可能な、少なくとも一つの有線または無線構成部品を含んでもよい。デバイスは、また、パワー・システム1716をも含む。例えば、従来のプラグイン・アプローチを介して再充電可能な、あるいは、パワー・マットまたは他のそのようなデバイスとの近接を介した容量性充電などの、他のアプローチを介して再充電可能なバッテリを含んでもよい。種々の他の素子及び/またはそれらの組み合わせは、種々の実施形態の範囲内で同様に可能である。
図18は、図17に関して説明したデバイス1700等の、電子コンピューティング・デバイス1800の一セットの基本構成部品を表す。この実施例におけるデバイスは、メモリ・デバイスまたはメモリ素子1804に保存可能な命令を実行するための、少なくとも一つの処理ユニット1802を含む。本技術における通常の知識を有する者には明らかであるが、デバイスは、処理ユニット1802が実行するためのプログラム命令のための第一データ記憶装置など、多くのタイプのメモリ、データ記憶装置またはコンピュータ可読媒体を含んでもよい。同じ、あるいは別個の記憶装置が、画像またはデータに対して使用されてもよい。他のデバイスとの情報交換には、リムーバブル・メモリが利用可能である。また、他のデバイスとのシェアリングには、多くの通信アプローチが利用可能である。
デバイスは、典型的に、タッチ・スクリーン、電子インク(eインク)、有機発光ダイオード(OLED)または液晶ディスプレイ(LCD)等の、いくつかのタイプの表示素子1806を含む。しかし、ポータブル・メディアプレーヤ等のデバイスは、オーディオ・スピーカを介する等の、他の手段を介して情報を伝達してもよい。
上記考察のように、多くの実施形態におけるデバイスは、周囲環境の画像をキャプチャ可能な、及びデバイス近くのユーザー、人々または物体を画像化可能な一つ以上のカメラ等の、少なくとも一つの撮像素子1808を含む。その撮像素子は、ユーザーがデバイスを操作しているときに、ユーザーの画像をキャプチャするのに十分な解像度、焦点範囲及び可視領域を有するCCD撮像素子などの、適切な技術を含んでもよい。コンピューティング・デバイスと共にカメラ素子を使用する撮像方法は、本技術において周知であるため、本文では詳細に考察しない。撮像は、単一の画像、複数の画像、定期的撮像、連続撮像、画像ストリーミング等を使用することで実行できることは、理解すべきである。さらに、デバイスは、ユーザー、アプリケーションまたは他のデバイスからコマンドを受信する等の際に、撮像を開始及び/または停止させる機能を含んでもよい。
実施例コンピューティング・デバイス1800は、また、デバイスの方位及び/または移動を測定及び/または検出可能な、少なくとも一つの方位測定素子1810を含む。そのような素子は、例えば、デバイス1800の(回転移動、角変位、傾き、位置、方位、非線形経路に沿った移動などの)移動を検出するように作動可能な加速度計またはジャイロスコープを含んでもよい。方位測定素子は、また、(例えば、主軸または他のそのような態様に対して)デバイスの向きを判定する方角(例えば、北または南)を指すことが可能な、電子コンパス、すなわちデジタル・コンパスを含んでもよい。
上記考察のように、多くの実施形態のデバイスは、デバイス(またはデバイスのユーザー)の位置を測定するための、少なくとも位置特定素子1812を含む。位置特定素子は、GPSまたは、デバイスの位置に対する相対座標を測定するように作動可能な類似の位置測定素子を含んでも、あるいはそのように構成されてもよい。上述のとおり、位置特定素子は、位置情報をブロードキャスト可能な、または、デバイスの位置判定のための信号による三角測量を可能にするワイヤレスアクセスポイント、ベース・ステーション等を含んでもよい。他の位置特定素子は、デバイスが位置情報を検出及び受信することを可能にするQRコード、バーコード、RFIDタグ、NFCタグ等を含んでも、あるいは、デバイスが位置情報を取得することを(例えば、識別子を対応位置へマッピングすることによって)可能にする識別子を含んでもよい。種々の実施形態は、適切な組み合わせで、一つ以上のそのような素子を含むことができる。
上述のとおり、いくつかの実施形態は、デバイスの位置を追跡するために、それらの素子を利用する。デバイスの初期位置を(例えば、GPSを使用して)決定すると、いくつかの実施形態のデバイスは、その素子を使用することにより、あるいは、いくつかの実施例では、上記のように方位測定素子を使用することにより、または、それらの組み合わせによって、デバイスの位置を追跡し続けてもよい。理解すべきは、位置及び/または方位を判定するために利用するアルゴリズムまたはメカニズムが、デバイスに利用可能な素子の選択に少なくとも部分的に依存することである。
実施例デバイスは、また、特定な無線チャネルの通信範囲内で一つ以上の電子デバイスと通信するように作動可能な、一つ以上の無線構成部品1814をも含む。無線チャネルは、Bluetooth、セルラ、NFCまたはWi?Fiチャネル等の、デバイスをワイヤレス通信可能にするために用いる適切なチャネルであってよい。デバイスは、本技術において既知である一つ以上の従来の有線通信接続を有してもよいことは、理解すべきである。
デバイスは、また、パワー・システム1816をも含む。例えば、従来のプラグイン・アプローチを介して再充電されるよう、または、パワー・マットまたは他のそのようなデバイスとの近接を介した容量性充電などの他のアプローチを介して再充電されるように作動可能なバッテリを含んでもよい。種々の他の素子及び/またはそれらの組み合わせは、種々の実施形態の範囲内で同様に可能である。
いくつかの実施形態におけるデバイスは、ユーザーからの従来の入力を受信可能な、少なくとも一つの追加の入力デバイス1818を含んでもよい。この従来の入力デバイスは、例えば、押しボタン、タッチパッド、タッチ・スクリーン、ホイール、ジョイスティック、キーボード、マウス、キーパッド、あるいは、ユーザーにデバイスへのコマンド入力を可能にする他のそのようなデバイスまたは素子を含むことができる。いくつかの実施形態においても同様に、これらの入出力デバイスは、無線赤外線またはBluetooth、あるいは他のリンクによってでさえも結合が可能である。いくつかのデバイスは、また、音声コマンドまたは他のオーディオ・コマンドを受け取るマイクまたは他の録音素子を含んでもよい。例えば、デバイスは、ボタンを全く含まずに、ビジュアル及びオーディオ・コマンドの組み合わせを介してのみ制御されてもよい。その場合、ユーザーは、デバイスとの接触を必要とせずに、デバイスを制御できる。
いくつかの実施形態においては、デバイスは、ユーザーまたはアプリケーションからコマンドを受信する、あるいはオーディオ入力またはビデオ入力などを判定するためにリトライする等の際に、検出モード及び/またはコマンド・モードを起動及び/または停止する機能を含んでもよい。いくつかの実施形態においては、デバイスは、例えば、一つ以上の検出モードを起動させるのに使用可能な赤外線検出素子または運動センサを含んでもよい。例えば、デバイスは、部屋の中にユーザーがいない場合にデバイスの検出、あるいはデバイスとの通信を試みなくともよい。赤外線検出素子(すなわち、状態変化を検出する1ピクセル解像度の検出器)が、例えば、部屋へ入るユーザーを検出した場合、デバイスは、検出または制御モードを起動させて、ユーザーに必要とされた場合への準備を整えられるが、ユーザーが近くにいない場合はパワー及びリソースを節約できる。
種々の実施形態によるコンピューティング・デバイスは、デバイスが環境光を浴びているか、あるいは比較的または完全な暗闇にあるかどうかを判定可能な光検出素子を含んでもよい。そのような素子は、多数の状況下で有益でありえる。従来の特定なデバイスでは、(光検出素子が環境光から実質的に遮蔽されることを生じる)ユーザーが携帯電話を顔へ保持していることを判定するために、光検出素子が使用される。このことにより、(耳にデバイスを保持している間ユーザーは表示素子を見ることができないため)電話の表示素子を一時的に停止する等のアクションが誘発されてもよい。光検出素子は、デバイスの機能性を調整するために、他の素子からの情報と併せて使用できる。例えば、デバイスがユーザーの視点位置を検出できない状態で、ユーザーがデバイスを保持していないが、デバイスが環境光を浴びている場合、デバイスは、ユーザーが置き去りにした可能性が高いと判定して表示素子をオフにし、特定な機能を無効にしてもよい。デバイスがユーザーの視点位置を検出できない状態で、ユーザーがデバイスを保持しておらず、さらに、デバイスが環境光を浴びていない場合、デバイスは、ユーザー・アクセスがない可能性が高いバッグまたは他のコンパートメントへデバイスが入れられていると判定してオフに、あるいは利用可能であったであろう追加の機能を無効にしてもよい。いくつかの実施形態においては、デバイスの特定な機能を起動させるためには、ユーザーが、デバイスへ目を向けている、デバイスを保持している、あるいは光の中へデバイスを出している、のいずれかでなければならない。他の実施形態におけるデバイスは、(明るい状況に対しては)反射性及び(暗い状況に対しては)放射性などの、異なるモードで作動可能な表示素子を含んでもよい。検出された光に基づいて、デバイスはモードを変化させてもよい。
マイクを使用する際、デバイスは、電力節約とは実質的に無関係な理由により、他の機能を無効にしてもよい。例えば、デバイスは、小児等の、デバイス近くの人々を判定するために、音声認識を使用し、その結果に基づき、インターネット・アクセスまたはペアレンタル・コントロール等の機能を無効に、あるいは有効にできる。さらに、デバイスは、デバイスが自動車または飛行機内にあるかどうか等の、環境を判定しようとの試みで録音ノイズを分析できる。その判定は、どの機能を有効または無効にすべきか、または、他の入力に基づいてどのアクションがなされるべきかを決定する助けとなり得る。音声認識が使用される場合、ことばを入力として使用できる。そのことばは、デバイスへ直接的に話されても、あるいは、会話を介して間接的に拾われてもよい。例えば、デバイスが、自動車の中にありユーザーに対向していると判定し、例えば、「お腹がすいている」または「食べる」等のことばを検出したら、デバイスは、表示素子を起動させて、近くのレストラン等の情報を表示してもよい。プライバシー及び他のそのような目的で、ユーザーが音声録音及び会話モニタリングを無効にするオプションがあってもよい。
上記実施例のいくつかにおけるデバイスによるアクションは、電力消費を低減する目的で、特定な機能性を停止することに関する。しかし、アクションは、デバイスの使用に関わる類似の、及び他のあり得る問題を調整可能な、他の機能に対応させてもよいことは理解すべきである。例えば、ウェブページ・コンテンツを要求する、ハード・ドライブのコンテンツを探索する、及び種々のアプリケーションを開く等の特定な機能は、完了するのにある程度の時間を要する場合がある。リソースが限られた、あるいは使用の激しいデバイスにとって、同時に多数のそのような作動が発生することは、デバイスが失速することを招き、ロックアップすることさえあり得る。そのようなことが起こることは、非効率であり、ユーザー体験を劣化させ、場合によっては、より多くの電力を消費することにもなりかねない。
これらの少なくともいくつかの問題及び他のそのような問題に対処するために、種々の実施形態によるアプローチは、処理能力、メモリ・スペース及び他のそのようなリソースの必要性を拡散させる目的で、使用されそうなリソースを起動させるのにユーザー凝視方向等の情報を利用できる。
いくつかの実施形態におけるデバイスは、十分な処理機能を有してもよい。また、撮像素子と関連分析アルゴリズムは、キャプチャ画像のみに基づいて、デバイスの移動、ユーザーの頭の移動、ユーザーの眼の移動及び他のそのような動きを区別するのに十分な感度を有してもよい。他の実施形態においては、かなり単純な撮像素子及び分析アプローチをプロセスに利用するのが望ましい等の場合、デバイスの現在の方位を測定可能な、少なくとも一つの方位測定素子を含むことが望ましいこともある。一つの実施例における少なくとも一つの方位測定素子は、デバイスの三次元位置とデバイスの移動量及び方向等の要因ならびに振動、衝撃などを検出可能な、少なくとも一つの単軸または多軸加速度計である。デバイスの方位または移動を測定する加速度計等の素子の使用方法は、本技術において既知でもあるため、本文では詳細に考察しない。方位及び/または移動を検出するための他の素子も、方位測定素子として種々の実施形態の範囲内で同様に使用できる。加速度計または類似の素子からの入力が、カメラからの入力と一緒に利用される場合、相対移動は、より正確に判定できるため、より正確な入力となり、及び/または、より単純な画像解析アルゴリズムでも許容可能である。
デバイス及び/またはユーザーの移動を検出するために、コンピューティング・デバイスの撮像素子が使用される場合、例えば、コンピューティング・デバイスは、移動を判定するために画像内の背景を使用できる。例えば、ユーザーが、ユーザーに対して固定方位(例えば、距離、角度など)となるようデバイスを保持し、ユーザーが周囲環境に対して方位を変化させる場合、ユーザーのみの画像分析は、デバイスの方位変化を検出することにはならない。むしろ、いくつかの実施形態におけるコンピューティング・デバイスは、ユーザーの後の背景画像内の変化を認識することによって、そのような場合でもデバイスの移動を検出できることになる。したがって、例えば、物体(例えば、窓、絵、木、茂み、ビル、自動車など)が画像内で左または右へ移動する場合、デバイスは、たとえユーザーに対するデバイスの方位に変化がなくとも、デバイスの方位が変化したと判定できる。他の実施形態におけるデバイスは、デバイスに対してユーザーが移動したことを検出し、それに応じて調整してもよい。例えば、デバイスに対してユーザーが頭を左または右へ傾けた場合、表示素子上に描画されるコンテンツは、ユーザーの方位にコンテンツを維持するように同様に傾いてもよい。
上記考察のように、説明の実施形態に従って、種々の環境内に、異なるアプローチが具現できる。例えば、図19は、種々の実施形態による態様を具現するための環境1900の実施例を表す。ウェブに基づく環境が説明の目的で使用されるが、種々の実施形態を具現するために、異なる環境が適切に使用されてもよいことは理解すべきである。システムは、電子クライアント・デバイス1918、1920、1922及び1924を含む。これらは、適切なネットワーク1904を介して、リクエスト、メッセージまたは情報を送受信するように作動可能な、適切なデバイスを含み、デバイスのユーザーへ情報を返信することができる。そのようなクライアント・デバイスの実施例は、パーソナル・コンピュータ、携帯電話、ハンドヘルド・メッセージ通信デバイス、ラップトップ・コンピュータ、セット・トップ・ボックス、パーソナル・データ・アシスタント、電子ブック・リーダなどを含む。ネットワークは、イントラネット、インターネット、携帯電話ネットワーク、ローカル・エリア・ネットワークまたは他のそのようなネットワーク、あるいはそれらの組み合わせを含んで、いずれの適切なネットワークをも含むことができる。ネットワークは、「プッシュ」ネットワーク、「プル」ネットワーク、あるいはそれらの組み合わせであってもよい。「プッシュ」ネットワークでは、一つ以上のサーバが、クライアント・デバイスへデータを押し出す。「プル」ネットワークでは、一つ以上のサーバが、クライアント・デバイスによるデータに対するリクエストがあると同時に、クライアント・デバイスへデータを送信する。そのようなシステムに使用する構成部品は、選択されたネットワーク及び/または環境のタイプに、少なくとも部分的に依存してもよい。そのようなネットワークを介する通信のためのプロトコル及び構成部品は、周知であるため、本文では詳細に考察しない。ネットワークを介する通信は、有線または無線接続、及びそれらの組み合わせを介して可能であってもよい。この実施例におけるネットワークは、その環境が、リクエストを受信し、それへの応答としてコンテンツを送信するためのウェブ・サーバ1906を含んでいるため、インターネットを含む。他のネットワークに対しては、本技術における通常の知識を有する者には明らかであるが、類似の目的を果たす代替デバイスが使用されてもよい。
図示の環境は、少なくとも一つのアプリケーション・サーバ1908及びデータ・ストア1910を含む。複数のアプリケーション・サーバ、レイヤーまたは他の素子、プロセスあるいは構成部品が存在し、チェーン状に繋がれても、または他の構成にあってもよいことは、理解すべきである。これらは、適切なデータ・ストアからデータを取得すること等のタスクを実行するために、インタラクト可能である。本文で使用する用語「データ・ストア」は、データを保存し、アクセスし、読み出すことが可能なデバイス、またはデバイスの組み合わせに言及し、標準型分配化環境またはクラスタ化環境内に、データサーバ、データベース、データ記憶デバイス及びデータ記憶媒体の、いずれの組み合わせ及び個数を含んでもよい。アプリケーション・サーバ1908は、クライアント・デバイスのために一つ以上のアプリケーションの態様を実行する必要に応じて、データ・ストア1910と統合させるための、及びアプリケーションのためにデータアクセス及びビジネス・ロジックの大部分を処理するための、いずれの適切なハードウェア及びソフトウェアを含んでもよい。アプリケーション・サーバは、データ・ストアと協調してアクセス制御サービスを提供し、ユーザーへ伝達されるべきテキスト、グラフィクス、オーディオ及び/またはビデオ等のコンテンツを生成可能である。この実施例においては、これらは、HTML、XMLまたは他の適切な構造化言語の形態でウェブ・サーバ1906によって、ユーザーへ提供されてもよい。すべてのリクエスト及びレスポンスの処理、ならびにクライアント・デバイス1918、1920、1922及び1924とアプリケーション・サーバ1908との間のコンテンツの送達は、ウェブ・サーバ1906によって処理することができる。本文の他の箇所で考察するように、ここで考察する構造化コードは、いずれの適切なデバイスまたはホストマシン上でも実行できるので、ウェブ・サーバ及びアプリケーション・サーバが必須ではなく、単に実施例としての構成部品であることは、理解すべきである。
データ・ストア1910は、特定な態様に関連するデータを保存するための、複数の別個のデータテーブル、データベースまたは他のデータ記憶メカニズム及びメディアを含んでもよい。例えば、図示のデータ・ストアは、コンテンツ(例えば、生産データ)1912及びユーザー情報1916を保存するためのメカニズムを含む。これらは、生産サイドにコンテンツを提供するために使用できる。データ・ストアは、また、ログまたはセッション・データ1914を保存するためのメカニズムを含んで示されている。ページ画像情報及びアクセス権情報等の、データ・ストアへの保存が必要と思われる多くの他の態様があってもよいことは、理解すべきである。それらは、上記にリストしたメカニズムのいずれかに適切に、あるいはデータ・ストア1919内の追加メカニズムに保存できる。データ・ストア1919は、アプリケーション・サーバ1908からの命令を受信し、それに対する応答として、データを取得、更新または処理するよう、それに関連するロジックを介して作動可能である。一つの実施例においては、ユーザーは、特定なタイプのアイテムに対する検索リクエストを出してもよい。このケースでは、データ・ストアは、ユーザー識別を検証するために、ユーザー情報にアクセスしてもよく、また、そのタイプのアイテムに関する情報を取得するために、カタログ詳細情報にアクセスできる。その情報は、それから、ユーザーへ、ユーザー・デバイス1918、1920、1922及び1924のいずれかでブラウザを介してユーザーが見ることができるウェブ・ページ上の結果リスト等として返信できる。特定な関心アイテムに対する情報は、ブラウザの専用ページまたはウィンドウ内で見ることができる。
各サーバは、典型的に、そのサーバの一般的な管理及び作動のための実行可能プログラム命令を提供するオペレーティング・システムを含み、また、典型的に、サーバのプロセッサによって実行された場合に意図された機能をサーバに実行させることが可能な命令を保存するコンピュータ可読媒体を含む。オペレーティング・システムのための適切な実装例とサーバの一般的な機能性は、既知であり、あるいは市販されており、本技術分野における通常の知識を有する者には、特に本文の開示を参照して容易に具現できるものである。
一つの実施形態における環境は、一つ以上のコンピュータ・ネットワークまたは直接接続を利用する通信リンクを介して相互接続された複数のコンピュータ・システム及び構成部品を利用する分散コンピューティング環境である。しかし、本技術における通常の知識を有する者は、そのようなシステムが、図19に図示するものに比べ、より少数の、あるいは多数の構成部品のシステムでも等しく作動できることを理解できる。したがって、図19のシステム1900の図示は、開示の範囲を制限しない例示的なものと理解すべきである。
種々の実施形態は、さらに、多種多様な操作環境に具現でき、いくつかのケースでは、複数のアプリケーションのいずれをも作動させるように利用可能な、一つ以上のユーザー・コンピュータまたはコンピューティング・デバイスを含んでもよい。ユーザーまたはクライアント・デバイスは、標準オペレーティング・システムを実行しているデスクトップまたはラップトップ・コンピュータ等の、多数の汎用パーソナル・コンピュータのいずれを含んでもよい。また、モバイル・ソフトウェアを実行している多数のネットワーク・プロトコル及びメッセージ通信プロトコルをサポート可能なセルラ、無線及びハンドヘルドのデバイスを含んでもよい。そのようなシステムは、開発及びデータベース管理等の目的で、種々の購入可能なオペレーティング・システムのいずれか及び他の既知のアプリケーションを実行している多数のワークステーションを含んでもよい。これらのデバイスは、ダミー端末、シン・クライアント、ゲーム・システム等の他の電子デバイス、及びネットワークを介して通信可能な他のデバイスを含むこともできる。
ほとんどの実施形態は、TCP/IP、OSI、FTP、UPnP、NFS、CIFS及びAppleTalk等の、種々の購入可能なプロトコルのいずれかを利用する通信をサポートするための、当業技術者に既知である少なくとも一つのネットワークを利用する。ネットワークは、例えば、ローカル・エリア・ネットワーク、広域ネットワーク、仮想私設通信網、インターネット、イントラネット、エクストラネット、公衆交換電話網、赤外線ネットワーク、無線ネットワーク、及びそれらの組み合わせであってもよい。
ウェブ・サーバを利用する実施形態におけるウェブ・サーバは、HTTPサーバ、FTPサーバ、CGIサーバ、データサーバ、Javaサーバ及びビジネスアプリケーション・サーバを含む種々のサーバ・アプリケーションまたはミッドティア・アプリケーションのいずれをも実行可能である。サーバは、ユーザー・デバイスからのレスポンス・リクエストにおいてプログラムまたはスクリプトを実行可能である。例えば、Java(商標)、C、C#またはC++、あるいはPerl、PythonまたはTCL等のスクリプト言語及びそれらの組み合わせなどのプログラミング言語で書き込まれた一つ以上のスクリプトまたはプログラムとして実装可能な、一つ以上のウェブ・アプリケーションを実行する等によって可能である。サーバは、また、データベースサーバを含んでもよく、オラクル(商標)、マイクロソフト(商標)、サイベース(商標)及びIBM(商標)から購入可能なものを限定せずに含む。
環境は、上記に考察したように、種々のデータ・ストア、他のメモリ及び記憶メディアを含むことができる。これらは、一つ以上のコンピュータの近くにある(及び/または、その中に常駐する)、あるいはネットワークを横切って、それらコンピュータのいずれか、またはすべてから遠隔にある記憶メディア等として、種々の場所に存在できる。実施形態の特定なセットにおける情報は、当業技術者に既知であるストレージ・エリア・ネットワーク(SAN)内に存在してもよい。同様に、コンピュータ、サーバまたは他のネットワーク・デバイスに帰する機能を実行するのに必要ないずれのファイルも、局所に及び/または遠隔に適切に保存されてもよい。システムが複数のコンピュータ化デバイスを含む場合、各デバイスは、バスを介して電気的に結合可能なハードウェア素子を含むことができる。その素子は、例えば、少なくとも一つの中央処理ユニット(CPU)、少なくとも一つの入力デバイス(例えば、マウス、キーボード、コントローラ、タッチ感応表示素子またはキーパッド)、及び、少なくとも一つの出力デバイス(例えば、表示デバイス、プリンタまたはスピーカ)を含む。そのようなシステムは、ディスク・ドライブ、光記憶デバイス及びソリッドステート記憶デバイス等の一つ以上の記憶デバイスを含んでもよい。例えば、ランダム・アクセス・メモリ(RAM)またはリードオンリ・メモリ(ROM)、及び可換型メディア・デバイス、メモリカード、フラッシュ・カード等を含む。
そのようなデバイスは、また、上記説明のように、コンピュータ可読記憶メディア・リーダ、通信デバイス(例えば、モデム、ネットワーク・カード(無線または有線)、赤外線通信デバイス)、及びワーキングメモリを含んでもよい。コンピュータ可読記憶メディア・リーダは、コンピュータ可読記憶媒体と結合できる、あるいはコンピュータ可読記憶媒体を受容するように構成できる。この場合のコンピュータ可読記憶媒体は、遠隔、ローカル、固定及び/またはリムーバブル記憶デバイス、及びコンピュータ可読情報を一時的に、及び/または、より恒久的に含む、保存する、送信する、読み出すための記憶メディアを表す。システム及び種々のデバイスは、また、典型的に、少なくとも一つのワーキングメモリ・デバイス内に位置する多数のソフトウェア・アプリケーション、モジュール、サービスまたは他のエレメントをも含み、クライアント・アプリケーションまたはウェブ・ブラウザ等のオペレーティング・システム及びアプリケーション・プログラムを含む。代替の実施形態には、上記説明のものからの多数の異形があってもよいことは理解すべきである。例えば、カスタマイズ・ハードウェアも使用できる。及び/または特定な素子は、ハードウェア、(アプレット等のポータブル・ソフトウェアを含んで)ソフトウェアまたは両方で具現されてもよい。さらに、ネットワーク入出力デバイス等の、他のコンピューティング・デバイスへの接続が利用されてもよい。
コードまたはコードの一部を含むための記憶メディア及びコンピュータ可読媒体は、本技術で既知である、あるいは使用されている、いずれの適切なメディアをも含むことができる。例えば、限定せずに、コンピュータ可読命令、データ構造、プログラム・モジュールまたは他のデータ等の情報の記憶及び/または伝送のための、いずれの方法またはテクノロジーで具現された揮発性及び不揮発性、リムーバブル及び非リムーバブル・メディア等の記憶メディア及び通信媒体を含む。これらには、RAM、ROM、EEPROM、フラッシュ・メモリまたは他のメモリ・テクノロジー、CD?ROM、デジタル多用途ディスク(DVD)または他の光記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶装置または他の磁気記憶デバイス、あるいは所望の情報を保存するために使用可能で且つシステム・デバイスによってアクセス可能な他のメディアをも含む。本文に提供する開示及び教示に基づいて、本技術における通常の知識を有する者は、種々の実施形態を具現するための他の様式及び/または方法を理解することができる。
したがって、明細書及び図面は、限定的な意味ではなく、むしろ例示的なものと見なすべきである。しかし、これらに対しては、請求項に記載の本発明の広い理念及び範囲を逸脱せずに、種々の修正及び変化が可能であることは明確である。
本開示の実施形態は、以下の条項を考慮して説明できる。
1.表示スクリーン、
少なくとも一つのコンピューティング・デバイス・プロセッサ、及び
命令を含むメモリ・デバイスからなるコンピューティング・デバイスであって、
それら命令が少なくとも一つのコンピューティング・デバイス・プロセッサによって実行されると、コンピューティング・デバイスに、
コンピューティング・デバイスの表示スクリーン上にウェブ・ページを表示するようにとのユーザーからのリクエストを受信させる、
ウェブ・ページ上に少なくとも一つのオブジェクトを表示するために使用される情報を含み、少なくとも一つのオブジェクトが、表示スクリーン上に三次元表示モードが起動されたときに少なくとも一つのオブジェクトに適用すべき三次元外観変化を指定するタグに関連付けられているドキュメント・オブジェクト・モデルを生成させる、
少なくとも一つのオブジェクトを含むウェブ・ページの二次元表現を表示させる、
コンピューティング・デバイスのユーザーに対するコンピューティング・デバイスの方位変化を検出させる、
コンピューティング・デバイスの方位変化に応じて三次元表示モードを起動させる、及び
タグで指定された少なくとも一つのオブジェクトに対する三次元外観変化を適用させることが可能になる、コンピューティング・デバイス。
2.タグで指定された三次元外観変化が、サイズ、形状、陰影効果、焦点、着色、位置またはアニメーションにおける少なくとも一つの変化を含む、条項1に記載のコンピューティング・デバイス。
3.ドキュメント・オブジェクト・モデルが、さらに、少なくとも一つのオブジェクトに適用すべき三次元外観変化を指定する一つ以上の属性を含む、条項1に記載のコンピューティング・デバイス。
4.コンテンツ・ページ上に複数のオブジェクトの少なくとも一つのオブジェクトを表示するために、少なくとも一つのオブジェクトが、表示スクリーン上に三次元表示モードが起動されたときに少なくとも一つのオブジェクトに適用すべき三次元外観変化を指定する属性に関連付けられているオブジェクト・モデルを処理すること、
コンピューティング・デバイスの表示素子上にコンテンツ・ページの二次元表現を表示すること、及び
三次元表示モードを起動させることに応じて、属性に少なくとも部分的に基づき、少なくとも一つのオブジェクトへ三次元外観変化を適用することからなる、コンピュータによる実行方法。
5.さらに、コンピューティング・デバイスのユーザーの相対位置に関してコンピューティング・デバイスの方位変化を検出すること、
コンピューティング・デバイスの方位変化に応じて、コンテンツ・ページに対して三次元表示モードを起動させること、及び
コンテンツ・ページが、属性に少なくとも部分的に基づいて三次元表示モードで表示されている間、少なくとも一つのオブジェクトの三次元表現を表示することからなり、
少なくとも一つのオブジェクトの三次元表現が、少なくとも一つの他のオブジェクトに比べ、表示スクリーンの、より表面近くに現れるように表示される、条項4に記載のコンピュータによる実行方法。
6.属性が、コンテンツ・ページの開発者の少なくとも一人によって、または、コンテンツ・ページを描画するように構成されたアプリケーションによって指定される、条項4に記載のコンピュータによる実行方法。
7.属性が、HTMLタグ、階層式スタイルシートまたはJavaScriptの少なくとも一つを使用して指定される、条項4に記載のコンピュータによる実行方法。
8.属性が、複数の三次元外観変化を指定するように構成され、各々の属性が、コンピューティング・デバイスの方位に少なくとも部分的に基づいて三次元外観変化を引き起こす、条項4に記載のコンピュータによる実行方法。
9.オブジェクト・モデルが、一つ以上のノードを含むツリー構造に組織化され、また、ノードの少なくとも一つのサブセットが、少なくとも一つの属性に関連付けられている、条項4に記載のコンピュータによる実行方法。
10.属性が、ユーザー・プロファイルまたはページ・プロファイルの一方に少なくとも部分的に基づいており、ユーザー・プロファイルが、ユーザーのウェブ履歴またはユーザー・プレファレンスの少なくとも一方を示す情報を含み、また、ページ・プロファイルが、デフォルト三次元表現を示す情報を含む、条項4に記載のコンピュータによる実行方法。
11.さらに、属性に少なくとも部分的に基づき、一つ以上のレイヤーに積み重なって現れるようにコンテンツ・ページを描画することからなり、複数のオブジェクトの少なくとも第一オブジェクトが、複数のオブジェクトの少なくとも第二オブジェクトの上方の距離に位置するように現れる、条項4に記載のコンピュータによる実行方法。
12.さらに、属性に少なくとも部分的に基づき、三次元形状の少なくとも一側に複数のオブジェクトの少なくとも一つのオブジェクトを描画することからなり、少なくとも一つのオブジェクトが、三次元形状内に現れるように描画される、条項4に記載のコンピュータによる実行方法。
13.さらに、コンピューティング・デバイスの少なくとも一つのセンサを用いて、コンピューティング・デバイスの方位または位置の少なくとも一方における変化を検出すること、及び
属性に少なくとも部分的に基づき、少なくとも一つのオブジェクトが、三次元形状の第一側から三次元形状の第二側へ移動するように見えるよう、少なくとも一つのオブジェクトのレンダリングを調整することからなる、条項12に記載のコンピュータによる実行方法。
14.さらに、コンピューティング・デバイスの以降の方位変化を測定すること、
少なくとも一つのオブジェクトの第二側を表示するために、属性に少なくとも部分的に基づき、少なくとも一つのオブジェクトの回転をアニメ化すること、及び
少なくとも一つのオブジェクトの第二側に、少なくとも一つのオブジェクトに関する第二セットのコンテンツを表示することからなる、条項4に記載のコンピュータによる実行方法。
15.さらに、コンピューティング・デバイスのユーザーの凝視方向を測定すること、
ユーザーの凝視方向に少なくとも部分的に基づき、表示素子上に位置を決定すること、及び
属性に少なくとも部分的に基づき、表示素子上に表示された他の一つのオブジェクトに相対的に拡大されて現れるようにオブジェクトの外観をその位置に調整することからなる、条項4に記載のコンピュータによる実行方法。
16.さらに、複数のオブジェクトの一つのオブジェクト・タイプを決定すること、
複数のオブジェクトの一つに関連付けられるアクションを決定すること、
オブジェクト・タイプに少なくとも部分的に基づき、複数のオブジェクトの一つの3D外観を描画すること、及び
複数のオブジェクトの一つの選択を受信したことに応答して、コンピューティング・デバイスに前記アクションを実行させることからなる、条項4に記載のコンピュータによる実行方法。
17.コンテンツ・ページ上に複数のオブジェクトの少なくとも一つのオブジェクトを表示するために、少なくとも一つのオブジェクトが、表示スクリーン上に三次元表示モードが起動されたときに少なくとも一つのオブジェクトに適用すべき三次元外観変化を指定する属性に関連付けられているオブジェクト・モデルを処理すること、
コンピューティング・デバイスの表示素子上にコンテンツ・ページの二次元表現を表示すること、及び
三次元表示モードを起動させることに応じて、属性に少なくとも部分的に基づき、少なくとも一つのオブジェクトへ三次元外観変化を適用することからなる一セットの作動を実行するための、一つ以上のプロセッサによって実行可能な一つ以上のシーケンスの命令を保存する、非一時的なコンピュータ可読記憶メディア。
18.さらに、属性に少なくとも部分的に基づき、一つ以上のレイヤーに積み重なって現れるように複数のオブジェクトを描画する作動を実行するための、一つ以上のプロセッサによって実行される命令を含み、複数のオブジェクトの少なくとも第一オブジェクトが、複数のオブジェクトの少なくとも第二オブジェクトの上方の距離に位置するように現れる、条項17に記載の非一時的なコンピュータ可読記憶メディア。
19.さらに、属性に少なくとも部分的に基づき、三次元形状の少なくとも一側に複数のオブジェクトの少なくとも一つのオブジェクトを描画する作動を実行するための、一つ以上のプロセッサによって実行される命令を含み、少なくとも一つのオブジェクトが、三次元形状内に現れるように描画される、条項17に記載の非一時的なコンピュータ可読記憶メディア。
20.さらに、コンピューティング・デバイスの少なくとも一つのセンサを用いて、コンピューティング・デバイスの方位または位置の少なくとも一方における変化を検出する、及び
属性に少なくとも部分的に基づき、ウェブ・ページ・マップの三次元表現を描画する作動を実行するための、一つ以上のプロセッサによって実行される命令を含み、ウェブ・ページ・マップが、コンテンツ・ページの3D表現及び第二コンテンツ・ページの3D表現を含み、コンテンツ・ページの3D表現が、少なくとも一つの三次元ラインを用いて、第二コンテンツ・ページの3D表現へ結合される、条項17に記載の非一時的なコンピュータ可読記憶メディア。
本開示の実施形態は、さらに、以下の条項を考慮して説明できる。
1.表示スクリーン、
少なくとも一つのコンピューティング・デバイス・プロセッサ、及び
命令を含むメモリ・デバイスからなり、それら命令が、少なくとも一つのコンピューティング・デバイス・プロセッサによって実行されると、コンピューティング・デバイスに、
コンピューティング・デバイスの表示スクリーン上に、複数のインターフェイス・エレメントを含む第一ウェブ・ページの三次元表現を表示させる、
第一ウェブ・ページから第二ウェブ・ページへナビゲートするようにとのユーザーからのリクエストを受信させる、及び
リクエストを受信したことに応答して、
表示スクリーン上の第一ウェブ・ページの三次元表示からの複数のインターフェイス・エレメントの少なくとも一つのサブセットの三次元退去をアニメ化させる、及び
第一ウェブ・ページの複数のインターフェイス・エレメントのサブセットに代わる、第二ウェブ・ページの一つ以上のインターフェイス・エレメントの、表示スクリーン上への三次元出現をアニメ化させることが可能になる、コンピューティング・デバイス。
2.命令が実行されると、さらに、コンピューティング・デバイスに、
所定の速度で少なくとも一方向へ表示スクリーンを退去する第一ウェブ・ページのための、複数のインターフェイス・エレメントの少なくとも一つのインターフェイス・エレメントのアニメーションを描画させる、条項1に記載のコンピューティング・デバイス。
3.命令が実行されると、さらに、コンピューティング・デバイスに、
所定の速度で少なくとも一方向へ表示スクリーンを退去する第一ウェブ・ページのための、複数のインターフェイス・エレメントの少なくとも一つのインターフェイス・エレメントのアニメーションを描画する、及び所定の速度で少なくとも一方向に表示スクリーンへ入る第二ウェブ・ページのための、複数のインターフェイス・エレメントの少なくとも一つのインターフェイス・エレメントのアニメーションを描画させる、条項1に記載のコンピューティング・デバイス。
4.第一ウェブ・ページからの複数のインターフェイス・エレメントの少なくとも一つのサブセットの三次元退去と第二ウェブ・ページの一つ以上のインターフェイス・エレメントの三次元出現をアニメ化することが、第二ウェブ・ページを描画する際の遅延を覆い隠すように構成される、条項3に記載のコンピューティング・デバイス。
5.コンピューティング・デバイスの表示スクリーン上に、一つ以上のオブジェクトを含む第一セットのコンテンツを表示すること、
第二セットのコンテンツにアクセスするためのリクエストを受信すること、
リクエストを受信したことに応答して、表示スクリーン上の第一セットのコンテンツの一つ以上のオブジェクトの退去をアニメ化すること、及び
第一セットのコンテンツの代わりに、コンピューティング・デバイスの表示スクリーン上に第二セットのコンテンツを表示することからなる、コンピュータによる実行方法。
6.第二セットのコンテンツを表示することが、さらに、
第一セットのコンテンツの一つ以上のオブジェクトの少なくとも一つのサブセットに代わる、第二セットのコンテンツの一つ以上のオブジェクトの、表示スクリーン上への三次元出現をアニメ化することを含む、条項5に記載のコンピュータによる実行方法。
7.第一セットのコンテンツの一つ以上のオブジェクトの退去をアニメ化することが、さらに、
一つ以上のオブジェクトが第一の位置から第二の位置へ移動するように見えるよう第一セットのコンテンツの一つ以上のオブジェクトの外観を調整することを含み、第一の位置に描画される一つ以上のオブジェクトが、第二の位置に描画される一つ以上のオブジェクトに比べ、表示スクリーンの、より表面近くに現れる、条項5に記載のコンピュータによる実行方法。
8.第一セットのコンテンツの一つ以上のオブジェクトの退去をアニメ化することが、さらに、
一つ以上のオブジェクトの分離をアニメ化することを含み、第一オブジェクトが、第二のオブジェクトから離れて行くように見えるように描画される、条項5に記載のコンピュータによる実行方法。
9.第一オブジェクトが、所定の速度で第二のオブジェクトから離れて行くように表示される、条項8に記載のコンピュータによる実行方法。
10.一つ以上のオブジェクトが、異なる方向へ表示スクリーンを退去するように表示される、条項8に記載のコンピュータによる実行方法。
11.第二セットのコンテンツの一つ以上のオブジェクトの三次元出現をアニメ化することが、さらに、
第一セットのコンテンツの代わりに、第二セットのコンテンツの二次元表現を描画することを含む、条項6に記載のコンピュータによる実行方法。
12.さらに、一つ以上のオブジェクトの少なくとも一つのサブセットの三次元表現を表示することからなり、一つ以上のオブジェクトの少なくとも一つの三次元表現が、一つ以上のオブジェクトの少なくとも一つの他のオブジェクトに比べ、表示スクリーンの、より表面近くに現れるように表示される、条項11に記載のコンピュータによる実行方法。
13.第二セットのコンテンツの一つ以上のオブジェクトの出現をアニメ化することが、さらに、
第二セットのコンテンツの一つ以上のオブジェクトがスティッチされるアニメーションを表示することを含み、少なくとも第一オブジェクトが、少なくとも第二オブジェクトにスティッチされるように見えるよう描画される、条項5に記載のコンピュータによる実行方法。
14.第二セットのコンテンツの一つ以上のオブジェクトが、異なる速度でコンピューティング・デバイスの表示スクリーン上に現れる、条項6に記載のコンピュータによる実行方法。
15.所定の速度で少なくとも一方向へ表示スクリーンを退去する第一セットのコンテンツのための、複数のインターフェイス・エレメントの少なくとも一つのインターフェイス・エレメントのアニメーションを描画すること、及び
所定の速度で少なくとも一方向に表示スクリーンへ入る第二セットのコンテンツのための、複数のインターフェイス・エレメントの少なくとも一つのインターフェイス・エレメントのアニメーションを描画することからなる、条項5に記載のコンピュータによる実行方法。
16.さらに、コンピューティング・デバイスのネットワーク接続速度を測定すること、
ネットワーク接続速度に少なくとも部分的に基づき、コンピューティング・デバイス上へ第二セットのコンテンツをロードするための時間を推定すること、及び
第二セットのコンテンツの出現が、少なくともその推定時間に渡って生じるようにアニメ化することからなり、
第一セットのコンテンツの退去と第二セットのコンテンツの出現をアニメ化することが、第二セットのコンテンツを描画する際の遅延時間を覆い隠すように構成される、条項6に記載のコンピュータによる実行方法。
17.コンピューティング・デバイスの表示素子上に、一つ以上のオブジェクトを含む第一セットのコンテンツを表示すること、
第二セットのコンテンツにアクセスするためのリクエストを受信すること、
リクエストを受信したことに応答して、表示素子上の第一セットのコンテンツの一つ以上のオブジェクトの退去をアニメ化すること、及び
第一セットのコンテンツの代わりに、コンピューティング・デバイスの表示スクリーン上に第二セットのコンテンツを表示することからなる一セットの作動を実行するための、一つ以上のプロセッサによって実行可能な一つ以上のシーケンスの命令を保存する、非一時的なコンピュータ可読記憶メディア。
18.第二セットのコンテンツを表示することが、さらに、第一セットのコンテンツの一つ以上のオブジェクトに代わる、第二セットのコンテンツの一つ以上のオブジェクトの、表示スクリーン上への三次元出現をアニメ化する作動を実行するための、一つ以上のプロセッサによって実行される命令を含み、
第二セットのコンテンツの一つ以上のオブジェクトの三次元出現をアニメ化することが、さらに、
第一セットのコンテンツの代わりに、第二セットのコンテンツの二次元表現を描画すること、及び
一つ以上のオブジェクトの少なくとも一つのサブセットの三次元表現を描画することを含み、
一つ以上のオブジェクトの少なくとも一つの三次元表現が、一つ以上のオブジェクトの少なくとも一つの他のオブジェクトに比べ、表示スクリーンの、より表面近くに現れるように表示される、条項17に記載の非一時的なコンピュータ可読記憶メディア。
19.第一セットのコンテンツの一つ以上のオブジェクトの退去をアニメ化することが、さらに、
一つ以上のオブジェクトが第一の位置から第二の位置へ移動するように見えるよう第一セットのコンテンツの一つ以上のオブジェクトの外観を調整する作動であって、第一の位置に描画される一つ以上のオブジェクトが、第二の位置に描画される一つ以上のオブジェクトに比べ、表示スクリーンの、より表面近くに現れる作動、及び
一つ以上のオブジェクトの分離をアニメ化する作動であって、第一オブジェクトが、第二のオブジェクトから離れて行くように見えるように描画され、第一オブジェクトが、所定の速度で第二のオブジェクトから離れて行くように表示される作動を実行するための、一つ以上のプロセッサによって実行される命令を含む、条項17に記載の非一時的なコンピュータ可読記憶メディア。
20.コンピューティング・デバイスの方位変化が、コンピューティング・デバイスのカメラでキャプチャされた画像の一つに、あるいは少なくとも一つのセンサに、少なくとも部分的に基づいて判定される、条項17に記載の非一時的なコンピュータ可読記憶メディア。
本開示の実施形態は、また、以下の条項を参照しても説明できる。
1.表示スクリーン、
少なくとも一つのコンピューティング・デバイス・プロセッサ、
命令を含むメモリ・デバイスからなり、それら命令が、少なくとも一つのコンピューティング・デバイス・プロセッサによって実行されると、コンピューティング・デバイスに、
コンピューティング・デバイスに対するユーザーの相対位置を測定させる、
コンピューティング・デバイスの表示スクリーン上に、複数のインターフェイス・エレメントを含むウェブ・ページの二次元表現を表示させる、
ユーザーの相対位置に対するコンピューティング・デバイスの方位変化を検出させる、
コンピューティング・デバイスの方位変化に応じて、ウェブ・ページのための三次元表示モードを起動させる、及び
ウェブ・ページが三次元表示モードで表示されている間、複数のインターフェイス・エレメントの少なくとも一つのサブセットの三次元表現を表示させることが可能になり、
複数のインターフェイス・エレメントの少なくとも一つの三次元表現が、複数のインターフェイス・エレメントの少なくとも一つの他のインターフェイス・エレメントに比べ、表示スクリーンの、より表面近くに現れるように表示される、コンピューティング・デバイス。
2.命令が実行されると、さらに、コンピューティング・デバイスに、
コンピューティング・デバイスの第二の方位変化を検出させる、及び
少なくとも一つのインターフェイス・エレメントの外観を調整させることが可能となり、
少なくとも一つのインターフェイス・エレメントの外観の調整が、少なくとも一つのインターフェイス・エレメントのサイズ、形状、色、陰影またはぼかしの少なくとも一つを調整することを含む、条項1に記載のコンピューティング・デバイス。
3.コンピューティング・デバイスの方位変化が、コンピューティング・デバイスのカメラでキャプチャされた画像の一つに、あるいは少なくとも一つのセンサに、少なくとも部分的に基づいて判定される、条項1に記載のコンピューティング・デバイス。
4.コンピューティング・デバイスの表示素子上に、複数のオブジェクトを含むコンテンツの二次元表現を表示すること、
アクティブ化イベントを検出すること、及び
アクティブ化イベントを検出したことに応答して、複数のオブジェクトの少なくとも一つのサブセットの三次元表現を表示することからなる、コンピュータによる実行方法。
5.三次元表現を表示することが、さらに、
複数のオブジェクトの少なくとも一つのオブジェクトを、複数のオブジェクトの少なくとも一つの他のオブジェクトに比べ、コンピューティング・デバイスの表示スクリーンの、より表面近くに現れるように描画することを含み、
複数のオブジェクトが、画像、広告、テキスト、少なくとも一つのリンク、またはヘッダの少なくとも一つを含み、
複数のオブジェクトの少なくとも一つのサブセットの3D表現を表示することが、複数のオブジェクトのサブセットの各々を、各々のオブジェクトに関連付けられた重みに少なくとも部分的に基づく高さで描画することを含む、条項4に記載のコンピュータによる実行方法。
6.アクティブ化イベントが、コンピューティング・デバイスの方位または位置の少なくとも一方の変化、タッチ入力、音声入力、あるいはジェスチャー入力を含む、条項4に記載のコンピュータによる実行方法。
7.少なくとも一つのオブジェクトの三次元表現を表示することが、ユーザー・プロファイルまたはページ・プロファイルの一方に少なくとも部分的に基づいており、ユーザー・プロファイルが、ユーザーのウェブ履歴またはユーザー・プレファレンスの少なくとも一方を示す情報を含み、及び、ページ・プロファイルが、デフォルト三次元表現を示す情報を含む、条項4に記載のコンピュータによる実行方法。
8.少なくとも一つのオブジェクトの三次元表現を表示することが、さらに、
複数のオブジェクトが一つ以上のレイヤーに積み重なって現れるように描画することからなり、複数のオブジェクトの少なくとも第一オブジェクトが、複数のオブジェクトの少なくとも第二オブジェクトの上方の距離に位置するように現れる、条項5に記載のコンピュータによる実行方法。
9.三次元表現を表示することが、さらに、
複数のオブジェクトの少なくとも一つのオブジェクトを、三次元形状の少なくとも一側に描画することを含み、少なくとも一つのオブジェクトが、三次元形状内に現れるように描画される、条項4に記載のコンピュータによる実行方法。
10.さらに、コンピューティング・デバイスの少なくとも一つのセンサを用いて、コンピューティング・デバイスの方位または位置の少なくとも一方における変化を検出すること、及び
少なくとも一つのオブジェクトが、三次元形状の第一側から三次元形状の第二側へ移動するように見えるよう、少なくとも一つのオブジェクトのレンダリングを調整することからなる、条項9に記載のコンピュータによる実行方法。
11.さらに、コンピューティング・デバイスの少なくとも一つのセンサを用いて、コンピューティング・デバイスの方位または位置の少なくとも一方における変化を検出すること、及び
複数のオブジェクトの少なくとも一つのオブジェクトに関連する第一セットのコンテンツを、その少なくとも一つのオブジェクトの第一側に表示することからなる、条項4に記載のコンピュータによる実行方法。
12.さらに、コンピューティング・デバイスの方位または位置における以降の変化を測定すること、
少なくとも一つのオブジェクトの第二側を表示するために、その少なくとも一つのオブジェクトの回転をアニメ化すること、及び
少なくとも一つのオブジェクトの第二側に、少なくとも一つのオブジェクトに関する第二セットのコンテンツを表示することからなる、条項11に記載のコンピュータによる実行方法。
13.さらに、コンピューティング・デバイスのユーザーの相対位置を測定すること、及び
コンテンツ・ページ上に表示される情報の三次元表現を描画することからなり、
情報が、コンテンツ・ページが更新された最終時刻を示す時間、コンテンツ・ページのセキュリティ・レベルを示す表示エレメントまたはユーザーがコンテンツ・ページを最後に訪問した時間の少なくとも一つを含み、
ユーザーの相対位置を測定することが、コンピューティング・デバイスの少なくとも一つのカメラを用いて画像をキャプチャすること、及びユーザーの相対位置を判定するために画像を分析することを含む、条項4に記載のコンピュータによる実行方法。
14.さらに、コンピューティング・デバイスのユーザーの凝視方向を測定すること、
ユーザーの凝視方向に少なくとも部分的に基づき、表示素子上に位置を決定すること、及び
その位置にオブジェクトの外観を、表示素子上に表示された一つの他のオブジェクトに相対的に拡大されて見えるように調整することからなる、条項4に記載のコンピュータによる実行方法。
15.コンテンツが、複数の関連ウェブ・ページの第一ウェブ・ページ上に表示され、前記方法が、さらに、
コンピューティング・デバイスの少なくとも一つのセンサを用いて、コンピューティング・デバイスの方位または位置の少なくとも一方における変化を検出すること、及び
ウェブ・ページ・マップの三次元表現を描画することからなり、
ウェブ・ページ・マップが、第一ウェブ・ページの3D表現及び第二ウェブ・ページの3D表現を含み、第一ウェブ・ページの3D表現が、少なくとも一つの三次元ラインを用いて、第二ウェブ・ページの3D表現へ結合される、条項4に記載のコンピュータによる実行方法。
16.第一ウェブ・ページの3D表現が、第二ウェブ・ページの3D表現の上方の距離にあるように見えるよう描画され、少なくとも一つの三次元ラインの重みが、第一ウェブ・ページ及び第二ウェブ・ページ間のネットワーク・トラフィック量に少なくとも部分的に基づいている、条項15に記載のコンピュータによる実行方法。
17.コンピューティング・デバイスの表示素子上に、複数のオブジェクトを含むコンテンツの二次元表現を表示すること、
アクティブ化イベントを検出すること、及び
アクティブ化イベントを検出したことに応答して、複数のオブジェクトの少なくとも一つのサブセットの三次元表現を表示することからなる一セットの作動を実行するための、一つ以上のプロセッサによって実行可能な一つ以上のシーケンスの命令を保存する、非一時的なコンピュータ可読記憶メディア。
18.三次元表現を表示することが、さらに、一つ以上のプロセッサに、
複数のオブジェクトの少なくとも一つのオブジェクトを、複数のオブジェクトの少なくとも一つの他のオブジェクトに比べ、コンピューティング・デバイスの表示スクリーンの、より表面近くに現れるように描画する作動を実行させることを含み、
少なくとも一つのオブジェクトの三次元表現が、ユーザー・プロファイルまたはページ・プロファイルの一方に少なくとも部分的に基づいており、ユーザー・プロファイルが、ユーザーのウェブ履歴またはユーザー・プレファレンスの少なくとも一方を示す情報を含み、及び、ページ・プロファイルが、デフォルト三次元表現を示す情報を含む、条項17に記載の非一時的なコンピュータ可読記憶メディア。
19.さらに、コンピューティング・デバイスの少なくとも一つのセンサを用いて、コンピューティング・デバイスの方位または位置の少なくとも一方における変化を検出する作動、及び
積み重なって見えるように複数のオブジェクトのレンダリングを調整する作動を実行するための、一つ以上のプロセッサによって実行される命令からなり、
複数のオブジェクトの少なくとも第一オブジェクトが、複数のオブジェクトの少なくとも第二オブジェクトの上方の距離に位置するように現れる、条項16に記載の非一時的なコンピュータ可読記憶メディア。
20.さらに、複数のオブジェクトの少なくとも一つのオブジェクトを、三次元形状の少なくとも一側に描画する作動であって、少なくとも一つのオブジェクトが、三次元形状内に現れるように描画される作動、
コンピューティング・デバイスの少なくとも一つのセンサを用いて、コンピューティング・デバイスの方位または位置の少なくとも一方における変化を検出する作動、及び
少なくとも一つのオブジェクトが、三次元形状の第一側から三次元形状の第二側へ移動するように見えるよう、少なくとも一つのオブジェクトのレンダリングを調整する作動を実行するための、一つ以上のプロセッサによって実行される命令からなる、条項16に記載の非一時的なコンピュータ可読記憶メディア。

Claims (14)

  1. 表示スクリーン、
    少なくとも一つのコンピューティング・デバイス・プロセッサ、及び
    命令を含むメモリ・デバイスからなるコンピューティング・デバイスであって、
    前記命令が、前記少なくとも一つのコンピューティング・デバイス・プロセッサによって実行されると、前記コンピューティング・デバイスに、
    前記コンピューティング・デバイスの前記表示スクリーン上にウェブ・ページを表示するようにとのユーザーからのリクエストを受信させる、
    前記ウェブ・ページ上に少なくとも一つのオブジェクトを表示するために使用される情報を含むドキュメント・オブジェクト・モデルであって、前記少なくとも一つのオブジェクトが、前記表示スクリーン上に三次元表示モードが起動されたときに前記少なくとも一つのオブジェクトに適用すべき三次元外観変化を指定するタグに関連付けられている、前記ドキュメント・オブジェクト・モデルを生成させる、
    前記少なくとも一つのオブジェクトを含む前記ウェブ・ページの二次元表現を表示させる、
    前記コンピューティング・デバイスの前記ユーザーに対する前記コンピューティング・デバイスの方位変化を検出させる、
    前記コンピューティング・デバイスの前記方位変化に応じて前記三次元表示モードを起動させる、及び
    前記タグで指定された前記少なくとも一つのオブジェクトに対する前記三次元外観変化を適用させることが可能になる、前記コンピューティング・デバイス。
  2. 前記タグで指定された前記三次元外観変化が、サイズ、形状、陰影効果、焦点、着色、位置またはアニメーションにおける少なくとも一つの変化を含む、請求項1に記載のコンピューティング・デバイス。
  3. 前記ドキュメント・オブジェクト・モデルが、さらに、前記少なくとも一つのオブジェクトに適用すべき前記三次元外観変化を指定する一つ以上の属性を含む、請求項1に記載のコンピューティング・デバイス。
  4. 表示スクリーン、
    少なくとも一つのコンピューティング・デバイス・プロセッサ、及び
    命令を含むメモリ・デバイスからなるコンピューティング・デバイスであって、
    前記命令が、前記少なくとも一つのコンピューティング・デバイス・プロセッサによって実行されると、前記コンピューティング・デバイスに、
    前記コンピューティング・デバイスの前記表示スクリーン上に、複数のインターフェイス・エレメントを含む第一ウェブ・ページの三次元表現を表示させる、
    前記第一ウェブ・ページから第二ウェブ・ページへナビゲートするようにとのユーザーからのリクエストを受信させる、及び
    前記リクエストを受信したことに応答して、
    前記表示スクリーン上の前記第一ウェブ・ページの前記三次元表示からの前記複数のインターフェイス・エレメントの少なくとも一つのサブセットの三次元退去をアニメ化させる、及び
    前記第一ウェブ・ページの前記複数のインターフェイス・エレメントの前記サブセットに代わる、前記第二ウェブ・ページの一つ以上のインターフェイス・エレメントの、前記表示スクリーン上への三次元出現をアニメ化させることが可能となる、前記コンピューティング・デバイス。
  5. 前記命令が実行されると、さらに、前記コンピューティング・デバイスに、
    前記表示スクリーンを所定の速度で少なくとも一方向へ退去する前記第一ウェブ・ページのための、前記複数のインターフェイス・エレメントの少なくとも一つのインターフェイス・エレメントのアニメーションを描画させる、請求項4に記載のコンピューティング・デバイス。
  6. 前記命令が実行されると、さらに、前記コンピューティング・デバイスに、
    前記表示スクリーンを所定の速度で少なくとも一方向へ退去する前記第一ウェブ・ページのための、前記複数のインターフェイス・エレメントの少なくとも一つのインターフェイス・エレメントのアニメーションを描画させ、
    前記表示スクリーンへ少なくとも一方向に所定の速度で入る前記第二ウェブ・ページのための、前記複数のインターフェイス・エレメントの少なくとも一つのインターフェイス・エレメントのアニメーションを描画させる、請求項4に記載のコンピューティング・デバイス。
  7. 前記第一ウェブ・ページからの前記複数のインターフェイス・エレメントの前記少なくとも一つのサブセットの前記三次元退去と前記第二ウェブ・ページの前記一つ以上のインターフェイス・エレメントの前記三次元出現をアニメ化することが、前記第二ウェブ・ページを描画する際の遅延時間を覆い隠すように構成される、請求項6に記載のコンピューティング・デバイス。
  8. コンテンツ・ページ上に複数のオブジェクトの少なくとも一つのオブジェクトを表示するために、前記少なくとも一つのオブジェクトが、表示スクリーン上に三次元表示モードが起動されたときに前記少なくとも一つのオブジェクトに適用すべき三次元外観変化を指定する属性に関連付けられているオブジェクト・モデルを処理すること、
    コンピューティング・デバイスの表示素子上に前記コンテンツ・ページの二次元表現を表示すること、及び
    前記三次元表示モードを起動させることに応じて、前記属性に少なくとも部分的に基づき、前記少なくとも一つのオブジェクトへ前記三次元外観変化を適用することからなる、コンピュータによる実行方法。
  9. さらに、前記コンピューティング・デバイスのユーザーの相対位置に関して前記コンピューティング・デバイスの方位変化を検出すること、
    前記コンピューティング・デバイスの前記方位変化に応じて、前記コンテンツ・ページに対して前記三次元表示モードを起動させること、及び
    前記コンテンツ・ページが、前記属性に少なくとも部分的に基づいて前記三次元表示モードで表示されている間、前記少なくとも一つのオブジェクトの三次元表現を表示することからなり、
    前記少なくとも一つのオブジェクトの前記三次元表現が、少なくとも一つの他のオブジェクトに比べ、前記表示スクリーンの、より表面近くに現れるように表示される、請求項8に記載のコンピュータによる実行方法。
  10. 前記属性が、ユーザー・プロファイルまたはページ・プロファイルの一方に少なくとも部分的に基づいており、前記ユーザー・プロファイルが、ユーザーのウェブ履歴またはユーザー・プレファレンスの少なくとも一方を示す情報を含み、及び、前記ページ・プロファイルが、デフォルト三次元表現を示す情報を含む、請求項8に記載のコンピュータによる実行方法。
  11. さらに、前記属性に少なくとも部分的に基づき、前記コンテンツ・ページを一つ以上のレイヤーに積み重なって現れるように描画することからなり、
    前記複数のオブジェクトの少なくとも第一オブジェクトが、前記複数のオブジェクトの少なくとも第二オブジェクトの上方の距離に位置するように現れる、請求項8に記載のコンピュータによる実行方法。
  12. さらに、前記属性に少なくとも部分的に基づき、前記複数のオブジェクトの少なくとも一つのオブジェクトを三次元形状の少なくとも一側に描画することからなり、
    前記少なくとも一つのオブジェクトが、前記三次元形状内に現れるように描画される、請求項8に記載のコンピュータによる実行方法。
  13. さらに、前記コンピューティング・デバイスの少なくとも一つのセンサを用いて、前記コンピューティング・デバイスの方位または位置の少なくとも一方における変化を検出すること、及び
    前記属性に少なくとも部分的に基づき、前記少なくとも一つのオブジェクトが、前記三次元形状の第一側から前記三次元形状の第二側へ移動するように見えるよう、前記少なくとも一つのオブジェクトの前記描画を調整することからなる、請求項12に記載のコンピュータによる実行方法。
  14. さらに、前記コンピューティング・デバイスのユーザーの凝視方向を測定すること、
    前記ユーザーの凝視方向に少なくとも部分的に基づき、表示素子上に位置を決定すること、及び
    前記位置に一つのオブジェクトの外観を、前記属性に少なくとも部分的に基づき、前記表示素子上に表示された一つの他のオブジェクトに相対的に拡大されて表示されるように調整することからなる、請求項8に記載のコンピュータによる実行方法。
JP2016542873A 2013-09-17 2014-09-16 三次元オブジェクト表示のためのアプローチ Active JP6201058B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US14/029,747 US20150082145A1 (en) 2013-09-17 2013-09-17 Approaches for three-dimensional object display
US14/029,736 US10592064B2 (en) 2013-09-17 2013-09-17 Approaches for three-dimensional object display used in content navigation
US14/029,747 2013-09-17
US14/029,736 2013-09-17
US14/029,756 US10067634B2 (en) 2013-09-17 2013-09-17 Approaches for three-dimensional object display
US14/029,756 2013-09-17
PCT/US2014/055878 WO2015042048A2 (en) 2013-09-17 2014-09-16 Approaches for three-dimensional object display

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017162984A Division JP6605000B2 (ja) 2013-09-17 2017-08-28 三次元オブジェクト表示のためのアプローチ

Publications (2)

Publication Number Publication Date
JP2017501500A true JP2017501500A (ja) 2017-01-12
JP6201058B2 JP6201058B2 (ja) 2017-09-20

Family

ID=52689586

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016542873A Active JP6201058B2 (ja) 2013-09-17 2014-09-16 三次元オブジェクト表示のためのアプローチ
JP2017162984A Active JP6605000B2 (ja) 2013-09-17 2017-08-28 三次元オブジェクト表示のためのアプローチ

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2017162984A Active JP6605000B2 (ja) 2013-09-17 2017-08-28 三次元オブジェクト表示のためのアプローチ

Country Status (5)

Country Link
EP (2) EP3047363B1 (ja)
JP (2) JP6201058B2 (ja)
CN (1) CN105814532A (ja)
CA (1) CA2924496A1 (ja)
WO (1) WO2015042048A2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019028792A (ja) * 2017-07-31 2019-02-21 ヤフー株式会社 情報表示プログラム、情報表示装置、情報表示方法および配信装置
JP2019053387A (ja) * 2017-09-13 2019-04-04 パイオニア株式会社 操作入力システム、操作入力制御方法、及び操作入力制御プログラム
WO2019146032A1 (ja) * 2018-01-25 2019-08-01 三菱電機株式会社 ジェスチャー操作装置およびジェスチャー操作方法
JP2020042674A (ja) * 2018-09-12 2020-03-19 Zホールディングス株式会社 情報表示プログラム、情報表示装置、情報表示方法および配信装置
JP2020528626A (ja) * 2017-07-27 2020-09-24 ベステル エレクトロニク サナイー ベ ティカレト エー.エス. ウェブページを三次元オブジェクト上に重ね合わせる方法、装置およびコンピュータプログラム
JP7467748B1 (ja) 2023-09-27 2024-04-15 Kddi株式会社 表示制御装置、表示システム及びプログラム

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10067634B2 (en) 2013-09-17 2018-09-04 Amazon Technologies, Inc. Approaches for three-dimensional object display
US10592064B2 (en) 2013-09-17 2020-03-17 Amazon Technologies, Inc. Approaches for three-dimensional object display used in content navigation
RU2711468C2 (ru) * 2015-04-01 2020-01-17 Конинклейке Филипс Н.В. Электронное мобильное устройство
DE102016216577A1 (de) * 2016-09-01 2018-03-01 Volkswagen Aktiengesellschaft Verfahren zur Interaktion mit Bildinhalten, die auf einer Anzeigevorrichtung in einem Fahrzeug dargestellt werden
US10817126B2 (en) * 2016-09-20 2020-10-27 Apple Inc. 3D document editing system
CN106529409B (zh) * 2016-10-10 2019-08-09 中山大学 一种基于头部姿态的眼睛注视视角测定方法
CN109901710B (zh) * 2016-10-19 2020-12-01 腾讯科技(深圳)有限公司 媒体文件的处理方法和装置、存储介质及终端
JP6723895B2 (ja) * 2016-10-25 2020-07-15 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システムおよび情報処理方法
CN106774821B (zh) * 2016-11-08 2020-05-19 广州视源电子科技股份有限公司 基于虚拟现实技术的显示方法和系统
CN106502709B (zh) * 2016-11-15 2019-08-13 腾讯科技(深圳)有限公司 应用业务提示方法及应用业务提示装置
US10083640B2 (en) 2016-12-29 2018-09-25 Pure Depth Limited Multi-layer display including proximity sensor and depth-changing interface elements, and/or associated methods
CN108304590A (zh) * 2018-03-09 2018-07-20 百度在线网络技术(北京)有限公司 虚拟现实的网页展示方法、装置、设备及计算机可读介质
JP6431227B1 (ja) * 2018-03-20 2018-11-28 ヤフー株式会社 情報表示プログラム、情報表示装置、情報表示方法および配信装置
JP6901453B2 (ja) * 2018-03-20 2021-07-14 ヤフー株式会社 情報表示プログラム、情報表示装置、情報表示方法および配信装置
JP7413758B2 (ja) * 2019-12-19 2024-01-16 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0749744A (ja) * 1993-08-04 1995-02-21 Pioneer Electron Corp 頭部搭載型表示入力装置
JP2002133263A (ja) * 2000-10-23 2002-05-10 Nippon Telegr & Teleph Corp <Ntt> 広告提示方法およびシステム
JP2003532189A (ja) * 2000-04-19 2003-10-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ グラフィカルユーザインタフェースを適応させるための方法及び装置
US20100064209A1 (en) * 2008-09-10 2010-03-11 Advanced Digital Broadcast S.A. Method for transforming web page objects
US20120036433A1 (en) * 2010-08-04 2012-02-09 Apple Inc. Three Dimensional User Interface Effects on a Display by Using Properties of Motion
WO2013052789A1 (en) * 2011-10-06 2013-04-11 Amazon Technologies, Inc. Multi-dimensional interface

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5731805A (en) * 1996-06-25 1998-03-24 Sun Microsystems, Inc. Method and apparatus for eyetrack-driven text enlargement
WO1998014882A1 (en) * 1996-09-30 1998-04-09 Sandcastle, Inc. Synchronization of interactions between objects distributed over a network in the presence of latency
US6161112A (en) * 1998-05-19 2000-12-12 International Business Machines Corporation Web page presentation control mechanism and method
US6668177B2 (en) * 2001-04-26 2003-12-23 Nokia Corporation Method and apparatus for displaying prioritized icons in a mobile terminal
US7932909B2 (en) * 2004-04-16 2011-04-26 Apple Inc. User interface for controlling three-dimensional animation of an object
JP2008504785A (ja) * 2004-06-30 2008-02-14 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 知的なチャンネル・ザッピングのための方法および装置
ATE385653T1 (de) * 2004-12-02 2008-02-15 Sony Ericsson Mobile Comm Ab Tragbares kommunikationsgerät mit einer dreidimensionalen anzeigevorrichtung
US8180672B2 (en) * 2006-02-16 2012-05-15 Hillcrest Laboratories, Inc. Systems and methods for placing advertisements
ATE538432T1 (de) * 2006-08-02 2012-01-15 Research In Motion Ltd System und verfahren zur anpassung der darstellung von text und bildern auf einer elektronischen vorrichtung an eine ausrichtung der vorrichtung
US8572501B2 (en) * 2007-06-08 2013-10-29 Apple Inc. Rendering graphical objects based on context
US20100045596A1 (en) * 2008-08-21 2010-02-25 Sony Ericsson Mobile Communications Ab Discreet feature highlighting
JP4926207B2 (ja) * 2009-05-21 2012-05-09 ヤフー株式会社 三次元表示への遷移を明示する表示切替装置及び方法
JP5513071B2 (ja) * 2009-10-26 2014-06-04 株式会社プロフィールド 情報処理装置、情報処理方法、およびプログラム
GB2497624B8 (en) * 2010-03-22 2015-01-14 Mobitv Inc Tile based media content selection
CN101930367B (zh) * 2010-08-25 2014-04-30 中兴通讯股份有限公司 切屏动画实现方法及移动终端
KR101340797B1 (ko) * 2010-09-01 2013-12-11 주식회사 팬택 3d 객체 표시가 가능한 휴대용 장치 및 그 방법
US9069577B2 (en) * 2010-11-23 2015-06-30 Apple Inc. Grouping and browsing open windows
JP5742187B2 (ja) * 2010-11-26 2015-07-01 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
GB2490865A (en) * 2011-05-09 2012-11-21 Nds Ltd User device with gaze tracing to effect control
CA2792188A1 (en) * 2011-10-18 2013-04-18 Research In Motion Limited Method of animating a rearrangement of ui elements on a display screen of an electronic device
US20130106831A1 (en) * 2011-10-28 2013-05-02 Cbs Interactive, Inc. 3-d presentation of information

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0749744A (ja) * 1993-08-04 1995-02-21 Pioneer Electron Corp 頭部搭載型表示入力装置
JP2003532189A (ja) * 2000-04-19 2003-10-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ グラフィカルユーザインタフェースを適応させるための方法及び装置
JP2002133263A (ja) * 2000-10-23 2002-05-10 Nippon Telegr & Teleph Corp <Ntt> 広告提示方法およびシステム
US20100064209A1 (en) * 2008-09-10 2010-03-11 Advanced Digital Broadcast S.A. Method for transforming web page objects
US20120036433A1 (en) * 2010-08-04 2012-02-09 Apple Inc. Three Dimensional User Interface Effects on a Display by Using Properties of Motion
WO2013052789A1 (en) * 2011-10-06 2013-04-11 Amazon Technologies, Inc. Multi-dimensional interface

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020528626A (ja) * 2017-07-27 2020-09-24 ベステル エレクトロニク サナイー ベ ティカレト エー.エス. ウェブページを三次元オブジェクト上に重ね合わせる方法、装置およびコンピュータプログラム
JP2019028792A (ja) * 2017-07-31 2019-02-21 ヤフー株式会社 情報表示プログラム、情報表示装置、情報表示方法および配信装置
JP2019053387A (ja) * 2017-09-13 2019-04-04 パイオニア株式会社 操作入力システム、操作入力制御方法、及び操作入力制御プログラム
WO2019146032A1 (ja) * 2018-01-25 2019-08-01 三菱電機株式会社 ジェスチャー操作装置およびジェスチャー操作方法
JPWO2019146032A1 (ja) * 2018-01-25 2020-07-02 三菱電機株式会社 ジェスチャー操作装置およびジェスチャー操作方法
JP2020042674A (ja) * 2018-09-12 2020-03-19 Zホールディングス株式会社 情報表示プログラム、情報表示装置、情報表示方法および配信装置
JP7467748B1 (ja) 2023-09-27 2024-04-15 Kddi株式会社 表示制御装置、表示システム及びプログラム

Also Published As

Publication number Publication date
JP2018022503A (ja) 2018-02-08
JP6201058B2 (ja) 2017-09-20
EP3047363A2 (en) 2016-07-27
CN105814532A (zh) 2016-07-27
CA2924496A1 (en) 2015-03-26
WO2015042048A3 (en) 2015-05-28
EP3047363B1 (en) 2019-11-06
EP3047363A4 (en) 2017-05-17
EP3623924A1 (en) 2020-03-18
JP6605000B2 (ja) 2019-11-13
WO2015042048A2 (en) 2015-03-26

Similar Documents

Publication Publication Date Title
JP6605000B2 (ja) 三次元オブジェクト表示のためのアプローチ
US20180348988A1 (en) Approaches for three-dimensional object display
US10592064B2 (en) Approaches for three-dimensional object display used in content navigation
US9591295B2 (en) Approaches for simulating three-dimensional views
US9378581B2 (en) Approaches for highlighting active interface elements
US9880640B2 (en) Multi-dimensional interface
US20150082145A1 (en) Approaches for three-dimensional object display
US9224237B2 (en) Simulating three-dimensional views using planes of content
US9437038B1 (en) Simulating three-dimensional views using depth relationships among planes of content
US10877564B2 (en) Approaches for displaying alternate views of information
US9483113B1 (en) Providing user input to a computing device with an eye closure
US9798443B1 (en) Approaches for seamlessly launching applications
US9389703B1 (en) Virtual screen bezel
US20160252968A1 (en) Interface elements for managing gesture control
US9201585B1 (en) User interface navigation gestures
US10019140B1 (en) One-handed zoom
US9665249B1 (en) Approaches for controlling a computing device based on head movement
US10585485B1 (en) Controlling content zoom level based on user head movement
US9524036B1 (en) Motions for displaying additional content
US9109921B1 (en) Contextual based navigation element
US10867445B1 (en) Content segmentation and navigation

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170828

R150 Certificate of patent or registration of utility model

Ref document number: 6201058

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250