JP5147871B2 - 拡張現実における差分トライアル - Google Patents

拡張現実における差分トライアル Download PDF

Info

Publication number
JP5147871B2
JP5147871B2 JP2010005836A JP2010005836A JP5147871B2 JP 5147871 B2 JP5147871 B2 JP 5147871B2 JP 2010005836 A JP2010005836 A JP 2010005836A JP 2010005836 A JP2010005836 A JP 2010005836A JP 5147871 B2 JP5147871 B2 JP 5147871B2
Authority
JP
Japan
Prior art keywords
computer
generated content
version
isolation
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010005836A
Other languages
English (en)
Other versions
JP2011086272A (ja
Inventor
ジェイ.ジェイ. クルグリック,エゼキエル
Original Assignee
エンパイア テクノロジー ディベロップメント エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エンパイア テクノロジー ディベロップメント エルエルシー filed Critical エンパイア テクノロジー ディベロップメント エルエルシー
Publication of JP2011086272A publication Critical patent/JP2011086272A/ja
Application granted granted Critical
Publication of JP5147871B2 publication Critical patent/JP5147871B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9537Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Description

背景
[0001] 近代のウェブサイト及び広告オーサリングの開発は、多くの場合、テスト視聴者に頼っている。ウェブサイトの開発及びレイアウトをテストする際、例えば、何人かのユーザにはウェブサイトのあるバージョンが提示され、他の何人かのユーザにはウェブサイトの異なるバージョンが提示される。ウェブサイトの2つのバージョンとのユーザの対話は測定され、記録される。この情報により、例えば、ユーザリテンション及びユーザコンバージョンといった測定に基づいて、ウェブサイトのバージョンを評価し、比較することができる。時には、ユーザにウェブサイトの両バージョンを経験させることもある。
[0002] 単純に異なるバージョンを異なるユーザに提示するだけでは達成できないウェブサイトテスト及び広告オーサリングの他の態様がある。実際には、状況によっては、個人がウェブサイトの両バージョンを経験することが望ましくないことがあり得る。ウェブサイト制作者の見方や広告キャンペーンから、ユーザにウェブサイト又はキャンペーンの複数のバージョンを経験させると、ユーザ側に混乱が生じる恐れがある。
[0003] 例えば、ウェブサイトのあるバージョンは、そのウェブサイトの別のバージョンの同じ製品の提供と異なる製品の提供を含み得る。別のシナリオでは、あるユーザは、何等かの形で劇的に異なり得るコンテンツの代替のバージョンが提示されている別のユーザにとって意味をなさないようにコンテンツを操作するか、又はコンテンツと対話し得る。コンピュータ生成コンテンツが装置に表示された現実世界のオブジェクトの画像のような他のコンテンツと併合される拡張現実(augmented reality)は、ユーザが拡張現実の複数のバージョンを経験した場合に混乱が生じ得る一例である。
[0004] 拡張現実の異なるバージョンを経験したユーザは、特に2つのバージョンをおおよそ同じ時間に経験した場合、断片化されたユーザ経験を有する恐れがある。ユーザが混乱するのみならず、違いに対して望ましくない注目を集めることになり得る。さらに、この種の混乱及び注目は、ブランドイメージに悪影響を及ぼす恐れがある。
[0005] 仮想オブジェクトを表示可能な装置の例示的な実施形態のブロック図を示す。 [0006] 装置のディスプレイに提示された仮想オブジェクトの例示的な実施形態のブロック図である。 [0007] 複数のユーザに対して仮想オブジェクトを生成する例示的な実施形態を示す。 [0008] 装置に表示された仮想オブジェクトに含めるコンピュータ生成コンテンツを選択する際に装置から受信又は推測される情報を使用するサーバの例示的な実施形態を示す。 [0009] 装置において仮想オブジェクトを生成する例示的な実施形態を示す。 [0010] 仮想オブジェクトをユーザに提示する方法の例示的な実施形態のフロー図である。 [0011] 拡張現実画像を複数のユーザに表示する方法の例示的な実施形態のフロー図である。 [0012] オブジェクトと対話する装置にコンピュータ生成コンテンツを配信する方法の例示的な実施形態のフロー図である。 [0013] 本開示により装置に提示されるコンピュータ生成コンテンツを決定し配信する際に使用され得るコンピューティング装置の一例を示す。
詳細な説明
[0014] 以下の詳細な説明では、本明細書の部分をなす添付図面を参照する。図面中、文脈により別段のことが示される場合を除き、通常、同様の符号は同様の構成要素を表す。詳細な説明、図面、及び特許請求の範囲において説明される例示的な実施形態は、限定を意味しない。本明細書に提示された主題の主旨又は範囲から逸脱せずに、他の実施形態を利用することも可能であり、他の変更を行うことも可能である。本明細書において一般に説明され図に示される本開示の態様が、広範囲の異なる構成で構成、置換、結合、分離、かつ設計されてもよく、これらのすべてが本明細書において明示的に意図されることが容易に理解されるであろう。
[0015] 拡張現実オーサリングにおける差分トライアル(differential trial)は、一般に、コンピュータ生成コンテンツを現実世界のオブジェクトの見え方や画像又は他のコンテンツに追加して、拡張現実画像のような仮想オブジェクトを生成し表示するためのプロセスに関する。コンピュータ生成コンテンツは、拡張現実画像を生成するために、現実世界のオブジェクトの画像と効率的に併合され(merged)、重畳され(superimposed)、又は別の方法で表示される。
[0016] 拡張現実オーサリングは、複数のシナリオ及び状況において使用することができ、リアルタイム又は実質的にリアルタイムで実行することができる。例えば、日常のオブジェクトを、そのオブジェクトが表示されている間に、コンピュータ生成コンテンツを使用してデジタル的に拡張することができる。さらに、拡張現実画像は、ある瞬間から次の瞬間に変化し得る。コンピュータ生成コンテンツが装置のカメラから受信したデータと併合された場合に生成される拡張現実画像は、拡張現実画像内の既存のコンピュータ生成コンテンツを更新又は置換すべく、装置が移動し、追加のコンピュータ生成コンテンツが受信されると、変化し得る。
[0017] 拡張現実は、限定ではなく単なる例として、広告キャンペーン及び様々なタスク又は仕事の完成のサポートにおいて使用され得る。例えば、拡張現実は、仕事の完成を支援するためにディスプレイ上に情報を含めるために使用することができる。例えば、整備士は、エンジンの部品又は指示のラベルで拡張された車のエンジンの画面を見得る。拡張現実は、ナビゲーションのため、軍事、救急サービス、観光、雇用、これらと同様のもの、又はこれらの任意の組み合わせに使用することもできる。
[0018] 本明細書において説明する実施形態は、拡張現実オーサリングに関し、特に、現実世界のオブジェクトの画像又は他のコンテンツと併合されたコンピュータ生成コンテンツの配信を制御することにより、仮想オブジェクトを表示する技法に関する。コンピュータ生成コンテンツは、場所及び/又は時間に関して互いに近い装置のユーザが、拡張現実画像又は他の拡張コンテンツとの同様の経験を有することを保証しながら配信することができる。
[0019] 場所、距離、及び/又は時間に関して十分に離れたユーザは、拡張現実画像との異なる経験を有することができる。ユーザによっては、拡張現実画像のあるバージョンを見る者もいれば、拡張現実画像の異なるバージョンを見る者もいる。したがって、これにより、結果に対して悪影響を及ぼし得る状況を回避しながら、ウェブサイト及び広告キャンペーンを別様にテストすることができる。
[0020] 上述したように、拡張現実画像は、コンピュータ生成コンテンツと併合され、なり、又は別の方法で結合若しくは表示される、装置に表示される現実世界のオブジェクトの画像であり得る。仮想オブジェクトの他の例としては、コンピュータ生成コンテンツが他のコンピュータ生成コンテンツと併合された画像が挙げられる。例えば、ウェブサイトは、他のサーバからの追加のコンピュータ生成コンテンツと併合し得る。仮想オブジェクトは、静的、動的、又はユーザの場所又はユーザ装置の位置の変更に応じて変更することができる。コンピュータ生成コンテンツは、モデル、画像データ、対話スクリプト、音声データ、映像データ、テキストデータ、これらと同様のもの、又はこれらの任意の組み合わせを含むことができる。コンピュータ生成コンテンツは、装置へのユーザ入力等に応じて、一度に配信、ストリーミングすることができる。
[0021] 図1は、仮想オブジェクト140を表示可能な装置100の例示的な実施形態のブロック図を示す。装置100は、単なる例として、ディスプレイ150、ユーザインタフェース102、アプリケーション104、及びカメラ116を含む。装置の例としては、携帯電話、スマートフォン、ラップトップコンピュータ、ネットブック、デスクトップコンピュータ、オーディオ装置、及び/又は視覚装置(例えば、画像用及び映像用のカメラ付きのmp3プレーヤ)、キオスク端末、ヘッドアップディスプレイ、眼鏡型パーソナルディスプレイ、これらと同様のもの、又はこれらの任意の組み合わせを挙げることができるが、これらに限定されない。場合によっては、ディスプレイ150は、タッチスクリーン装置等のように、ユーザインタフェース102の一部であってもよい。装置100は、ネットワーク106(例えば、セルラネットワーク、802.11xネットワーク、ブルートゥース等)で表される1つ又は複数のネットワークを介して通信する能力を有することもできる。
[0022] アプリケーション104は、装置100に事前にロードされてもよく、ネットワーク106を介して装置にダウンロードされてもよく、かつ/又はコンピュータ、リムーバブルメモリ装置、若しくはこれらと同様のもの等の別の装置にドッキングされたときに装置100に転送されてもよい。アプリケーション104は、装置100により自動的、又は装置100のユーザにより呼び出すことができる機能を装置100に提供することができる。アプリケーション104は、自動的に、又はユーザ入力に応じて、1つ又は複数の他のアプリケーション104と対話する(interact)ことも可能になり得る。
[0023] アプリケーション104は、装置100がカメラ116を使用して写真及び/又は映像(音声と共に)を撮影できるようにするカメラアプリケーション108を含むことができる。位置決めアプリケーション110は、単なる例として、セルタワー、ユーザ入力、全地球測位システム(GPS)データ、若しくはこれらと同様のもの、又はこれらの任意の組み合わせを使用して、装置100の場所を特定することができる。ブラウザアプリケーション114は、装置100がネットワーク106を介して他の装置及び/又はサーバにアクセスし接続できるようにし得る。ブラウザアプリケーション114は、ネットワーク106を介して通信されたデータを送信し、かつ/又は受信するためにも使用することができる。コンパスアプリケーション118は、方向を識別する他に、複数の次元で装置100の向きを提供又は検出するように構成することができ、装置100がどのように向けられているかについての追加の情報を提供することができる。
[0024] アプリケーション104に含まれる拡張現実アプリケーション112は、位置決めアプリケーション110及び/又はカメラアプリケーション108若しくは装置100上の他のアプリケーションと対話し得る。例えば、拡張現実アプリケーション112は、コンテンツを、コンピュータ生成コンテンツを含めて、ディスプレイ150に表示された画像に追加することができる。例として、装置100がウェブページをディスプレイ150に表示しているとき、拡張現実アプリケーション112は、ディスプレイ150に表示されたウェブページに他のコンテンツを追加することができる。別の例として、装置100がカメラ116からのデータをディスプレイ150に提示しているとき、拡張現実アプリケーション112は、装置100に表示されているカメラ画像にコンテンツを追加することができる。
[0025] 拡張現実アプリケーション112により受信されたコンテンツは、ディスプレイ150上の画像の上に重ねられ(overlaid)、ディスプレイ150等上の画像と併合され、又はディスプレイ150上にコンテンツと別の方法で表示され得る。コンテンツをディスプレイ150上の画像と併合する技法の例としては、HTMLレイヤ化技法に従ってコンテンツを画像に重ねることが含まれる。装置100と、特にアプリケーション104(例えば、ブラウザアプリケーション114)とは、周知の符号化技法を使用してレイヤ化をサポートするように構成することができる。拡張現実画像では、拡張現実アプリケーション112は、ブラウザアプリケーション114と協働して、コンピュータ生成コンテンツが仮想オブジェクトでの一番上のレイヤであることを保証することができる。さらに、コンピュータ生成コンテンツの位置は、下にある現実世界のオブジェクトの画像が移動又は変化した場合に調整することができる。
[0026] 例えば、装置100は、カメラアプリケーション108を使用してランドマークの画像を表示することができる。コンピュータ生成コンテンツは、ランドマークを指す矢印と共にランドマークのテキスト説明を含み得る。拡張現実アプリケーションは、コンピュータ生成コンテンツを受信し、コンピュータ生成コンテンツをランドマークの画像に含めて、拡張現実画像を生成させることができる。位置アプリケーション110及びコンパスアプリケーション118からの情報を使用して、拡張現実アプリケーション112は、コンピュータ生成コンテンツをランドマークの画像内に適宜配置することができる。装置が移動すると、コンピュータ生成コンテンツも移動し、それにより、現実世界のオブジェクトの画像内のランドマークを指し続ける。これは、例えば、位置アプリケーション110及び/又はコンパスアプリケーション118からの情報を使用して、コンピュータ生成コンテンツの位置を調整して、達成することができる。
[0027] 簡潔にするために、図1には5つのみのアプリケーションが示されるが、装置100が異なる数のアプリケーションを含んでもよいことを当業者は理解するであろう。アプリケーションによっては、複数の機能を実行するものもある。
[0028] 図2は、装置100のディスプレイ150に提示された仮想オブジェクト140の例示的な実施形態のブロック図を示す。ディスプレイ150は、コンピュータ生成コンテンツ202及びコンピュータ生成コンテンツ204と混合(例えば、併合、レイヤ化、又は他の様式で結合)された現実世界のオブジェクト200の画像206を表示することができる。一例では、画像206は、現実世界のオブジェクト200の直接的又は間接的な表示であり得る。その結果、画像206はコンピュータ生成コンテンツ202及び/又は204と混合されるため、ディスプレイ150に提示される仮想オブジェクト140は、拡張現実画像であり得る。しかし、仮想オブジェクト140は、コンピュータ生成コンテンツ202及び/又は204と混合されたウェブページ又は他の種類のデータを含んでもよい。
[0029] 画像206は、カメラ116により生成されたデータに対応し得る。したがって、仮想オブジェクト140は、コンピュータ生成コンテンツ202及び204と混合された現実世界のオブジェクト200の直接的又は間接的な画像を含み得る。例えば、カメラ116は通りの画像を表示し得る。拡張現実アプリケーション112は、通りの名称を識別し得る、又は通りにある企業を識別し得るコンピュータ生成コンテンツを得ることができる。このコンピュータ生成コンテンツを通りの画像と混合して、通りの画像を背景にしてコンピュータ生成コンテンツを提供することができる。
[0030] したがって、ユーザは、コンピュータ生成コンテンツに含まれる通りの名称又は他の情報を含み得る通りの拡張現実画像を見ることができる。一実施形態では、コンピュータ生成コンテンツは、装置により同様に再生可能な音声データを含み得る。例えば、装置は、通りの名称を音声で出力し得る。
[0031] 別の例では、スポーツイベントの画像を、そのスポーツイベント又は他のスポーツイベントからの得点を含むコンピュータ生成コンテンツ及び/又は装置のユーザが関心を有し得る広告と混合し得る。
[0032] したがって、コンピュータ生成コンテンツ202及び/又は204は、装置100、装置100のユーザ、及び/又は現実世界のオブジェクト200に固有であることができる。例えば、位置アプリケーション110は、装置100の場所を特定することが可能である。装置100の場所を単独で、又は他のデータと併せて使用して、装置100に表示され、画像206においてオブジェクト200と混合されるコンピュータ生成コンテンツ202を決定することができる。場合によっては、コンピュータ生成コンテンツは、サーバから装置100に配信される。或いは、コンピュータ生成コンテンツは装置100にすでに記憶されていてもよい。
[0033] 仮想オブジェクト140が拡張現実画像である場合、コンピュータ生成コンテンツ202及び/又は204を決定するために使用され得る情報の例としては、装置100の場所、同じ現実世界のオブジェクト200を表示し得る他の装置の場所、現実世界のオブジェクト200が装置100に表示される時間、及び/又は現実世界のオブジェクト200が他の装置により表示される時間、装置100の向き、これらと同様のこと、又はこれらの任意の組み合わせが挙げられるが、これらに限定されない。
[0034] 図3は、複数のユーザに対して仮想オブジェクトを生成する例示的な実施形態を示す。図3は、装置100の例である装置310及び装置320を示す。この例では、装置310及び装置320のそれぞれは、現実世界のオブジェクト200と対話し、それぞれ、仮想オブジェクト312及び仮想オブジェクト322を表示している。現実世界のオブジェクト200は、装置310及び装置320のそれぞれで同じ現実世界のオブジェクトであることができ、上述したように任意のオブジェクトであることができる。
[0035] 例えば、装置310及び装置320は、現実世界のオブジェクト200の写真又はビデオを撮影するためにそれぞれカメラを使用しているかも知れない。したがって、現実世界のオブジェクト200は装置310及び320のカメラで取り込むことができる、又は装置310及び320のディスプレイに表示することができるイベント、場所、人物、物、又は他の任意のオブジェクトであり得る。
[0036] 装置310が現実世界のオブジェクト200と対話するとき、現実世界のオブジェクト200の画像が装置310のディスプレイに提示される。例えば、装置310のユーザは、装置310のカメラを使用して装置310のディスプレイ上で現実世界のオブジェクト200の画像を閲覧中かも知れない。装置320のユーザも同様に、装置320のディスプレイ上で現実世界のオブジェクト200の画像を閲覧中かも知れない。
[0037] 仮想オブジェクト312を生成するに際して、装置310は、その場所を特定し(例えば、GPSデータ、セルタワーからのデータ、又は同様のものを使用して)、サーバ300に提供し得る。装置310は、オブジェクト200が表示された時間及び装置310の向きといった他の情報も提供し得る。或いは、時間を装置310の場所及び/又はオブジェクト200に関連付け得る。
[0038] おおよそ同時に、サーバ300は、装置320からも同様の情報を受信し得る。次に、サーバ300は、この例では、装置310及び320の各場所に基づいてコンピュータ生成コンテンツを装置310及び装置320に提供することができる。サーバ300は、装置310及び320から受信した場所情報を使用して、装置310及び320に配信され、仮想オブジェクト312及び322に含められるコンピュータ生成コンテンツを選択することができる。上述したように、コンピュータ生成コンテンツは、装置310及び320に表示されている各画像と混合されて、拡張現実画像であり得る仮想オブジェクト312及び322が作成される。
[0039] 別の例では、サーバ300は装置310の場所を受信し得る。後の時間に、サーバ300は装置320の場所を受信し得る。したがって、装置310及び320の場所が互いに相対的に近い場合であっても、装置310は時間的に装置320から隔てられる。この例では、装置310及び320に表示された画像と併合されたコンピュータ生成コンテンツは異なるであろう。
[0040] 図4は、装置310及び320に表示される仮想オブジェクト312及び322に含められるコンピュータ生成コンテンツを選択する際に、装置310及び320から受信又は推測された情報を使用するサーバ300の例示的な実施形態を示す。図4は、広告オーサリング又はウェブサイト作成の異なるテストを示すために使用することもできる。
[0041] サーバ300は、装置310及び装置320から情報を受信する。この情報は、装置310及び320の各場所、装置310及び320がオブジェクト200を表示す各時間、又はこれらと同様のことを含むことができる。いくつかの例では、この情報は、装置320に対して装置310の実際の場所を暴露しないやり方で又はその逆のやり方で収集される。
[0042] サーバ300は情報を評価して、装置310と装置320との隔離係数(separation factor)400を決定する。例えば、隔離係数400は、装置310から受信した情報を装置320から受信した情報と比較することにより求めることができる。隔離係数400は、距離及び時間のうちの少なくとも一方に関して、装置310と装置320との(及び/又は装置310のユーザと装置320のユーザとの)隔たりを表し又は示すことができる。したがって、隔離係数400は、装置310と装置320との距離及び/又は装置310がオブジェクト200を表示したときと装置320がオブジェクト200を表示したときとの間の時間量を表し得る。
[0043] 隔離係数400が決定するごとに、隔離係数400を、例えば、サーバ300に記憶された隔離閾値(separation threshold)と比較することができる。この比較の結果を使用して、装置310及び320に配信されるコンピュータ生成コンテンツを決定することができる。例えば、隔離係数400が隔離閾値未満の場合、同じコンピュータ生成コンテンツを装置310及び装置320の両方に配信し得る。その結果、装置310に表示される仮想オブジェクト312のバージョンは、装置320に表示される仮想オブジェクト322と同じであるか、又は実質的に同様である。この場合、隔離係数400は、装置310及び装置320(及び/又はそのユーザ)が、異なるコンピュータ生成コンテンツを装置310及び320に配信した結果として、断片化されたユーザ経験が生じる恐れがあることを示すのに十分に、距離及び/又は時間に関して近いことを示唆する。
[0044] 例えば、装置310のユーザは、装置320に表示中の仮想オブジェクト322を見ることができるであろう。仮想オブジェクト322が、装置310に表示中の仮想オブジェクト312と異なる場合、装置310のユーザは混乱し、断片化されたユーザ経験を有する恐れがある。
[0045] 別の例では、隔離係数400は隔離閾値未満であり、装置310及び装置320は異なるオブジェクトを表示中であり得る。この例では、コンピュータ生成コンテンツは広告を含み得る。したがって、サーバ300は、装置310及び320に表示される現実世界のオブジェクトがこの例では異なっても、装置310及び320に配信される広告が同じであることを保証する。
[0046] 隔離係数400が隔離閾値よりも大きい場合、サーバ300は、同じコンピュータ生成コンテンツ又は異なるコンピュータ生成コンテンツを装置310及び320に提供することができる。隔離係数400は、隔離閾値よりも大きい場合、装置310のユーザが装置320のディスプレイに表示された仮想オブジェクト322を見ず、かつ装置320のユーザが装置310のディスプレイに表示された仮想オブジェクト312を見ないことのいくらかの保証を与えることができる。隔離係数400をこのように使用して、装置310及び320のユーザが、現実世界のオブジェクトの画像と混合された仮想オブジェクトの異なるバージョン又はコンピュータ生成コンテンツの異なるバージョンを見ることによって断片化されたユーザ経験を有さないことのいくらかの保証を提供することができる。例えば、装置310のユーザが、実質的に同時に仮想オブジェクト312及び仮想オブジェクト322を見た場合、かつ仮想オブジェクト312及び仮想オブジェクト322場合が異なるコンピュータ生成コンテンツを含む場合、装置310のユーザは断片化されたユーザ経験を有する恐れがある。
[0047] 装置310及び320のディスプレイに提示される仮想オブジェクト312及び322に含まれるコンピュータ生成コンテンツは、リアルタイムで、又は疑似リアルタイムで生成することができ、上述したように、オブジェクト200、装置310及び320の場所、又はこれらと同様のものに対していくらかの関係を有し得る。オブジェクト200と装置310及び320に提示される仮想オブジェクト312及び322との関係は、ユーザにより提供されてもよく、装置の場所及び/又は向きから決定されてもよく、オブジェクト200の画像の解析から決定されてもよく、これらと同様のこと、又はこれらの任意の組み合わせで決定されてもよい。例えば、ランドマークを訪れているユーザは、装置を介してランドマークについての問い合わせをするかも知れない。この問い合わせは、ユーザの装置の場所に加えて、サーバ300に提供し得る。装置に返されるコンピュータ生成コンテンツを、装置のディスプレイに提示されている現実世界のランドマークの画像と混合し得る。ランドマークに対する装置の向きを特定し、コンピュータ生成コンテンツを仮想オブジェクト内の正しい場所に位置決めするために、コンパスアプリケーション118は使用され得る
[0048] オブジェクト200は、例えば、オブジェクト200の画像内で拡張現実アプリケーション112が検出できる視覚的インジケータ342(図3に示すような)を含み得る。視覚的インジケータ342は、実際には、拡張現実アプリケーション112が選択できるリンク又はユニフォームリソースロケータ(URL)として機能する。この例では、インジケータ342により、装置310及び320は、オブジェクト200に関連する情報を求めてサーバ300と交信することができる。より具体的には、インジケータ342は、特定の情報についての要求を送ることができる。インジケータ342が選択されているとき、装置はオブジェクト200及びそのコンテキストを識別する情報を識別することができる。一例では、インジケータ342は、装置310及び320に配信すべきコンピュータ生成コンテンツを識別又は特定することができ、サーバ300は、コンピュータ生成コンテンツが装置310及び320にどのように表示されるかを決定することができる。
[0049] 例えば、オブジェクト200は、映画のプリント広告であるかも知れない。装置310のユーザが、装置のカメラを使用してオブジェクト200を眺めた場合、インジケータ342が拡張現実アプリケーション112により検出される。インジケータ342はサーバ300に送信され、次に、サーバ300により使用されて、割引チケットの広告を含むコンピュータ生成コンテンツが装置310に配信される。装置320が近傍にある場合、装置320は、同じ又は異なるコンピュータ生成コンテンツを受信し得る。
[0050] 装置320に配信されるコンピュータ生成コンテンツは、いくつかの要因に依存することができる。例えば、装置310及び320のユーザが、同じオブジェクト200を異なる場所で閲覧中である場合、装置310に配信されるコンピュータ生成コンテンツは、装置320に配信されるコンピュータ生成コンテンツと異なり得る。例えば、装置310に提示される仮想オブジェクト312は、10%の割引を反映したコンピュータ生成コンテンツを含み得る。装置320に提示される仮想オブジェクト322は、装置310及び320が隔離係数400を超える距離だけ隔てられている場合、同じ映画館での同じ映画の1枚のチケットを購入すれば1枚のチケットが無料になる提供を反映したコンピュータ生成コンテンツを含み得る。換言すれば、実施形態では、サーバ300は、コンピュータ生成コンテンツが配信されているオブジェクト200並びに装置310及び320の場所を考慮することができる。当業者は、本開示の恩恵により、コンピュータ生成コンテンツが多くの異なるオブジェクト及びシナリオに対して広く異なり得ることを理解することができる。
[0051] これとは対照的に、隔離係数400が隔離閾値を超えない場合、サーバ300は、装置310及び320が同じ場所で同じオブジェクト200を表示中であることを、それらの場所から推測し得る。その結果、サーバ300は、同じコンピュータ生成コンテンツを装置310及び320の両方に配信し得る。これにより、装置310のユーザが、装置320に表示された仮想オブジェクト322を見た場合に、断片化されたユーザ経験を有さないことが保証される。
[0052] サーバ300は、コンピュータ生成コンテンツにおいてトラッキングクッキーを各装置310及び320に配信して、サーバ300が装置310及び320の少なくとも場所を追跡できるようにすることもできる。装置310及び320の機動性(mobility)は、隔離係数400が経時変化可能なことを示唆する。その結果、サーバ300並びに/又は装置310及び320はそれ自体、時間の経過に伴って隔離係数400が隔離閾値とどのように比較されるかに従い、どのコンピュータ生成コンテンツが提示されるかを制御し得る。
[0053] 例えば、サーバ300並びに/又は装置310及び320は、時間の経過に伴って隔離係数400を監視し得る。隔離係数400の状態が、隔離閾値を超えた状態から隔離閾値を下回る状態に又はこの逆に変化した場合、サーバ300並びに/又は装置310及び320での設定により、コンピュータ生成コンテンツが変更されるか否かが決まる。
[0054] より具体的には、隔離係数400は、特定の瞬間では隔離閾値を超え、後の時間に隔離閾値よりも下がるかも知れない。この場合、装置310及び320に配信されるコンピュータ生成コンテンツを決定するために、サーバ300での設定が使用され得る。一例では、この設定は、隔離係数400が隔離閾値を超えた場合、装置310が、前に受信したものと同じコンピュータ生成コンテンツを引き続き受信すべきであることを、示し得る。或いは、サーバ300は、隔離係数400が離隔閾値よりも下がった場合、仮想オブジェクト312内に含められるコンピュータ生成コンテンツを変更する機会を探し得る。設定は、例えば、広告キャンペーンの制作者により、又はデフォルトにより自動的に決定することができる。
[0055] 仮想オブジェクトを表示する能力は、複数のユーザに拡張することができる。サーバ300は、複数の装置の隔離係数を決定し、それに従って、例えば、広告キャンペーン、ウェブサイトテスト、又はこれらと同様のことを制御することができる。サーバ300は、隔離係数に基づき、又は複数の隔離係数の解析に基づき、異なるコンピュータ生成コンテンツを装置310及び320(又は複数の装置)に配信することができる。
[0056] どのコンピュータ生成コンテンツが装置310及び320に配信されるかの決定は、上述したように、装置310及び320の場所を追跡することにより達成することができる。上述したように、装置310及び320の場所を、装置310及び320が各場所にいつあったかを示す時間並びに/又は、装置310及び320に表示されたオブジェクトに関連付けることもできる。その結果、どのコンピュータ生成コンテンツが装置310及び320に配信されるかの決定は、時間成分及び場所成分の両方を有し得る。
[0057] より具体的には、隔離係数400は距離に関して表すことができる。装置310及び320の場所を特定することにより、サーバ300は、装置310と装置320との距離を特定することができる。装置310及び320が十分に離れている(例えば、距離が隔離閾値を超える)場合、仮想オブジェクト312及び322は異なることができる。これにより、装置310及び320のユーザが仮想オブジェクトとの断片化された経験を有さないことが保証される。
[0058] 別の例では、隔離係数400は時間に関して表すことができる。この例では、装置310及び320は双方とも、同じオブジェクト200と対話し得、又は実質的に同じ場所にあるが、異なる時間であり得る。その結果、装置310及び320は、装置310が仮想オブジェクト140のあるバージョンを経験することができる一方で、装置320が仮想オブジェクト140の別のバージョンを経験することができるように、時間的に十分に離れている。換言すれば、時間差が隔離閾値を超え、サーバ300は、装置310及び320がオブジェクト140と対話する時間及び/又は実質的に同じ場所にいた時間に基づいて、装置320に配信されたコンピュータ生成コンテンツと異なるコンピュータ生成コンテンツを装置310に配信し得る。
[0059] サーバ300は、サーバ300がアクセス可能な記憶装置に記憶されたコンテンツモジュール410を含むこともできる。コンテンツモジュール410は、サーバに、装置から、装置の場所及び装置の場所に関連する時間等の情報を受信させることを可能にする。次に、コンテンツモジュール410は、装置に関連する隔離係数を求め、監視する。例えば、サーバ300のコンテンツモジュール410は、2つの装置の場所を追跡し、そして、時間の経過に伴って装置の場所を監視する。装置から受信した情報は、装置に配信されるコンピュータ生成コンテンツを決定するために使用される。上述したように、隔離係数が隔離閾値未満の装置は、同じ又は実質的に同じコンピュータ生成コンテンツを受信し得る一方で、隔離係数が隔離閾値を超える装置は、異なるコンピュータ生成コンテンツを受信し得る。隔離係数は経時変化し得るため、装置に配信されるコンピュータ生成コンテンツもそれに従って変化し得る。
[0060] 図5は、装置500において仮想オブジェクトを生成する例示的な実施形態を示す。装置500は、装置100の一例であることもでき、仮想オブジェクト502を提示する仮想キオスクであり得る。この場合、ユーザ552は、装置500を使用し、最近、仮想オブジェクト502を見終えるか、又は対話し終えた可能性がある。ユーザ552に、仮想オブジェクト502のあるバージョンが提示された可能性がある。
[0061] 装置500は、ユーザ552が装置500の近傍から去ったこと、及びユーザ550が装置500に近づきつつあることを検出又は判断し得る。誰も見ていない、又はユーザ552が十分に離れたと判断された場合、装置500は、仮想オブジェクト502の第2のバージョンをユーザ550に対して提示し得る。例として、装置500は、ユーザ552の装置500との対話が終了したとき、又は装置500がユーザ552の場所情報若しくはユーザ552により使用される1つ若しくは複数の装置にアクセスすることができるとき、ユーザ552が去りつつあると判断することができる(例えば、装置500は、ユーザ552、ユーザ552が所有する装置、又はこれらの組み合わせの場所情報を使用して、ユーザ552が装置500の近傍から去りつつあるか否かを判断することができる)。
[0062] この場合、ユーザ550及び552の場所が分からない場合であっても、隔離係数を推測することができる。例えば、隔離係数は、装置500でのトラフィックの収まり、又は装置500に入力がないことに従って定義することができる。入力が所定の時間量(これが隔離係数になる)にわたって受信されない場合、装置500(又は装置500が接続されたサーバ300等のサーバ)は、隔離係数を隔離閾値と比較して、ユーザ552が時間及び/又は距離に関してユーザ550から十分に離れているか否かを判断し得る。
[0063] 別の例では、装置500は平均トラフィックレベルを追跡し得る。特定又はランダムの配信目標を満たすために仮想オブジェクト502のどのバージョンを提示するかを判断すべく、平均トラフィックレベルが使用され得る。例えば、仮想オブジェクト502の設計者が、仮想オブジェクト502の第1のバージョンを装置500で10%の時間で提示したい場合、装置500は、配信目標を満たすために、十分に大きなトラフィックに関連する時間中、仮想オブジェクト502の第1のバージョンを提示しなくてよい。
[0064] 別の例では、仮想オブジェクト502のバージョンは時間に基づいて変化し得る。ユーザ552が仮想オブジェクト502のあるバージョンを見た後、仮想オブジェクト502は別のバージョンに変化し得る。次に、装置500又はサーバ300は、ユーザ552が再接近した場合、仮想オブジェクト502を、ユーザ552に対して前に表示されたバージョンに変更し得る。場所データが入手不可能な場合であっても、隔離係数を時間に関して定義することができる。この場合、時間は、ユーザ552が仮想オブジェクト502を再び見ることを期待する時間に対応し得る。
[0065] 例えば、ユーザ552は、いくらかの時間後に実質的に同じ場所にいる可能性が高い活動に関わり得る。この時間は事前に分かるか、又は他のソースから決定され得る。例えば、サーバ300は、スケジュールに関する情報(例えば、イベント開始/終了時間、運送スケジュール、開店/閉店時間等)について他のサーバに問い合わせることができる。次に、ユーザ552に時間に従って仮想オブジェクト502の同じバージョンが提示されるように、仮想オブジェクト502を管理することができる。
[0066] 例えば、ユーザ552は会場(例えば、映画館)に入り、会場に入る際に仮想オブジェクト502を見るであろう。イベントが終了すると、ユーザ552は、会場から出て、仮想オブジェクト502を見る可能性が高い。この例では、映画の長さにより、仮想オブジェクト502のどのバージョンが表示されるかを決める際に使用される時間を決定することができる。装置500(又はサーバ300)は、この情報を使用して、ユーザ552が会場に入る/から出る際に、仮想オブジェクト502の同じバージョンが装置500(又は装置310及び320)によりユーザ552に対して提示又は表示されることを保証することができる。ユーザ552が会場を去ったとの判断がなされた後、イベントが行われている間、仮想オブジェクト502の他のバージョンを表示し得る。
[0067] ユーザ552が公共輸送機関等のサービスを使用して通勤する場合、同様のシナリオが発生し得る。この場合、装置500により表示(又は装置310若しくは320により提示)される仮想オブジェクト502のバージョンは、予想される通勤時間に対応し、又はスケジュールに基づくであろう。その結果、ユーザ552は、通勤の行きも帰りも仮想オブジェクト502の同じバージョンを見ることができる。
[0068] サーバ300或いは装置310、320及び/又は500は、オブジェクトコンピュータ生成コンテンツを判断する際に、仮想オブジェクトを含めるのに利用できる情報(例えば、場所、時間、イベント、スケジュール)を使用することができる。この情報のいくらかは、装置310、320、及び/又は500自体から、又は他のサーバ等の、装置310、320及び/又は500に直接関連しない他の利用可能なソースから受信し得る。
[0069] 図6は、仮想オブジェクトをユーザに対して表示する方法の例示的な実施形態のフロー図である。ブロック602において、仮想オブジェクトの第1のバージョンが装置に表示される。ブロック604において、第1の装置と第2の装置との隔離係数が決定される。ブロック606において、隔離係数が隔離閾値を超える場合、仮想オブジェクトの第2のバージョンが第2の装置に表示される。
[0070] この例では、仮想オブジェクトの第2のバージョンは、異なるコンピュータ生成コンテンツから生成された仮想オブジェクトの代替の提示を含む。より具体的には、第1の装置に配信されるコンピュータ生成コンテンツは、第2の装置に配信されるコンピュータ生成コンテンツと異なる。その結果、第2の装置は仮想オブジェクトの第2のバージョンを表示する一方で、第1の装置は仮想オブジェクトの第1のバージョンを表示する。
[0071] あるいくつかの例では、第1及び第2の装置の相対場所を監視するために、トラッキングクッキーが第1の装置及び第2の装置の両方に配信される。隔離係数が、隔離閾値を下回るように変化した場合、第1の装置及び第2の装置のうちの一方が、表示中の仮想オブジェクトのバージョンを変更し得るが、これはオプションであり、コンピュータ生成コンテンツを第1及び第2の装置に配信するサーバにより制御され得る。
[0072] 別の例では、隔離係数は、第1の装置と第2の装置との距離を特定することにより決定される。この距離は、例えば、装置において生成され、サーバに送信された場所データから特定することができる。
[0073] 隔離係数は、第1の装置が現実世界のオブジェクトと最初に対話した時から第2の装置が同じ現実世界のオブジェクトに次に対話する時までの時間を含み得る。時間の隔たりは、上述したように、どのコンピュータ生成コンテンツを第1及び第2の装置に配信するかを判断する際に、隔離閾値と比較できる隔離係数であることができる。したがって、離隔係数及び離隔閾値は、単なる例として、時間、距離、又は時間及び距離の両方に関して定義することができる。
[0074] 装置に表示される仮想オブジェクトは、コンピュータ生成コンテンツで拡張された現実世界のオブジェクトの画像を含む拡張現実画像であり得る。仮想オブジェクトの第1のバージョンと第2のバージョンとの違いは、第1の装置に配信されるコンピュータ生成コンテンツと第2の装置に配信される異なるコンピュータ生成コンテンツとの違いによって決定され得る。
[0075] ある装置上の現実世界のオブジェクトの画像が、別の装置上の同じ現実世界のオブジェクトの画像と異なり得ることを当業者は理解することができる。本明細書において使用する画像は、画像内の現実世界のオブジェクトの実際の見え方が異なり得るが、各装置が仮想オブジェクトの同じバージョンを受信した場合、同じであるとみなされる。換言すれば、2つの装置は、全く同じ場所にはないが、隔離閾値を超えない隔離係数だけ離れているため、2つの装置に表示される実際の画像が異なり得る場合であっても、同じ仮想オブジェクトを表示しているものとみなすことができる。
[0076] 本明細書において開示されるこの及び他のプロセス及び方法では、プロセス及び方法において実行される機能を異なる順に実施してもよいことを当業者は理解するであろう。さらに、概説されたステップ及び動作は、単なる例として提供されており、ステップ及び動作のうちのいくつかは、開示される実施形態の本質から逸脱せずに、オプションであってもよく、結合してより少数のステップ及び動作にしてもよく、又は追加のステップ及び動作に拡張してもよい。
[0077] 図7は、複数のユーザに対して拡張現実画像を表示する方法の例示的な実施形態のフロー図である。ブロック702において、サーバが第1の装置から情報を受信した後、ブロック704において、サーバは第2の装置から情報を受信する。情報は、第1及び第2の装置から、第1及び第2の装置のアプリケーションから、又はユーザ入力から自動的に決定することができる属性を含み得る。情報内の属性は、場所及び時間を識別し得る。時間は、場所及び/又はその時間に各場所で装置上に表示されたオブジェクトに関連付けられる。
[0078] ブロック706において、サーバは、隔離係数を決定するため、第1の装置からの情報を第2の装置からの情報と比較する。例えば、隔離係数は、上述したように、場所及び/時間に関して表すことができる。ブロック708において、サーバは、隔離係数が隔離閾値を下回る場合、コンピュータ生成コンテンツの第1のバージョンを第1の装置及び第2の装置に配信する。これにより、第1及び第2の装置が場所及び/又は時間に関して比較的近い場合、第1及び第2の装置の両方が同じ拡張現実画像又は少なくとも同じコンピュータ生成コンテンツ(例えば、装置が実質的に同じ場所にあるが、異なる現実世界のオブジェクトの異なる画像を表示中の場合)を表示することが保証される。これは、第1の装置のユーザが、第2の装置に表示された、第1の装置に表示された拡張現実画像と異なる拡張現実画像を見たときの断片化されたユーザ経験を回避することができる。
[0079] 或いは、サーバは、隔離係数が隔離閾値を上回る場合、コンピュータ生成コンテンツの第2のバージョンを第2の装置に配信し得る。この場合、サーバは、異なるコンピュータ生成コンテンツを装置に配信する。したがって、隔離係数が隔離閾値を上回る場合、異なる拡張現実画像が第1及び第2の装置に表示される。
[0080] 第1及び第2の装置の場所を監視することにより、第1及び第2の装置により表示される拡張現実画像のバージョンを容易に決定することができる。
[0081] 図8は、オブジェクトと対話する装置にコンピュータ生成コンテンツを配信する方法の例示的な実施形態のフロー図である。この方法は、仮想オブジェクトと対話するユーザに断片化されたユーザ経験を提供することなく、他のコンテンツと混合された異なるコンピュータ生成コンテンツを配信して、仮想オブジェクトの異なるバージョンを生成することにより、単なる例として、広告キャンペーン又はウェブサイトを別様にテストするために使用することができる。
[0082] ブロック802において、コンピュータ生成コンテンツの第1のバージョンが第1の装置に配信される。第1の装置に表示される仮想オブジェクトの第1のバージョンは、現実世界のオブジェクトの画像とコンピュータ生成コンテンツの第1のバージョンとを混合することにより生成することができる。コンピュータ生成コンテンツは、第1の装置の場所及び/若しくは向きを使用して、又は第1の装置のディスプレイに表示中のオブジェクトから識別又は選択することができる。
[0083] ブロック804において、第2の装置が検出される。第2の装置は、サーバが第2の装置から、少なくともその場所を識別する情報を受信したときに検出することができる。ブロック806において、第1の装置と第2の装置との隔離係数が決定される。ブロック808において、コンピュータ生成コンテンツの第2のバージョンが、第2の装置に配信され、仮想オブジェクトの第2のバージョンで第2の装置に表示される。より具体的には、異なるコンピュータ生成コンテンツが第2の装置に配信される。次に、第2の装置は、仮想オブジェクトの第2のバージョンを表示する。仮想オブジェクトの第2のバージョンは、仮想オブジェクトの第1のバージョンの生成に使用されたコンピュータ生成コンテンツと異なるコンピュータ生成コンテンツから生成される。当然ながら、隔離係数が隔離閾値を下回る場合、仮想オブジェクトの第1のバージョンを第2の装置上で第2のユーザに対して表示し得る。したがって、第2のユーザに対して表示される仮想オブジェクトのバージョンを変更し得るが、設定により、第2のユーザが常に仮想オブジェクトの同じバージョンを受信することを指示し得る。
[0084] 一例では、追加のユーザが検出されるかも知れない。これら追加のユーザの装置に表示される仮想オブジェクトのバージョンは、装置間の隔離係数の解析又は仮想オブジェクトの第1及び第2のバージョンに関連するテストバランスのうちの少なくとも一方に依存することができる。例えば、装置を2つのグループにグループ化し、様々な隔離係数を、これら2つの装置グループ間の隔離係数を抽出(distill)することができる。グループの隔離係数が隔離閾値(装置グループ毎に異なり得る)とどのように比較されるかに基づいて、適切なコンピュータ生成コンテンツを送信し、対応する装置に表示することにより、仮想オブジェクトの適切なバージョンが配信される。したがって、第1の装置グループは第1のバージョンを受信し得る一方で、第2の装置グループは仮想オブジェクトの第2のバージョンを受信し得る。
[0085] 図9は、コンピュータ生成コンテンツを含むコンテンツを装置に配信し、及び/又は装置に表示する仮想オブジェクトを生成するように構成された本発明によるコンピューティング装置900の一例を示すブロック図である。非常に基本的な構成902では、コンピューティング装置900は通常、プロセッサコア904及びシステムメモリ906を含む。メモリバス908を、プロセッサコア904とシステムメモリ906との通信に使用することができる。
[0086] 所望の構成に応じて、プロセッサコア904は、マイクロプロセッサ(μP)、マイクロコントローラ(μC)、デジタル信号プロセッサ(DSP)、又はこれらの任意の組み合わせを含むが、これらに限定されない任意の種類のものであり得る。プロセッサコア904は、レベル1キャッシュ910及びレベル2キャッシュ912、プロセッサ914、及びレジスタ916等のもう1つのキャッシュレベルを含み得る。プロセッサ914の一例は、算術論理ユニット(ALU)、浮動小数点演算ユニット(FPU)、デジタル信号処理コア(DSPコア)、又はこれらの任意の組み合わせを含み得る。メモリコントローラ918の一例は、プロセッサコア904と共に使用することもでき、又は実施態様によっては、メモリコントローラ918はプロセッサコア904の内部部分であってもよい。
[0087] 所望の構成に応じて、システムメモリ906は、揮発性メモリ(RAM等)、不揮発性メモリ(ROM、フラッシュメモリ等)、又はこれらの任意の組み合わせを含むが、これらに限定されない任意の種類のものであり得る。システムメモリ906は、オペレーティングシステム920、1つ又は複数のアプリケーション922、及びプログラムデータ924を含み得る。アプリケーション922は、プロセッサコア904を使用して、仮想オブジェクトを決定し表示し、仮想オブジェクトを見るユーザが、仮想オブジェクトの異なるバージョンを見ることにより断片化された経験を有さないことを保証するように構成されたプログラム926を含み得る。プログラムデータ924は、さらに後述するように、アプリケーション922を実行しながら、プロセッサコア904により処理されたデータセット928を含み得る。プログラムデータ924は、例えば、本明細書においてさらに説明するように、装置に配信されるコンピュータ生成コンテンツを決定するために使用されるデータセット928を含み得る。説明されているこの基本構成902は、内部破線内の構成要素により図9に示される。
[0088] コンピューティング装置900は、基本構成902と必要な任意の装置及びインタフェースとの通信を容易にするような追加のフィーチャ又は機能及び追加のインタフェースを有し得る。例えば、バス/インタフェースコントローラ930を使用して、記憶装置インタフェースバス934を介して基本構成902と1つ又は複数のデータ記憶装置932との通信を容易にし得る。データ記憶装置932は、リムーバブル記憶装置936、非リムーバブル記憶装置938、又はこれらの組み合わせであり得る。リムーバブル記憶装置又は非リムーバブル記憶装置の例としては、フレキシブルディスクドライブ及びハードディスクドライブ(HDD)等の磁気ディスク装置、コンパクトディスク(CD)ドライブ又はデジタル多用途ディスク(DVD)ドライブ等の光ディスクドライブ、固体状態ドライブ(SSD)、及びテープドライブが挙げられる。コンピュータ記憶媒体の例としては、コンピュータ可読命令、データ構造、プログラムモジュール、又は他のデータ等の情報を記憶する任意の方法又は技術で実施される揮発性及び不揮発性、リムーバブル及び非リムーバブル媒体が挙げられ得る。
[0089] システムメモリ906、リムーバブル記憶装置936、及び非リムーバブル記憶装置938は、コンピュータ記憶媒体の例である。コンピュータ記憶媒体は、RAM、ROM、EEPROM、フラッシュメモリ、若しくは他のメモリ技術、CD−ROM、デジタル多用途ディスク(DVD)、若しくは他の光学記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶装置、又は他の磁気記憶装置、又は所望の情報の記憶に使用することができ、コンピューティング装置900により処理することができる他の任意の媒体を含み得るが、これらに限定されない。このような任意のコンピュータ記憶媒体は、コンピューティング装置900の部分であり得る。
[0090] コンピューティング装置900は、バス/インタフェースコントローラ930を介して様々なインタフェース装置から基本構成902への通信を容易にするインタフェースバス940(例えば、出力装置942、周辺機器インタフェース944、及び通信装置946)を含むこともできる。出力装置942の例としては、1つ又は複数のA/Vポート952を介してディスプレイ又はスピーカ等の様々な外部装置と通信するように構成され得るグラフィックスマルチコアプロセッサ948及び音声マルチコアプロセッサ950が挙げられる。周辺機器インタフェース944の例としては、1つ又は複数のI/Oポート958を介して入力装置(例えば、キーボード、マウス、ペン、音声入力装置、タッチ入力装置等)又は他の周辺装置(例えば、ポインタ、スキャナ等)等の外部装置と通信するように構成され得る、シリアルインタフェースコントローラ954又はパラレルインタフェースコントローラ956が挙げられる。通信装置946の例としては、ネットワーク通信リンクを経由して1つ又は複数の通信ポート964を介して1つ又は複数の他のコンピューティング装置962との通信を容易にするように構成され得る、ネットワークコントローラ960が挙げられる。
[0091] ネットワーク通信リンクは、通信媒体の一例であり得る。通信媒体は通常、搬送波又は他の搬送媒体等の変調データ信号内のコンピュータ可読命令、データ構造、プログラムモジュール、又は他のデータにより具現し得、任意の情報搬送媒体を含み得る。「変調データ信号」は、特徴セットのうちの1つ又は複数を有し、情報を信号に符号化するように変更される信号であり得る。限定されない例として、通信媒体は、有線ネットワーク又は直接結線接続等の有線媒体並びに音響、無線周波(RF)、マイクロ波、赤外線(IR)、及び他の無線媒体等の無線媒体を含み得る。本明細書において使用されるコンピュータ可読媒体という用語は、記憶媒体及び通信媒体の両方を含み得る。
[0092] コンピューティング装置900は、セル電話、個人情報端末(PDA)、パーソナルメディアプレーヤ装置、無線ウェブウォッチ装置、パーソナルヘッドセット装置、特定用途向け装置、又は上記機能のうちの任意を含むハイブリッド装置等の小型フォームファクタのポータブル(又はモバイル)電子装置の一部分として実施され得る。コンピューティング装置900は、ラップトップコンピュータ及び非ラップトップコンピュータ構成の両方を含むパーソナルコンピュータとして実施することもできる。
[0093] 本開示は、様々な態様の例示を目的とする、本願において説明された特定の実施形態に限定されるべきではない。当業者には理解されるように、主旨及び範囲から逸脱せずに多くの変更及び変形を行うことができる。本明細書において列挙したものの他に、本開示の範囲内の機能的に等価の方法及び装置が、上記説明から当業者には明らかになろう。このような変更及び変形は、添付の特許請求の範囲内にあるものと意図される。本開示は、添付の特許請求の範囲及びこのような特許請求の範囲に権利付与される全範囲の等価物によってのみ限定されるべきである。本開示が特定の方法に限定されず、当然ながら、変更可能なことが理解されるべきである。本明細書において使用される用語が、特定の実施形態を説明するためだけのためのものであり、限定を目的としないことも理解されるべきである。
[0094] 例示的な実施形態では、本明細書において説明された任意の動作、プロセス等は、コンピュータ可読媒体に記憶されたコンピュータ可読命令として実装することができる。コンピュータ可読命令は、モバイルユニットのプロセッサ、ネットワーク要素、及び/又は他のコンピューティング装置により実行することができる。
[0095] システムの態様のハードウェア実施とソフトウェア実装との間に区別は殆どなく、ハードウェア又はソフトウェアの使用は一般に(特定の文脈の中で、ハードウェアかソフトウェアかの選択が重大になる可能性があるという点で、常にではないが)、費用と効率とのトレードオフを表す設計の選択である。本明細書において説明したプロセス、及び/又はシステム、及び/又は他の技術を実行することができる(例えば、ハードウェア、ソフトウェア、及び/又はファームウェア)様々な伝達手段があり、プロセス、及び/又はシステム、及び/又は他の技術が導入される好ましい伝達手段は様々なである。例えば、実施者が速度及び正確性が最も重要であると決定した場合、実施者は、主にハードウェア及び/又はファームウェアの伝達手段を選ぶことができ、柔軟性が最も重要な場合、実施者は主にソフトウェア実装を選ぶことができ、又はさらなる代替として、実施者は、ハードウェア、ソフトウェア、及び/又はファームウェアの何等かの組み合わせを選ぶことができる。
[0096] 上記の詳細な説明では、ブロック図、フローチャート、及び/又は例の使用を介して装置及び/又はプロセスの様々な実施形態を説明した。このようなブロック図、フローチャート、及び/又は例は1つ又は複数の機能及び/又は動作を含む限り、このようなブロック図、フローチャート、又は例内の各機能及び/又は動作を、広範囲のハードウェア、ソフトウェア、ファームウェア、又はこれらのほぼあらゆる組み合わせにより、個々にかつ/又は集合的に実施できることが当業者に理解されよう。一実施形態では、本明細書において説明した主題のいくつかの部分は、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、デジタル信号プロセッサ(DSP)、又は他の集積フォーマットを介して実装することができる。しかし、本明細書において開示された実施形態のいくつかの態様が、全体的又は部分的に、1つ若しくは複数のコンピュータで実行される1つ若しくは複数のコンピュータプログラムとして(例えば、1つ若しくは複数のコンピュータシステムで実行される1つ又は複数のプログラムとして)、1つ若しくは複数のプロセッサで実行される1つ若しくは複数のプログラムとして(例えば、1つ若しくは複数のマイクロプロセッサで実行される1つ若しくは複数のプログラムとして)、ファームウェアとして、又はこれらのほぼあらゆる組み合わせとして、集積回路に等しく実装可能であり、回路を設計すること及び/又はソフトウェア及び又はファームウェアのコードを書くことは、本開示に鑑みて当業者の熟練のうちにあることを当業者ならば認識するであろう。さらに、本明細書において説明された主題のメカニズムが、様々な形態のプログラム製品として配布可能であり、本明細書において説明された主題の例示的な実施形態が、実際の配布するために使用される特定の種類の信号搬送媒体(signal bearing media)に関係なく適用されることを当業者は理解するであろう。信号搬送媒体の例としては、以下が挙げられるが、これらに限定されない。すなわち、フロッピー(登録商標)ディスク、ハードディスクドライブ、CD、DVD、デジタルテープ、コンピュータメモリ等の記録可能なタイプの媒体及びデジタル及び/又はアナログ通信媒体(例えば、光ファイバケーブル、導波管、有線通信リンク、無線通信リンク等)等の伝送タイプの媒体。
[00097] 当分野では、本明細書において説明したように装置及び/又はプロセスを記述し、その後、工学的慣習を使用して、説明されたこのような装置及び/又はプロセスをデータ処理システムに統合することが一般的であることを当業者は認識するであろう。すなわち、本明細書において説明した装置及び/又はプロセスの少なくとも一部分は、妥当な量の経験を介してデータ処理システムに統合することができる。典型的なデータ処理システムが一般に、システムユニット筐体、映像表示装置、揮発性及び不揮発性メモリ等のメモリ、マイクロプロセッサ及びデジタル信号プロセッサ等のプロセッサ、オペレーティングシステム、ドライバ、グラフィカルユーザインタフェース、及びアプリケーションプログラム等の計算エンティティ、タッチパッド又はスクリーン等の1つ又は複数の対話装置、及び/又はフィードバックループ及び制御モータ(例えば、位置及び/又は速度を感知するためのフィードバック、構成要素及び/又は数量を移し、かつ/又は調整するための制御モータ)を含む制御システムのうちの1つ又は複数を含むことを当業者は認識するであろう。典型的なデータ処理システムは、データ計算/通信及び/又はネットワーク計算/通信システムに通常見られるような、市販の任意の適した構成要素を利用して実施し得る。
[0098] 本明細書において説明した主題は、他の異なる構成要素内に含まれた、又は他の異なる構成要素に接続された異なる構成要素を示すことがある。示されたこのような構造は単なる例示であり、実際に、同じ機能を達成する他の多くの構造を実施することができることを理解されたい。概念的な意味では、同じ機能を達成する構成要素の任意の構成が、所望の機能が達成されるように効率的に「関連付けられる」。したがって、本明細書において特定の機能を達成するために結合された任意の2つの構成要素は、構造又は中間構成要素に関係なく、所望の機能が達成されるように互いに「関連付けられた」ものとして見ることができる。同様に、そうして関連付けられた任意の2つの構成要素は、所望の機能を達成するために、互いに「動作可能に接続」又は「動作可能に結合」されたものとして見ることもでき、そうして関連付けることが可能な任意の2つの構成要素は、所望の機能を達成するために、互いに「動作可能に結合可能」なものとして見ることもできる。動作可能に結合可能な具体的な例としては、物理的に結合し、かつ/又は物理的に相互作用する構成要素、無線で相互作用可能かつ/又は無線で相互作用する構成要素、及び/又は論理的に相互作用し、かつ/又は論理的に相互作用可能な構成要素が挙げられるが、これに限定されない。
[0099] 本明細書での複数形及び/又は単数形のほぼあらゆる用語の使用に関して、当業者は、文脈及び/又は用途に適切なように、複数形から単数形に、かつ/又は単数形から複数形に変換することができる。様々な単数形/複数形の置換は、明確にするために、本明細書において明示的に記載されることもある。
[0100] 一般に、本明細書、特に添付の特許請求の範囲(例えば、添付の特許請求の範囲の本文)において使用される用語が一般に、「オープン」ターム(例えば、「含む」という用語は「含むが、それに限定されない」として解釈されるべきであり、「有する」という用語は「少なくとも、〜を有する」として解釈されるべきであり、「含んでいる」という用語は「含んでいるが、それに限定されない」として解釈されるべきであるなど)として意図されることが当業者により理解されるであろう。導入された請求項において特定の数の記載が意図される場合、このような意図は請求項内で明示的に記載され、このような記載がない場合、そのような意図が存在しないことが当業者によりさらに理解されるであろう。例えば、理解を助けるために、添付の以下の特許請求の範囲は、請求項の列挙事項を導入するために導入語句「少なくとも1つの」及び「1つ又は複数の」の使用を含み得る。しかし、このような語句の使用は、不定冠詞「a」又は「an」による請求項の列挙事項の導入が、このように導入された請求項を含む任意の特定の請求項を、その請求項が導入語句「1つ又は複数の」又は「少なくとも1つ」を含む場合、「a」又は「an」等の不定冠詞を含む場合であっても、1つのみのこのような列挙事項を含む実施形態に限定するものとして解釈されるべきではなく(例えば、「a」及び/又は「an」は「少なくとも1つ」又は「1つ又は複数の」を意味するものと解釈されるべきである)、同じことが、請求項の列挙事項の導入に使用される定冠詞の使用に関しても言える。さらに、特定の数の請求項の導入列挙事項が明示的に記載される場合であっても、このような記載が、少なくとも、記載された数を意味する(例えば、他の修飾のない「2の記載」というただの記載は、少なくとも2つの列挙事項又は2つ若しくはそれよりも多くの列挙事項を意味する)ものと解釈されるべきであることを当業者は認識するであろう。さらに、「A、B、及びC等のうちの少なくとも1つ」に類似した慣例が使用される場合、一般にそのような構成は、当業者が慣例を理解するという意味で意図される(例えば、「A、B、及びCのうちの少なくとも1つを有するシステム」は、Aのみ、Bのみ、Cのみ、A及びBを一緒に、A及びCを一緒に、B及びCを一緒に、並びに/或いはA、B、及びCを一緒に有するシステム等を含むが、これらに限定されない)。「A、B、又はCのうちの少なくとも1つ」に類似した慣例が使用される場合、一般にそのような構成は、当業者が慣例を理解するという意味で意図される(例えば、「A、B、又はCのうちの少なくとも1つを有するシステム」は、Aのみ、Bのみ、Cのみ、A及びBを一緒に、A及びCを一緒に、B及びCを一緒に、並びに/或いはA、B、及びCを一緒に有するシステム等を含むが、これらに限定されない)。2つ又はそれよりも多くの代替の用語を提示するほぼあらゆる選言的な言葉及び/又は語句が、説明内であれ、特許請求の範囲内であれ、又は図面内であれ、それら用語のうちの一方、他方、又は両方を含む可能性を意図するものと理解されるべきであることが、当業者によりさらに理解されるであろう。例えば、語句「A又はB」は、「A」、「B」、又は「A及びB」の可能性を含むものと理解される。
[0101] さらに、本開示の特徴又は態様がマーカッシュ群で記載されている場合、それによりその開示が、マーカッシュ群の任意の個々のメンバ又は下位群に関しても説明されていることを当業者は認識するであろう。
[0102] 当業者により理解されるように、本明細書では、書面での説明を提供するなどに関して、本明細書において開示されたすべての範囲は、任意及びすべての可能な下位範囲及びその下位範囲の組み合わせも包含する。列挙されたあらゆる範囲は、同範囲が少なくとも等しい半分、1/3、1/4、1/5、1/10等に分割されることを十分に説明するもの、又は可能にするものとして容易に認識することができる。非限定的な例として、本明細書において考察した各範囲は、下の1/3、中間の1/3、上の1/3等に容易に分割することができる。当業者により理解されるように、「最大で」「少なくとも」等のすべての言葉は記載された数を含み、上述したように下位範囲に続けて分割可能な範囲を指す。最後に、当業者に理解されるように、範囲は個々の各数を含む。したがって、例えば、1〜3個のセルを有する群は、1個、2個、又は3個のセルを有する群を指す。同様に、1〜5個のセルを有する群は、1個、2個、3個、4個、又は5個のセルを有する群を指し、以下同様である。
[0103] 上記から、本開示の様々な実施形態が、例示のために本明細書において説明され、本開示の範囲及び主旨から逸脱せずに、様々な変更を行うことが可能なことが理解されるであろう。したがって、本明細書において開示された様々な実施形態は限定を意図されず、真の範囲及び主旨は以下の特許請求の範囲に示される。
オブジェクト

Claims (22)

  1. サーバによって実行される、仮想オブジェクトをユーザに対して表示する方法であって、
    コンピュータ生成コンテンツを含む前記仮想オブジェクトの第1のバージョンを第1の装置に表示させるために、前記仮想オブジェクトの前記第1のバージョンを第1の装置に送信することと、
    前記第1の装置及び第2の装置のそれぞれにトラッキングクッキーを配信することと、
    前記トラッキングクッキーに基づいて、前記第2の装置に対する前記第1の装置の距離及び時間に関する離隔係数を決定することと、
    前記隔離係数の経時変化を監視して、当該経時変化において前記隔離係数が隔離閾値を超える場合、異なるコンピュータ生成コンテンツを含む前記仮想オブジェクトの第2のバージョンを第2の装置に表示させるために、前記仮想オブジェクトの前記第2のバージョンを当該第2の装置に送信することとを含む、
    方法。
  2. 前記第1の装置の場所及び前記第2の装置の場所を監視することをさらに含む、請求項1に記載の方法。
  3. 前記第1の装置と前記第2の装置との距離を、前記第2の装置の場所又は前記第1の装置の場所のいずれも暴露せずに特定することをさらに含む、請求項2に記載の方法。
  4. 前記隔離係数は、前記仮想オブジェクト内に含まれた現実世界のオブジェクトとの前記第1の装置の第1の対話から前記現実世界のオブジェクトとの前記第2の装置の第2の対話までの時間を含む、請求項1に記載の方法。
  5. 前記仮想オブジェクトは拡張現実画像を備え、前記コンピュータ生成コンテンツは、前記第1の装置に表示される前記仮想オブジェクトの前記第1のバージョンを生成するために、現実世界のオブジェクトの画像に併合されて、異なるコンピュータ生成コンテンツは、前記第2の装置に表示される前記仮想オブジェクトの前記第2のバージョンを生成するために、前記現実世界のオブジェクトの前記画像と併合される、請求項1に記載の方法。
  6. 前記隔離係数が、前記隔離閾値を超えた状態から前記隔離閾値を下回る状態に変化した場合、前記第2の装置に前記仮想オブジェクトの前記第1のバージョンを表示するか、又は前記仮想オブジェクトの前記第2のバージョンを表示するかを判断すること、をさらに含む、請求項1に記載の方法。
  7. サーバによって実行される、複数の装置に対して拡張現実画像を作成するために使用されるコンピュータ生成コンテンツを配信する方法であって、
    前記第1の装置の第1の属性を表す第1の情報を、オブジェクトの画像を表示する第1の装置から受信することと、
    前記第2の装置の第2の属性を表す第2の情報を、オブジェクトの画像を表示する第2の装置から受信することと、
    前記第1の属性と前記第2の属性とを比較して、距離及び時間に関する隔離係数を決定することと、
    前記隔離係数の経時変化を監視して、当該経時変化に基づいて、前記第1の装置及び前記第2の装置に配信すべきコンピュータ生成コンテンツのバージョンを決定することと、
    前記決定したコンピュータ生成コンテンツのバージョンを前記第1の装置及び前記第2の装置に配信することと、
    を含む、方法。
  8. 前記隔離係数が隔離閾値を上回らない場合に、コンピュータ生成コンテンツの第1のバージョンを前記第1の装置及び前記第2の装置に配信し、前記隔離係数が前記隔離閾値を上回る場合に、前記第1のバージョンを前記第1の装置に配信するとともに前記コンピュータ生成コンテンツの第2のバージョンを前記第2の装置に配信することをさらに含む、請求項7に記載の方法。
  9. 前記第1の属性は前記第1の装置の場所であり、前記第2の属性は前記第2の装置の場所であり、前記隔離係数は、前記隔離閾値に含まれる閾値距離と比較される、前記第1の装置と前記第2の装置との距離を表す、請求項8に記載の方法。
  10. 前記第1の属性は、前記第1の装置が前記オブジェクトの前記画像を表示した時、又は前記第1の装置がある場所にある時を表す第1の時間のうちの少なくとも1つを含み、
    前記第2の属性は、前記第2の装置が前記オブジェクトの前記画像を表示した時、又は前記第2の装置が実質的に同じ場所にある時を表す第2の時間のうちの少なくとも1つを含む、請求項7に記載の方法。
  11. 前記隔離係数は時間を含み、前記方法は、前記隔離閾値に含まれる閾値時間と比較される前記第1の時間と前記第2の時間との差分に基づいて、前記コンピュータ生成コンテンツの前記第1のバージョン又は前記コンピュータ生成コンテンツの第2のバージョンのいずれかを前記第2の装置に配信することをさらに含む、請求項10に記載の方法。
  12. 前記第1の情報に含まれる第1の場所を監視することと、
    前記第1の場所と前記第2の情報に含まれる前記第2の場所との比較により決定される隔離係数が前記隔離閾値未満の場合、前記第1のバージョンを前記第2の装置に配信することと、
    前記比較により決定される隔離係数が前記隔離閾値以上の場合に、前記コンピュータ生成コンテンツの第2のバージョンを前記第2の装置に配信することと、
    を含む、請求項7に記載の方法。
  13. 前記比較により決定される隔離係数が前記隔離閾値を上回る状態から前記隔離閾値を下回る状態に変化した場合、前記コンピュータ生成コンテンツの同じバージョンを前記第1の装置及び前記第2の装置に配信することを保証することをさらに含む、請求項7に記載の方法。
  14. オブジェクトと対話するための装置にコンピュータ生成コンテンツを配信する処理をサーバが実行する方法であって、
    仮想オブジェクトの第1のバージョンを第1の装置に表示させるために、前記仮想オブジェクトの画像と混合されるコンピュータ生成コンテンツの第1のバージョンを第1の装置に配信することと、
    第2の装置を検出することと、
    前記第1の装置と前記第2の装置との距離及び時間に関する隔離係数を決定することと、
    前記隔離係数が隔離閾値を超える場合に、前記仮想オブジェクトの第2のバージョンを前記第2の装置に表示させるために、前記仮想オブジェクトの前記画像と混合される前記コンピュータ生成コンテンツの第2のバージョンを前記第2の装置に配信することと、を含み、
    前記隔離係数の時間経過に伴う変化を監視し、前記コンピュータ生成コンテンツのバージョンを決定する、
    方法。
  15. 前記隔離係数が前記隔離閾値を超えない場合、前記コンピュータ生成コンテンツの前記第1のバージョンを前記第2の装置に配信するステップをさらに含む、請求項14に記載の方法。
  16. 前記隔離係数は、(i)前記第1の装置と前記第2の装置との距離、(ii)前記オブジェクトの前記画像が前記第1の装置に表示された時から前記第2の装置を検出する時までの時間、及び(iii)前記第1の装置がある場所にある時から前記第2の装置が前記場所にある時までの第2の時間のうちの少なくとも1つを含む、請求項15に記載の方法。
  17. 複数のユーザを検出することと、
    前記第1のバージョンと前記第2のバージョンとの所望のテストバランスに基づいて、前記コンピュータ生成コンテンツの前記第1のバージョン又は前記第2のバージョンのいずれかを配信することと
    をさらに含む、請求項14に記載の方法。
  18. 前記隔離係数が変化し、前記隔離閾値を超えない場合、前記コンピュータ生成コンテンツの前記第1のバージョンを前記第1の装置に配信することをさらに含む、請求項14に記載の方法。
  19. 前記コンピュータ生成コンテンツの前記第1のバージョンを、前記離隔閾値を超えない前記第1の装置に対する隔離係数に関連付けられた後続の装置に配信することをさらに含む、請求項14に記載の方法。
  20. 仮想オブジェクトに含めるコンピュータ生成コンテンツを生成する装置であって、
    ネットワークを介して第1の装置及び第2の装置と通信するように構成され、前記第1の装置及び前記第2の装置のそれぞれから情報を受信する、サーバと、
    前記サーバがアクセス可能な記憶装置に記憶されたコンテンツモジュールであって、前記サーバに、
    前記第1の装置及び前記第2の装置から前記情報を受信させ、
    前記第1の装置と前記第2の装置との少なくとも1つの隔離係数を決定させ、
    前記第1の装置に対する第1のコンピュータ生成コンテンツ及び前記第2の装置に対する第2のコンピュータ生成コンテンツを生成させる、
    コンピュータ実行可能命令を含む、コンテンツモジュールと、を備え、
    前記サーバは、
    前記第1のコンピュータ生成コンテンツを前記第1の装置に配信
    し、前記第2のコンピュータ生成コンテンツを前記第2の装置に配信し、
    前記第1の装置からの前記情報は、前記第1の装置の第1の場所及び前記第1の場所に関連付けられた第1の時間、又は前記第1の装置で表示中の現実世界のオブジェクトのうちの1つ又は複数を表し、前記第2の装置からの前記情報は、前記第2の装置の第2の場所及び前記第2の場所に関連する第2の時間、又は前記第2の装置で表示中の前記現実世界のオブジェクトのうちの1つ又は複数を表し、
    前記サーバは、時間の経過に伴って前記第1の場所及び前記第2の場所を追跡し、前記隔離係数が隔離閾値を超えた状態から前記隔離閾値を超えない状態に変化した場合、前記第1のコンピュータ生成コンテンツ及び前記第2のコンピュータ生成コンテンツのうちの少なくとも一方を変更する、
    装置。
  21. 前記隔離係数が隔離閾値を下回る場合、前記第1のコンピュータ生成コンテンツ及び前記第2のコンピュータ生成コンテンツは、実質的に同一であり、前記隔離係数は、前記第1の装置が前記現実世界のオブジェクトを表示したときから前記第2の装置が前記現実世界のオブジェクトを表示したときまでの時間及び前記第1の装置と前記第2の装置との距離のうちの少なくとも1つとして定義される、請求項20に記載の装置。
  22. 前記隔離係数が隔離閾値を上回る場合、前記第1のコンピュータ生成コンテンツ及び前記第2のコンピュータ生成コンテンツは異なる、請求項20に記載の装置。
JP2010005836A 2009-10-15 2010-01-14 拡張現実における差分トライアル Expired - Fee Related JP5147871B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/579,718 US9424583B2 (en) 2009-10-15 2009-10-15 Differential trials in augmented reality
US12/579,718 2009-10-15

Publications (2)

Publication Number Publication Date
JP2011086272A JP2011086272A (ja) 2011-04-28
JP5147871B2 true JP5147871B2 (ja) 2013-02-20

Family

ID=43530276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010005836A Expired - Fee Related JP5147871B2 (ja) 2009-10-15 2010-01-14 拡張現実における差分トライアル

Country Status (4)

Country Link
US (1) US9424583B2 (ja)
EP (1) EP2312517A1 (ja)
JP (1) JP5147871B2 (ja)
KR (1) KR101097215B1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101299910B1 (ko) * 2010-08-18 2013-08-23 주식회사 팬택 증강 현실 서비스의 공유 방법 및 그를 위한 사용자 단말기와 원격자 단말기
US10796494B2 (en) * 2011-06-06 2020-10-06 Microsoft Technology Licensing, Llc Adding attributes to virtual representations of real-world objects
JP5799628B2 (ja) * 2011-07-15 2015-10-28 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US9443353B2 (en) 2011-12-01 2016-09-13 Qualcomm Incorporated Methods and systems for capturing and moving 3D models and true-scale metadata of real world objects
US9812046B2 (en) 2013-01-10 2017-11-07 Microsoft Technology Licensing, Llc Mixed reality display accommodation
US9607584B2 (en) 2013-03-15 2017-03-28 Daqri, Llc Real world analytics visualization
US9240075B2 (en) * 2013-03-15 2016-01-19 Daqri, Llc Campaign optimization for experience content dataset
WO2015072968A1 (en) * 2013-11-12 2015-05-21 Intel Corporation Adapting content to augmented reality virtual objects
AU2013273829A1 (en) 2013-12-23 2015-07-09 Canon Kabushiki Kaisha Time constrained augmented reality
US9170921B2 (en) * 2014-01-24 2015-10-27 Bank Of America Corporation Application testing automation
US11226788B2 (en) * 2016-02-01 2022-01-18 Shapedo Ltd. Comparing and merging complex data structures
US10424121B1 (en) * 2016-11-06 2019-09-24 Oded Melinek Generated offering exposure
US20180190033A1 (en) * 2016-12-30 2018-07-05 Facebook, Inc. Systems and methods for providing augmented reality effects and three-dimensional mapping associated with interior spaces
US11010986B2 (en) * 2018-08-30 2021-05-18 Apple Inc. Virtual object kit
US11182980B1 (en) * 2020-03-26 2021-11-23 Apple Inc. Procedural generation of computer objects

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI106602B (fi) * 1998-03-31 2001-02-28 Nokia Networks Oy Aikaeron mittausmenetelmä ja radiojärjestelmä
JP4304291B2 (ja) 2003-05-22 2009-07-29 日本電気株式会社 案内情報提供方法、案内情報提供サーバ、および案内情報提供プログラム
JP4418225B2 (ja) 2003-12-18 2010-02-17 オリンパス株式会社 情報呈示システム
US20050135286A1 (en) * 2003-12-23 2005-06-23 Nurminen Jukka K. Wireless extended proximity networks: systems, methods and program products
US8547401B2 (en) 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
US7542034B2 (en) 2004-09-23 2009-06-02 Conversion Works, Inc. System and method for processing video images
JPWO2006067841A1 (ja) 2004-12-22 2008-06-12 富士通株式会社 仮想マシン管理プログラムおよび仮想マシン管理方法
US8886125B2 (en) * 2006-04-14 2014-11-11 Qualcomm Incorporated Distance-based association
JPWO2007132661A1 (ja) 2006-05-12 2009-09-24 株式会社Access 端末、ネットワークシステム、コンテキスト情報提供方法、及び、コンテキスト情報提供プログラム
AU2007281963A1 (en) 2006-08-04 2008-02-14 Skyhook Wireless, Inc. Systems and methods of automated retrieval of location information from a user device for use with server systems
US20080084859A1 (en) 2006-10-10 2008-04-10 Brian Scott Sullivan System and method for maintaining a network connection in a wireless network
US20080147730A1 (en) 2006-12-18 2008-06-19 Motorola, Inc. Method and system for providing location-specific image information
US20080270906A1 (en) * 2007-04-26 2008-10-30 Reddy Venkateshwara N Method and system to share content
US20090054084A1 (en) 2007-08-24 2009-02-26 Motorola, Inc. Mobile virtual and augmented reality system
US8180396B2 (en) 2007-10-18 2012-05-15 Yahoo! Inc. User augmented reality for camera-enabled mobile devices
US8271878B2 (en) * 2007-12-28 2012-09-18 Amazon Technologies, Inc. Behavior-based selection of items to present on affiliate sites
US8406601B2 (en) * 2007-12-28 2013-03-26 Nxp B.V. Method and system for reproducing audio/video content and portable device
US20090237328A1 (en) 2008-03-20 2009-09-24 Motorola, Inc. Mobile virtual and augmented reality system
JP4579316B2 (ja) * 2008-06-30 2010-11-10 任天堂株式会社 撮像装置、撮像システムおよびゲーム装置

Also Published As

Publication number Publication date
EP2312517A1 (en) 2011-04-20
KR101097215B1 (ko) 2011-12-22
JP2011086272A (ja) 2011-04-28
US9424583B2 (en) 2016-08-23
US20110090219A1 (en) 2011-04-21
KR20110041383A (ko) 2011-04-21

Similar Documents

Publication Publication Date Title
JP5147871B2 (ja) 拡張現実における差分トライアル
US10825256B2 (en) Generation of user interaction based data by three dimensional assets in a virtual environment
JP6039385B2 (ja) モバイル端末の動きに基づいて広告を提供するシステム及び方法
US10650598B2 (en) Augmented reality-based information acquiring method and apparatus
US8429533B2 (en) Systems, methods, and computer readable storage media for providing virtual media environments
KR102352564B1 (ko) 사용자의 할일 목록에 대한 알림을 제공하는 방법 및 시스템
US11070887B2 (en) Video content deep diving
US20240144628A1 (en) Methods and systems for generating digital objects for collecting data in a three-dimensional environment
US8368722B1 (en) Cartographic display of content through dynamic, interactive user interface elements
JP6368372B2 (ja) 製品アベイラビリティ通知
US10425769B2 (en) Media navigation recommendations
US10769679B2 (en) System and method for interactive units within virtual reality environments
US20100241689A1 (en) Method and apparatus for associating advertising with computer enabled maps
KR20190026742A (ko) 온라인 환경에서 사용하기 위한 삼차원 디지털 자산을 생성 및 디스플레이하기 위한 방법 및 시스템
US9482546B2 (en) Method and system for providing route information to a destination location
Abdul Hamid et al. An interactive mobile augmented reality for advertising industry
US20160041699A1 (en) Method and system for providing adaptive arrangement and representation of user interface elements
US20150082346A1 (en) System for Selective and Intelligent Zooming Function in a Crowd Sourcing Generated Media Stream
KR102474468B1 (ko) 대형 디스플레이를 이용하는 컨텐츠 서비스 제공 방법 및 시스템
US11126416B2 (en) Method and system for application installation and interaction during a podcast
US20200134667A1 (en) Dynamic campaigns in virtual reality environment
Yan et al. Evaluation of the Applicability of HTML5 for Mobile Applications in Resource-Constrained Edge Environments
EP2879395A1 (en) Dynamic enhancement of media experience

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120125

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121023

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20121030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121127

R150 Certificate of patent or registration of utility model

Ref document number: 5147871

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees