JP6823035B2 - 現実世界の場所と関連する現実を拡張するための方法、装置、システム、デバイス、およびコンピュータプログラム製品 - Google Patents

現実世界の場所と関連する現実を拡張するための方法、装置、システム、デバイス、およびコンピュータプログラム製品 Download PDF

Info

Publication number
JP6823035B2
JP6823035B2 JP2018207898A JP2018207898A JP6823035B2 JP 6823035 B2 JP6823035 B2 JP 6823035B2 JP 2018207898 A JP2018207898 A JP 2018207898A JP 2018207898 A JP2018207898 A JP 2018207898A JP 6823035 B2 JP6823035 B2 JP 6823035B2
Authority
JP
Japan
Prior art keywords
image
real
user
world
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018207898A
Other languages
English (en)
Other versions
JP2019067418A (ja
Inventor
シン モナ
シン モナ
Original Assignee
ピーシーエムエス ホールディングス インコーポレイテッド
ピーシーエムエス ホールディングス インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ピーシーエムエス ホールディングス インコーポレイテッド, ピーシーエムエス ホールディングス インコーポレイテッド filed Critical ピーシーエムエス ホールディングス インコーポレイテッド
Publication of JP2019067418A publication Critical patent/JP2019067418A/ja
Application granted granted Critical
Publication of JP6823035B2 publication Critical patent/JP6823035B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/44Browsing; Visualisation therefor
    • G06F16/444Spatial browsing, e.g. 2D maps, 3D or virtual spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • G09G2360/144Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light being ambient light

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Navigation (AREA)

Description

本発明は、現実世界の場所と関連する現実を拡張するための方法、装置、システム、デバイス、およびコンピュータプログラム製品に関する。
本出願は、その開示が全体として参照により本明細書に組み込まれる、2014年1月24日に出願された米国特許仮出願第61/931225号明細書の利益を主張する。
拡張現実(AR)は、典型的には、一般にリアルタイムまたは準リアルタイムで、エンドユーザに対する表示を行うために、拡張情報と現実世界の映像とを融合させることなどによって、現実世界とコンピュータ生成されたデータとを組み合わせることに重点を置く。ARの範囲は、いくつか例を挙げると、広告、ナビゲーション、および娯楽など、広範なアプリケーション領域に広がっている。現実世界の場面への拡張情報のシームレスな統合を提供することに対する関心が高まっている。
しかしながら、ARは、エンドユーザエクスペリエンスに関する新しい難題、具体的には、特に、ウェアラブルデバイスもしくはコンピュータ、ナビゲーションデバイス、および/もしくはスマートフォンなどとの使用、ならびに/またはそのようなデバイスと関連付けられた表示面積制限を考慮して、拡張情報を適切に表示することに関する新しい難題など、難題を提示することがある。さらに、そのようなデバイス上にデータを表示するための現在の方法または技法は、残念ながら、適切でないこと、または考え抜かれていないことがある。例えば、拡張情報を表示するための現在の方法または技法は、モバイルフォンもしくはデバイス、ウェアラブルデバイス、および/またはコンピュータなどのデバイス上において、多数のイメージがアプリケーションのユーザに利用可能になることがあるので、特に問題になることがある。残念ながら、デバイスのユーザは、限られた認識能力しか有することができず、利用可能なイメージを処理することができないことがある。
本発明は、本明細書で説明される例によれば、(例えば、一括して、現実世界の眺めと呼ばれることがある)眺め(ヴュー:view)および/または現実世界の眺め(リアルワールド・ヴュー:real-world view)は、物理的空間の眺めを含むことができ、および/または物理的空間の眺めであることができる。現実世界の眺めは、例えば、提示ユニット(例えば、ディスプレイ)を介して(例えば、その上で、および/またはそれを通して)、デバイス上で可視であること、または他の方法で知覚可能であることができる。現実世界の眺めは、現実世界の場所の1または複数(1つ以上)、および/または現実世界の場所のいずれかと関連して提示される拡張情報を含むことができる。拡張情報は、例えば、拡張情報が物理的空間内に位置付けられて、または他の方法で配置されて出現することができるように、提示ユニットを介して提示、描画、および/または表示することができる。拡張情報は、例えば、(例えば、ホログラフィック技法などを使用して)物理的空間に投影することができる。あるいは、および/または加えて、拡張情報は、拡張情報が提示ユニットによってデバイスのディスプレイ画面上に提供されること、および/またはデバイスのディスプレイ画面上に位置付けられて、もしくは他の方法で配置されて出現することができるように、提示(例えば、表示)することができる。様々な例では、拡張情報のいくつかは、物理的空間に投影すること(または物理的空間内に出現するように他の方法で表示すること)ができ、拡張情報のいくつかは、拡張情報がディスプレイ画面上に提供されること、および/またはディスプレイ画面上に位置付けられて、もしくは他の方法で配置されて出現することができるように、提示(例えば、描画または表示)することができる。
より詳細な理解は、本明細書に添付された図面と併せて、例によって与えられる、以下の詳細な説明から得ることができる。そのような図面の中の図は、詳細な説明と同様に、例である。そのため、図および詳細な説明は、限定的なものと見なされるべきではなく、他の等しく有効な例も、あり得、おそらく可能である。さらに、図における同じ参照番号は、同じ要素を示している。
本発明は、現実世界の場所と関連する現実を拡張するための方法、装置、システム、デバイス、およびコンピュータプログラム製品を提供する。
現実世界の場所を含む現実世界の眺めを現実世界の場所の見慣れたイメージを用いて拡張した例を示す図である。 現実世界の場所を含む現実世界の眺めを現実世界の場所の見慣れたイメージを用いて拡張した例を示す図である。 現実世界の場所を含む現実世界の眺めを現実世界の場所の見慣れたイメージを用いて拡張した例を示す図である。 現実世界の場所を含む現実世界の眺めを現実世界の場所の見慣れたイメージを用いて拡張した例を示す図である。 拡張現実システムの例を示すブロック図である。 提示ユニットを介して現実を拡張することに向けられた例示的なフローを示すフロー図である。 拡張現実システムの例を示すブロック図である。 提示ユニットを介して現実を拡張することに向けられた例示的なフローを示すフロー図である。 提示ユニットを介して現実を拡張することに向けられた例示的なフローを示すフロー図である。 提示ユニットを介して現実を拡張することに向けられた例示的なフローを示すフロー図である。 提示ユニットを介して現実を拡張することに向けられた例示的なフローを示すフロー図である。 1または複数の開示された実施形態を実施することができる例示的な通信システムのシステム図である。 図10Aに示された通信システム内で使用することができる例示的な無線送受信ユニット(WTRU)のシステム図である。 図10Aに示された通信システム内で使用することができる例示的な無線アクセスネットワークおよび例示的なコアネットワークのシステム図である。 図10Aに示された通信システム内で使用することができる例示的な無線アクセスネットワークおよび例示的なコアネットワークのシステム図である。 図10Aに示された通信システム内で使用することができる例示的な無線アクセスネットワークおよび例示的なコアネットワークのシステム図である。
以下の詳細な説明では、本明細書で開示される実施形態および/または例についての完全な理解を提供するために、数々の特定の詳細が説明される。しかしながら、そのような実施形態および例は、本明細書で説明される特定の詳細のいくつかまたはすべてを伴わずとも、実施することができることが理解されよう。他の例では、以下の説明を曖昧にしないように、よく知られた方法、手順、構成要素、および回路は、詳細には説明しなかった。さらに、本明細書で具体的に説明されていない実施形態および例は、本明細書で明示的、暗黙的、および/または本質的に説明、開示、または他の方法で提供された(例えば、提供された)実施形態および他の例の代わりに、またはそれらと組み合わせて、実施することができる。
本明細書の例は、拡張現実に関連する方法、装置、システム、デバイス、および/またはコンピュータプログラム製品を含むこと、および/または提供することができる。例では、方法、装置、システム、デバイス、およびコンピュータプログラム製品は、現実世界の場所(a real-world place)、および/または現実世界の場所を含むことができる現実世界の眺め(a real-world view)に関する現実を(例えば、拡張現実提示および/またはユーザインターフェースを通して)拡張することに向けることができる。現実世界の場所は、例えば、ランドマーク、関心地点(POI:Point of Interest)、および/または建物とすることができる。現実世界の場所は、固定されたロケーション(例えば、ランドマーク)、または(例えば、時間に連れて)変化することができるロケーションを有することができる。現実世界の場所は、例によれば、経路、道筋に沿って位置付けること、もしくはそれらに関連して他の方法で配置すること、ならびに/または通行および/もしくは横断することができる。
本明細書で説明される例によれば、(例えば、一括して、現実世界の眺めと呼ばれることがある)眺めおよび/または現実世界の眺めは、物理的空間の眺めを含むことができ、および/または物理的空間の眺めであることができる。現実世界の眺めは、例えば、提示ユニット(例えば、ディスプレイ)を介して(例えば、その上で、および/またはそれを通して)、デバイス上で可視であること、または他の方法で知覚可能であることができる。現実世界の眺めは、現実世界の場所の1または複数(1つ以上)、および/または現実世界の場所のいずれかと関連して提示される拡張情報を含むことができる。拡張情報は、例えば、拡張情報が物理的空間内に位置付けられて、または他の方法で配置されて出現することができるように、提示ユニットを介して提示、描画、および/または表示することができる。拡張情報は、例えば、(例えば、ホログラフィック技法などを使用して)物理的空間に投影することができる。あるいは、および/または加えて、拡張情報は、拡張情報が提示ユニットによってデバイスのディスプレイ画面上に提供されること、および/またはデバイスのディスプレイ画面上に位置付けられて、もしくは他の方法で配置されて出現することができるように、提示(例えば、表示)することができる。様々な例では、拡張情報のいくつかは、物理的空間に投影すること(または物理的空間内に出現するように他の方法で表示すること)ができ、拡張情報のいくつかは、拡張情報がディスプレイ画面上に提供されること、および/またはディスプレイ画面上に位置付けられて、もしくは他の方法で配置されて出現することができるように、提示(例えば、描画または表示)することができる。
方法、装置、システム、デバイス、およびコンピュータプログラム製品は、(例えば、デバイス、および/またはその中の提示ユニットを介して)現実を拡張することに向けられた方法を含むことができる。方法は、以下、すなわち、デバイスを介して現実世界の眺めをキャプチャするステップ、現実世界の眺めの中の現実世界の場所を識別するステップ、ユーザが見慣れた(familiar to)現実世界の場所と関連付けられたイメージを決定するステップ、ならびに/または現実世界の場所を含む現実世界の眺めを、現実世界の眺めを見ていることがある、および/もしくは現実世界の眺めを見ると予想されることがある、ユーザもしくは見る人が見慣れた現実世界の場所のイメージを用いて拡張するステップ(例えば、現実世界の眺めは、本明細書で説明されるように、現実世界の場所の上に、上を覆って、もしくは近くに、イメージを表示もしくは描画することによって拡張することができる)のうちの1または複数(1つ以上)を含むことができる。例えば、ユーザまたは見る人が見慣れた現実世界の場所は、見る人が見慣れた見え方になるようにすることができる。(例えば、見慣れたイメージとすることができる)見る人が見慣れた現実世界の場所のイメージは、他の方法ではユーザが認識しないことがある場合に、見る人に現実世界の場所を認識させること、または見る人が現実世界の場所を認識することを可能にすることができる。例えば、現実世界の眺めの中に示すことができる現実世界の場所は、現実世界の場所への現在の訪問が夜間の時間帯の出来事であり、ならびに/または現実世界の場所へのかつての訪問が(および/もしくはそこをかつて見たのが)昼間の時間帯の出来事であったせいで、ユーザまたは見る人が見慣れた見え方をしていないことがある。あるいは、および/または加えて、現実世界の眺めの中に示される現実世界の場所は、時間的に長い期間にわたって現実世界の場所を訪問して(および/もしくは見て)おらず、ならびに/またはそのような時間の間に、現実世界の場所および/もしくはその環境が(例えば、ユーザもしくは見る人にとって見違えるほど)変化した結果として、見る人が見慣れた見え方をしていないことがある。
イメージ(例えば、見慣れたイメージ)は、見る人が直接的に見慣れたもの、例えば、現実世界の場所へのかつての訪問中に(例えば、そこまたはそこの近くにいた間に)、見る人のデバイスがイメージをキャプチャしたことの結果および/または応答として見慣れたものであることができる。イメージは、自律的に(例えば、自動的に、および/もしくはユーザ対話もしくはアクションなしに)キャプチャすることができ、ならびに/または見る人の明示的なアクションによってなど、ユーザ対話を介してキャプチャすることができる。例によれば、見慣れたイメージは、見る人が間接的に見慣れたもの、すなわち、見る人のソーシャルサークルのメンバによる現実世界の場所へのかつての訪問中に、そのデバイスがイメージをキャプチャした別の人との(例えば、オンライン)ソーシャル関係の結果として見慣れたものであることができる。イメージは、見る人のソーシャルサークルのメンバのデバイスによって自律的にキャプチャすることができ、および/または本明細書で説明されるように、見る人のソーシャルサークルのメンバの明示的なアクションによってキャプチャすることができる。
いくつかの例では、現実世界の眺めを拡張することは、現実世界の場所と関連するイメージを提示および/または提供(例えば、表示および/または描画)することを含むことができる。イメージを提示および/または提供することは、例えば、現実世界の場所にアンカされる、近くに位置決めされる、および/または隣接するなどする、現実世界の場所と関連するコールアウト(例えば、仮想オブジェクト)内にイメージを提示することを含むことができる。あるいは、加えて、イメージを提示しよび/または提供することは、イメージを現実世界の眺めの上に投影および/またはスーパーインポーズすることを含むことができる。イメージをスーパーインポーズすることは、イメージを現実世界の場所の(例えば、少なくとも一部の)上にオーバーレイすること、および/またはイメージを現実世界の場所の代用として出現させることを含むことができる。
例では、方法は、複数のイメージ(例えば、複数の見慣れたイメージ)を用いて、現実世界の眺めを拡張するステップを含むことができる。例によれば、イメージは、スライドショーに類似したフォーマットで提示および/または提供することができる。例えば、イメージの1つを提示および/または提供することができ、その後、タイマの満了および/または見る人からの入力に応答して、それを見慣れたイメージの別の1つによって置き換えることができる。
本明細書で提供される方法、装置、システム、デバイス、およびコンピュータプログラム製品は、例によれば、以下のように実施することができる。例えば、デバイスのユーザ(例えば、アリス)は、雨の冬の晩に、友人の自宅までドライブすることを計画することがある。友人の自宅は、特定のエリア、ロケーション、または地方自治体および/もしくはそれらの一部(例えば、近くの町のダウンタウン地区)に存在していることがある。例では、ダウンタウン地区は、復興を遂げつつあり、さらなる居住者を増やしているところであることがある。アリスは、同じエリアの小さい酒店などの店舗で、飲料および/または食料(例えば、ワインのボトル)などの商品を買って行くことを計画することもある。ユーザが出発する時刻までに、暗くなり始めることがあり、雨は弱まることなく降り続けていることがある。ユーザは、ほんの数か月前に友人の家を訪問したことがあるが、以前、店舗を訪れたことはないことがある。ユーザは、ナビゲーションシステムを使用することができる。ユーザのナビゲーションシステムは、見る限り正確な方向であることができる方向を彼または彼女に提供することができるが、近所は、見慣れないものであることがある。ユーザは、以前そこに来たことがあるが、そのような近所へのかつての訪問は、明るい春の日の午後の出来事であることがある。さらに、エリア内に新しい建築物が存在していることがある。そのため、友人の自宅、ならびに/または彼もしくは彼女が曲がり角を曲がるために使用することができたランドマーク(例えば、食料品店の駐車場、街路の角の1つのところの大きい岩、および/もしくは他の任意のランドマーク)は、見慣れないものであること、または見慣れないものに見えることがある。
本明細書の例では、酒店などの店舗は、友人の自宅までの経路沿いの中間目的地であること、または中間目的地として識別することができる。例によれば、店舗は、低層のビルの上の方の階にある小さい会社であることができ、小さい家族経営の店舗が長く連なった中間に存在する。店舗は、1階に狭い入口を有することもできる。
本明細書の例では、ユーザが店舗に接近すると、他の人によって撮影された同じ店舗およびその入口のイメージを獲得し、ならびに/または本明細書で説明されるように、モバイルフォンもしくはデバイス、ナビゲーションデバイス、および/もしくはウェアラブルデバイスなど、ユーザが使用していることがあるデバイス上に表示することができる。イメージは、エリアに住んでいることがあるアリスの友人、および/またはエリアを旅したことがある、もしくは店舗を訪れたことがある他の人々など、人々によって撮影された、いくつかのイメージを含むことができる。例では、ユーザの友人によって撮影されることができたイメージ(例えば、見慣れたイメージ)は、特に、友人が以前そこに来たことがあることを彼女に示すことができ、そのため、(例えば、暗い中で、または1日の特定の時刻に)店舗に接近することについてのユーザの安心レベルを高めることができる。
店舗がユーザの視界内に出現した場合、店舗は、眺めの中で識別される(例えば、眺めの中の他の物体から区別または他の方法で弁別される)ことができる。これは、例えば、店舗への入口の輪郭を決定することを含むことができる。店舗への入口を識別した後、ユーザの友人などの人々によってかつてキャプチャされた入口のイメージが、現在の眺めの中に出現した入口に代わって代用されること、または入口の近くにおいてインポーズされること(例えば、ユーザのデバイス上で他の方法で表示もしくは描画されること)ができる。(例えば、いくつかは日中および/または他の季節中に撮影されることができた)見慣れたものであることができるイメージをデバイス上で見ることは、ユーザが、店舗入口を近くの店舗の中から識別することを支援することができる。さらに、例によれば、より良好な照明の下にあることができるイメージをデバイス上で見ることは、店舗に入ることについてのユーザの安心レベルを高めることができる。
ユーザは、経路沿いに進み続けることができるので、ユーザの友人の自宅またはロケーションは、経路沿いの目的地として認識または識別することができる。例によれば、1または複数のイメージ(例えば、彼または彼女がかつてそこを訪れることができたときに、ユーザが眺めた、またはユーザが写真を撮影したことに基づいて、見慣れたものであることができる、例えば、ユーザまたは別の人もしくは人々によってかつてキャプチャすることができたユーザの友人の家のイメージ)は、獲得すること、および/または提示ユニットを介してデバイス上に表示もしくは描画することができる。
ユーザの友人の自宅(例えば、ユーザの友人の家などのロケーションまたは居住地)が、(例えば、デバイス上で)ユーザの視界内に出現することができたとき、ユーザの友人の自宅は、眺めの中で認識および/または識別される(例えば、眺めの中の他の物体から区別または他の方法で弁別される)ことができる。これは、例では、友人の自宅の輪郭を決定することを含むことができる。ユーザの友人の家を識別した後、ユーザの友人の家のイメージが、ユーザが対話または使用することができるデバイスの現在の眺めの中に出現した友人の家に代わって代用されることができる。図1A〜図1Bは、ユーザの友人の家(現実世界の場所)を含む現実世界の眺めを、友人の家の(例えば、ユーザによってかつてキャプチャおよび/もしくは認識された、またはユーザの友人などの人々もしくは他のユーザによって提供された)見慣れたものであることができるイメージを用いて拡張した例を示している。イメージ(すなわち、かつて春の午後にキャプチャされたイメージ)を見ることは、ユーザに友人の家もしくはロケーションを認識させること、またはユーザが友人の家もしくはロケーションを認識することを可能にすることができる。図1Aに示されるように、デバイスによってキャプチャすることができる現実世界の眺め2は、例えば、その中に現実世界の場所4を有することができる。(例えば、図1Bに示されるような)例によれば、本明細書で説明されるように、ユーザが現実世界の眺め2の中の現実世界の場所4を認識することができるような、彼または彼女が見慣れた見え方で、ユーザがイメージ6を介して現実世界の場所4を見ることができるように、現実世界の眺め2の中の現実世界の場所4の上にイメージ6をオーバーレイすることができる。加えて、イメージを見ることは、(例えば、矢印7によって示すことができる、例えば、彼または彼女が駐車を指示されたことがある)駐車のための私道または他のロケーションを、ユーザが見つけることを容易にすることもできる。
別の例によれば、ユーザ(例えば、ジョン)は、別のロケーションから(例えば、ノースカロライナから)、都市部の人で賑わうロケーション(例えば、ニューヨーク市(マンハッタン)内のタイムズスクエア)を訪れることがある。これは、彼または彼女のその都市への初めての旅であることがある。訪問中、ユーザは、そのエリアに住む友人のグループと会うことを望むことがある。そのグループは、月に1度、特定のレストラン(例えば、トニーのイタリアンレストラン)で会っていることがある。ユーザは、ソーシャルメディアアプリケーションまたはサイト(例えば、フェイスブック、ツイッタ、および/またはインスタグラムなど)において、そこの写真を見ることができ、他の人々は、そのレストランについて説明したり、または話したりすることができる。残念ながら、ユーザは、レストランを見つけることに苦労または苦戦することがある。
図2A〜図2Bは、現実世界の場所(すなわち、レストラン)を含む現実世界の眺めを、現実世界の場所の示すことができるイメージを用いて拡張した別の例を示している。(例えば、ユーザのデバイス上に存在することができる)ロケーション(例えば、タイムズスクエア)のリアルタイムまたは現実世界の眺め8を、図2Aに示すことができる。図2Bに示されるように、ロケーションのリアルタイムまたは現実世界の眺め8は、ユーザが見慣れたものであることができるイメージ9(すなわち、例えば、友人によって撮影され、ソーシャルメディアサイト上に投稿されることができたレストランのイメージ)を用いて、(例えば、ユーザのデバイス上で)拡張することができる。ユーザは、ユーザのデバイスを使用して、ユーザがレストランを認識し、ひいては、レストランを見つけることを容易にすること、またはユーザにレストランを認識させ、ひいては、レストランを見つけさせることができる、イメージ9を見ることができる。
図3は、本明細書で説明される少なくともいくつかの実施形態による、拡張現実システム10の例を示すブロック図である。拡張現実システム10は、デバイス内で使用および/または実施することができる。デバイスは、情報を受信し、処理し、提示(例えば、表示)することができるデバイスを含むことができる。本明細書で説明される例では、デバイスは、ウェアラブルコンピュータ、スマートフォン、(例えば、本明細書において、例えば、以下で説明されるような)図10A〜図10Eを参照して説明されるような無線送受信ユニット(WTRU)、および/または別のタイプのユーザ機器(UE)とすることができる。デバイスの他の例は、モバイルデバイス、携帯情報端末(PDA)、セルラフォン、ポータブルマルチメディアプレーヤ(PMP)、デジタルカメラ、ノートブック、およびタブレットコンピュータ、(例えば、ヘッドアップディスプレイを備える)車両ナビゲーションコンピュータを含むことができる。例では、デバイスは、適切なオペレーティングシステム上で動作することができ、ならびに/または例えば、方法および/もしくはシステムを含むことができるソフトウェアを含む、本明細書で説明される方法および/もしくはシステムを実行することを可能にすることができる、プロセッサベースのプラットフォームを含むことができる。
拡張現実システム10は、イメージキャプチャユニット100と、物体識別ユニット110と、拡張現実ユニット120と、提示コントローラ130と、提示ユニット140とを含むことができる。イメージキャプチャユニット100は、現実世界の眺めをキャプチャ(もしくは例えば、受信)することができ、ならびに/またはキャプチャされた現実世界の眺めを、例えば、物体識別ユニット110および/もしくは拡張現実ユニット120を含む、拡張現実システム10の他の要素に提供もしくは送信することができる。イメージキャプチャユニット100は、デジタルカメラ、モバイルデバイスなどのデバイス内に組み込まれたカメラ、ヘッドマウントディスプレイ(HMD)、光センサ、および電子センサなどのうちの1または複数(1つ以上)であること、または1または複数(1つ以上)を含むことができる。
物体識別ユニット110は、キャプチャされた現実世界の眺めをイメージキャプチャユニット100から受信することができ、キャプチャされた現実世界の眺めの中に配置された現実世界の場所を識別、認識、および/または決定すること(例えば、識別、決定、および/または認識するための方法、プロセス、またはルーチンを実施すること)ができる。物体識別ユニット110は、物体認識ユニット112と、空間決定ユニット114とを含むことができる。物体認識ユニット112および/または空間決定ユニット114は、現実世界の場所を識別することを容易にすることができる。
物体認識ユニット112は、現実世界の眺めにおいて、物体検出を実行すること(例えば、ランドマーク、物体、および/またはロケーションなどを決定および/または検出すること)ができる。物体検出を使用して、物体認識ユニット112は、現実世界の眺めの中に配置された他の物体から、現実世界の場所またはロケーションを検出および/または弁別することができる。物体認識ユニット112は、例えば、エッジ検出、原始スケッチ、視方向の変更、ならびに/または光度および色の変更などを含む、物体検出を実行するための様々な知られた技術的方法のいずれかを使用することができる。
空間決定ユニット114は、検出または決定された現実世界の場所(または現実世界のロケーション)についての現実世界および/または局所地図ロケーションを決定することができる。空間決定ユニット114は、ロケーション認識アルゴリズム(例えば、方法および/または技法)を使用することができる。使用されるロケーション認識アルゴリズムは、並列追跡および地図作成(PTAM)方法、および/または同時位置推定および地図作成(SLAM)方法、および/または(例えば、当技術分野において知られていることがある)他の任意の適切な方法もしくはアルゴリズムを含むことができる。空間決定ユニット114は、検出された現実世界の場所についての現実世界および/または局所地図ロケーションを決定するために、位置決め情報(例えば、緯度、経度、および/または高度など)を獲得および使用することができる。位置決め情報は、拡張現実システム10、物体識別ユニット110、および/もしくは空間決定ユニット114に通信可能に結合することができる、全地球測位システム(GPS)受信機(図示せず)から、ならびに/または(ネットワークの(自己組織化など)任意のタイプのネットワークノードもしくはインターフェースなどから)ネットワーク支援を介して、獲得することができる。
提示コントローラ130および/または提示ユニット140と関連する拡張現実ユニット120は、現実世界の眺めを拡張することができる(例えば、本明細書で説明されるように、現実世界の眺めにおける現実世界の場所と関連付けられたイメージを表示および/または描画することができる)。例えば、提示コントローラ130および/または提示ユニット140と関連する拡張現実ユニット120は、現実世界の眺めを、1または複数(1つ以上)のイメージ(例えば、現実世界の眺めを見ている、および/または現実世界の眺めを見ると予想される、見る人が見慣れたものであることができるイメージ)を用いて拡張することができる。拡張現実ユニット120は、イメージをキャプチャすることができるカメラなどのイメージキャプチャユニット100、ソーシャルメディアサイトもしくはアプリケーション、および/またはデバイス上のアプリケーションなどから、イメージを獲得および/または受信することができる。例えば、イメージは、ワッツアップ、フェイスブック、インスタグラム、および/またはツイッタなどのアプリケーションを介して受信することができる。いくつかの例では、イメージは、やはりユーザが見慣れたものであることができるインターネット上のイメージを含むことができ、またはそのようなイメージであることができる。見慣れたものであることができるインターネット上のこれらのイメージの例は、ユーザが読むことができたニュース記事内のイメージとすることができる。拡張現実ユニット120は、イメージをフォーマッティングし、例えば、デバイスのディスプレイ上でのイメージの提示を生成するための、構成情報(例えば、パラメータ)を生成することができる。フォーマッティングは、眺め全体または眺めの一部を拡張することを含むことができる。例えば、それは、サイズ、形状、および明るさ、ならびにアライメントを決定する。拡張現実ユニット120は、イメージおよび対応する構成情報を、提示コントローラ130に提供または送信することができる。提示コントローラ130は、イメージおよび対応する構成情報を、拡張現実ユニット120から獲得または受信することができる。提示コントローラ130は、提示ユニット140を介する提示のために、構成情報に少なくとも部分的に基づいて、見慣れたイメージを変更することができる。提示コントローラ130は、イメージを、変換された様態で、提示ユニット140に提供または送信することができる。
提示ユニット140は、視覚的および/または聴覚的提示を提示するための任意のタイプのデバイスとすることができる。提示ユニット140は、デバイスの画面、および/またはスピーカもしくはオーディオ出力を含むことができる。提示ユニット140は、例えば、ウインドシールドディスプレイ、ウェアラブルデバイス(例えば、グラス)、スマートフォン画面、ナビゲーションシステムおよび/または同様のものを含む、任意のタイプのディスプレイとすることができ、または任意のタイプのディスプレイを含むことができる。1または複数(1つ以上)のユーザ入力は、提示ユニット140とのユーザ対話によって、ユーザ対話を通して、および/またはユーザ対話と関連して受け取ることができる。例えば、ユーザは、提示ユニット140を介して提示される(例えば、拡張などされた)現実世界の眺めと関連するタッチ、クリック、ドラッグアンドドロップ、注視、音声/発話認識、および/もしくは他の対話によって、ならびに/またはそれらを通して、ユーザ入力または選択を入力することができる。
提示ユニット140は、イメージを提示コントローラ130から受信することができる。提示ユニット140は、見慣れたイメージを現実世界の眺めに適用すること(例えば、投影、スーパーインポーズ、および/またはオーバーレイなどすること)ができる。
図4は、本明細書の例による、(例えば、提示ユニットを介して)デバイス上で現実を拡張するための例示的な方法200を示すフロー図である。方法200は、図3の拡張現実システムにおいて実施することができ、および/またはそのシステムを参照して説明することができる。方法200は、他のアーキテクチャを使用しても同様に実施することができる。
202において、デバイス(例えば、デバイス内で実施することができる、図3のシステムの物体識別ユニット110)は、現実世界の場所を識別することができる。例によれば、現実世界の場所は、通行および/または横断される経路および/または道筋沿いに、および/またはそれらと関連して配置することができる。204において、デバイス(例えば、デバイス内で実施することができる、提示コントローラ130および/または提示ユニット140と関連する拡張現実ユニット120)は、現実世界の場所を含むことができる現実世界の眺めを、見慣れたものであることができるイメージを用いて拡張することができる。
いくつかの例では、デバイスは、例えば、提示ユニット140を介して、現実世界の場所と関連する(例えば、見慣れたものであることができる)イメージを提示(例えば、表示および/または描画)することができる。例によれば、デバイスは、提示ユニット140を介して、例えば、現実世界の場所にアンカされる、および/または近くに位置決めされるなどする、現実世界の場所と関連するコールアウト内にイメージを提示することができる。あるいは、および/または加えて、デバイスは、提示ユニット140を介して、イメージを現実世界の眺めの上に投影および/またはスーパーインポーズすることができる。デバイスは、提示ユニット140を介して、見慣れたイメージを現実世界の場所の(少なくとも一部の)上にオーバーレイすること、および/または見慣れたイメージを現実世界の場所の代用として出現させることができる。
示されてはいないが、デバイスは、例えば、拡張現実ユニット120を介して、1または複数のリポジトリから、(例えば、見慣れたものであることができる)イメージを獲得および/または受信することができる。これらのリポジトリは、(例えば、図3の拡張現実システム10を実施すること、または含むことができる)デバイスから見てローカルまたはリモートに配置することができる。例によれば、拡張現実ユニット120は、現実世界の眺めにおいて、どのイメージを拡張することができるかを決定することができる。例えば、拡張現実ユニット120は、メトリックまたはスコアを使用して、(例えば、リポジトリから)獲得および/もしくは受信することができるイメージが、現実世界の眺めの中の現実世界の場所を含むことができるかどうかを、ならびに/または現実世界の眺めの中の現実世界の場所に鑑みて、イメージを拡張すべきか(例えば、本明細書で説明されるように、そこに描画および/もしくは表示すべきか)どうかを、決定することができる。例として、イメージは、見慣れの量、程度、および/またはレベルを反映および/または表現するメトリックまたはスコア(例えば、ファミリアリティスコア(familiarity score))に基づいて、獲得および/または受信することができる。例えば、ユーザが見慣れたものであることができるイメージは、イメージを選択することによって、および/またはイメージが閾値を上回るファミリアリティスコアを有することができる場合もしくはときに、リポジトリの1または複数(1つ以上)から獲得および/または受信することができる。ファミリアリティスコアは、オンザフライで決定(例えば、計算)することができ、および/またはイメージと関連させて(例えば、イメージに対するインデックスとして)記憶することができる。いくつかの例では、見慣れたイメージは、計算されたファミリアリティスコアと関連させて、メモリ内に記憶することができ、ならびに/またはイメージを現実世界の場所と関連付けることができるかどうか、および/もしくはイメージを現実世界の眺めにおいて(例えば、現実世界の場所の上で)拡張することができるかどうかについての決定が、行われることができる。
ファミリアリティスコアは、1または複数(1つ以上)の因子に基づくこと(例えば、基づいて計算すること)ができる。いくつかの例では、ファミリアリティスコアは、現実世界の場所への見る人のかつての訪問中にキャプチャされた(例えば、ユーザが見慣れたものであること、もしくは見慣れイメージであることができる)イメージ、および/または現実世界の場所に類似したイメージに、少なくとも部分的に基づくことができる。そのようなイメージのキャプチャは、自律的に(例えば、自動的に、もしくはユーザもしくは眺めを見る人との対話なしに)行うことができ、またはユーザもしくは眺めを見る人の明示的なアクションに従って行う(例えば、明示的にイメージを取得する)ことができる。いくつかの例では、ファミリアリティスコアは、ユーザとそのデバイスがイメージをキャプチャした人との間のソーシャル関係(例えば、ユーザとそのデバイスがイメージをキャプチャした人は、ソーシャルメディアサイト上における友人などであることができる)に、少なくとも部分的に基づくことができる。
ファミリアリティスコアは、ユーザがイメージを見ることができた回数および/または機会数に、少なくとも部分的に基づくことができる。さらに、例では、ファミリアリティスコアは、イメージを見るユーザによって費やされた時間の長さに、少なくとも部分的に基づくことができる。ファミリアリティスコアは、ユーザがイメージと対話することができた回数および/または機会数に、少なくとも部分的に基づくことができる。ファミリアリティスコアは、イメージと対話するユーザによって費やされた時間の長さに、少なくとも部分的に基づくことができる。ファミリアリティスコアは、ユーザがイメージと関連付けられたメディアおよび/またはイメージを表示するメディアと対話した回数および/または機会数に、少なくとも部分的に基づくことができる。ファミリアリティスコアは、イメージと関連付けられたメディアおよび/またはイメージを表示するメディアと対話するユーザによって費やされた時間の長さに、少なくとも部分的に基づくことができる。ファミリアリティスコアは、イメージを見た後で、ユーザがイメージと関連付けられたメディアと対話することができた回数および/または機会数に、少なくとも部分的に基づくことができる。ファミリアリティスコアは、イメージを見た後で、イメージと関連付けられたメディアと対話するユーザによって費やされた時間の長さに、少なくとも部分的に基づくことができる。
ファミリアリティスコアは、例によれば、イメージをキャプチャすることができたときに生じている1または複数(1つ以上)の環境的条件に、少なくとも部分的に基づくことができる。イメージをキャプチャすることができた間またはときに生じることができた環境的条件は、以下、すなわち、照明、天候、1日の時刻、および/または季節などのうちの1または複数(1つ以上)を含むことができる。ファミリアリティスコアは、イメージがキャプチャされることができたときに生じている1または複数(1つ以上)の環境的条件、およびユーザが現実世界の眺めを見ることができるときに生じている1または複数(1つ以上)の環境的条件に、少なくとも部分的に基づくことができる。例えば、ファミリアリティスコアは、見慣れたイメージがキャプチャされることができたときに生じている1または複数(1つ以上)の環境的条件と、見る人が現実世界の眺めを見ることができる場合またはときに生じている1または複数(1つ以上)の環境的条件との間の相違(または類似)に、少なくとも部分的に基づくことができる。見る人が現実世界の眺めを見ることができる場合またはときに生じている環境的条件は、以下、すなわち、照明、天候、1日の時刻、および/または季節などのうちの1または複数(1つ以上)を含むことができる。
ファミリアリティスコアは、イメージ(例えば、見慣れたものであることができるイメージ、または見慣れたイメージ)の1または複数の品質に、少なくとも部分的に基づくことができる。品質は、主観的品質(例えば、シャープネス)および客観的品質(例えば、コントラスト)のうちの1または複数(1つ以上)を含むことができる。品質は、例えば、(例えば、信号対雑音比によって測定することができる)ノイズ、(例えば、光学密度(黒化度)および/もしくは輝度(明度)を含む)コントラスト、シャープネス(もしくはアンシャープネス)、解像度、ならびに/または色など、1または複数(1つ以上)のイメージ特性を含むことができる。
イメージを獲得または受信した後、拡張現実ユニット120は、イメージをフォーマッティングし、イメージの提示を生成するための、構成情報(例えば、パラメータ)を生成することができる。構成情報は、例えば、現実世界の場所にアンカされる、近くに位置決めされる、および/または隣接するなどする、現実世界の場所と関連するコールアウト(例えば、仮想オブジェクト)内にイメージを提示するための命令を含むことができる。
あるいは、および/または加えて、構成情報は、見慣れたイメージを現実世界の眺めの上に投影および/またはスーパーインポーズするための命令を含むことができる。構成情報は、例えば、イメージを現実世界の眺めの上に投影および/またはスーパーインポーズすることと関連する、見慣れたイメージをサイジング(もしくはリサイジング)および/または位置決めするための命令を含むことができる。これらの命令は、現実世界の眺めの中に配置された現実世界の場所を識別する物体識別ユニット110に従って、物体識別ユニット110から受信または獲得することができる情報に、少なくとも部分的に基づくことができる。
拡張現実ユニット120は、イメージおよび対応する構成情報を提示コントローラ130に提供することができる。提示コントローラ130は、イメージを(例えば、イメージキャプチャユニット100から)獲得または受信することができ、対応する構成情報を拡張現実ユニット120から獲得または受信することができる。提示コントローラ130は、提示ユニット140を介する提示のために、構成情報に少なくとも部分的に基づいて、サイズ、形状、および/またはシャープネスなどに関して、イメージを変更することができる。提示コントローラ130は、イメージを、変換された様態で、提示ユニット140に提供または送信することができる。提示ユニット140は、イメージを提示コントローラ130から受信することができる。提示ユニット140は、イメージを現実世界の眺めに適用、提供、および/または出力(例えば、投影および/またはスーパーインポーズするなど)することができる。
示されてはいないが、拡張現実システム10は、視野決定ユニットを含むことができる。視野決定ユニットは、現実世界の眺めの中に配置された現実世界の場所がユーザの視野内に存在することができるかどうかを決定するために、イメージキャプチャユニット100および/またはユーザ追跡ユニットとインターフェースを取ることができる。ユーザ追跡ユニットは、例えば、視標追跡ユニットとすることができる。
例によれば、視標追跡ユニットは、眼の動きについてのデータを1もしくは複数の光学センサから集め、および/もしくはそのようなデータに基づいて、ユーザがどこを注視していることができるかを追跡するために、視標追跡技術を利用し、ならびに/または様々な目の運動挙動に基づいて、ユーザ入力決定を行うことができる。視標追跡ユニットは、様々な知られた技法のいずれかを使用して、ユーザの眼の動きをモニタリングおよび追跡することができる。
視標追跡ユニットは、例えば、イメージキャプチャユニット100、および/またはユーザが提示ユニット140を見ているときの眼の動きをモニタリングすることが可能なカメラ(図示せず)など、ユーザの方を向いた光学センサから入力を受信することができる。視標追跡ユニットは、ユーザの各眼についての眼の位置および光彩の動きを検出することができる。光彩の動きに基づいて、視標追跡ユニットは、ユーザの注視についての様々な観察を行うことができる。例えば、視標追跡ユニットは、衝動性眼球運動(例えば、ユーザの眼の急な動き)、および/または視点固定(例えば、ある時間の長さにわたって眼の動きを特定のポイントもしくはエリアに留めること)を観察および/または決定することができる。
視標追跡ユニットは、提示ユニット140の画面上のポイントまたはエリア(一括して「焦点領域」)上での視点固定が、焦点領域の下にある現実世界の眺めの一部に対する関心を示すことができるという推測を利用することによって、1または複数の入力を生成することができる。視標追跡ユニットは、例えば、提示ユニット140の画面上の焦点領域での視点固定を検出し、焦点領域上での視点固定は、現実世界の場所を指定するユーザ表現とすることができるという推測に基づいて、視野を生成することができる。
例では、視標追跡ユニットは、仮想オブジェクトの1つに対応する焦点領域に対するユーザの注視および/または焦点領域上での視点固定は、対応する仮想オブジェクトに対するユーザの関心(または関心のユーザ表現)を示すという推測を利用することによって、入力の1または複数を生成することができる。現実世界の場所に対する関心を示す入力は、現実世界の眺めと関連付けられたロケーション(例えば、座標の1または複数のセット)を含むことができる。
図4を再び参照すると、(例えば、提示コントローラ130および/または提示ユニット140と関連する)拡張現実ユニット120を介して拡張現実システム10を実施することができるデバイスは、現実世界の場所が視野内に存在することができるという条件で、現実世界の眺めを拡張することができる。あるいは、または加えて、デバイスは、(例えば、提示コントローラ130および/または提示ユニット140と関連する)拡張現実ユニット120を介して、ユーザ入力から、および/またはユーザ入力に基づいて決定可能とすることができる視野についての現実世界の眺めを拡張することができる。様々な例では、デバイスは、例えば、(提示コントローラ130および/または提示ユニット140と関連する)拡張現実ユニット120を使用して、ユーザの注視と関連付けられた入力から、および/またはそのような入力に基づいて決定可能とすることができる視野についての現実世界の眺めを拡張することができる。
図5は、本明細書で説明される少なくともいくつかの実施形態による、拡張現実システム20の例を示すブロック図である。拡張現実システム20は、コンピューティングデバイス内で使用および/または実施することができる。図5の拡張現実システム20は、(例えば、本明細書で説明されるような点を除いて)図3の拡張現実システム10に類似することができる。拡張現実システム20は、イメージキャプチャユニット100と、ナビゲーションユニット500と、物体識別ユニット110と、拡張現実ユニット120と、提示コントローラ130と、提示ユニット140とを含むことができる。
ナビゲーションユニット500は、経路を通行するための方向および/またはナビゲーション命令(例えば、ナビゲーション命令)を生成することができる。このナビゲーションユニットは、経路沿いの進行を追跡することができ、および/または経路に対する調整を行うことができる。経路に対する調整は、現在位置、交通環境条件(例えば、降雪および/もしくは降雨など)、経路の知識についての受信された更新(例えば、目的地もしくは異なる中間地点)、ならびに/または他の任意の適切な条件および/もしくはパラメータに基づくこと、および/またはそれらを条件とすることができる。ナビゲーションユニット500は、ナビゲーション命令を、物体識別ユニット110および/または拡張現実ユニット120に提供することができる。物体識別ユニット110は、ナビゲーションユニット500から獲得されたナビゲーション命令に少なくとも部分的に基づいて、通行する経路と関連付けられた1または複数の現実世界の場所(例えば、現実世界の場所のセットおよび/またはリスト)を受信または獲得することができる。物体識別ユニット110は、リポジトリ(図示せず)を使用して、通行する経路と関連付けられた現実世界の場所を識別することができる。物体識別ユニット110は、例えば、ナビゲーション命令を使用して、リポジトリに問い合わせを行うことができる。リポジトリは、問い合わせに応答して、通行する経路と関連付けられた現実世界の場所の識別情報を、物体識別ユニット110に提供または送信することができる。
例によれば、リポジトリは、一般に、地球の1または複数の空間的エリアと関連して配置された現実世界の場所(の、例えば、ロケーションおよび/もしくは現実世界の地理的位置)に対するジオリファレンス、ならびに/またはそのような現実世界の場所の詳細を含むことができる、任意のリポジトリまたはリポジトリの任意の集まりとすることができ、またはそれらを含むことができる。様々な例では、リポジトリは、ポイントクラウドおよびポイントクラウドライブラリなどのいずれかであること、またはいずれかを含むことができ、そのいずれかまたは各々は、地球の1または複数の空間的エリアと関連して配置された現実世界の場所に対するジオリファレンス、および/またはそのような現実世界の場所の詳細を含むことができる。
現実世界の場所の詳細は、例えば、現実世界の場所がそのような場所に対する特定のジオリファレンスにおいて存在することができることを示す表示、および/または例えば、特定のタイプの場所を示すコードなど、場所のタイプの表示などを含むことができる。いくつかの例では、現実世界の場所の詳細は、現実世界の場所がそのような場所に対する特定のジオリファレンスにおいて存在することを示す表示に限定することができる。そのような例では、現実世界の場所のさらなる詳細は、標識リポジトリ内の他のデータおよび/または対応するジオリファレンスに基づいて決定すること(例えば、それらから推論、推測などすること)ができる。例えば、現実世界の場所の1または複数の詳細は、2つの道路が交差する四つ辻の角、幹線道路からの出口、および/もしくは幹線道路への入口などに近い(例えば、ごく近い)現実世界の場所に対するジオリファレンスから、ならびに/または特定の管轄区域(例えば、国、地方自治体など)内に存在する現実世界の場所に対するジオリファレンスから、推論することができる。あるいは、および/または加えて、現実世界の場所のさらなる詳細は、現実世界の場所の詳細がその中に入れられた、1または複数のリポジトリから獲得または受信することができる。詳細は、例えば、標識に対するジオリファレンスに対応するロケーションおよび/または現実世界の地理的位置のところをかつて通行および/もしくは横断した間に、またはそうでなくかつて通行および/もしくは横断したことと関連して、(例えば、物体識別ユニット110が)現実世界を認識したことに応答して、これらのリポジトリ内に入れることができる。あるいは、および/または加えて、詳細は、ユーザ入力に応答して、リポジトリ内に入れることができる。ユーザ入力は、標識に対するジオリファレンスに対応するロケーションおよび/または現実世界の地理的位置のところをかつて通行および/または横断したことと関連して、入力することができる。例によれば、ユーザ入力は、1または複数のイメージ内の現実世界の場所を見たことに応答して、入力することができる。さらに、例では、詳細は、1もしくは複数のイメージ内に示された現実世界の場所を認識したことに応答して、および/または詳細をそこから集める1もしくは複数のソース(例えば、ウェブページ)から、リポジトリ内に入れることができる。
リポジトリは、コンピューティングデバイスのメモリ内にローカルに記憶することができ、コンピューティングデバイスのプロセッサによってアクセス可能(例えば、読み取りおよび/または書き込み可能)とすることができる。あるいは、および/または加えて、リポジトリは、例えば、コンピューティングデバイスから見てリモートに配置されたサーバと関連してなど、コンピューティングデバイスから見てリモートに記憶することができる。そのようなサーバは、有線および/または無線通信を介して、コンピューティングデバイスから利用可能および/またはアクセス可能とすることができ、サーバは、通行する経路と関連付けられた現実世界の場所を供給する(例えば、獲得するためのウェブサービスを提供する)ことができる。サーバは、現実世界の場所の詳細を、コンピューティングデバイス(例えば、物体識別ユニット110)から受信すること、および/またはリポジトリに入れることもできる。
物体識別ユニット110は、リポジトリから獲得した通行する経路と関連付けられた現実世界の場所の識別情報を、拡張現実ユニット120に渡すことができる。拡張現実ユニット120は、通行する経路と関連付けられた現実世界の場所の識別情報を、物体識別ユニット110から獲得もしくは受信すること(または、例えば、決定すること)ができる。
拡張現実ユニット120は、経路と関連付けられた現実世界の場所の(例えば、見慣れたものであること、または見慣れたイメージであることができる)イメージを、例えば、1または複数のリポジトリから獲得または受信することができる。そのようなリポジトリは、拡張現実システム20から見てローカルまたはリモートに配置することができる。イメージは、例えば、本明細書で説明されるような、それぞれのファミリアリティスコアに基づいて、獲得または受信することができる。
物体識別ユニット110は、キャプチャされた現実世界の眺めを、イメージキャプチャユニット100から受信することができ、および/またはキャプチャされた現実世界の眺めの中に現在配置されている経路と関連付けられた現実世界の場所を識別することができる。提示コントローラ130および/または提示ユニット140と関連する拡張現実ユニット120は、経路と関連付けられ、キャプチャされた現実世界の眺めの中に現在配置されている現実世界の場所と関連して獲得されたイメージの1または複数を用いて、現実世界の眺めを拡張することができる。拡張現実ユニット120は、イメージをフォーマッティングし、イメージの提示を生成するための、構成情報(例えば、パラメータ)を生成することができる。拡張現実ユニット120は、イメージおよび対応する構成情報を、提示コントローラ130に提供または送信することができる。提示コントローラ130は、イメージおよび対応する構成情報を、拡張現実ユニット120から獲得または受信することができる。提示コントローラ130は、提示ユニット140を介する提示のために、構成情報に少なくとも部分的に基づいて、イメージを変換することができる。提示コントローラ130は、変更されたイメージを、提示ユニット140に提供することができる。提示ユニット140は、見慣れたイメージを、提示コントローラ130から獲得または受信することができる。提示ユニット140は、イメージを現実世界の眺めに適用、提供、または出力すること(例えば、投影、スーパーインポーズ、描画、および/または提示などすること)ができる。
図6は、実施形態による、提示ユニットを介して現実を拡張することに向けられた例示的な方法600を示すフロー図である。方法600は、図5の拡張現実システム20を参照して説明することができる。方法600は、他のアーキテクチャ(例えば、それぞれ、図3または図9の拡張現実システム10または30)を使用しても同様に実施することができる。
602において、拡張現実システム20を実施することができるデバイスは、例えば、物体識別ユニット110を介して、通行する経路についてのナビゲーション命令を獲得または受信することができる。デバイスは、例えば、物体識別ユニット110を使用して、または介して、例えば、ナビゲーションユニット500からナビゲーション命令を獲得または受信することができる。604において、物体識別ユニット110は、ナビゲーション命令に少なくとも部分的に基づいて、通行する経路と関連付けられた現実世界の場所を獲得または受信することができる。デバイスは、例えば、物体識別ユニット110を介して、例えば、通行する経路と関連付けられた現実世界の場所の識別情報を、リポジトリから受信または獲得することができる。
606において、例では、デバイスは、例えば、拡張現実ユニット120を介して、経路と関連付けられた現実世界の場所の(例えば、見慣れたものであること、または見慣れたイメージであることができる)イメージを受信または獲得することができる。イメージは、(例えば、本明細書で説明されるような)対応するファミリアリティスコアに基づいて、受信または獲得することができる。608において、デバイスは、経路を通行することができるときに、例えば、物体識別ユニット110を介して、経路沿いの現実世界の場所を識別することができる。(例えば、608において)デバイスは、例えば、物体識別ユニット110を介して、関連する現実世界の場所とは別の現実世界の場所も認識することができる。例によれば、デバイスは(例えば、物体識別ユニット110を介して)、認識された関連する現実世界の場所を含む認識された現実世界の場所を、その中に含めるために、標識リポジトリに提供することができる。
610において、デバイスは、本明細書で説明されるように、例えば、提示コントローラ130および/または提示ユニット140と関連する拡張現実ユニット120を介して、経路と関連付けられ、キャプチャされた現実世界の眺めの中に現在配置されている現実世界の場所と関連して受信、獲得されたイメージを用いて、現実世界の眺めを拡張することができる。
図7は、実施形態による、提示ユニットを介して現実を拡張することに向けられた例示的な方法700を示すフロー図である。方法700は、図5の拡張現実システム20を参照して説明することができる。方法700は、他のアーキテクチャ(例えば、それぞれ、図3および図9の拡張現実システム10および/または30)を使用しても同様に実施することができる。図7の方法700は、示されるように、704において、デバイスが、例えば、物体識別ユニット110を介して、ナビゲーション命令に少なくとも部分的に基づいて、通行する経路沿いに、またはそれと関連して配置されていると予想される現実世界の場所を受信または獲得することができる点を除いて、図6の方法600に類似することができる。
図8は、実施形態による、提示ユニットを介して現実を拡張することに向けられた例示的な方法800を示すフロー図である。方法800は、図5の拡張現実システム20を参照して説明することができる。方法800は、他のアーキテクチャ(例えば、それぞれ、図3および図9の拡張現実システム10および/または30)を使用しても同様に実施することができる。図8の方法800は、示されるように、804において、物体識別ユニット110が、ナビゲーション命令に少なくとも部分的に基づいて、通行する経路と関連付けられた(または例えば、経路沿いに、もしくはそれと関連して配置されていると予想される)現実世界の場所の予想されるロケーションを受信または獲得することができる点を除いて、図7の方法700に類似することができる。
図9は、本明細書で説明される少なくともいくつかの例による、拡張現実システム30の例を示すブロック図である。拡張現実システム30は、本明細書で説明されるように、(例えば、デバイス内で実施することができる拡張現実システム10および/または20に類似して)デバイス内で使用および/または実施することができる。拡張現実システム30は、イメージキャプチャユニット100と、ナビゲーションユニット502と、観察ユニット902と、リポジトリユニット904と、ユーザ追跡ユニット906と、拡張現実ユニット120と、提示コントローラ130と、提示ユニット140とを含むことができる。図9の拡張現実システム30は、(例えば、本明細書で説明されるような点を除いて)図5の拡張現実システム20に類似することができる。
図9の拡張現実システム30と関連して実施することができる動作または(例えば、方法200、600、700、および/もしくは800などの)方法は、本明細書で説明されるように、以下のようなものであることができる。本明細書で説明されるものを含む、他の動作または方法も、図9の拡張現実システム30によって同様に実施することができる。
様々な例では、イメージキャプチャユニット100と関連する(例えば、視標追跡ユニットであることができる、またはそれを含むことができる)ユーザ追跡ユニット906は、視野内に存在する現実世界の場所を決定することができる。例えば、イメージキャプチャユニット100と関連する、ユーザ追跡ユニット906は、例えば、ユーザの位置が与えられたメートル数(例えば、10もしくは他の任意の適切な数)だけ変化した場合もしくはときに、および/または毎秒、そのような決定を実施することができる。
観察ユニット902は、場面の方を向いた1または複数のカメラから、イメージをキャプチャすることができる。観察ユニット902は、さらなるセンサ、車両サービス、およびウェブサービスなどから、関連するメタデータをキャプチャすることができる。ユーザ追跡ユニット906からの入力に基づいて、観察ユニット902は、ユーザの視野内に存在するイメージを識別することができる。観察ユニット902は、ナビゲーションユニット502によって発行されたナビゲーション命令から(または物体識別ユニット(図示せず)を介して)提供または送信されることができる、現実世界の場所の識別情報を受信または獲得することができる。観察ユニット902は、現実世界の場所についての情報(例えば、メタデータ)を、ユーザの視野に対応するそれらのイメージを含む、場面の方を向いたイメージキャプチャユニット100から獲得したイメージとともに関連付けることができる。
リポジトリユニット904は、観察ユニット902によって提供されたイメージ(および/または関連するメタデータ)を受信または獲得し、それらを適切なデータベース内に記憶することができる。例では、このデータベースは、(例えば、車両内に)ローカルに存在すること、または例えば、ウェブサービスを介してアクセスするために、リモートに存在することができる。リポジトリユニット904は、ユーザのソーシャルサークルのメンバであることができるユーザ(の、例えば、観察ユニット)によってキャプチャされたイメージとともに、公開イメージにアクセスすることができる。リポジトリユニット904は、ユーザが参加するオンラインソーシャルネットワークにアクセスすること(および/またはそのオンラインソーシャルネットワークのプライバシ設定に対応したものであること)ができる。
拡張現実ユニット120は、選択ユニットおよび問い合わせユニット(図示せず)を含むことができる。問い合わせユニットは、リポジトリユニット904に問い合わせを行って、(例えば、ユーザ記憶、公開、またはソーシャル)イメージを受信または獲得することができる。問い合わせユニットは、拡張現実ユニット120および/またはナビゲーションユニット502からの要求に基づいて、問い合わせを生成して、位置に対応するイメージおよび他の現在のメタデータを取り出すことができる。リポジトリユニット904から取り出されたイメージは、関連するメタデータとともに受信することができる。問い合わせユニットは、そのような情報を選択ユニットに提供または送信することができる。
選択ユニットは、ナビゲーションユニット902によって発行されたナビゲーション命令から(もしくは物体識別ユニット(図示せず)を介して)提供される現実世界の場所の識別情報、および/またはイメージについてのファミリアリティスコアを使用して、問い合わせユニットによって実施された問い合わせの結果として、リポジトリユニット904からイメージを獲得することができる。選択ユニットは、リポジトリユニット904から提供されたイメージの中から、イメージのファミリアリティスコアに少なくとも部分的に基づいて、見慣れたイメージ(例えば、閾値を上回るファミリアリティスコアを有するイメージ)の1または複数を選択することができる。
提示コントローラ130および/または提示ユニット140と関連する拡張現実ユニット120は、(例えば、見慣れたものであること、または見慣れたイメージであることができる)選択されたイメージの1または複数を使用して、(例えば、視野内の)現実世界の場所を含む現実世界の眺めを拡張することができる。本明細書で説明される例によれば、拡張現実ユニット120、提示コントローラ130、および提示ユニット140は、新しい現実世界の場所を検出することができた場合、また視野内の現実世界の場所の投影の位置が著しく(例えば、与えられた度数(例えば、5および/または他の任意の適切な数)の角度だけ)変化した場合はいつでも、現実世界の場所の1または複数の見慣れたイメージを用いて現実世界の眺めを拡張することを、実施することができる。拡張を実施することを容易にするため、拡張現実ユニット120、提示コントローラ130、および/または提示ユニット140は、ユーザの視線を追跡すること、またはカメラの写真もしくはロケーション、および/もしくはロケーションもしくは写真に基づいたユーザの注視などの別の入力に基づいて、例えば、以下、すなわち、(i)ユーザのグラスの特定の部分、および/もしくは(ii)ユーザが運転している車両のウインドシールドの特定の部分のうちの1または複数を含む、視野内のどこに現実世界の場所が出現することができるかを決定することができる。
例では、図9の拡張現実システム30と関連して実施することができる様々な手順の中に含まれて、記録手順および提示方法もしくは手順を含むことができ、またはそれらであることができる。
記録方法または手順に従って、観察ユニット902は、ユーザが移動する現実世界の場所のイメージをキャプチャすることができる。観察ユニット902は、そのようなイメージを現在進行ベースでキャプチャすることができる。例として、観察ユニット902は、ユーザの位置および/もしくはユーザの注視が(例えば、著しく)変化することができたときに(ならびに/または位置が10メートルだけ変化し、注視角が10度だけ変化した場合に)、イメージをキャプチャすることができる。あるいは、または加えて、観察ユニット902は、ユーザからの要求時に、イメージをキャプチャすることができる。観察ユニット902は、イメージに対応するメタデータを受信または獲得することができる。このメタデータは、例えば、ユーザの位置および注視の向きを含むことができる。リポジトリユニット904は、イメージをメタデータとともに記憶することができる。
(例えば、提示方法または手順に従った)例によれば、現実世界の場所を識別することができる。識別は、例えば、ナビゲーションユニット502が十分に著しい(例えば、10メートルの)位置変化を示した場合もしくはときに、またはあるいは、ユーザからの要求時に、生じることができる。現実世界の場所を識別することを容易にするため、ナビゲーションユニット502は、ユーザの現在の位置を決定することができ、ナビゲーションユニット502は、拡張現実ユニット120とともに、現在の位置が、(例えば、ユーザが何らかの指示に従うことができる)現在有効な指示地点もしくは目的地から、ならびに/またはユーザおよび/もしくはユーザのソーシャルサークルのメンバによってかつて訪問されることができた現実世界の場所から指定された距離内にあることができるかどうかを決定することができる。
例では(例えば、現実世界の場所を識別することができた場合またはときには)、拡張現実ユニット120は、問い合わせユニットおよびリポジトリユニット904に従って、識別された現実世界の場所についてのイメージ(またはイメージへのリンク)を受信または獲得することができる。獲得されたイメージは、ユーザによって、ユーザのソーシャルサークルのメンバによって、および/または公開ソースから記憶されたイメージを含むことができる。
例によれば、選択ユニットは、受信または獲得されたイメージの1または複数を選択することができ、本明細書で説明されるように、それぞれのファミリアリティスコアに少なくとも部分的に基づいて、そうすることができる。選択ユニットは、数々の因子に基づいて、各ファミリアリティスコアを決定(例えば、計算)することができる。例では、選択ユニットは、荷重された因子の和または集計に基づいて、各イメージについてのファミリアリティスコアを計算することができる。(例えば、異なる値を用いて加重することができ、および/またはそれの和もしくは集約に基づいてファミリアリティスコアを計算もしくは算定するために使用することができる)因子は、以下、すなわち、(i)現実世界の場所へのかつての訪問中に、ユーザのデバイスによって、イメージをキャプチャすることができたかどうか、(ii)現実世界の場所へのかつての訪問中に、ユーザの明示的なアクションによって(例えば、カメラのシャッタを押すことによって)、イメージをキャプチャすることができたかどうか、(iii)そのデバイスがイメージをキャプチャした人とユーザがソーシャル関係を有することができるかどうか、(iv)ユーザがイメージを見た回数/機会数、(v)ユーザがイメージを見るのに費やした時間の長さ、(vi)ユーザがイメージと対話した回数/機会数、(vii)ユーザがイメージと対話するのに費やすことができた時間の長さ、(viii)ユーザがイメージと関連付けられたメディアおよび/もしくはイメージを表示するメディアと対話した回数および/もしくは機会数、(ix)ユーザがイメージと関連付けられたメディアと対話しおよび/もしくはイメージを表示するメディアとともに費やした時間の長さ、(x)ユーザがイメージを見た後でイメージと関連付けられたメディアと対話した回数および/もしくは機会数、(xi)ユーザがイメージを見た後でイメージと関連付けられたメディアと対話するにのに費やした時間の長さ、(xii)イメージがキャプチャされることができた場合もしくはときに生じていた1もしくは複数の環境条件、(xiii)イメージがキャプチャされることができた場合もしくはときに生じていた1もしくは複数の環境条件と、(例えば、ユーザが現実世界の眺めを見ていることができるときに)生じている1もしくは複数の環境条件との間の相違(もしくは類似)、ならびに/または(xiv)イメージの1もしくは複数の品質などのうちの1または複数を含むことができる。
例では、選択ユニットは、以下、すなわち、(i)現実世界の場所へのかつての訪問中に、ユーザのデバイスによって、イメージをキャプチャすることができた場合、1とすること(例えば、1を与える、もしくは割り当てること)ができ、それ以外の場合、0とすることができる重み、(ii)かつての訪問時に、ユーザの明示的なアクションによって(例えば、カメラのシャッタを押すことによって)、イメージをキャプチャすることができた場合、1とすること(例えば、1を与える、もしくは割り当てること)ができ、それ以外の場合、0とすることができる重み、(iii)そのデバイスがイメージをキャプチャした人とユーザがソーシャル関係を有することができる場合、(例えば、(0から1までの間で加重される)友人関係、(0から1までの間で加重される)最後に情報交換した時の新近性、(0から1までの間で加重される)現在関連のあるソーシャルイベントへの招待、および/もしくは(0から1までの間で加重される)最後の目立った期間(例えば、1か月)内における情報交換の回数などの検討事項の平均、もしくは検討事項に適用することができる他の正規化関数に基づいて)そのような因子に与えることができる0から1までの範囲の重み、(iv)ユーザがイメージを見ることができた回数/機会数に基づく(例えば、ユーザがイメージを見たもしくは見ることができた回数および/もしくは機会数が多いほど増加する)、0から1までの範囲の重み、(v)例えば、ユーザがイメージを見るのに費やした時間の長さに基づく(例えば、ユーザがイメージを見るのに費やした時間が長いほど増加する)、0から1までの範囲の重み、(vi)例えば、ユーザがイメージと対話した回数/機会数に基づく(例えば、ユーザがイメージと対話することができる回数および/もしくは機会数が多いほど増加する)、0から1までの範囲の重み、(vii)例えば、ユーザがイメージと対話するのに費やした時間の長さに基づく(例えば、ユーザがイメージと対話するのに費やした時間が長いほど増加する)、0から1までの範囲の重み、(viii)例えば、ユーザがイメージと関連付けられたメディアおよび/もしくはイメージを表示するメディアと対話することができた回数および/もしくは機会数に基づく(例えば、ユーザがメディアと対話する回数/機会が多いほど増加する)、0から1までの範囲の重み、(ix)例えば、ユーザがイメージと関連付けられたメディアおよび/もしくはイメージを表示するメディアとともに費やした時間の長さに基づく(例えば、ユーザがメディアと対話するのに費やした時間が長いほど増加する)、0から1までの範囲の重み、(x)例えば、ユーザがイメージを見た後でイメージと関連付けられたメディアと対話した回数/機会数に基づく(例えば、ユーザがイメージと対話するのに費やした時間が長いほど増加する)、0から1までの範囲の重み、(xi)例えば、ユーザがイメージを見た後でイメージと関連付けられたメディアとともに費やした時間の長さに基づく(例えば、ユーザがメディアと対話するのに費やした時間が長いほど増加する)、0から1までの範囲の重み、(xii)例えば、(0から1までの間で加重される)照明、(0から1までの間で加重される)天候、(0から1までの間で加重される)1日の時刻、および/もしくは(0から1までの間で加重される)季節などの検討事項の平均、もしくは検討事項に適用される他の正規化関数に基づくなどする、イメージがキャプチャされることができた場合もしくはときに生じていた環境条件に基づく、0から1までの範囲の重み、(xiii)例えば、イメージがキャプチャされることができた場合もしくはときに生じていた環境条件の1もしくは複数と、ユーザが現実世界の眺めを見ていることができるときに生じている1もしくは複数の環境条件との間の相違(もしくは類似)に基づく、0から1までの範囲の重み、ならびに/または(xiv)明度、シャープネス、および/もしくは色品質など、イメージの品質の1もしくは複数に基づく、0から1までの範囲の重みのうちの1または複数に従ってファミリアリティスコアを計算することができる。
見慣れたイメージを選択した後、ユーザ追跡ユニット906と関連する拡張現実ユニット120は、選択された見慣れたイメージを提示するための提示ユニット上のロケーションを決定することができる。拡張現実ユニット120は、ユーザの視野における(現在見えるとおりの)現実世界の場所の輪郭に基づいて、ロケーションを決定することができる。いくつかの実施形態では、拡張現実ユニット120は、見慣れたイメージを提示するための近似的なロケーションを識別することができる。
提示コントローラ130は、適切であれば、選択された見慣れたイメージを変換することができる。ユーザ追跡ユニット906と関連する提示コントローラ130(および/または拡張現実ユニット120)は、ユーザの視線の現在の向きを決定することができる。提示コントローラ130(および/または拡張現実ユニット120)は、(例えば、見慣れたものであること、または見慣れたイメージであることができる)各選択されたイメージをキャプチャすることができた向きを決定することができる。提示コントローラ130(および/または拡張現実ユニット120)は、各選択されたイメージを変換して、現在の向きおよびサイズに近づけることができる。
提示ユニット140は、現実世界の眺めおよび/または現実世界の場所と関連する選択されたイメージ(例えば、見慣れたものであることができるイメージ、または見慣れたイメージ)の1または複数を提示すること(例えば、表示または描画すること)ができる。提示ユニット140は、例えば、現実世界の場所にアンカされる、近くに位置決めされる、および/または隣接するなどする、現実世界の場所と関連するコールアウト(例えば、仮想オブジェクト)内にイメージを提示することができる。あるいは、および/または加えて、提示ユニット140は、イメージを現実世界の眺めの上に投影および/またはスーパーインポーズすることができる。イメージをスーパーインポーズすることは、提示ユニット140が、(例えば、図1Bおよび図2Bに示され、本明細書で説明されるように)見慣れたイメージを現実世界の場所の(例えば、少なくとも一部の)上にオーバーレイすること、および/または見慣れたイメージを現実世界の場所の代用として出現させることを含むことができる。
いくつかの実施形態では、提示コントローラ130および/または提示ユニット140と関連する拡張現実ユニット120は、選択されたイメージの2つ以上を用いて、現実世界の眺めを拡張することができる。これら複数のイメージは、スライドショーに類似したフォーマットで提示または表示または描画することができる。例えば、見慣れたイメージの1つを提示することができ、その後、タイマの満了および/または見る人からの入力に応答して、それを見慣れたイメージの別の1つによって置き換えることができる。例えば、例によれば、複数の見慣れたイメージの各々は、イメージを輪番で交替させながら、事前設定された継続時間(例えば、3秒)の間、(例えば、ファミリアリティスコアに基づいた、例えば、プライオリティ順で)提示することができる。あるいは、または加えて、複数の見慣れたイメージの各々は、ユーザが次のイメージを要求することができるまで、(例えば、ファミリアリティスコアに基づいた、例えば、プライオリティ順で)提示することができる。
本明細書で提供される方法、装置、システム、デバイス、およびコンピュータプログラム製品は、有線および無線ネットワークの両方を含む通信によく適したものである。有線ネットワークは、よく知られている。無線デバイスおよびインフラストラクチャの様々なタイプの概要が、図10A〜図10Eに関して提供され、ネットワークの様々な要素は、本明細書で提供される方法、装置、およびシステムを利用し、実行することができ、それらに従って配置することができ、ならびに/またはそれらに適合すること、および/もしくはそれらのために構成することができる。
図10A〜図10E(一括して、図10)は、1または複数の開示される実施形態を実施することができる例示的な通信システム1000を示すブロック図である。一般に、通信システム1000は、複数の無線ユーザが、音声、データ、ビデオ、メッセージング、放送などのコンテンツにアクセスすること、ならびに/またはそれらを交換すること(例えば、送信および/もしくは受信すること)ができる、多元接続システムをサポートするアーキテクチャを定義する。アーキテクチャは、複数のアクセスシステムのうちの2つ以上に異なるアクセス技術を使用させること、および/またはそれらを異なるアクセス技術に従って構成することもサポートする。このように、通信システム1000は、単一のアクセス技術を使用することが可能な無線ユーザと、複数のアクセス技術を使用することが可能な無線ユーザの両方にサービスすることができる。
多元接続システムは、それぞれのアクセスを含むことができ、それらの各々は、例えば、アクセスネットワークおよびアクセスポイントなどとすることができる。様々な実施形態では、複数のアクセスのすべては、同じ無線アクセス技術(「RAT」)を用いて構成すること、および/または同じRATを利用することができる。そのようなアクセス(「シングルRATアクセス」)のいくつかまたはすべては、(i)単一のモバイルネットワークオペレータおよび/もしくはキャリア(一括して、「MNO」)、または(ii)複数のMNOによって、所有され、管理され、制御され、運営されることなどができる。様々な実施形態では、複数のアクセスのいくつかまたはすべては、異なるRATを用いて構成すること、および/または異なるRATを利用することができる。これら複数のアクセス(「マルチRATアクセス」)は、単一のMNO、または複数のMNOによって、所有され、管理され、制御され、運営されることなどができる。
通信システム1000は、複数の無線ユーザが、無線帯域幅を含むシステムリソースの共用を通して、そのようなコンテンツにアクセスすることを可能にすることができる。例えば、通信システム1000は、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、周波数分割多元接続(FDMA)、直交FDMA(OFDMA)、およびシングルキャリアFDMA(SC−FDMA)など、1または複数のチャネルアクセス方法を利用することができる。
図10Aに示されるように、通信システム1000は、無線送受信ユニット(WTRU)1002a、1002b、1002c、1002d、無線アクセスネットワーク(RAN)1004、コアネットワーク1006、公衆交換電話網(PSTN)1008、インターネット1010、ならびに他のネットワーク1012を含むことができるが、開示される実施形態は、任意の数のWTRU、基地局、ネットワーク、および/またはネットワーク要素を企図していることが理解されよう。WTRU1002a、1002b、1002c、1002dの各々は、無線環境において動作および/または通信するように構成された任意のタイプのデバイスとすることができる。例を挙げると、WTRU1002a、1002b、1002c、1002dは、無線信号を送信および/または受信するように構成することができ、ユーザ機器(UE)、移動局、固定もしくは移動加入者ユニット、ページャ、セルラ電話、携帯情報端末(PDA)、スマートフォン、ラップトップ、ネットブック、パーソナルコンピュータ、無線センサ、家電製品、圧縮されたビデオ通信を受信および処理することが可能な端末もしくは同様のタイプのデバイス、または同様のタイプのデバイスを含むことができる。
通信システム1000は、基地局1014aおよび基地局1014bも含むことができる。基地局1014a、1014bの各々は、コアネットワーク1006、インターネット1010、および/またはネットワーク1012などの1または複数の通信ネットワークへのアクセスを容易にするために、WTRU1002a、1002b、1002c、1002dの少なくとも1つと無線でインターフェースを取るように構成された、任意のタイプのデバイスとすることができる。例を挙げると、基地局1014a、1014bは、基地送受信機局(BTS)、ノードB(NB)、進化型NB(eNB)、ホームNB(HNB)、ホームeNB(HeNB)、エンタープライズNB(「ENT−NB」)、エンタープライズeNB(「ENT−eNB」)、サイトコントローラ、アクセスポイント(AP)、無線ルータ、およびメディアアウェアネットワーク要素(MANE)などとすることができる。基地局1014a、1014bは各々、単一の要素として示されているが、基地局1014a、1014bは、任意の数の相互接続された基地局および/またはネットワーク要素を含むことができることが理解されよう。
基地局1014aは、RAN1004の部分とすることができ、RAN1004は、他の基地局、および/または基地局コントローラ(BSC)、無線ネットワークコントローラ(RNC)、中継ノードなどのネットワーク要素(図示せず)も含むことができる。基地局1014aおよび/または基地局1014bは、セル(図示せず)と呼ばれることがある特定の地理的領域内で、無線信号を送信および/または受信するように構成することができる。セルは、さらにセルセクタに分割することができる。例えば、基地局1014aに関連付けられたセルは、3つのセクタに分割することができる。したがって、一実施形態では、基地局1014aは、送受信機を3つ、すなわち、セルのセクタ毎に1つずつ含むことができる。別の実施形態では、基地局1014aは、多入力多出力(MIMO)技術を利用することができ、したがって、セルのセクタ毎に複数の送受信機を利用することができる。
基地局1014a、1014bは、エアインターフェース1016上で、WTRU1002a、1002b、1002c、1002dの1または複数と通信することができ、エアインターフェース1016は、任意の適切な無線通信リンク(例えば、無線周波(RF)、マイクロ波、赤外線(IR)、紫外線(UV)、可視光など)とすることができる。エアインターフェース1016は、任意の適切な無線アクセス技術(RAT)を使用して確立することができる。
より具体的には、上で言及されたように、通信システム1000は、多元接続システムとすることができ、CDMA、TDMA、FDMA、OFDMA、およびSC−FDMAなどの、1または複数のチャネルアクセス方式を利用することができる。例えば、RAN1004内の基地局1014a、およびWTRU1002a、1002b、1002cは、広帯域CDMA(WCDMA)を使用してエアインターフェース1016を確立することができる、ユニバーサル移動体通信システム(UMTS)地上無線アクセス(UTRA)などの無線技術を実施することができる。WCDMAは、高速パケットアクセス(HSPA)および/または進化型HSPA(HSPA+)などの通信プロトコルを含むことができる。HSPAは、高速ダウンリンクパケットアクセス(HSDPA)および/または高速アップリンクパケットアクセス(HSUPA)を含むことができる。
別の実施形態では、基地局1014a、およびWTRU1002a、1002b、1002cは、ロングタームエボリューション(LTE)および/またはLTEアドバンスト(LTE−A)を使用してエアインターフェース1016を確立することができる、進化型UMTS地上無線アクセス(E−UTRA)などの無線技術を実施することができる。
他の実施形態では、基地局1014a、およびWTRU1002a、1002b、1002cは、IEEE802.16(すなわち、マイクロ波アクセス用の世界的相互運用性(WiMAX))、CDMA2000、CDMA2000 1X、CDMA2000 EV−DO、暫定標準2000(IS−2000)、暫定標準95(IS−95)、暫定標準856(IS−856)、移動体通信用グローバルシステム(GSM)、GSMエボリューション用の高速データレート(EDGE)、およびGSM EDGE(GERAN)などの無線技術を実施することができる。
図10Aの基地局1014bは、例えば、無線ルータ、ホームノードB、ホームeノードB、またはアクセスポイントとすることができ、職場、家庭、乗物、およびキャンパスなどの局所的エリアにおける無線接続性を容易にするために、任意の適切なRATを利用することができる。一実施形態では、基地局1014b、およびWTRU1002c、1002dは、IEEE802.11などの無線技術を実施して、無線ローカルエリアネットワーク(WLAN)を確立することができる。別の実施形態では、基地局1014b、およびWTRU1002c、1002dは、IEEE802.15などの無線技術を実施して、無線パーソナルエリアネットワーク(WPAN)を確立することができる。また別の実施形態では、基地局1014b、およびWTRU1002c、1002dは、セルラベースのRAT(例えば、WCDMA、CDMA2000、GSM、LTE、LTE−Aなど)を利用して、ピコセルまたはフェムトセルを確立することができる。図10Aに示されるように、基地局1014bは、インターネット1010への直接的な接続を有することがある。したがって、基地局1014bは、コアネットワーク1006を介して、インターネット1010にアクセスする必要がないことがある。
RAN1004は、コアネットワーク1006と通信することができ、コアネットワーク1006は、音声、データ、アプリケーション、および/またはボイスオーバインターネットプロトコル(VoIP)サービスをWTRU1002a、1002b、1002c、1002dの1または複数に提供するように構成された、任意のタイプのネットワークとすることができる。例えば、コアネットワーク1006は、呼制御、請求サービス、モバイルロケーションベースのサービス、プリペイド通話、インターネット接続性、ビデオ配信などを提供することができ、および/またはユーザ認証など、高レベルのセキュリティ機能を実行することができる。図10Aには示されていないが、RAN1004および/またはコアネットワーク1006は、RAN1004と同じRATまたは異なるRATを利用する他のRANと直接的または間接的に通信することができることが理解されよう。例えば、E−UTRA無線技術を利用することができるRAN1004に接続するのに加えて、コアネットワーク1006は、GSM無線技術を利用する別のRAN(図示せず)とも通信することができる。
コアネットワーク1006は、PSTN1008、インターネット1010、および/または他のネットワーク1012にアクセスするための、WTRU1002a、1002b、1002c、1002dのためのゲートウェイとしての役割も果たすことができる。PSTN1008は、基本電話サービス(POTS)を提供する回線交換電話網を含むことができる。インターネット1010は、TCP/IPインターネットプロトコルスイート内の伝送制御プロトコル(TCP)、ユーザデータグラムプロトコル(UDP)、およびインターネットプロトコル(IP)など、共通の通信プロトコルを使用する、相互接続されたコンピュータネットワークおよびデバイスからなるグローバルシステムを含むことができる。ネットワーク1012は、他のサービスプロバイダによって所有および/または運営される有線または無線通信ネットワークを含むことができる。例えば、ネットワーク1012は、RAN1004と同じRATまたは異なるRATを利用することができる1または複数のRANに接続された、別のコアネットワークを含むことができる。
通信システム1000内のWTRU1002a、1002b、1002c、1002dのいくつかまたはすべては、マルチモード機能を含むことができ、すなわち、WTRU1002a、1002b、1002c、1002dは、異なる無線リンク上で異なる無線ネットワークと通信するための複数の送受信機を含むことができる。例えば、図10Aに示されたWTRU1002cは、セルラベースの無線技術を利用することができる基地局1014aと通信するように、またIEEE802無線技術を利用することができる基地局1014bと通信するように構成することができる。
図10Bは、例示的なWTRU1002のシステム図である。図10Bに示されるように、WTRU1002は、プロセッサ1018と、送受信機1020と、送信/受信要素1022と、スピーカ/マイクロフォン1024と、キーパッド1026と、提示ユニット(例えば、ディスプレイ/タッチパッド)1028と、着脱不能メモリ1030と、着脱可能メモリ1032と、電源1034と、全地球測位システム(GPS)チップセット1036と、他の周辺機器1038(例えば、カメラまたは他の光学キャプチャリングデバイス)とを含むことができる。WTRU1002は、実施形態との整合性を保ちながら、上記の要素の任意のサブコンビネーションを含むことができることが理解されよう。
プロセッサ1018は、汎用プロセッサ、専用プロセッサ、従来型プロセッサ、デジタル信号プロセッサ(DSP)、グラフィックス処理ユニット(GPU)、複数のマイクロプロセッサ、DSPコアと連携する1または複数のマイクロプロセッサ、コントローラ、マイクロコントローラ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)回路、他の任意のタイプの集積回路(IC)、および状態機械などとすることができる。プロセッサ1018は、信号コーディング、データ処理、電力制御、入出力処理、および/またはWTRU1002が無線環境で動作することを可能にする他の任意の機能を実行することができる。プロセッサ1018は、送受信機1020に結合することができ、送受信機1020は、送信/受信要素1022に結合することができる。図10Bは、プロセッサ1018と送受信機1020を別々の構成要素として示しているが、プロセッサ1018と送受信機1020は、電子パッケージまたはチップ内に一緒に統合することができることが理解されよう。
送信/受信要素1022は、エアインターフェース1016上で、基地局(例えば、基地局1014a)に信号を送信し、または基地局から信号を受信するように構成することができる。例えば、一実施形態では、送信/受信要素1022は、RF信号を送信および/または受信するように構成されたアンテナとすることができる。別の実施形態では、送信/受信要素1022は、例えば、IR、UV、または可視光信号を送信および/または受信するように構成された放射器/検出器とすることができる。また別の実施形態では、送信/受信要素1022は、RF信号と光信号の両方を送信および受信するように構成することができる。送信/受信要素1022は、無線信号の任意の組み合わせを送信および/または受信するように構成することができることが理解されよう。
加えて、図10Bでは、送信/受信要素1022は単一の要素として示されているが、WTRU1002は、任意の数の送信/受信要素1022を含むことができる。より具体的には、WTRU1002は、MIMO技術を利用することができる。したがって、一実施形態では、WTRU1002は、エアインターフェース1016上で無線信号を送信および受信するための2つ以上の送信/受信要素1022(例えば、複数のアンテナ)を含むことができる。
送受信機1020は、送信/受信要素1022によって送信される信号を変調し、送信/受信要素1022によって受信された信号を復調するように構成することができる。上で言及されたように、WTRU1002は、マルチモード機能を有することができる。したがって、送受信機1020は、WTRU1002が、例えば、UTRAおよびIEEE802.11などの複数のRATを介して通信することを可能にするための、複数の送受信機を含むことができる。
WTRU1002のプロセッサ1018は、スピーカ/マイクロフォン1024、キーパッド1026、および/または提示ユニット1028(例えば、液晶表示(LCD)ディスプレイユニットもしくは有機発光ダイオード(OLED)ディスプレイユニット)に結合することができ、それらからユーザ入力データを受信することができる。プロセッサ1018は、スピーカ/マイクロフォン1024、キーパッド1026、および/または提示ユニット1028にユーザデータを出力することもできる。加えて、プロセッサ1018は、着脱不能メモリ1006および/または着脱可能メモリ1032など、任意のタイプの適切なメモリから情報を入手することができ、それらにデータを記憶することができる。着脱不能メモリ1006は、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、ハードディスク、または他の任意のタイプのメモリ記憶デバイスを含むことができる。着脱可能メモリ1032は、加入者識別モジュール(SIM)カード、メモリスティック、およびセキュアデジタル(SD)メモリカードなどを含むことができる。他の実施形態では、プロセッサ1018は、WTRU1002上に物理的に配置されたメモリではなく、サーバまたはホームコンピュータ(図示せず)上などに配置されたメモリから情報を入手することができ、それらにデータを記憶することができる。
プロセッサ1018は、電源1034から電力を受け取ることができ、WTRU1002内の他の構成要素への電力の分配および/または制御を行うように構成することができる。電源1034は、WTRU1002に給電するための任意の適切なデバイスとすることができる。例えば、電源1034は、1または複数の乾電池(例えば、ニッケル−カドミウム(NiCd)、ニッケル−亜鉛(NiZn)、ニッケル水素(NiMH)、リチウムイオン(Li−ion)など)、太陽電池、および燃料電池などを含むことができる。
プロセッサ1018は、GPSチップセット1036にも結合することができ、GPSチップセット1036は、WTRU1002の現在位置に関する位置情報(例えば、経度および緯度)を提供するように構成することができる。GPSチップセット1036からの情報に加えて、またはその代わりに、WTRU1002は、基地局(例えば、基地局1014a、1014b)からエアインターフェース1016上で位置情報を受信することができ、および/または2つ以上の近くの基地局から受信した信号のタイミングに基づいて、自らの位置を決定することができる。WTRU1002は、実施形態との整合性を保ちながら、任意の適切な位置決定方法を用いて、位置情報を獲得することができることが理解されよう。
プロセッサ1018は、他の周辺機器1038にさらに結合することができ、他の周辺機器1038は、追加的な特徴、機能、および/または有線もしくは無線接続性を提供する、1または複数のソフトウェアモジュールおよび/またはハードウェアモジュールを含むことができる。例えば、周辺機器1038は、加速度計、eコンパス、衛星送受信機、(写真またはビデオ用の)デジタルカメラ、ユニバーサルシリアルバス(USB)ポート、バイブレーションデバイス、テレビ送受信機、ハンズフリーヘッドセット、Bluetooth(登録商標)モジュール、周波数変調(FM)ラジオユニット、デジタル音楽プレーヤ、メディアプレーヤ、ビデオゲームプレーヤモジュール、およびインターネットブラウザなどを含むことができる。
図10Cは、実施形態による、RAN1004およびコアネットワーク1006のシステム図である。上で言及されたように、RAN1004は、UTRA無線技術を利用して、エアインターフェース1016上でWTRU1002a、1002b、1002cと通信することができる。RAN1004は、コアネットワーク1006とも通信することができる。図10Cに示されるように、RAN1004は、ノードB1040a、1040b、1040cを含むことができ、ノードB1040a、1040b、1040cは各々、エアインターフェース1016上でWTRU1002a、1002b、1002cと通信するための1または複数の送受信機を含むことができる。ノードB1040a、1040b、1040cは各々、RAN1004内の特定のセル(図示せず)に関連付けることができる。RAN1004は、RNC1042a、1042bも含むことができる。RAN1004は、実施形態との整合性を保ちながら、任意の数のノードBおよびRNCを含むことができることが理解されよう。
図10Cに示されるように、ノードB1040a、1040bは、RNC1042aと通信することができる。加えて、ノードB1040cは、RNC1042bと通信することができる。ノードB1040a、1040b、1040cは、Iubインターフェースを介して、それぞれのRNC1042a、1042bと通信することができる。RNC1042a、1042bは、Iurインターフェースを介して、互いに通信することができる。RNC1042a、1042bの各々は、それが接続されたそれぞれのノードB1040a、1040b、1040cを制御するように構成することができる。加えて、RNC1042a、1042bの各々は、アウタループ電力制御、負荷制御、アドミッションコントロール、パケットスケジューリング、ハンドオーバ制御、マクロダイバーシティ、セキュリティ機能、およびデータ暗号化など、他の機能を実施またはサポートするように構成することができる。
図10Cに示されるコアネットワーク1006は、メディアゲートウェイ(MGW)1044、モバイル交換センタ(MSC)1046、サービングGPRSサポートノード(SGSN)1048、および/またはゲートウェイGPRSサポートノード(GGSN)1050を含むことができる。上記の要素の各々は、コアネットワーク1006の部分として示されているが、これらの要素は、どの1つをとっても、コアネットワークオペレータとは異なるエンティティによって所有および/または運営することができることが理解されよう。
RAN1004内のRNC1042aは、IuCSインターフェースを介して、コアネットワーク1006内のMSC1046に接続することができる。MSC1046は、MGW1044に接続することができる。MSC1046とMGW1044は、PSTN1008などの回線交換ネットワークへのアクセスをWTRU1002a、1002b、1002cに提供して、WTRU1002a、1002b、1002cと従来の陸線通信デバイスの間の通信を容易にすることができる。
RAN1004内のRNC1042aは、IuPSインターフェースを介して、コアネットワーク1006内のSGSN1048にも接続することができる。SGSN1048は、GGSN1050に接続することができる。SGSN1048とGGSN1050は、インターネット1010などのパケット交換ネットワークへのアクセスをWTRU1002a、1002b、1002cに提供して、WTRU1002a、1002b、1002cとIP対応デバイスの間の通信を容易にすることができる。
上で言及されたように、コアネットワーク1006は、ネットワーク1012にも接続することができ、ネットワーク1012は、他のサービスプロバイダによって所有および/または運営される他の有線または無線ネットワークを含むことができる。
図10Dは、別の実施形態による、RAN1004およびコアネットワーク1006のシステム図である。上で言及されたように、RAN1004は、エアインターフェース1016上でWTRU1002a、1002b、1002cと通信するために、E−UTRA無線技術を利用することができる。RAN1004は、コアネットワーク1006とも通信することができる。
RAN1004は、eノードB1060a、1060b、1060cを含むことができるが、RAN1004は、実施形態との整合性を保ちながら、任意の数のeノードBを含むことができることが理解されよう。eノードB1060a、1060b、1060cは、各々が、エアインターフェース1016上でWTRU1002a、1002b、1002cと通信するための1または複数の送受信機を含むことができる。一実施形態では、eノードB1060a、1060b、1060cは、MIMO技術を実施することができる。したがって、eノードB1060aは、例えば、複数のアンテナを使用して、WTRU1002aに無線信号を送信し、WTRU1002aから無線信号を受信することができる。
eノードB1060a、1060b、1060cの各々は、特定のセル(図示せず)に関連付けることができ、無線リソース管理決定、ハンドオーバ決定、ならびにアップリンクおよび/またはダウンリンクにおけるユーザのスケジューリングなどを処理するように構成することができる。図10Dに示されるように、eノードB1060a、1060b、1060cは、X2インターフェース上で互いに通信することができる。
図10Dに示されるコアネットワーク1006は、モビリティ管理ゲートウェイ(MME)1062、サービングゲートウェイ(SGW)1064、およびパケットデータネットワーク(PDN)ゲートウェイ(PGW)1066を含むことができる。上記の要素の各々は、コアネットワーク1006の部分として示されているが、これらの要素は、どの1つをとっても、コアネットワークオペレータとは異なるエンティティによって所有および/または運営することができることが理解されよう。
MME1062は、S1インターフェースを介して、RAN1004内のeノードB1060a、1060b、1060cの各々に接続することができ、制御ノードとしての役割を果たすことができる。例えば、MME1062は、WTRU1002a、1002b、1002cのユーザの認証、ベアラアクティブ化/非アクティブ化、WTRU1002a、1002b、1002cの初期接続中における特定のSGWの選択などを担うことができる。MME1062は、RAN1004とGSMまたはWCDMAなどの他の無線技術を利用する他のRAN(図示せず)との間の交換のためのコントロールプレーン機能も提供することができる。
SGW1064は、S1インターフェースを介して、RAN1004内のeノードB1060a、1060b、1060cの各々に接続することができる。SGW1064は、一般に、ユーザデータパケットのWTRU1002a、1002b、1002cへの/からの経路選択および転送を行うことができる。SGW1064は、eノードB間ハンドオーバ中におけるユーザプレーンのアンカリング、ダウンリンクデータがWTRU1002a、1002b、1002cに利用可能な場合に行うページングのトリガ、ならびにWTRU1002a、1002b、1002cのコンテキストの管理および記憶など、他の機能も実行することができる。
SGW1064は、PGW1066にも接続することができ、PGW1066は、インターネット1010などのパケット交換ネットワークへのアクセスをWTRU1002a、1002b、1002cに提供して、WTRU1002a、1002b、1002cとIP対応デバイスの間の通信を容易にすることができる。
コアネットワーク1006は、他のネットワークとの通信を容易にすることができる。例えば、コアネットワーク1006は、PSTN1008などの回線交換ネットワークへのアクセスをWTRU1002a、1002b、1002cに提供して、WTRU1002a、1002b、1002cと従来の陸線通信デバイスの間の通信を容易にすることができる。例えば、コアネットワーク1006は、コアネットワーク1006とPSTN1008の間のインターフェースとしての役割を果たすIPゲートウェイ(例えば、IPマルチメディアサブシステム(IMS)サーバ)を含むことができ、またはIPゲートウェイと通信することができる。加えて、コアネットワーク1006は、ネットワーク1012へのアクセスをWTRU1002a、1002b、1002cに提供することができ、ネットワーク1012は、他のサービスプロバイダによって所有および/または運営される他の有線または無線ネットワークを含むことができる。
図10Eは、別の実施形態による、RAN1004およびコアネットワーク1006のシステム図である。RAN1004は、IEEE802.16無線技術を利用して、エアインターフェース1016上でWTRU1002a、1002b、1002cと通信する、アクセスサービスネットワーク(ASN)とすることができる。以下でさらに説明されるように、WTRU1002a、1002b、1002c、RAN1004、およびコアネットワーク1006の異なる機能エンティティ間の通信リンクは、参照点として定義することができる。
図10Eに示されるように、RAN1004は、基地局1070a、1070b、1070cと、ASNゲートウェイ1072とを含むことができるが、RAN1004は、実施形態との整合性を保ちながら、任意の数の基地局とASNゲートウェイとを含むことができることが理解されよう。基地局1070a、1070b、1070cは、各々が、RAN1004内の特定のセル(図示せず)に関連付けることができ、各々が、エアインターフェース1016上でWTRU1002a、1002b、1002cと通信するための1または複数の送受信機を含むことができる。一実施形態では、基地局1070a、1070b、1070cは、MIMO技術を実施することができる。したがって、基地局1070aは、例えば、複数のアンテナを使用して、WTRU1002aに無線信号を送信し、WTRU1002aから無線信号を受信することができる。基地局1070a、1070b、1070cは、ハンドオフトリガリング、トンネル確立、無線リソース管理、トラフィック分類、およびサービス品質(QoS)方針実施などの、モビリティ管理機能も提供することができる。ASNゲートウェイ1072は、トラフィック集約ポイントとしての役割を果たすことができ、ページング、加入者プロファイルのキャッシング、およびコアネットワーク1006への経路選択などを担うことができる。
WTRU1002a、1002b、1002cとRAN1004の間のエアインターフェース1016は、IEEE802.16仕様を実施する、R1参照点として定義することができる。加えて、WTRU1002a、1002b、1002cの各々は、コアネットワーク1006との論理インターフェース(図示せず)を確立することができる。WTRU1002a、1002b、1002cとコアネットワーク1006の間の論理インターフェースは、R2参照点として定義することができ、R2参照点は、認証、認可、IPホスト構成管理、および/またはモビリティ管理のために使用することができる。
基地局1070a、1070b、1070cの各々の間の通信リンクは、WTRUハンドオーバおよび基地局間でのデータの転送を容易にするためのプロトコルを含む、R8参照点として定義することができる。基地局1070a、1070b、1070cとASNゲートウェイ1072の間の通信リンクは、R6参照点として定義することができる。R6参照点は、WTRU1002a、1002b、1002cの各々に関連付けられたモビリティイベントに基づいたモビリティ管理を容易にするためのプロトコルを含むことができる。
図10Eに示されるように、RAN1004は、コアネットワーク1006に接続することができる。RAN1004とコアネットワーク1006の間の通信リンクは、例えば、データ転送およびモビリティ管理機能を容易にするためのプロトコルを含む、R3参照点として定義することができる。コアネットワーク1006は、モバイルIPホームエージェント(MIP−HA)1074と、認証認可課金(AAA)サーバ1076と、ゲートウェイ1078とを含むことができる。上記の要素の各々は、コアネットワーク1006の部分として示されているが、これらの要素は、どの1つをとっても、コアネットワークオペレータとは異なるエンティティによって所有および/または運営することができることが理解されよう。
MIP−HA1074は、IPアドレス管理を担うことができ、WTRU1002a、1002b、1002cが、異なるASNの間で、および/または異なるコアネットワークの間でローミングを行うことを可能にすることができる。MIP−HA1074は、インターネット1010などのパケット交換ネットワークへのアクセスをWTRU1002a、1002b、1002cに提供して、WTRU1002a、1002b、1002cとIP対応デバイスの間の通信を容易にすることができる。AAAサーバ1076は、ユーザ認証、およびユーザサービスのサポートを担うことができる。ゲートウェイ1078は、他のネットワークとの網間接続を容易にすることができる。例えば、ゲートウェイ1078は、PSTN1008などの回線交換ネットワークへのアクセスをWTRU1002a、1002b、1002cに提供して、WTRU1002a、1002b、1002cと従来の陸線通信デバイスの間の通信を容易にすることができる。加えて、ゲートウェイ1078は、ネットワーク1012へのアクセスをWTRU1002a、1002b、1002cに提供し、ネットワーク1012は、他のサービスプロバイダによって所有および/または運営される他の有線または無線ネットワークを含むことができる。
図10Eには示されていないが、RAN1004は、他のASNに接続することができ、コアネットワーク1006は、他のコアネットワークに接続することができることが理解されよう。RAN1004と他のASNの間の通信リンクは、R4参照点として定義することができ、R4参照点は、RAN1004と他のASNの間で、WTRU1002a、1002b、1002cのモビリティを調整するためのプロトコルを含むことができる。コアネットワーク1006と他のコアネットワークの間の通信リンクは、R5参照点として定義することができ、R5参照点は、ホームコアネットワークと在圏コアネットワークの間の網間接続を容易にするためのプロトコルを含むことができる。
(例えば、拡張現実提示および/またはユーザインターフェースを通して)現実世界の物体(例えば、標識)および/または現実世界の物体を含む現実世界の場面に関する現実を拡張することに向けられた、様々な方法、装置、システム、デバイス、およびコンピュータプログラム製品を提供および/または使用することができる。そのような方法、装置、システム、デバイス、およびコンピュータプログラム製品は、(例えば、現実世界の標識という言葉を現実世界の場所という言葉で置き換えることによって)現実世界の場所および/または現実世界の場所を含む現実世界の場面に関する現実を拡張することに向けられるように変更することができる。
例えば、本明細書で提供される例の中で、方法、装置、システム、デバイス、およびコンピュータプログラム製品は、デバイスを介して(例えば、提示ユニットを使用して、または介して)現実を拡張することに向けられた方法を含むことができる。様々な例では、方法は、(例えば、通行している、および/または横断している経路沿いの)現実世界の場所を識別するステップ、ならびに現実世界の場所を含む現実世界の眺めを拡張することによって、現実世界の場所の見え方(「現実世界の場所の見え方」)を適合させるステップのいずれかを含むことができる。
様々な例では、現実世界の場所の見え方を適合させることは、現実世界の場所の見え方を際立たせること、または際立たなくさせることを含むことができる。現実世界の場所の見え方を際立たせること、および際立たなくさせることは、どちらも、現実世界の場所および/もしくは現実世界の場面と関連付けられた、またはそれらに対する関連を他の方法で有する、現実世界の眺めの1または複数の部分(例えば、現実世界の場所の近くにある部分)を拡張することによって、実施することができる。現実世界の場所の見え方を際立たせることは、現実世界の場所および/または現実世界の場所のいくつかの部分へと注意を引く。現実世界の場所の見え方を際立たなくさせることは、現実世界の場所を曖昧に(例えば、それを目立たなく、および/または気付かれなく)する。
また、本明細書で提供される例の中で、方法、装置、システム、デバイス、およびコンピュータプログラム製品を変更することを通して、提示ユニットを介して現実を拡張することに向けられた方法を提供することができ、それは、様々な実施形態では、(例えば、通行している、および/または横断している経路沿いの)現実世界の場所を識別するステップ、現実世界の場所が関連性のある、および/または見慣れたものかどうかを決定するステップ(「関連性/見慣れ決定」)、ならびに関連性/見慣れ決定に少なくとも部分的に基づいて、現実世界の場所を含む現実世界の眺めを拡張することによって、現実世界の場所の見え方を適合させるステップのいずれかを含むことができる。
例では、現実世界の場所の見え方を適合させるステップは、現実世界の場所が関連性のある、および/または見慣れたものである(と決定される)ことに基づくこと、および/またはそれを条件とすることができる。他の様々な例では、現実世界の場所の見え方を適合させるステップは、現実世界の場所が関連性のない、および/または見慣れたものではない(と決定される)ことに基づくこと、および/またはそれを条件とすることができる。現実世界の場所の見え方を適合させるための様々な方法の中に、その見え方を際立たせること、または際立たせないことがある。例では、可能な実施形態の中において、現実世界の場所の見え方は、(i)現実世界の場所が関連性のあるものであることに基づいて、および/もしくはそれを条件として、際立たせないことができ、ならびに/または(ii)現実世界の場所が関連性のあるものでないことに基づいて、および/もしくはそれを条件として、際立たせることができる。
上では、特徴および要素が特定の組み合わせで提供されたが、各特徴または要素は、単独で、または他の特徴および要素との任意の組み合わせで使用することができることを、当業者は理解されよう。本開示は、様々な態様の説明として意図された、本出願において説明される特定の実施形態に関して限定されるべきではない。当業者に明らかなように、その主旨および範囲から逸脱することなく、多くの変更および変形を施すことができる。本出願の説明において使用される要素、動作、または命令は、明示的にそのようなものとして提供されない限り、本発明にとって不可欠または必須であると解釈されるべきではない。本明細書に列挙されたものに加えて、本開示の範囲内で機能的に等価な方法および装置が、上述の説明から当業者には明らかであろう。そのような変更および変形は、添付の特許請求の範囲内に包含されることが意図されている。本開示は、添付の特許請求の範囲の条項と、そのような特許請求の範囲に与えられる均等物の全範囲とによってのみ限定されるべきである。本開示は特定の方法またはシステムに限定されないことを理解されたい。
加えて、本明細書で説明される方法は、コンピュータまたはプロセッサによって実行するための、コンピュータ可読媒体内に含まれたコンピュータプログラム、ソフトウェア、またはファームウェアで実施することができる。コンピュータ可読媒体の例は、(有線または無線接続上で送信される)電子信号と、コンピュータ可読記憶媒体とを含む。コンピュータ可読記憶媒体の例は、限定することなく、リードオンリーメモリ(ROM)、ランダムアクセスメモリ(RAM)、レジスタ、キャッシュメモリ、半導体メモリデバイス、内蔵ハードディスクおよび着脱可能ディスクなどの磁気媒体、光磁気媒体、ならびにCD−ROMディスクおよびデジタル多用途ディスク(DVD)などの光媒体を含む。WTRU、UE、端末、基地局、RNC、または任意のホストコンピュータにおいて使用するための無線周波送受信機を実施するために、ソフトウェアと連携するプロセッサを使用することができる。
本発明は、拡張現実(AR)に関する装置に利用することができる。
100 イメージキャプチャユニット
110 物体識別ユニット
120 現実拡張ユニット
130 提示コントローラ
140 提示ユニット
1000 通信システム
1004 RAN
1006 コアネットワーク
1008 PSTN
1010 インターネット

Claims (16)

  1. その上で現実世界のカメラビューを拡張するデバイスであって、
    現実世界の場所を含む前記現実世界のカメラビューを表示し、
    前記現実世界のカメラビューの中の前記現実世界の場所を識別し、
    前記現実世界のカメラビューの中の前記現実世界の場所の位置を識別し、
    前記現実世界の場所の前記識別された位置に対応するイメージを決定し、
    前記デバイスにおいて、ユーザが、デバイスメモリの中にストアされた前記イメージに対して、前記イメージとのユーザ相互作用の量および前記ユーザが前記イメージと関連付けられたメディアと対話したインスタンスの量、または、前記ユーザと前記イメージをキャプチャしたデバイスの人物と間の社会的関係性に基づいて、どのくらい見慣れたものであるかのファミリアリティスコアを決定し、
    前記デバイスにおいて、前記ファミリアリティスコアおよび前記識別された位置に基づいて、前記現実世界のカメラビューの中における前記現実世界の場所の少なくとも一部の上に、前記イメージをオーバーレイすることを決定し、
    デバイスディスプレイ上で、少なくとも一部において前記イメージによってオーバーレイされた前記現実世界の場所とともに前記現実世界のカメラビューを表示するよう構成されたプロセッサ
    を備えたことを特徴とするデバイス。
  2. 前記プロセッサは、前記イメージを受信するようさらに構成されたことを特徴とする請求項1に記載のデバイス。
  3. 前記ファミリアリティスコアは、前記ユーザが前記イメージを見た機会数、前記ユーザが前記イメージと対話した機会数、または、前記ユーザが前記イメージを見た後で前記イメージと関連付けられたメディアと対話した機会数のうちの少なくとも1つにさらに基づくことを特徴とする請求項1に記載のデバイス。
  4. 前記ファミリアリティスコアは、前記ユーザが前記イメージを見るのに費やした時間の長さ、前記ユーザが前記イメージと関連付けられたメディアととともに費やした時間の長さ、または、前記ユーザが前記イメージを見た後で前記イメージと関連付けられたメディアとともに費やした時間の長さのうちの1つ以上にさらに基づくことを特徴とする請求項1に記載のデバイス。
  5. 前記ファミリアリティスコアは、1つ以上の環境条件に基づくことを特徴とする請求項1に記載のデバイス。
  6. 前記1つ以上の環境条件は、照明、天候、1日の時刻、および季節のうちの1つ以上を含むことを特徴とする請求項5に記載のデバイス。
  7. 前記ファミリアリティスコアは、前記イメージの1つ以上の品質に基づくことを特徴とする請求項1に記載のデバイス。
  8. 前記プロセッサは、前記デバイスにおいて前記ファミリアリティスコアが閾値を越えたどうかを決定し、前記ファミリアリティスコアが前記閾値を越えたと判断された場合、前記現実世界のカメラビューの中の前記現実世界の場所の少なくとも一部を前記イメージで置き換えるようさらに構成されたことを特徴とする請求項1に記載のデバイス。
  9. その上で現実世界のカメラビューを拡張するデバイスであって、
    通行されることになる経路についての指示またはナビゲーション命令を決定し、
    前記指示およびナビゲーション命令の少なくとも1つに基づいて、通行されることになる前記経路と関連付けられた前記現実世界のカメラビューの中で現実世界の場所を決定し、
    前記現実世界の場所の位置を識別し、
    前記現実世界の場所の前記識別された位置に対応するイメージを決定し、
    前記デバイスにおいて、ユーザが、デバイスメモリの中にストアされた前記イメージに対して、前記イメージとのユーザ相互作用の量および前記ユーザが前記イメージと関連付けられたメディアと対話したインスタンスの量、または、前記ユーザと前記イメージをキャプチャしたデバイスの人物と間の社会的関係性に基づいて、どのくらい見慣れたものであるかのファミリアリティスコアを決定し、
    前記デバイスにおいて、前記ファミリアリティスコアおよび前記識別された位置に基づいて、前記現実世界のカメラビューの中における前記現実世界の場所の少なくとも一部の上に、前記イメージをオーバーレイすることを決定し、
    デバイスディスプレイ上で、少なくとも一部において前記イメージによってオーバーレイされた前記現実世界の場所とともに前記現実世界のカメラビューを表示するよう構成されたプロセッサ
    を備えたことを特徴とするデバイス。
  10. 前記プロセッサは、前記イメージを受信するようさらに構成されたことを特徴とする請求項1に記載のデバイス。
  11. 前記ファミリアリティスコアは、前記ユーザが前記イメージを見た機会数、前記ユーザが前記イメージと対話した機会数、または、前記ユーザが前記イメージを見た後で前記イメージと関連付けられたメディアと対話した機会数のうちの少なくとも1つにさらに基づくことを特徴とする請求項9に記載のデバイス。
  12. 前記ファミリアリティスコアは、前記ユーザが前記イメージを見るのに費やした時間の長さ、前記ユーザが前記イメージと関連付けられたメディアととともに費やした時間の長さ、または、前記ユーザが前記イメージを見た後で前記イメージと関連付けられたメディアとともに費やした時間の長さのうちの1つ以上にさらに基づくことを特徴とする請求項9に記載のデバイス。
  13. 前記ファミリアリティスコアは、1つ以上の環境条件に基づくことを特徴とする請求項9に記載のデバイス。
  14. 前記1つ以上の環境条件は、照明、天候、1日の時刻、および季節のうちの1つ以上を含むことを特徴とする請求項13に記載のデバイス。
  15. 前記ファミリアリティスコアは、前記イメージの1つ以上の品質に基づくことを特徴とする請求項9に記載のデバイス。
  16. 前記プロセッサは、前記デバイスにおいて前記ファミリアリティスコアが閾値を越えたどうかを決定し、前記ファミリアリティスコアが前記閾値を越えたと判断された場合、前記現実世界のカメラビューの中の前記現実世界の場所の少なくとも一部を前記イメージで置き換えるようさらに構成されたことを特徴とする請求項9に記載のデバイス。
JP2018207898A 2014-01-24 2018-11-05 現実世界の場所と関連する現実を拡張するための方法、装置、システム、デバイス、およびコンピュータプログラム製品 Active JP6823035B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201461931225P 2014-01-24 2014-01-24
US61/931,225 2014-01-24

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016548316A Division JP2017508200A (ja) 2014-01-24 2015-01-24 現実世界の場所と関連する現実を拡張するための方法、装置、システム、デバイス、およびコンピュータプログラム製品

Publications (2)

Publication Number Publication Date
JP2019067418A JP2019067418A (ja) 2019-04-25
JP6823035B2 true JP6823035B2 (ja) 2021-01-27

Family

ID=52469920

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016548316A Pending JP2017508200A (ja) 2014-01-24 2015-01-24 現実世界の場所と関連する現実を拡張するための方法、装置、システム、デバイス、およびコンピュータプログラム製品
JP2018207898A Active JP6823035B2 (ja) 2014-01-24 2018-11-05 現実世界の場所と関連する現実を拡張するための方法、装置、システム、デバイス、およびコンピュータプログラム製品

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016548316A Pending JP2017508200A (ja) 2014-01-24 2015-01-24 現実世界の場所と関連する現実を拡張するための方法、装置、システム、デバイス、およびコンピュータプログラム製品

Country Status (5)

Country Link
US (2) US11854130B2 (ja)
EP (1) EP3097474A1 (ja)
JP (2) JP2017508200A (ja)
KR (3) KR102421862B1 (ja)
WO (1) WO2015112926A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102494832B1 (ko) * 2016-10-17 2023-02-02 엘지전자 주식회사 가전 기기의 제빙 상태를 표시하는 방법을 수행하는 이동 단말기 및 그를 수행하는 프로그램이 기록된 기록 매체
KR102494566B1 (ko) * 2016-10-24 2023-02-02 엘지전자 주식회사 실내 공간의 채광을 표시하는 이동 단말기 및 그의 제어 방법
US10699305B2 (en) * 2016-11-21 2020-06-30 Nio Usa, Inc. Smart refill assistant for electric vehicles
US10732989B2 (en) * 2017-02-09 2020-08-04 Yanir NULMAN Method for managing data, imaging, and information computing in smart devices
US10796408B2 (en) * 2018-08-02 2020-10-06 International Business Machines Corporation Variable resolution rendering of objects based on user familiarity
JP2021184115A (ja) 2018-08-28 2021-12-02 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、プログラム

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003015626A (ja) 2001-07-04 2003-01-17 Konica Corp 画像表示方法及び画像表示装置
JP3732168B2 (ja) * 2001-12-18 2006-01-05 株式会社ソニー・コンピュータエンタテインメント 仮想世界におけるオブジェクトの表示装置、表示システム及び表示方法、ならびにそれらを利用可能な仮想世界における地価及び広告料の設定方法
US6901411B2 (en) * 2002-02-11 2005-05-31 Microsoft Corporation Statistical bigram correlation model for image retrieval
JP2003242178A (ja) * 2002-02-20 2003-08-29 Fuji Photo Film Co Ltd フォルダ・アイコン表示制御装置
US7082573B2 (en) * 2003-07-30 2006-07-25 America Online, Inc. Method and system for managing digital assets
US7395260B2 (en) * 2004-08-04 2008-07-01 International Business Machines Corporation Method for providing graphical representations of search results in multiple related histograms
US7738684B2 (en) * 2004-11-24 2010-06-15 General Electric Company System and method for displaying images on a PACS workstation based on level of significance
JP2006259788A (ja) 2005-03-15 2006-09-28 Seiko Epson Corp 画像出力装置
US8732175B2 (en) * 2005-04-21 2014-05-20 Yahoo! Inc. Interestingness ranking of media objects
US20070255754A1 (en) * 2006-04-28 2007-11-01 James Gheel Recording, generation, storage and visual presentation of user activity metadata for web page documents
US20080046175A1 (en) * 2006-07-31 2008-02-21 Nissan Technical Center North America, Inc. Vehicle navigation system
US8144920B2 (en) * 2007-03-15 2012-03-27 Microsoft Corporation Automated location estimation using image analysis
JP5101989B2 (ja) 2007-03-30 2012-12-19 株式会社デンソーアイティーラボラトリ 情報提供支援方法及び情報提供支援装置
US8000243B2 (en) * 2007-07-13 2011-08-16 Nortel Networks Limited Quality of service control in multiple hop wireless communication environments
US20090237328A1 (en) * 2008-03-20 2009-09-24 Motorola, Inc. Mobile virtual and augmented reality system
JP5223768B2 (ja) 2009-04-24 2013-06-26 株式会社デンソー 車両用表示装置
JP2011022662A (ja) * 2009-07-13 2011-02-03 Sony Ericsson Mobile Communications Ab 携帯電話端末及び情報処理システム
US9766089B2 (en) * 2009-12-14 2017-09-19 Nokia Technologies Oy Method and apparatus for correlating and navigating between a live image and a prerecorded panoramic image
JP5616622B2 (ja) 2009-12-18 2014-10-29 アプリックスIpホールディングス株式会社 拡張現実感提供方法及び拡張現実感提供システム
JP5521621B2 (ja) * 2010-02-19 2014-06-18 日本電気株式会社 携帯端末、拡張現実システム、及び拡張現実情報表示方法
JP4995934B2 (ja) 2010-03-26 2012-08-08 株式会社コナミデジタルエンタテインメント 拡張現実システム、マーカ端末、撮影端末、拡張現実方法、ならびに、情報記録媒体
US9122707B2 (en) 2010-05-28 2015-09-01 Nokia Technologies Oy Method and apparatus for providing a localized virtual reality environment
US8743145B1 (en) * 2010-08-26 2014-06-03 Amazon Technologies, Inc. Visual overlay for augmenting reality
US8890896B1 (en) * 2010-11-02 2014-11-18 Google Inc. Image recognition in an augmented reality application
KR101726227B1 (ko) * 2010-11-08 2017-04-13 엘지전자 주식회사 증강현실을 이용한 위치 기반 서비스 제공 방법 및 그 단말기
KR101338818B1 (ko) * 2010-11-29 2013-12-06 주식회사 팬택 이동 단말기 및 이를 이용한 정보 표시 방법
JP5674441B2 (ja) 2010-12-02 2015-02-25 新日鉄住金ソリューションズ株式会社 情報処理システム、その制御方法及びプログラム
US8922657B2 (en) * 2011-03-08 2014-12-30 Bank Of America Corporation Real-time video image analysis for providing security
KR20130000160A (ko) * 2011-06-22 2013-01-02 광주과학기술원 사용자 적응형 증강현실 이동통신 장치와 서버 및 그 방법
JP5967794B2 (ja) * 2011-10-06 2016-08-10 Kddi株式会社 閲覧者と被写体人物との関係に応じて表示サイズを決定する画面出力装置、プログラム及び方法
US20130110666A1 (en) 2011-10-28 2013-05-02 Adidas Ag Interactive retail system
JP2013109469A (ja) 2011-11-18 2013-06-06 Nippon Telegr & Teleph Corp <Ntt> 画像処理装置、方法、及びプログラム
US9230367B2 (en) * 2011-12-13 2016-01-05 Here Global B.V. Augmented reality personalization
US20150153933A1 (en) * 2012-03-16 2015-06-04 Google Inc. Navigating Discrete Photos and Panoramas
JP2013217808A (ja) 2012-04-10 2013-10-24 Alpine Electronics Inc 車載機器
US9066200B1 (en) * 2012-05-10 2015-06-23 Longsand Limited User-generated content in a virtual reality environment
US20130339868A1 (en) * 2012-05-30 2013-12-19 Hearts On Fire Company, Llc Social network
US20140002643A1 (en) * 2012-06-27 2014-01-02 International Business Machines Corporation Presentation of augmented reality images on mobile computing devices
WO2014098033A1 (ja) 2012-12-17 2014-06-26 Iwata Haruyuki 携帯型移動支援装置
US20140247281A1 (en) * 2013-03-03 2014-09-04 Geovector Corp. Dynamic Augmented Reality Vision Systems
JP2014232922A (ja) 2013-05-28 2014-12-11 日本電信電話株式会社 映像通信装置、プログラム及び方法

Also Published As

Publication number Publication date
KR102421862B1 (ko) 2022-07-18
KR20160114114A (ko) 2016-10-04
US11854130B2 (en) 2023-12-26
JP2019067418A (ja) 2019-04-25
JP2017508200A (ja) 2017-03-23
KR20180014246A (ko) 2018-02-07
US20170011538A1 (en) 2017-01-12
KR101826290B1 (ko) 2018-02-06
WO2015112926A1 (en) 2015-07-30
US20240161370A1 (en) 2024-05-16
KR20210024204A (ko) 2021-03-04
EP3097474A1 (en) 2016-11-30

Similar Documents

Publication Publication Date Title
JP6823035B2 (ja) 現実世界の場所と関連する現実を拡張するための方法、装置、システム、デバイス、およびコンピュータプログラム製品
JP5869140B2 (ja) 無線通信デバイスのためのハンズ・フリー拡張現実感
US11024097B2 (en) System and method for using augmented reality to visualize network service quality
US9665986B2 (en) Systems and methods for an augmented reality platform
US9721392B2 (en) Server, client terminal, system, and program for presenting landscapes
KR101873127B1 (ko) 증강 현실 디스플레이 및/또는 사용자 인터페이스를 제공하기 위한 방법, 장치, 시스템, 디바이스, 및 컴퓨터 프로그램 제품
US20170322017A1 (en) Information processing device, information processing method, and program
US11113895B2 (en) Systems and methods for selecting spheres of relevance for presenting augmented reality information
CN105814516A (zh) 注视驱动的增强现实
WO2015077766A1 (en) Systems and methods for providing augmenting reality information associated with signage
CN105684453B (zh) 用于观看环境中视觉信息的自适应递送的观看条件估计
US11825189B2 (en) Photography assistance for mobile devices
WO2019179224A1 (zh) 三维场景模型中信息的分享方法及装置
CN107431751A (zh) 采集图像的方法、装置和系统
US9816828B2 (en) Dynamic attraction inference in route recommendations
TWI613501B (zh) 影像紀錄暨搜尋整合系統及其方法
TW201621274A (zh) 雲端影像定位導航方法與系統
CN110276837A (zh) 一种信息处理方法、电子设备
TW201427745A (zh) 整合歷史空間資訊系統之運動健身器材

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201110

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20201210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210107

R150 Certificate of patent or registration of utility model

Ref document number: 6823035

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113