JP2015504550A - 無線通信デバイスのためのハンズ・フリー拡張現実感 - Google Patents

無線通信デバイスのためのハンズ・フリー拡張現実感 Download PDF

Info

Publication number
JP2015504550A
JP2015504550A JP2014541073A JP2014541073A JP2015504550A JP 2015504550 A JP2015504550 A JP 2015504550A JP 2014541073 A JP2014541073 A JP 2014541073A JP 2014541073 A JP2014541073 A JP 2014541073A JP 2015504550 A JP2015504550 A JP 2015504550A
Authority
JP
Japan
Prior art keywords
content
single picture
scene
database server
image frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014541073A
Other languages
English (en)
Other versions
JP5869140B2 (ja
Inventor
フォルタンプーア、ババク
ベラルド、ルーベン・エム.
ベドナー、デイビッド・エル.
モメヤー、ブライアン・リー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2015504550A publication Critical patent/JP2015504550A/ja
Application granted granted Critical
Publication of JP5869140B2 publication Critical patent/JP5869140B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

本開示は、無線通信デバイス(WCD)にハンズ・フリー拡張現実感を提供するための技法に関する。この技法によれば、WCD内のアプリケーション・プロセッサが、拡張現実感(AR)アプリケーションを実行し、複数のイメージ・フレームを受信する。そして、複数のイメージ・フレームを、シーンを表わすためにともにステッチされる複数のイメージ・フレームを備える単一のピクチャに変換する。ARアプリケーションを実行しているWCDは、その後、単一のピクチャで表わされるシーンのARコンテンツをARデータベース・サーバから要求し、シーンのARコンテンツを、ARデータベース・サーバから受信し、このARコンテンツを処理し、WCDでユーザに表示するための単一のピクチャをオーバレイする。このようにして、ユーザは、オーバレイされたARコンテンツを備える単一のピクチャを、WCDのディスプレイにおいて快適に見て、単一のピクチャで表わされるシーンについてもっと知ることができる。

Description

優先権主張
本願は、その全体内容が参照によって本明細書に組み込まれている2011年11月8日出願の米国仮出願61/557,265号の利益を主張する。
本開示は、無線通信デバイスに関し、特に、無線通信デバイスにおける拡張現実感アプリケーションに関する。
無線通信デバイス(WCD)は、モバイル電話、無線通信カードを備えたポータブル・コンピュータ、携帯情報端末(PDA)、ポータブル・メディア・プレーヤ、ポータブル・ゲーム・デバイス、または、いわゆる「スマート」フォンおよび「スマート」パッドまたはタブレットを含む無線通信機能を備えたその他のデバイスを含む。WCDは、一般に、制限されたバッテリ・リソースによって駆動される。したがって、WCDを設計する際、および、WCDで動作するアプリケーションを設計する際、バッテリ寿命の向上および維持が、永遠の懸念である。しかしながら、バッテリ寿命に対する懸念は、WCDで動作するアプリケーションにおける機能向上に対する要求によって相殺される。
一例として、拡張現実感(AR:augmented reality)アプリケーションが、WCDにおいてますますポピュラになってきている。ARアプリケーションは、WCD内のカメラによってキャプチャされたリアル・タイム・ビデオで表わされるシーンの情報を収集することによって、WCDにおいて動作する。ARアプリケーションは、ARサーバへ、リアル・タイム・ビデオを送信する。その後、ARアプリケーションは、リアル・タイム・ビデオで表わされるシーンのARコンテンツをARサーバから受信し、このARコンテンツを、ユーザに対して表示するために、リアル・タイム・ビデオにオーバレイする。ARコンテンツは、リアル・タイム・ビデオのシーンに含まれる、ビジネス、ランドマーク、交通、人、オブジェクト等に関する情報を含みうる。
ARアプリケーションがWCDにおいて実行している場合、リアル・タイム・ビデオの各シーンのARコンテンツをWCDのユーザに示すために、上記ステップがなされうる。例えば、WCDのユーザは、市街道路に沿った単一の方向でビデオを撮影し、そのシーンの情報を受信しうる。ユーザが、WCDを移したり、傾けたり、ゆっくり動かした場合、WCD内のカメラは、例えば、同じ道路に沿った別方向におけるような別のシーンを表すリアル・タイム・ビデオをキャプチャするだろう。そして、この新たなシーンの情報を受信するために、上記ステップが繰り返されるだろう。
一般に、本開示は、無線通信デバイス(WCD)におけるハンズ・フリー拡張現実感を提供する技術に関する。本技法によれば、WCD内のアプリケーション・プロセッサが、拡張現実感(AR)アプリケーションを実行し、複数のイメージ・フレームを受信し、これら複数のイメージ・フレームを、シーンを表すためにともにステッチされる複数のイメージ・フレームを含む単一のピクチャに変換する。ARアプリケーションを実行しているWCDは、これらイメージ・フレームが単一のピクチャに変換された後、単一のピクチャにおいて表わされるシーンのARコンテンツを、ARデータベース・サーバから要求し、このARデータベース・サーバから、このシーンのARコンテンツを受信し、このARコンテンツを処理し、WCDでユーザへ表示するために、単一のピクチャをオーバレイする。このように、ユーザは、オーバレイされたARコンテンツを備える単一のピクチャを、WCDのディスプレイにおいて快適に見て、例えば、シーンがキャプチャされた後、WCDを、シーンに連続的に向ける必要なく、単一のピクチャで表されるシーンについてもっと知ることができる。例えば、ARコンテンツは、単一のピクチャのシーンに含まれる、ビジネス、ランドマーク、交通、人、オブジェクト等に関する情報を含みうる。
一例において、本開示は、WCDを用いて拡張現実感アプリケーションを実行する方法に向けられている。この方法は、おのおのがシーンの一部を表わす複数のイメージ・フレームを、WCDのプロセッサを用いて受信することと、これら複数のイメージ・フレームを単一のピクチャに変換することとを備える。ここで、単一のピクチャは、シーンを表わすためにともにステッチされる複数のイメージ・フレームを備える。この方法はさらに、単一のピクチャにおいて表わされるシーンのARコンテンツを、ARデータベース・サーバから要求することと、このARデータベース・サーバから、この単一のピクチャにおいて表わされるシーンのARコンテンツを受信することと、このARコンテンツを処理し、WCDにおける表示のために、単一のピクチャをオーバレイすることと、を備える。
別の例では、本開示は、拡張現実感アプリケーションを実行するためのWCDに向けられている。このWCDは、イメージ・データを格納するメモリと、プロセッサと、ディスプレイとを備える。このプロセッサは、おのおのがシーンの一部を表わす複数のイメージ・フレームを受信し、これら複数のイメージ・フレームを単一のピクチャに変換するように構成されている。ここで、単一のピクチャは、シーンを表わすためにともにステッチされる複数のイメージ・フレームを備える。プロセッサはさらに、単一のピクチャにおいて表わされるシーンのARコンテンツを、ARデータベース・サーバから要求し、このARデータベース・サーバから、このシーンのARコンテンツを受信し、このARコンテンツを処理し、単一のピクチャをオーバレイする、ように構成されている。ディスプレイは、オーバレイされたARコンテンツを備える単一のピクチャを、WCDのユーザに表示する。
さらなる例において、本開示は、拡張現実感アプリケーションを実行するWCDに向けられている。このWCDは、おのおのがシーンの一部を表わす複数のイメージ・フレームを受信する手段と、これら複数のイメージ・フレームを単一のピクチャに変換する手段とを備える。ここで、単一のピクチャは、シーンを表わすためにともにステッチされる複数のイメージ・フレームを備える。WCDはさらに、単一のピクチャにおいて表わされるシーンのARコンテンツを、ARデータベース・サーバから要求する手段と、このARデータベース・サーバから、単一のピクチャにおいて表わされるシーンのARコンテンツを受信する手段と、このARコンテンツを処理し、WCDにおける表示のために、単一のピクチャをオーバレイする手段と、を備える。
別の例では、本開示は、WCDにおいて実行された場合、1または複数のプログラム可能なプロセッサに対して以下を実行させる、拡張現実感アプリケーションを実行するための命令群を備えるコンピュータ読取可能な媒体に向けられている。これら命令群は、おのおのがシーンの一部を表わす複数のイメージ・フレームを受信することと、これら複数のイメージ・フレームを単一のピクチャに変換することとを実行させる。ここで、単一のピクチャは、シーンを表わすためにともにステッチされる複数のイメージ・フレームを備える。命令群はさらに、単一のピクチャにおいて表わされるシーンのARコンテンツを、ARデータベース・サーバから要求することと、このARデータベース・サーバから、このシーンのARコンテンツを受信することと、このARコンテンツを処理し、WCDにおいて表示するために、単一のピクチャをオーバレイすることと、を実行させる。
本開示の1または複数の例の詳細は、以下の添付図面および詳細説明において記載されている。他の特徴、目的、および利点が、説明と図面から、および特許請求の範囲から明らかになるだろう。
図1は、開示された技法の例にしたがって、ハンズ・フリー拡張現実感を提供することが可能な無線通信デバイス(WCD)を例示するブロック図である。 図2は、従来の技法にしたがって、拡張現実感アプリケーションを実行する典型的なWCDを例示する概念図である。 図3は、開示された技法の例にしたがって、ハンズ・フリー拡張現実感アプリケーションを実行するWCDによって生成されたオーバレイされたARコンテンツを備えるシーンを表わす単一のピクチャを例示する概念図である。 図4は、シーンを表わす単一のピクチャにARコンテンツをオーバレイするために、WCDを用いてハンズ・フリー拡張現実感アプリケーションを実行する典型的な技法を例示するフローチャートである。 図5は、WCDへのユーザ入力に基づくARコンテンツ設定にしたがって、ハンズ・フリー拡張現実感アプリケーションを実行する典型的な技法を例示するフローチャートである。
図1は、開示された技法にしたがって、ハンズ・フリー拡張現実感を提供することが可能な無線通信デバイス(WCD)10を例示するブロック図である。これら技法は、ユーザが、シーンの拡張現実感(AR)コンテンツを受信したり、レビューするために、カメラ20を備えたWCD10を、シーンに向けたままずっと持っている必要がないことから、「ハンズ・フリー」と考えられうる。その代わりに、これら技法によって、ユーザは、シーンがキャプチャされた後、シーンのARコンテンツをレビューするために、WCD10をこのシーンに連続的に向ける必要なく、快適に、WCD10を、ユーザの膝に載せたり、テーブルの上に置くことが可能となる。
WCD10は、モバイル電話、無線通信カードを備えたポータブル・コンピュータ、携帯情報端末(PDA)、ポータブル・メディア・プレーヤ、ポータブル・ゲーム・デバイス、または、いわゆる「スマート」フォンおよび「スマート」パッドまたはタブレット・コンピュータを含む無線通信機能を備えたその他のデバイスを含むモバイル・デバイスでありうる。図1に例示されるように、WCD10は、アプリケーション・プロセッサ12、拡張現実感(AR)アプリケーション14、ディスプレイ・プロセッサ16、ディスプレイ18、カメラ20、1または複数のセンサ22、メモリ24、送信機/受信機(TX/RX)26、および、バッテリ28すなわちバッテリ・ベース電源を含む。
一般に、アプリケーション・プロセッサ12は、ARアプリケーション14を含むさまざまなアプリケーションがWCD10上で動作しうる環境を提供する。追加の例のアプリケーションは、テキスト・アプリケーション、電子メール・アプリケーション、ビデオ・ゲーム・アプリケーション、ビデオまたはピクチャ・スライドショー・アプリケーション、プレゼンテーション・アプリケーション、ビデオ会議アプリケーション等を含みうる。アプリケーション・プロセッサ12は、メモリ24、カメラ20、および/または、センサ22から、これらのアプリケーションによって使用されるデータを受信しうる。カメラ20は、静止画および/またはビデオをキャプチャすることが可能なイメージ・センサを含みうる。センサ22は、コンパス・センサ、グローバル・ポジショニング信号(GPS)センサ、またはWCD10に組み込まれたその他のタイプの位置決めセンサを含みうる。ディスプレイ・プロセッサ16は、WCD10においてアプリケーション・データを示すために、ディスプレイ18における表示のために、アプリケーション・プロセッサ12からのイメージ・データを処理する。いくつかの場合には、WCD10はさらに、ビデオ・エンコーダ、ビデオ・デコーダ、および/または、“CODEC”として知られているビデオ・エンコーダとデコーダとの組み合わせを含みうる。
本開示の技法によれば、WCD10内のアプリケーション・プロセッサ12は、拡張現実感(AR)アプリケーション14を実行して、シーンの異なる部分を表わす複数のイメージ・フレームを受信し、これら複数のイメージ・フレームを、これら複数のイメージ・フレームを含む単一のピクチャに変換する。これら複数のイメージ・フレームのすべてまたは一部は、ともにステッチされ、シーンを表す単一のピクチャが生成される。アプリケーション・プロセッサ12は、イメージ・フレームを単一のピクチャに変換した後、単一のピクチャにおいて表わされるシーンのARコンテンツを、ARデータベース・サーバから要求し、このARデータベース・サーバから、このシーンのARコンテンツを受信し、このARコンテンツを処理し、WCD10においてユーザへ表示するために単一のピクチャをオーバレイする。このようにして、ユーザは、オーバレイされたARコンテンツを備える単一のピクチャを、WCD10のディスプレイ18において快適に見て、例えば、単一のピクチャにキャプチャされたシーンに向けることなく、単一のピクチャで表わされるシーンについてもっと知ることができる。
ARアプリケーション14は、アプリケーション・プロセッサ12によって実行された場合、単一のピクチャで表わされるシーンに関する情報を、WCDのユーザ10に提供する。単一のピクチャで表わされるシーンは、道路、ビルディング、乗り物、公園、水域等を含む屋外エリアを含みうる。このシーンはまた、オフィス・ビルディングおよびショッピング・モールの内部を含む屋内エリアをも含みうる。さらに、このシーンは、人間を含みうる。シーン・タイプの上記リストは、典型的であり、ARコンテンツがARアプリケーション14によって提供されうるシーンのタイプの完全なリストを提供している訳ではない。
シーンのために提供されるARコンテンツは、例えば、レストランおよびバーの営業時間、メニュー、およびスペシャルや、食料品店および小売店における販売、来たるべきイベント、および/または、ビジネスの顧客各付けのような、シーン内のビジネスに関する情報を含みうる。ARコンテンツはさらに、例えば、公共交通機関の時刻表、公共公園情報、史跡およびイベント、旅行情報、および/または、警察署や緊急サービスの場所のような、シーンに含まれる都市または近隣に関する情報をも含みうる。さらに、ARコンテンツは、シーンに含まれる外国語表記の翻訳を含みうる。ARコンテンツはさらに、例えば、人がソーシャル・ネットワーク会社によってユーザに関連付けられているか否か、および、どのようにして関連付けられているのかのような、シーンに含まれる人の識別情報を含みうる。ARコンテンツはさらに、例えば、温度、天気予報、および/または、公害レベルおよびアレルゲン・レベルのような環境情報をも含みうる。ARコンテンツのタイプの上記リストは典型的であり、ARアプリケーション14によって提供されうる、シーンに関する情報のタイプの完全なリストを提供している訳ではない。
従来実行されているARアプリケーションは、ユーザが、WCDを持ち続けることと、WCDに含まれたカメラを用いて単一方向でシーンのリアル・タイム・ビデオを撮影することとを必要とする。ユーザがWCDを持ち、リアル・タイム・ビデオを撮影している間、ユーザは、WCDに表示されるリアル・タイム・ビデオにオーバレイされたARコンテンツを、「プレビュー」ウィンドウで見ることができる。ユーザが腕を下げ、リアル・タイム・ビデオの撮影を停めると、ユーザはもはや、このシーンやARコンテンツを見ることができない。従来実行されているARアプリケーションが、図2に例示されている。
従来の技法は、ユーザに対して人目を気にさせうる。また、リアル・タイムでビデオを撮影することと、ARビデオでARコンテンツを見ることとの両方を行うためにWCDを持ち続けていなければならないことから、腕の疲れ、いわゆる「ゴリラ・アーム」をもたらしうる。ハンズ・フリー拡張現実感を与えるための1つの解決策は、シーンのARコンテンツを、ユーザによってかけられたゴーグルまたはメガネにオーバレイさせるバーチャル・リアリティ(VR)ゴーグルをかけることであった。これらのゴーグルは、「オタクっぽい」と考えられ、ユーザに対してWCDを持つよりもさらに人目を気にさせうる。さらに、VRゴーグルは、一般に、高価である。これら従来の技法はともに、ユーザに対して人目を気にさせ、ARアプリケーションを使用する可能性を下げることから、好ましくない。
本開示の技法は、以前に撮影または録画されたイメージ・フレームを、シーンを表す単一のピクチャに変換することと、このシーンのARコンテンツを、単一のピクチャ上にオーバレイすることとによって、これら問題を回避する。これによって、ユーザは、シーンに向かう必要なく、任意の時間および任意の場所において、シーンのARコンテンツを見ることができる。このように、これら技法は、ゴーグルも、あるいは、WCD10へのその他の外部デバイスをも必要とすることなく、ハンズ・フリー拡張現実感を提供する。
さらに詳しくは、本開示の技法にしたがって、アプリケーション・プロセッサ12が、ARアプリケーション14を実行し、おのおのがシーンの一部を表わす複数のイメージ・フレームを受信する。これらイメージ・フレームは、シーンのビデオ・データの複数のビデオ・フレームまたは、複数の静止画でありうる。いくつかの場合には、これらイメージ・フレームは、WCD10の外部にある記憶デバイスから受信されうる。その他の場合には、これらイメージ・フレームは、WCD10に含まれたカメラ20によってキャプチャされうる。
ユーザが、WCDに含まれているビデオ・カメラを連続的に動作させることと、リアル・タイム・ビデオにオーバレイされたARコンテンツをWCDのプレビュー・ウィンドウで見ることと、を必要とする従来の技法とは異なり、本技法によって、ユーザは、シーンのビデオ・データのほんの数秒間、または、多くの静止画を撮影することができる。いくつかの例において、イメージ・フレームは、複数のビデオ・フレームを含むビデオのほんの数秒間、または、複数の静止画をキャプチャするために、WCD10に含まれるカメラ20を、シーンにわたってパノラマ方式にスイープさせることによってキャプチャされうる。キャプチャされたイメージ・フレームは、その後、ARアプリケーション14による使用のために、アプリケーション・プロセッサ12にダイレクトに送信されうる。あるいは、イメージ・フレームがメモリ24に格納され、その後、ARアプリケーション14による使用のためにアプリケーション・プロセッサ12によって取得されうる。
アプリケーション・プロセッサ12は、その後、複数の静止画から、または、ビデオ・データの数秒間からの複数のイメージ・フレームを、シーンを表わすためにともにステッチされる複数のイメージ・フレームを備える単一のピクチャに変換する。いくつかの例では、WCD10内のアプリケーション・プロセッサ12が、複数のイメージ・フレームをともにステッチすることによって、単一のピクチャを生成しうる。アプリケーション・プロセッサ12は、例えば、パノラマ・シーンをステッチするために従来使用されてきたようなさまざまな従来方式のうちの何れかによってステッチを実行しうる。その他の例では、WCD10内のアプリケーション・プロセッサ12が、TX/RX26によって遠隔サーバへイメージ・フレームを送信しうる。この例では、アプリケーション・プロセッサ12は、遠隔サーバに対して、複数イメージ・フレームをステッチして単一のピクチャを生成するように指示する。そして、遠隔サーバから戻された単一のピクチャを受信する。この単一のピクチャは、市街道路、史跡、近隣等を、複数の方向で表わしうる。このように、この単一のピクチャは、シーンのパノラマ表示を備えうる。
例として、ユーザは、WCD10に含まれるカメラ20を、所与の場所から180°または360°まで回転させることによって、パノラマ方式でシーンを撮影しうる。ビデオ・データの場合、ユーザは、毎秒およそ30のフレームを撮影するために、WCD10のカメラ20をシーンにわたって単純にスイープさせうる。静止画の場合、ユーザは、WCD10のカメラ20を用いて静止画を撮影し、カメラ20を数°動かし、次の静止画を撮影する。その後、カメラ20を再度動かし、別の静止画を撮影する、ということを全シーンにわたって行う。いずれの場合であれ、アプリケーション・プロセッサ12または遠隔サーバは、キャプチャされたイメージ・フレームをともにステッチして、単一のパノラマ・ピクチャを生成する。複数の静止画から単一のピクチャを生成するために、アプリケーション・プロセッサ12または遠隔サーバは、複数の静止画をともにフィットさせ、これら静止画間の冗長な情報を除去して、シームレスな単一のピクチャを生成するように構成されうる。複数のビデオ・フレームからの単一のフレーム、すなわち、ビデオ・データのうちのほんの数秒間を生成するために、アプリケーション・プロセッサ12または遠隔サーバは、一時的に、ビデオ・フレームをダウン・サンプルし、シームレスな単一のピクチャを生成するために、ビデオ・フレーム間の冗長な情報を除去しうる。
例えば、生成された単一のピクチャは、6000×1280ピクセルのサイズを備えた非常に大きなイメージでありうる。いくつかのケースでは、WCD10またはWCD10のアプリケーション・プロセッサ12のユーザは、WCD10においてイメージ・フレームをともにステッチすること、または、遠隔サーバにおいてともにステッチされるべきイメージ・フレームを送信することによって、単一のピクチャを生成するか否かをアプリオリに決定しうる。単一のピクチャがWCD10において生成されるか、または、遠隔サーバにおいて生成されるかは、WCD10におけるメモリの量、バッテリ寿命、および処理強度、WCD10に利用可能な現在のデータ・レート、および、データのメガバイト(MB)あたりのコストに依存しうる。アプリケーション・プロセッサ12は、例えば、WCD10の処理電力を、遠隔サーバの処理電力と比較しうる。アプリケーション・プロセッサ12はまた、単一のピクチャを遠隔サーバへ送信するために、複数のイメージ・フレームと比べてどれくらい多くの電力が必要とされるのかと、単一のピクチャを遠隔サーバへ送信するために、複数のイメージ・フレームと比べてMBあたりどれくらいのコストが必要とされるのかとを判定するために、信号強度を確認しうる。さらに、アプリケーション・プロセッサ12は、WCD10の残りのバッテリ寿命を判定するために、WCD10の内のバッテリ28を確認しうる。
これらの要因は、おのおののWCDおよびおのおののユーザについて変わるだろう。例えば、WCD10が、無制限のデータおよび良好な信号強度の高速電話であれば、アプリケーション・プロセッサ12は、単一のピクチャを生成するために、これらイメージ・フレームをともにローカルにステッチしなければならない。一方、WCD10が低機能電話であれば、アプリケーション・プロセッサ12は、WCD10に関連付けられたデータ・プランが非常に高価である場合を除き、単一のピクチャを生成するため、ステッチするためにイメージ・フレームを遠隔サーバへ送信しなければならない。その場合、アプリケーション・プロセッサ12が、複数のイメージ・フレームを遠隔サーバへ送信し、ステッチされた単一のピクチャをサーバから受信するのに、コスト高になりうる。さらに、WCD10のバッテリ28がフル・パワーである場合、アプリケーション・プロセッサ12は、単一のピクチャを生成するため、ステッチするためのイメージ・フレームを遠隔サーバへ送信し、遠隔サーバから戻された単一のピクチャを受信しうる。しかしながら、WCD10のバッテリ28の電力レベルが低いのであれば、代わりに、アプリケーション・プロセッサ12が、イメージ・フレームをローカルにステッチし、単一のピクチャを生成しうる。
ARアプリケーション14を実行するアプリケーション・プロセッサ12は、イメージ・フレームが単一のピクチャに変換された後、ARデータベース・サーバから、単一のピクチャに表わされたシーンのARコンテンツを要求する。アプリケーション・プロセッサ12は、この単一のピクチャをARデータベース・サーバへ送信することによって、シーンのARコンテンツを要求しうる。その他のケースでは、アプリケーション・プロセッサ12は、複数のイメージ・フレームのうちの1またはそれ以上をARデータベース・サーバへ送信することによって、シーンのARコンテンツを要求しうる。一般に、ARデータベース・サーバは、アプリケーション・プロセッサ12が、TX/RX26によってARデータベース・サーバへ単一のピクチャを送信できるように、WCD10への遠隔サーバを備える。第1の遠隔サーバが単一のピクチャを生成するケースでは、ARデータベースは、同じ第1の遠隔サーバにおいて、または、別の第2の遠隔サーバにおいて格納されうる。別の例では、ARデータベースは、WCD10に格納されうる。
この開示では、これら技法は主に、単一のピクチャにおいて表わされるシーンに関連付けられたARコンテンツを要求するために、単一のピクチャがWCD10からARデータベース・サーバへ送信されるケースにしたがって記載されている。しかしながら、これら技法は、例えば、複数の静止画または複数のビデオ・フレームのような複数のイメージ・フレームのおのおののARコンテンツを要求するために、これら複数のイメージ・フレームがARデータベース・サーバへダイレクトに送信されるケースにも適用されうると理解されるべきである。アプリケーション・プロセッサ12は、ARコンテンツが受信された後、イメージ・フレームのおのおののARコンテンツを単一のピクチャに適用しうる。
シーンのためにARコンテンツがどのように要求されるのかに関わらず、WCD10は、単一のピクチャにおいて表わされるシーン全体のARコンテンツを受信しうる。アプリケーション・プロセッサ12は、ARコンテンツを処理し、単一のピクチャをオーバレイする。いくつかの例では、ディスプレイ・プロセッサ16は、ARコンテンツの処理またはレンダリングを実行するために、アプリケーション・プロセッサ12と共に動作しうる。その後、ディスプレイ・プロセッサ16は、WCD10のディスプレイ18においてユーザへ表示するために、オーバレイされたARコンテンツを備える単一のピクチャを準備する。このように、WCD10のユーザは、オーバレイされたARコンテンツを備える単一のピクチャを、ディスプレイ18において、快適に見て、例えば、座っている間、または、イメージにおいてキャプチャされたシーンに向かっていない間、周囲のエリアについてもっと知ることができる。
ARコンテンツは、単一のピクチャに表わされたシーンのARコンテンツを表すグラフィックおよび/またはテキストを含みうる。ARコンテンツはまた、単一のピクチャに対応するグラフィックおよび/またはテキストのための位置情報を含みうる。例えば、ARコンテンツは、単一のピクチャにおいてキャプチャされた場所におけるイベントを記述するテキストを含みうる。ARコンテンツは、テキストを配置する単一のピクチャにおける場所の、例えば(x,y)ピクセル位置のような位置情報をも含みうる。
一般に、ARデータベース・サーバは、単一のピクチャに対応する位置情報を備えるARコンテンツのみを、アプリケーション・プロセッサ12へ送信するだろう。例えば、ARコンテンツの各アイテムは、ARコンテンツを表わすグラフィックおよび/またはテキストを単一のピクチャ上の正しい位置に配置するために、関連付けられた座標を含んでいる。これは、ARデータベース・サーバが、単一のピクチャ上にARコンテンツを配置し、オーバレイされたARコンテンツを備える大量の単一のピクチャをWCD10へ返信することよりも時間も電力も消費しない。しかしながら、いくつかの例では、ARデータベース・サーバは、オーバレイされたARコンテンツを備える単一のピクチャの全体を、WCD10へ戻しうる。その場合、アプリケーション・プロセッサ12および/またはディスプレイ・プロセッサ16は、ディスプレイ18に表示するために、オーバレイされたARコンテンツを備える、受信された単一のピクチャを処理またはレンダリングしうる。
アプリケーション・プロセッサ12はまた、単一のピクチャに加えて、単一のピクチャおよび/またはイメージ・フレームの生成に関連付けられた位置情報および/または遠近情報を、ARデータベース・サーバへ送信しうる。このように、アプリケーション・プロセッサ12は、単一のピクチャに表わされるシーンに含まれるオブジェクトがキャプチャされた場合、ユーザに対するオブジェクトの位置に少なくとも部分的に基づいて、これらオブジェクトのARコンテンツを受信しうる。アプリケーション・プロセッサ12は、例えば、コンパス・センサ、GPSセンサ等のような1または複数のセンサ22から、位置情報および/または遠近情報を受信しうる。アプリケーション・プロセッサ12は、おのおのがシーンの一部を表わし単一のピクチャを生成するためにともにステッチされる複数のイメージ・フレームの位置情報および/または遠近情報を受信しうる。このように、単一のピクチャに表わされるシーンの別の部分は、別の位置情報および/または遠近情報を有しうる。いくつかのケースでは、アプリケーション・プロセッサ12はまた、単一のピクチャで表わされたシーンと、このシーンの以前のピクチャとの間の差分を示す、シーンのARコンテンツを受信するために、イメージ・フレームおよび/または単一のピクチャを生成することに関連付けられた時間情報および日付情報をARデータベース・サーバへ送信しうる。
本開示に記載されたハンズ・フリーAR技法によれば、単一のピクチャにおいてキャプチャされたシーンについて、従来のAR技法よりも、よりロバストに見ることができる。従来のAR技法では、ユーザは、WCDを持ち、リアル・タイム・ビデオを撮影している間、瞬時的なARコンテンツしか期待していない。これにより、リアル・タイム・ビデオにオーバレイされるべきARコンテンツは、制限された量しか容易に決定されないようになる。さらに、従来の技法では、ユーザは、シーンの光景が絶えず変化するように、WCDのカメラを移動またはスイープさせうる。取得するのに長い時間を要するARコンテンツは、WCDがこのARコンテンツを取得する時までに古くなっている場合がありうる。例えば、WCDが、特定のランドマークのARコンテンツを受信した時に、ユーザは、リアル・タイム・ビデオの方向を変えており、この特定のランドマークがもはやリアル・タイム・ビデオによってキャプチャされたシーンに含まれず、このARコンテンツが不要になっているかもしれない。
本開示の技法によれば、ユーザは、シーンの静止した単一ピクチャに、ユーザが好きなだけ座ったり立ち上がったりすることができる。したがって、ユーザは、表示のために取得され処理されるべき単一のピクチャに表わされたシーンに関連付けられたARコンテンツのすべてを求めてより長く待つことをいとわないかもしれない。より長い待ち時間に対するトレード・オフは、例えば、ウェブサイトおよびビデオに対するリンクを含むARコンテンツの詳細の量がより多くなり、よりレベルが高くなることでありうる。ユーザはまた、シーンの単一のピクチャにおいて、および、単一のピクチャにわたってナビゲートすることができる。例えば、これら技法によって、ユーザは、オーバレイされたARコンテンツを備える単一のピクチャをディスプレイ18において見ている場合、例えば、ゆっくり動かしたりし、傾けたり、ズームさせる動作のようなイメージ動作を実行することが可能となる。このように、ユーザが、単一のピクチャにキャプチャされた特定の領域またはビルディングにゆっくり動かしたりズームさせると、その領域内のさらなるARコンテンツが表わされうる。
より具体的な例として、アプリケーション・プロセッサ12および/またはディスプレイ・プロセッサ16は、単一のピクチャにおいて表わされるシーンの新たな光景を生成するために、ユーザ入力に応じて、例えば単一のピクチャにおいてゆっくり動かしたり、傾けたり、スクロースしたり、ズームさせる動作のような1または複数のイメージ動作を実行しうる。アプリケーション・プロセッサ12および/またはディスプレイ・プロセッサ16は、これらイメージ動作が実行されたた後、ARコンテンツを追加することと、単一のピクチャからARコンテンツを除去することとのうちの1によって、単一のピクチャに新たな光景をオーバレイするために、ARコンテンツを更新しうる。いくつかのケースでは、ARコンテンツを更新することは、ARデータベース・サーバからの単一のピクチャに表わされるシーンの追加のARコンテンツを要求することを含みうる。
いくつかのケースでは、アプリケーション・プロセッサ12は、単一のピクチャを生成するために用いられる複数のイメージ・フレームのうちのおのおののために、例えばGPS読取のような位置情報と、例えば、コンパス読取のような遠近情報とを受信しうる。このように、WCD10のユーザが、単一のピクチャに表わされるシーンの特定の部分に注目している場合、アプリケーション・プロセッサ12は、このシーンの特定の部分を表わすイメージ・フレームのために受信された位置情報および/または遠近情報に基づいて、ARデータベース・サーバからの追加のARコンテンツを要求しうる。さらに詳しくは、シーンの一部のARコンテンツは、ARデータベース・サーバによって認識されたシーンの一部における目に見えるオブジェクトに基づく情報と、イメージ・フレームをキャプチャする場合、ユーザが立ちあがる場所に対する目に見えるオブジェクトの位置に基づく情報と、を含むだろう。例えば、ユーザが、所与のビルディングにズーム・インした場合、このビルディングのARコンテンツは、ビルディングの外側において認識されるレストラン名に関連付けられたメニューと、ビルティング自体や、ビルディングの相対位置に基づいてビルディングに含まれるその他のビジネスの名称と、を含みうる。
アプリケーション・プロセッサ12は、ユーザ入力に基づいて、ARコンテンツ設定を決定しうる。ARコンテンツ設定は、ARデータベース・サーバから受信するARコンテンツの1または複数のタイプと、ARデータベース・サーバから受信するARコンテンツの量と、ARデータベース・サーバからARコンテンツを受信する時間とを含みうる。アプリケーション・プロセッサ12は、その後、このARコンテンツ設定にしたがって、ARデータベース・サーバから、単一のピクチャに表わされるシーンのARコンテンツを受信しうる。例として、ユーザは、エリア内のレストランを迅速に選択するために、ウェブサイト・リンクではなく、ユーザ各付けを有するレストラン情報を受信することを選択するだけでありうる。ARコンテンツ設定が変わった場合、アプリケーション・プロセッサ12および/またはディスプレイ・プロセッサ16は、ARコンテンツを追加すること、または、単一のピクチャからARコンテンツを除去することのうちの1つによって、単一のピクチャをオーバレイするためにARコンテンツを更新しうる。
いくつかのケースでは、ARコンテンツは、漸次的に受信されうる。取得することがより容易であるARコンテンツのいくつかのタイプは、単一のピクチャ上の即時表示のためにアプリケーション・プロセッサ12によって処理されうる。追加のARコンテンツが取得され、アプリケーション・プロセッサ12へ送り戻されると、この追加のコンテンツが処理され、単一のピクチャ上に表示されうる。このようにして、ユーザは、単一のピクチャに表わされているシーンについて知リ始めるために、ARコンテンツの受信を直ちに開始しうる。その間、残りのARコンテンツは、漸次的に取得、処理、および表示される。ユーザは、ユーザがこのシーンに関する十分な情報を有している場合、進行中のARコンテンツをいつでも停止しうる。さらに、これら技法によって、単一のピクチャを生成するために使用されているイメージ・フレームのうちの少なくともいくつかが、少なくともいくつかのARコンテンツを受信するために、ARデータベース・サーバへストリームされるようになりうる。このケースでは、WCD10は、単一のピクチャを生成するために使用されるリアル・タイム・ビデオ・データのほんの数秒間をオーバレイするために、いくつかのARコンテンツを受信しうる。
いくつかのケースでは、単一のピクチャを生成するために使用されるイメージ・フレームは、不完全または貧弱な品質でありうる。いくつかの例において、アプリケーション・プロセッサ12は、WCD10からの追加の、より高い解像度のイメージ・フレームを求める要求を、ARデータベース・サーバから受信しうる。これは、例えば、ガボール(Gabor)フィルタを用い、次に、テキストを読み取るために光学式文字認識(OCR)を用いるように、テキストを見つけるために単一のピクチャをフィルタすることによって、単一のピクチャに含まれているテキストをARデータベース・サーバが識別した場合に生じうる。識別されたテキストが読取不能であれば、ARデータベース・サーバは、テキストを含むシーンの一部の、より高解像度のピクチャを求める要求を、アプリケーション・プロセッサ12へ送信しうる。
別の例では、アプリケーション・プロセッサ12は、ARデータベース・サーバまたはその他の遠隔サーバに対して、イメージ・ストアのウェブサイトを含む、外部記憶デバイスから取得される追加のイメージ・フレームを用いて、単一のピクチャの品質を向上させるように指示しうる。例えば、ARデータベース・サーバまたはその他の遠隔サーバは、単一のピクチャに表わされるシーンの、追加の公的に利用可能なイメージを、アプリケーション・プロセッサ12へ送信しうる。単一のピクチャのサイズの増加、および/または、単一のピクチャの品質の向上のために、追加のイメージ・フレームが使用されうる。例として、ユーザが、単一のピクチャの縁を超えてスクロールしたり、または、ゆっくり動かすと、これらの技法は、シーンの縁における、例えばGPS読取および/またはコンパス読取のような位置情報および/または遠近情報に基づいて、追加のイメージ・フレームを取得しうる。
これら技法はまた、単一のピクチャに表わされるシーンと、このシーンの以前のピクチャとの差分を示す比較情報を生成するためにも、追加のイメージ・フレームを使用しうる。例えば、ARデータベース・サーバまたはその他の遠隔サーバは、現在の単一のピクチャにおいて表わされるシーンのビルディングおよびランドマークを、公的に利用可能なウェブサイトから取得された同じシーンの以前のピクチャと比較しうる。このケースでは、アプリケーション・プロセッサ12は、どのビルディングおよびランドマーク、または、ビルディング内のビジネスが新しいのかを示すために、この比較情報を受信しうる。例として、この比較情報は、直近の6か月以内、または、その他いくつかの選択された時間フレーム内におけるエリア内の新たなレストランを示すために使用されうる。
この開示のハンズ・フリーAR技法は、いくつかの利点を与えうる。例えば、WCD10のユーザは、例えば近隣または歴史的なランドマークのような特定のシーンについてもっと知るためにARアプリケーションを使用しても、ユーザは、人目を気にすることも、人々がユーザを旅行客として見ることもなくなるであろう。さらに、ユーザは、いくつかの静止画またはビデオの数秒間をキャプチャするために、WCDを一度だけ持ち上げればよいので、これら技法は、腕の疲れを少なくする。ユーザは、その後、単一のピクチャで表わされるシーンに連続的に向けておく必要なく、オーバレイされたARコンテンツを備える単一のピクチャを、座って、快適に見たり、熱中しうる。
アプリケーション・プロセッサ12が、WCD10に含まれるカメラ20から、複数のイメージ・フレームを受信するケースでは、これら技法は、イメージ・フレームをキャプチャするために少ない電力しか使用しない。なぜなら、カメラ20は、エリアに関するすべてのARコンテンツを受信するためにARデータベース・サーバとのやりとりにより連続的にリアル・タイム・ビデオ・データおよびストリーミング・データをキャプチャするのではなく、ビデオ・データのほんの数秒をキャプチャする必要しかないからである。さらに、これら技法は、ARデータベース・サーバと通信するために少ない電力しか使用しない。なぜなら、単一のピクチャに表わされるシーンに含まれるオブジェクトは、そのオブジェクトのリアル・タイム・ビデオをユーザがキャプチャする毎に同じオブジェクトを連続的に認識するのではなく、一度だけ識別され分析される必要しかないからである。
図1に例示されたWCD10の構成要素は、単に典型例である。他の例では、WCD10は、より多くの構成要素、より少ない構成要素、および/または別の構成要素を含みうる。WCD10の構成要素は、例えば、1または複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向けIC(ASIC)、フィールド・プログラマブル・ゲート・アレイ(FPGA)、ディスクリート・ロジック、ソフトウェア、ハードウェア、ファームウェア、またはこれらの任意の組み合わせのようなさまざまな適切な回路類のうちの何れかとして実現されうる。WCD10におけるディスプレイ18は、例えば、液晶ディスプレイ(LCD)、プラズマ・ディスプレイ、有機発光ダイオード(OLED)ディスプレイ、またはその他のタイプのディスプレイ・デバイスのようなさまざまなディスプレイ・デバイスのうちの1つを備えうる。
WCD10におけるメモリ24は、限定される訳ではないが、例えば、シンクロナス・ダイナミック・ランダム・アクセス・メモリ(SDRAM)、読取専用メモリ(ROM)、不揮発性ランダム・アクセス・メモリ(NVRAM)、電子的消去可能プログラマブル読取専用メモリ(EEPROM)、FLASHメモリ等のようなランダム・アクセス・メモリ(RAM)を含む広範な揮発性メモリまたは不揮発性メモリのうちの何れかを備えうる。メモリ24は、メディア・データのみならず、その他の種類のデータをも格納するためのコンピュータ読取可能な記憶媒体を備えうる。メモリ24はさらに、本開示に記載されている技法を実行することの一部として、アプリケーション・プロセッサ12によって実行される命令群およびプログラム・コードを格納する。
WCD10は、例えば、符号分割多元接続(CDMA)、周波数分割多元接続(FDMA)、時分割多元接続(TDMA)、または直交周波数分割多重(OFDM)のような1または複数の無線通信技術をサポートするように設計された通信システム内で動作しうる。前述した無線通信技術は、さまざまなラジオ・アクセス技術のうちの何れかにしたがって生み出されうる。例えば、CDMAは、cdma2000規格または広帯域CDMA(WCDMA(登録商標))規格にしたがって生み出されうる。TDMAは、グローバル移動体通信(GSM)(登録商標)規格にしたがって生み出されうる。ユニバーサル・モバイル・テレコミュニケーション・システム(UMTS)規格は、OFDMのために、ロング・ターム・イボリューション(LTE)を用いるGSM動作またはWCMA動作を可能にする。さらに、例えば、cdma2000 1x EV−DOのような高データ・レート(HDR)技術が使用されうる。
WCD10の通信システムは、複数のモバイル無線ネットワークまたはWiFi(例えば、IEEE 802.11x)ネットワークをサポートする1または複数の基地局(図示せず)を含みうる。通信サービス・プロバイダは、ネットワーク・ハブとして基地局を用いるこれらネットワークのうちの1または複数を中央で操作および管理しうる。
図2は、従来の技法にしたがって拡張現実感アプリケーションを実行する典型的なWCD30を例示する概念図である。従来、ARアプリケーションを実行することは、図2に例示されるように、ユーザは、WCD30を持ち続け、WCD30に含まれるカメラを用いてシーンのリアル・タイム・ビデオを撮影することが必要である。その後、リアル・タイム・ビデオが、ARデータベース・サーバへ連続的にストリームされ、WCD30が、リアル・タイム・ビデオに表わされるシーンに関連付けられたARコンテンツを、ARデータベース・サーバから受信する。WCD30のユーザは、WCDを持ち、リアル・タイム・ビデオを撮影している間、瞬時的なARコンテンツを期待している。これにより、リアル・タイム・ビデオにオーバレイされるべきARコンテンツは、制限された量しか容易に決定されないようになる。
図2に例示される例では、ユーザは、WCD30を持ち、ビルディング、公共交通機関、および人間を含む市街道路のシーンのリアル・タイム・ビデオを撮影する。リアル・タイム・ビデオにおけるシーンのARコンテンツを要求するために、WCD30は、ARデータベース・サーバに、このリアル・タイム・ビデオを送信する。WCD30は、その後、ARコンテンツ情報32,34,36を受信し、ライブ・ビデオによってユーザに表示する。図2の例では、ARコンテンツ32は、例えば、温度および花粉レベルのような環境情報や、ユーザのためのメッセージング情報を含む。ARコンテンツ34は、道路シーンに含まれるバスに関連付けられた公共交通スケジューリング情報を含む。さらに、ARコンテンツ36は、道路シーンに含まれるビルディングのうちの1つに位置している、例えば、レストラン、小売店、またはツアー・オペレータのようなビジネスのためのセールス広告を含む。
従来の技法は、リアル・タイム・ビデオを連続的に撮影することと、ARデータベース・サーバによって再識別されるべき同じオブジェクトのイメージを連続的に送信することとのために、大量の電力を使用する。例えば、WCD30は、道路シーンに含まれるビルディングのリアル・タイム・ビデオをARデータベース・サーバへストリームしうる。そして、これらビルディングのうちの1つに位置するビジネスにおけるセールを広告している同じARコンテンツ36を連続的に受信しうる。
さらに、WCD30のユーザは、WCD30内のカメラを移動またはスイープさせうるか、または、道路シーンの光景がコンスタントに変化するように、シーンにもともと含まれているオブジェクトが、このシーンの外へ移動しうる。取得するために長い時間を要するARコンテンツは、WCD30がこのARコンテンツを受信するまでに、古くなっている場合がありうる。例えば、WCD30が、リアル・タイム・ビデオにもともと含まれているバスに関連付けられた公共共通スケジューリング情報を含むARコンテンツ34を受信するまでに、バス自身がリアル・タイム・ビデオにおいて表わされるシーンの外に移動している場合がありうる。そのケースでは、WCD30は、受信したARコンテンツ34を使用しないことがありうる。なぜなら、受信したARコンテンツ34は、リアル・タイム・ビデオにおいてキャプチャされた現在の道路シーンに含まれたオブジェクトに関連付けられていないからである。その他のケースでは、WCD30が、位置情報にしたがって、ARコンテンツ34を処理し、リアル・タイム・ビデオ上に表示しうる。しかしながら、バスはもはやリアル・タイム・ビデオの同じ場所には位置していないので、ARコンテンツ34は、コンテキスト外となるだろう。
さらに、WCD10において従来通りARアプリケーションを実行するための技法は、ARコンテンツを撮影し、リアル・タイム・ビデオ・データからARコンテンツを受信するためにユーザがWCD30を持つ場合、ユーザに人目を気にさせうる。WCD30を連続的に持つことはまた、腕の疲労、すなわち「ゴリラ・アーム」をもたらしうる。1つの既存のハンズ・フリー拡張現実感ソリューションは、ARコンテンツを、ユーザによってかけられたゴーグルまたはメガネにオーバレイするバーチャル・リアリティ(VR)ゴーグルによってユーザにハンズ・フリーARを提供する。VRゴーグルは、許容可能なユーザ体験を提供するようにディスプレイ・スクリーンを適合させるために、サイズが大きく、かさばったものとなりうる。したがって、VRゴーグルは、「オタクっぽい」と考えられ、ユーザに対してWCDを持つよりもさらに人目を気にさせる可能性がありうる。さらに、VRゴーグルは高価である。
一般に、従来の技法は、ユーザに、人目を気にさせ、ARアプリケーションをあまり用いないようにさせうる。本開示に記載されたハンズ・フリー技法は、ARアプリケーションを用いることの疲労や厄介な部分を取り除き、バッテリ寿命を保ちながら、ARアプリケーションをWCDにおいてよりユビキタスにすることに役立ちうる。
図3は、開示された技法にしたがってハンズ・フリー拡張現実感アプリケーションを実行するWCDによって生成されたオーバレイされたARコンテンツ42,44,46を備える単一のピクチャ40を例示する概念図である。単一のピクチャ40は、単一のピクチャ40におけるシーンの全体を表わすために、おのおのがシーンの一部を表わす複数のイメージ・フレームをともにステッチすることによって形成される。WCDは、イメージ・フレームが単一のピクチャ40に変換された後、単一のピクチャ40において表わされるシーンのARコンテンツ42,44,46を、ARデータベース・サーバから受信し、ARコンテンツ42,44,46を処理して、ユーザへの表示のために、単一のピクチャ40をオーバレイする。このようにして、ユーザは、オーバレイされたARコンテンツ42,44,46を備える単一のピクチャ40を、WCDにおいて、快適に見て、例えば、単一のピクチャにおいてキャプチャされたシーンを向くことなく、単一のピクチャ40に表わされたシーンについてもっと知ることができる。
図3の例では、単一のピクチャ40は、公園やビルディングを含む近隣全体のパノラマ・ピクチャを表わす。単一のピクチャ40は、複数の静止画から、または、このシーンのビデオ・データの複数のビデオ・フレームから生成されうる。例として、WCDのユーザは、所与の位置から180°または360°回転させることによって、シーンのビデオ・データのほんの数秒を記録するか、複数の静止画を撮影しうる。このケースでは、単一のピクチャ40は、キャプチャされた静止画またはビデオ・フレームをともにステッチすることによって生成される単一のパノラマ・イメージでありうる。
例えば、単一のピクチャ40は、6000×1280ピクセルのサイズの非常に大きなイメージでありうる。したがって、単一のピクチャ40は、WCDのカメラによって取得されたオリジナルの個々の静止画またはビデオ・フレームのフォーマットよりも、より大きなフォーマット、および、いくつかのケースにおいては、実質的により大きなフォーマットを有しうる。いくつかの例では、単一のピクチャ40は、個々の静止画またはビデオ・フレームに対して、例えば幅方向のような単一の次元においてより大きくなりうるが、例えば、高さ次元のような別の次元において同じサイズを維持しうる。または、その逆もありうる。例えば、大きなパノラマ・イメージは、高さは同じであるが、個々のピクチャまたはビデオ・フレームよりもはるかに大きな幅を有しうる。別の例では、単一のピクチャ40は、幅と高さとの両方において、より大きくなりうる。いくつかの例では、単一のピクチャ40は、少なくとも1つの次元において、個々のピクチャまたはビデオ・フレームよりも、例えば1.5倍、2倍、3倍、4倍、またはそれ以上のように、実質的に大きくなりうる。
単一のピクチャ40に表わされたシーンに関連付けられたARコンテンツ42,44,46が、ARデータベース・サーバから取得される。図3に例示されるように、ARコンテンツ42,44,46は、単一のピクチャ40に表わされるシーン、および、単一のピクチャ40に対応するグラフィックおよび/またはテキストの位置情報を記述するためのテキストおよび/またはグラフィクスを含む。例えば、ARコンテンツ42は、単一のピクチャ40に含まれるビルディングのうちの1つのビジネスにおけるセールを示すテキストを含みうる。このケースでは、ARデータベース・サーバから受信されたARコンテンツ42はまた、テキストを配置する単一のピクチャ40におけるビジネスの、例えば(x,y)ピクセル位置のような位置情報をも含む。
別の例として、ARコンテンツ44はまた、単一のピクチャ40に含まれる公園に位置するセールまたは値下げ額、および、ビジネスに関する情報をも含む。繰り返すが、ARコンテンツ44は、単一のピクチャ40に表わされるビジネスの近くにARコンテンツ44のテキストを配置するため、単一のピクチャ40に対応する位置情報を含む。さらに、ARコンテンツ46は、単一のピクチャ40に含まれる公園内の博物館が開いているか、閉まっているかのようなランドマーク情報を含んでいる。ARコンテンツ46はまた、単一のピクチャ40に表わされる博物館のための位置情報をも含む。いくつかのケースでは、ARコンテンツ46は、博物館の開館に関するより具体的な時間を提供しうるか、または、博物館のウェブサイトへのリンクを提供しうる。ARコンテンツ42,44,46は、単一のピクチャ40にオーバレイされうるARコンテンツのほんのいくつかの例しか提供していない。その他のケースでは、その他多くのタイプおよび量のARコンテンツが取得され、単一のピクチャ40上に表示されるために処理されうる。
本開示に記載されたハンズ・フリーAR技法によって、単一のピクチャ40において表わされるシーンを、従来のAR技法を用いてリアル・タイム・ビデオにおいてキャプチャされたシーンのために可能であるよりも、はるかにロバストに見ることが可能となる。本開示の技法によれば、ユーザは、好きなだけ長い間、シーンの、静止した単一のピクチャ40を眺めることができる。したがって、ユーザは、表示のために取得および処理されうる単一のピクチャ40に関連付けられたすべてのARコンテンツを求めて、喜んで長い時間待つだろう。より長い待ち時間に対するトレード・オフは、例えば、ウェブサイトおよびビデオへのリンクを含む、より大量でかつより高レベルなARコンテンツの詳細でありうる。
ユーザは、シーンの単一のピクチャ40において、および、単一のピクチャ40にわたってナビゲートすることができうる。例えば、これらの技法によって、ユーザは、単一のピクチャ40に表わされるシーンの新たな光景を生成するために単一のピクチャ40を見ている場合、例えば、ゆっくり動かす動作、傾ける動作、およびズームする動作のようなイメージ動作を実行できるようになる。WCDは、イメージ動作が実行された後、単一のピクチャに新たな光景をオーバレイするために、ARコンテンツの追加、または、単一のピクチャ40からのARコンテンツの除去のうちの1つを行うことによって、ARコンテンツを更新しうる。これは、ズーム動作、ゆっくり動かす動作、またはスクロール動作の前に見えなかった、単一のピクチャ40の部分をオーバレイするためにARコンテンツを追加すること、および/または、ズーム動作、ゆっくり動かす動作、またはスクロール動作の後にもはや見ることはできない、単一のピクチャ40の部分のARコンテンツを除去すること、を含みうる。いくつかのケースでは、ARコンテンツを更新することは、単一のピクチャ40において表わされるシーンのための追加のARコンテンツを、ARデータベース・サーバから要求することを含みうる。その他のケースでは、ARコンテンツを更新することは、単一のピクチャ40において表わされるシーンについて、ARデータベース・サーバから以前に取得されたが、単一のピクチャ40の表示された部分において見ることはできない追加のARコンテンツを表すことを含みうる。
いくつかのケースでは、WCDは、単一のピクチャ40を生成するために使用される複数のイメージ・フレームのおのおののために、例えばGPS読取のような位置情報と、例えばコンパス読取のような遠近情報とを受信しうる。このように、WCDのユーザが、単一のピクチャ40において表わされるシーンの特定の部分に移動した場合、このシーンの特定の部分を表わすイメージ・フレームについて取得された位置情報および/または遠近情報に基づいて、追加のARコンテンツが、ARデータベース・サーバから要求されうる。さらに詳しくは、シーンの一部のARコンテンツは、ARデータベース・サーバによって認識されたシーンの部分において目に見えるオブジェクトに基づく情報と、このシーンの部分を表わしているイメージ・フレームをキャプチャしているときにユーザが立っていた場所に対する目に見えるオブジェクトの位置に基づく情報と、を含むだろう。
また、これら技法によって、ユーザは、ARデータベース・サーバから受信するARコンテンツの1または複数のタイプを含むARコンテンツ設定と、ARデータベース・サーバから受信するARコンテンツの量と、ARデータベース・サーバからARコンテンツを受信する時間と、を示すことができうる。WCDは、その後、単一のピクチャ40において表わされるシーンのARコンテンツを、ARコンテンツ設定にしたがって、ARデータベース・サーバから受信しうる。ARコンテンツ設定が変わった場合、WCDは、ARコンテンツの追加、または、ARコンテンツの単一のピクチャ40からの除去、のうちの1つを行うことによって、単一のピクチャ40をオーバレイするためにARコンテンツを更新しうる。
例えば、シーンのために選択されたARコンテンツのタイプは、例えば名前、時間、およびメニューのようなレストラン情報と、宿泊および当該場所識別を含むビジタ情報と、小売店販売情報と、コンサート・イベントおよびスポーツ・イベントを含むイベント情報と、人物認識と、例えば警察署、消防署、および病院の場所のような緊急サービス情報と、例えばバスや電車の時刻表や説明のような公共交通情報等とのうちの1または複数を含みうる。
ユーザが単一のピクチャ40をオーバレイすることを見たく思うであろうARコンテンツの量は、例えば、キロバイト(kB)またはメガバイト(MB)、利用可能なデータのパーセンテージ、ディスプレイのスクリーン・サイズのパーセンテージ、またはその他いくつかの測定値のようなデータの記憶サイズに基づいて指定されうる。さらに、ユーザが、シーンのARコンテンツをARデータベース・サーバから受信したく思うであろう時間長さは、ユーザが、単一のピクチャ40をオーバレイするためにARコンテンツを受信することを喜んで待つ秒または分に基づいて指定されうる。いくつかのケースでは、ユーザは、指定された時間長さにおいて、進捗最新版を受信し、示されたARコンテンツを待ち続けるか、ARコンテンツの受信および処理を停やめるか、のうちの何れかを選択しうる。
いくつかのケースでは、単一のピクチャ40において表わされるシーンのARコンテンツが、漸次的に受信されうる。取得することがより容易なARコンテンツのいくつかのタイプは、単一のピクチャ40上への即時表示のために処理されうる。追加のARコンテンツが取得され、WCDへ送り戻されると、この追加のARコンテンツが処理され、単一のピクチャ40上に表示される。このようにして、ユーザは、単一のピクチャ40に表わされているシーンについて知り始めるために、いくつかのARコンテンツの受信を直ちに開始しうる。その間、残りのARコンテンツが、漸次的に取得、処理、および表示される。ユーザは、ユーザがシーンに関する十分な情報を有している場合、進行中のARコンテンツをいつでも停止しうる。
前述した技法によって、さまざまなARコンテンツ・タイプ、量、および処理時間から選択されたシーンについて受信されたARコンテンツに対する制御が可能となる。この制御およびさまざまなARコンテンツは、制限された量のARコンテンツをユーザへ示すためにリアル・タイム・ビデオを用いる従来のARアプリケーションでは可能ではない。しかしながら、これら技法によって、単一のピクチャ40を生成するために使用されているイメージ・フレームのうちの少なくともいくつかが、少なくともいくつかのARコンテンツを受信するために、ARデータベース・サーバへリアル・タイムでストリームされるようになる。このケースでは、
WCDは、単一のピクチャ40の一部を生成するために使用されるリアル・タイム・ビデオ・データのほんの数秒をオーバレイするためにいくつかのARコンテンツを直ちに受信しうる。さらに、静止した単一のピクチャ40において表わされるシーン全体について、時間にわたってよりロバストなARコンテンツを受信しうる。
図4は、シーンを表す単一のピクチャにARコンテンツをオーバレイするために、WCDを用いてハンズ・フリー拡張現実感アプリケーションを実行する典型的な技法を例示するフローチャートである。ハンズ・フリーAR技法は、ここでは、図1からのWCD10に関して記載されるだろう。
WCD10は、ARアプリケーション14を実行する場合、おのおのがシーンの一部を表わす複数のイメージ・フレームを受信する(50)。これらイメージ・フレームは、このシーンのビデオ・データの複数のビデオ・フレーム、または、複数の静止画でありうる。これらイメージ・フレームは、WCD10に含まれたカメラ20によってキャプチャされうるか、または、WCD10の外部の記憶デバイスから受信されうる。その後、アプリケーション・プロセッサ12が、複数のイメージ・フレームを、シーンを表わす単一のピクチャへ変換する(52)。単一のピクチャは、シーンを表わすためにともにステッチされる複数のイメージ・フレームを含む。いくつかの例において、アプリケーション・プロセッサ12は、単一のピクチャを生成するために複数のイメージ・フレームをともにステッチすることによって、これらイメージ・フレームを単一のピクチャへ変換しうる。その他の例では、アプリケーション・プロセッサ12は、複数のイメージ・フレームをTX/RX26によって遠隔サーバへ送信することによって、これらイメージ・フレームを単一のピクチャに変換しうる。アプリケーション・プロセッサ12は、その後、単一のピクチャを生成するためにこれらイメージ・フレームをともにステッチするように遠隔サーバへ要求し、遠隔サーバから送り戻された単一のピクチャを受信しうる。いずれのケースであれ、これらイメージ・フレームは、例えば、パノラマ・シーンをステッチするために従来使用されているような、さまざまな従来方式の何れかによって、ともにステッチされうる。
アプリケーション・プロセッサ12は、イメージ・フレームが単一のピクチャに変換された後、単一のピクチャに表わされるシーンのARコンテンツを、ARデータベース・サーバから要求する(54)。アプリケーション・プロセッサ12は、単一のピクチャをARデータベース・サーバへ送信することによって、または、複数のイメージ・フレームのうちの1または複数をARデータベース・サーバへ送信することによって、このシーンのARコンテンツを要求しうる。いずれのケースにおいても、WCD10は、単一のピクチャで表わされるシーンのARコンテンツを、ARデータベース・サーバから受信する(56)。ARコンテンツは、このシーンに関する情報を表わすテキストおよび/またはグラフィックと、単一のピクチャに対応するテキストおよび/またはグラフィックの位置情報とを含みうる。例えば、ARコンテンツは、単一のピクチャにおいてキャプチャされた場所におけるイベントを記述するテキストと、ARコンテンツは、テキストを配置する単一のピクチャにおける場所の、例えば(x,y)ピクセル位置のような位置情報と、を含みうる。
一般に、ARデータベース・サーバは、WCD10に対する遠隔サーバであり、アプリケーション・プロセッサ12は、TX/RX26によってARデータベース・サーバへ単一のピクチャを送信する。別の例において、ARデータベースは、WCD10に格納されうる。いくつかのケースでは、アプリケーション・プロセッサ12は、このシーンのためのARコンテンツを求める要求とともに、単一のピクチャの生成に関連付けられた位置情報および/または遠近情報を、ARデータベース・サーバへ送信する。その後、WCD10は、ユーザに対するオブジェクトの位置に少なくとも部分的に基づいて、単一のピクチャにおいて表わされるシーンにおけるオブジェクトのARコンテンツを受信し、これらオブジェクトがキャプチャされる。アプリケーション・プロセッサ12は、例えば、コンパス・センサ、GPSセンサ等のような1または複数のセンサ22から、シーンの位置情報および/または遠近情報を受信しうる。その他のケースでは、アプリケーション・プロセッサ12は、シーンのARコンテンツを求める要求とともに、単一のピクチャの生成に関連付けられた時間情報および日付情報をARデータベース・サーバへ送信しうる。WCD10は、その後、単一のピクチャに表わされるシーンと、このシーンの以前のピクチャとの差分を示す、単一のピクチャに表わされるシーンのARコンテンツを、ARデータベース・サーバから受信する。
アプリケーション・プロセッサ12は、その後、このARコンテンツを処理して、単一のピクチャをオーバレイする(58)。いくつかの例において、ディスプレイ・プロセッサ16は、ARコンテンツの処理またはレンダリングのうちの少なくともいくつかを実行しうる。ディスプレイ・プロセッサ16は、その後、オーバレイされたARコンテンツを備える単一のピクチャを、ディスプレイ18でユーザに表示する(60)。このようにして、ユーザは、オーバレイされたARコンテンツを備える単一のピクチャを、WCDのディスプレイにおいて快適に見て、単一のピクチャに表わされたシーンについて、いつでも、どこでも、もっと知ることができる。
図5は、WCDへのユーザ入力に基づくARコンテンツ設定にしたがって、ハンズ・フリー拡張現実感アプリケーションを実行する典型的な技法を例示するフローチャートである。ここでは、ハンズ・フリーAR技法は、図1からのWCD10に関して記載される。
WCD10は、ARアプリケーション14を実行する場合、おのおのがシーンの一部を表わす複数のイメージ・フレームを受信する(66)。前述したように、これらイメージ・フレームは、シーンのビデオ・データの複数のビデオ・フレームまたは複数の静止画でありうる。アプリケーション・プロセッサ12は、その後、これら複数のイメージ・フレームを、シーンを表わす単一のピクチャへ変換する(68)。単一のピクチャは、シーンを表すためにともにステッチされる複数のイメージ・フレームを含む。
アプリケーション・プロセッサ12は、その後、ユーザ入力に基づいて、ARコンテンツ設定を決定する。より具体的には、アプリケーション・プロセッサ12は、シーンのためにARデータベース・サーバから受信する1または複数のARコンテンツのタイプを決定する(70)。例えば、アプリケーション・プロセッサ12は、例えば名前、時間、およびメニューのようなレストラン情報と、宿泊および当該場所識別を含むビジタ情報と、小売店販売情報と、コンサート・イベントおよびスポーツ・イベントを含むイベント情報と、人物認識と、例えば警察署、消防署、および病院の場所のような緊急サービス情報と、例えばバスや電車の時刻表や説明のような公共交通情報等と、のうちの1または複数を示すユーザ入力を受信しうる。
アプリケーション・プロセッサ12はまた、シーンのためにARデータベース・サーバから受信するARコンテンツの量を決定する(72)。例えば、アプリケーション・プロセッサ12は、ユーザが、ディプレイ18に単一のピクチャをオーバレイすることを見たいであろう情報の量を示すユーザ入力を受信しうる。ARコンテンツの量は、例えば、キロバイト(kB)またはメガバイト(MB)、利用可能なデータのパーセンテージ、ディスプレイ18のスクリーン・サイズのパーセンテージ、またはその他いくつかの測定値のようなデータの記憶サイズに基づいて指定されうる。
さらに、アプリケーション・プロセッサ12は、ARデータベース・サーバから、シーンからのARコンテンツを受信する時刻を決定する(74)。例えば、アプリケーション・プロセッサは、単一のピクチャをオーバレイするARコンテンツを受信するためにユーザが喜んで待つ秒または分を示すユーザ入力を受信しうる。このケースでは、アプリケーション・プロセッサ12は、シーンのために要求されるすべてのARコンテンツを受信するため、残りの秒または分を指定する最新情報をユーザに提供しうる。アプリケーション・プロセッサ12はまた、要求されたデータのタイプまたは量が、指定された時間において受信されることができないとの通知をユーザに提供しうる。このケースでは、ユーザは、待ち続けること、すなわち、時間設定を延長することを選択するか、または、要求されたすべてのARデータが受信されているかに関わらず、指定された時間においてARコンテンツを受信すること停めることを選択しうる。
アプリケーション・プロセッサ12は、その後、単一のピクチャおよびARコンテンツ設定をARデータベース・サーバへ送信することによって、シーンのARコンテンツを要求する(76)。WCD10は、ARコンテンツ設定にしたがって、単一のピクチャで表わされるシーンのARコンテンツを、ARデータベース・サーバから受信する(78)。アプリケーション・プロセッサ12は、単一のピクチャをオーバレイするためにARコンテンツを処理する(80)。前述したように、ディスプレイ・プロセッサ16は、ARコンテンツの処理またはレンダリングのうちの少なくともいくつかを実行しうる。ディスプレイ・プロセッサ16は、その後、オーバレイされたARコンテンツを備える単一のピクチャを、ディスプレイ18でユーザに対して表示する(82)。
オーバレイされたARコンテンツを備える単一のピクチャが表示された後、ユーザは、ARコンテンツ設定を修正しうる(84)。例えば、ユーザは、ARコンテンツのタイプを追加するかまたはARコンテンツを単一のピクチャから除去すること、または、単一のピクチャ上に含めるARコンテンツの量を増加または減少させること、を決定しうる。ARコンテンツ設定が変更されていない場合(84のNO分岐)、ディスプレイ・プロセッサ16は、オーバレイされたオリジナルのARコンテンツを備える単一のピクチャを、ディプレイ18でユーザへ表示し続ける(82)。ARコンテンツ設定が変わっているとアプリケーション・プロセッサ12が判定した場合(84のYES分岐)、アプリケーション・プロセッサ12および/またはディスプレイ・プロセッサ16は、修正されたARコンテンツ設定にしたがって、単一のピクチャをオーバレイするためにARコンテンツを更新する(86)。ARコンテンツを更新することは、ARコンテンツのあるタイプを追加すること、および/または、ARコンテンツのあるタイプを単一のピクチャから除去することを含みうる。いくつかのケースにおいて、アプリケーション・プロセッサ12は、シーンの追加のARコンテンツを、ARデータベース・サーバから要求しうる。ディスプレイ・プロセッサ16は、ARコンテンツが更新された後、オーバレイされた修正されたARコンテンツを備える単一のピクチャを、ディスプレイ18でユーザへ表示する(82)。
ユーザは、オーバレイされたARコンテンツを備える単一のピクチャが表示された後にARコンテンツ設定を修正することに加えて、アプリケーション・プロセッサ12に対して、単一のピクチャで表されるシーンの新たな光景を生成するために、単一のピクチャに対してゆっくり動かしたり、傾けたり、スクロールしたり、ズームする動作のうちの1または複数の実行するように要求する。アプリケーション・プロセッサ12は、イメージ効果が実行された後、ARコンテンツの追加、または、ARコンテンツの単一のピクチャからの除去、のうちの1つを実行することによって、単一のピクチャにおける新たな光景をオーバレイするためにARコンテンツを更新しうる。例えば、イメージ効果がズーム・イン効果であるケースでは、アプリケーション・プロセッサ12は、単一のピクチャで表わされるシーンの新たな光景のための追加のARコンテンツを、ARデータベース・サーバから要求しうる。このように、ユーザは、例えば、近隣全体のようなシーン全体に関する一般情報を見ることができうるが、その後、単一のピクチャにおけるそのエリアの表示にズーム・インすることによって、例えば単一のブロックまたは単一のビジネスのようなシーンの特定のエリアに関するさらなる詳細情報を見ることができる。
1または複数の例では、記載された機能は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの任意の組み合わせで実現されうる。ソフトウェアで実現される場合、これら機能は、コンピュータ読取可能な媒体上に格納されるか、あるいは、コンピュータ読取可能な媒体上の1または複数の命令群またはコードとして送信されうる。コンピュータ読取可能な媒体は、コンピュータ・プログラムの1つの場所から別の場所への移動を容易にする任意の媒体を含むコンピュータ・データ記憶媒体または通信媒体を含みうる。いくつかの例において、コンピュータ読取可能な媒体は、非一時的なコンピュータ読取可能な媒体を備えうる。データ記憶媒体は、本開示において記述された技術を実施するための命令群、コード、および/または、データ構造を検索するために1または複数のコンピュータまたは1または複数のプロセッサによってアクセスされうる任意の利用可能な媒体でありうる。
限定ではなく、例として、このようなコンピュータ読取可能な媒体は、例えば、RAM、ROM、EEPROM、CD−ROMまたはその他の光ディスク記憶装置、またはその他の磁気記憶デバイス、フラッシュ・メモリ、または、命令群またはデータ構造の形態で所望のプログラム・コードを伝送または格納するために使用され、かつ、コンピュータによってアクセスされうるその他任意の媒体、のような非一時的な媒体を備えうる。さらに、いかなる接続も、コンピュータ読取可能な媒体として適切に称される。同軸ケーブル、光ファイバ・ケーブル、ツイスト・ペア、デジタル加入者線(DSL)、あるいは、例えば赤外線、無線およびマイクロ波のような無線技術を使用して、ウェブサイト、サーバ、あるいはその他の遠隔ソースからソフトウェアが送信される場合、同軸ケーブル、光ファイバ・ケーブル、ツイスト・ペア、DSL、あるいは、例えば赤外線、無線およびマイクロ波のような無線技術が、媒体の定義に含まれる。本明細書で使用されるディスク(diskおよびdisc)は、コンパクト・ディスク(disc)(CD)、レーザ・ディスク(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)、およびブルー・レイ・ディスク(disc)を含む。これらdiscは、レーザを用いてデータを光学的に再生する。それに対して、diskは、通常、データを磁気的に再生する。前述した組み合わせもまた、コンピュータ読取可能な媒体の範囲内に含まれるべきである。
このコードは、例えば、1または複数のデジタル信号プロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向けIC(ASIC)、フィールド・プログラマブル・ロジック・アレイ(FPGA)、またはその他の等価な統合またはディスクリートな論理回路のような1または複数のプロセッサによって実行されうる。したがって、本明細書で使用されているように、用語「プロセッサ」は、前述した構成、または、本明細書に記載された技術の実施のために適切なその他任意の構成のうちの何れかを称しうる。さらに、いくつかの態様では、本明細書に記載された機能は、エンコードおよびデコードのために構成された専用のハードウェアおよび/またはソフトウェア・モジュール内に適用されうるか、または、結合されたコーデック内に組み込まれうる。さらに、これら技術は、1または複数の回路または論理要素で完全に実現されうる。
本開示の技術は、無線ハンドセット、集積回路(IC)、またはICのセット(例えば、チップセット)を含む種々さまざまなデバイスまたは装置において実現されうる。さまざまな構成要素、モジュール、またはユニットは、本開示では、開示された技術を実行するように構成されたデバイスの機能態様を強調するように記載されているが、異なるハードウェア・ユニットによる実現を必ずしも必要とする訳ではない。むしろ、前述されたように、さまざまなユニットは、適切なソフトウェアおよび/またはハードウェアと連携する、前述されたような1または複数のプロセッサを含む共通のハードウェア・ユニットの集合によって提供されうるか、コーデック・ハードウェア・ユニットに結合されうる。
本発明のさまざまな実施形態が説明された。これらおよびその他の実施形態は、以下の特許請求の範囲のスコープ内である。
本発明のさまざまな実施形態が説明された。これらおよびその他の実施形態は、以下の特許請求の範囲のスコープ内である。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[1]無線通信デバイス(WCD)を用いて拡張現実感アプリケーションを実行する方法であって、
おのおのがシーンの一部を表わす複数のイメージ・フレームを、前記WCDのプロセッサを用いて受信することと、
前記複数のイメージ・フレームを、単一のピクチャに変換することと、ここで、前記単一のピクチャは、前記シーンを表わすためにともにステッチされる、前記複数のイメージ・フレームのうちの少なくとも一部を備える、
前記単一のピクチャにおいて表わされるシーンの拡張現実感(AR)コンテンツを、ARデータベース・サーバから要求することと、
前記ARデータベース・サーバから、前記単一のピクチャにおいて表わされるシーンのARコンテンツを受信することと、
前記ARコンテンツを処理し、前記WCDにおける表示のために、前記単一のピクチャをオーバレイすることと、
を備える方法。
[2]前記複数のイメージ・フレームは、前記シーンのビデオ・データの複数のビデオ・フレームおよび複数の静止画のうちの1つを備える、[1]に記載の方法。
[3]前記複数のイメージ・フレームを受信することは、
前記WCDに含まれたカメラでキャプチャされたイメージ・フレームを受信することと、
前記WCDの外部の記憶デバイスからイメージ・フレームを受信することと、
のうちの1または複数を備える、[1]に記載の方法。
[4]前記ARコンテンツを要求することは、前記イメージ・フレームの一部および前記単一のピクチャのうちの1つを、前記ARデータベース・サーバへ送信することを備える、[1]に記載の方法。
[5]前記複数のイメージ・フレームを単一のピクチャに変換することは、前記WCDのプロセッサを用いて、前記複数のイメージ・フレームのうちの一部をともにステッチし、前記単一のピクチャを生成することを備える、[1]に記載の方法。
[6]前記イメージ・データを単一のピクチャに変換することは、
前記複数のイメージ・フレームを遠隔サーバへ送信することと、
前記遠隔サーバに対して、前記複数のイメージ・フレームのうちの一部をともにステッチして、前記単一のピクチャを生成するように指示することと、
前記遠隔サーバから、前記単一のピクチャを受信することと
を備える、[1]に記載の方法。
[7]前記ARデータベース・サーバは、遠隔サーバを備える、[1]に記載の方法。
[8]前記単一のピクチャで表わされるシーンのARコンテンツ設定を、ユーザ入力に基づいて決定することと、
前記シーンのARコンテンツ設定を、前記ARデータベース・サーバへ送信することとをさらに備え、
前記ARコンテンツを受信することは、前記ARコンテンツ設定にしたがって、前記単一のピクチャで表わされるシーンのARコンテンツを、前記ARデータベース・サーバから受信することを備える、[1]に記載の方法。
[9]前記ARコンテンツ設定を決定することは、前記シーンのために、前記ARデータベース・サーバから受信するARコンテンツの1または複数のタイプを示すユーザ入力を受信することを備える、[8]に記載の方法。
[10]前記ARコンテンツ設定を決定することは、前記シーンのために、前記ARデータベース・サーバから受信するARコンテンツの量を示すユーザ入力を受信することを備える、[8]に記載の方法。
[11]前記ARコンテンツ設定を決定することは、前記シーンのためのARコンテンツを前記ARデータベース・サーバから受信する時刻を示すユーザ入力を受信することを備える、[8]に記載の方法。
[12]前記シーンのためのARコンテンツ設定に対する修正を示すユーザ入力を受信することと、
前記修正されたARコンテンツ設定にしたがって、前記ARコンテンツを更新し、前記単一のピクチャをオーバレイすることとをさらに備え、
前記ARコンテンツを更新することは、前記ARコンテンツを追加すること、または、前記ARコンテンツを前記単一のピクチャから除去すること、のうちの1つを備える、[8]に記載の方法。
[13]ゆっくり動かす動作、傾ける動作、スクロールする動作、およびズームする動作のうちの1または複数を、前記単一のピクチャに対して実行し、前記単一のピクチャにおいて表わされるシーンの新たなビューを生成することと、
前記ARコンテンツを更新し、前記単一のピクチャに、前記新たなビューをオーバレイすることとをさらに備え、
前記ARコンテンツを更新することは、前記ARコンテンツを追加すること、または、前記ARコンテンツを前記単一のピクチャから除去すること、のうちの1つを備える、をさらに備える[1]に記載の方法。
[14]前記単一のピクチャで表わされるシーンの追加のARコンテンツを、前記ARデータベース・サーバから要求することと、
前記WCDにおける表示のために、既存のARコンテンツに加えて前記単一のピクチャをオーバレイするために、前記追加のARコンテンツを処理することと、
をさらに備える[1]に記載の方法。
[15]前記ARコンテンツを受信することは、前記単一のピクチャで表わされるシーンのARコンテンツを、前記ARデータベース・サーバから漸次的に受信することを備え、
前記ARコンテンツを処理し、前記単一のピクチャをオーバレイすることは、
前記ARコンテンツが前記ARデータベース・サーバから受信されると、前記ARコンテンツを前記単一のピクチャへ漸次的に追加すること
を備える、[1]に記載の方法。
[16]前記シーンの一部を表わす複数のイメージ・フレームのおのおのの位置情報および遠近情報を、1または複数のセンサから受信することと、
前記シーンの少なくとも一部の位置情報および遠近情報を、前記ARデータベース・サーバへ送信することとをさらに備え、
前記ARコンテンツを受信することは、前記シーンの一部の位置情報および遠近情報に少なくとも部分的に基づいて、前記単一のピクチャで表わされるシーンの一部のARコンテンツを、前記ARデータベース・サーバから受信することを備える、[1]に記載の方法。
[17]前記ARコンテンツを受信することは、
前記単一のピクチャで表わされるシーンのARコンテンツを示すテキストおよびグラフィックのうちの1または複数を、前記ARデータベース・サーバから受信することと、
前記単一のピクチャに対応するテキストおよびグラフィックの位置情報を、前記ARデータベース・サーバから受信することと
をさらに備える、[1]に記載の方法。
[18]前記ARコンテンツを受信することは、前記単一のピクチャで表わされるシーンと、前記シーンの以前のピクチャとの差分を示す、前記単一のピクチャに表わされるシーンのARコンテンツを、前記ARデータベース・サーバから受信することをさらに備える、[1]に記載の方法。
[19]拡張現実感アプリケーションを実行するための無線通信デバイス(WCD)であって、
イメージ・データを格納するためのメモリと、
おのおのがシーンの一部を表わす複数のイメージ・フレームを受信することと、
前記複数のイメージ・フレームを単一のピクチャに変換することと、ここで、前記単一のピクチャは、前記シーンを表わすためにともにステッチされる、前記複数のイメージ・フレームのうちの少なくとも一部を備える、
前記単一のピクチャにおいて表わされるシーンの拡張現実感(AR)コンテンツを、ARデータベース・サーバから要求することと、
前記ARデータベース・サーバから、前記単一のピクチャにおいて表されるシーンのARコンテンツを受信することと、
前記ARコンテンツを処理し、前記単一のピクチャをオーバレイすることと
を実行するように構成されたプロセッサと、
前記オーバレイされたARコンテンツを備える単一のピクチャを、前記WCDのユーザへ表示するためのディスプレイと、
を備える無線通信デバイス。
[20]前記複数のイメージ・フレームは、前記シーンのビデオ・データの複数のビデオ・フレームおよび複数の静止画のうちの1つを備える、[19]に記載の無線通信デバイス。
[21]前記WCDに含まれ、イメージ・フレームをキャプチャするためのカメラをさらに備え、
前記プロセッサは、前記複数のイメージ・フレームを、前記WCDに含まれるカメラおよび前記WCDの外部の記憶デバイスのうちの1または複数から受信する、[19]に記載の無線通信デバイス。
[22]送信機をさらに備え、
前記プロセッサは、前記シーンのARコンテンツを要求するために、前記送信機によって、前記ARデータベース・サーバへ、前記複数のイメージ・フレームの一部および前記単一のピクチャのうちの1つを送信する、[19]に記載の無線通信デバイス。
[23]前記プロセッサは、前記複数のイメージ・フレームの一部をともにステッチして、前記単一のピクチャを生成する、[19]に記載の無線通信デバイス。
[24]送信機と受信機とをさらに備え、
前記プロセッサは、
前記複数のイメージ・フレームを前記送信機によって遠隔サーバへ送信し、
前記遠隔サーバに対して、前記複数のイメージ・フレームのうちの一部をともにステッチして、前記単一のピクチャを生成するように指示し、
前記受信機によって、前記遠隔サーバから、前記単一のピクチャを受信する、
[19]に記載の無線通信デバイス。
[25]前記ARデータベース・サーバは、遠隔サーバを備える、[19]に記載の無線通信デバイス。
[26]前記プロセッサは、
前記単一のピクチャで表わされるシーンのARコンテンツ設定を、ユーザ入力に基づいて決定し、
前記シーンのARコンテンツ設定を、前記ARデータベース・サーバへ送信し、
前記ARコンテンツ設定にしたがって、前記単一のピクチャで表わされるシーンのARコンテンツを、前記ARデータベース・サーバから受信する、
[19]に記載の無線通信デバイス。
[27]前記プロセッサは、前記シーンのために、前記ARデータベース・サーバから受信するARコンテンツの1または複数のタイプを示すユーザ入力を受信する、[26]に記載の無線通信デバイス。
[28]前記プロセッサは、前記シーンのために、前記ARデータベース・サーバから受信するARコンテンツの量を示すユーザ入力を受信する、[26]に記載の無線通信デバイス。
[29]前記プロセッサは、前記シーンのためのARコンテンツを前記ARデータベース・サーバから受信する時刻を示すユーザ入力を受信する、[26]に記載の無線通信デバイス。
[30]前記プロセッサは、
前記シーンのためのARコンテンツ設定に対する修正を示すユーザ入力を受信し、
前記修正されたARコンテンツ設定にしたがって、前記ARコンテンツを更新し、前記単一のピクチャをオーバレイし、
ここで、前記ARコンテンツを更新することは、前記ARコンテンツを追加すること、または、前記ARコンテンツを前記単一のピクチャから除去すること、のうちの1つを備える、[26]に記載の無線通信デバイス。
[31]前記プロセッサは、
ゆっくり動かす動作、傾ける動作、スクロールする動作、およびズームする動作のうちの1または複数を、前記単一のピクチャに対して実行し、前記単一のピクチャにおいて表わされるシーンの新たなビューを生成し、
前記ARコンテンツを更新し、前記単一のピクチャに、前記新たなビューをオーバレイし、
ここで、前記ARコンテンツを更新することは、前記ARコンテンツを追加すること、または、前記ARコンテンツを前記単一のピクチャから除去すること、のうちの1つを備える、[19]に記載の無線通信デバイス。
[32]前記プロセッサは、
前記単一のピクチャで表わされるシーンの追加のARコンテンツを、前記ARデータベース・サーバから要求し、
前記WCDにおける表示のために、既存のARコンテンツに加えて前記単一のピクチャをオーバレイするために、前記追加のARコンテンツを処理する、[19]に記載の無線通信デバイス。
[33]前記プロセッサは、
前記単一のピクチャで表わされるシーンのARコンテンツを、前記ARデータベース・サーバから漸次的に受信し、
前記ARコンテンツが前記ARデータベース・サーバから受信されると、前記ARコンテンツを前記単一のピクチャへ漸次的に追加する、[19]に記載の無線通信デバイス。
[34]前記プロセッサは、
前記シーンの一部を表わす複数のイメージ・フレームのおのおのの位置情報および遠近情報を、1または複数のセンサから受信し、
前記シーンの少なくとも一部の位置情報および遠近情報を、前記ARデータベース・サーバへ送信し、
前記シーンの一部の位置情報および遠近情報に少なくとも部分的に基づいて、前記単一のピクチャで表わされるシーンの一部のARコンテンツを、前記ARデータベース・サーバから受信する、[19]に記載の無線通信デバイス。
[35]前記プロセッサは、
前記単一のピクチャで表わされるシーンのARコンテンツを表わすテキストおよびグラフィックのうちの1または複数を、前記ARデータベース・サーバから受信し、
前記単一のピクチャに対応するテキストおよびグラフィックの位置情報を、前記ARデータベース・サーバから受信する、[19]に記載の無線通信デバイス。
[36]前記プロセッサは、前記単一のピクチャで表わされるシーンと、前記シーンの以前のピクチャとの差分を示す、前記単一のピクチャに表わされるシーンのARコンテンツを、前記ARデータベース・サーバから受信する、[19]に記載の無線通信デバイス。
[37]拡張現実感アプリケーションを実行するための無線通信デバイス(WCD)であって、
おのおのがシーンの一部を表わす複数のイメージ・フレームを受信する手段と、
前記複数のイメージ・フレームを単一のピクチャに変換する手段と、ここで、前記単一のピクチャは、前記シーンを表わすためにともにステッチされる、前記複数のイメージ・フレームのうちの少なくとも一部を備える、
前記単一のピクチャにおいて表わされるシーンの拡張現実感(AR)コンテンツを、ARデータベース・サーバから要求する手段と、
前記ARデータベース・サーバから、前記単一のピクチャにおいて表されるシーンのARコンテンツを受信する手段と、
前記ARコンテンツを処理し、前記WCDにおける表示のために、前記単一のピクチャをオーバレイする手段と、
を備える無線通信デバイス。
[38]前記複数のイメージ・フレームを単一のピクチャに変換する手段は、前記複数のイメージ・フレームのうちの一部をともにステッチし、前記単一のピクチャを生成する手段を備える、[37]に記載の無線通信デバイス。
[39]前記イメージ・データを単一のピクチャに変換する手段は、
前記複数のイメージ・フレームを遠隔サーバへ送信する手段と、
前記遠隔サーバに対して、前記複数のイメージ・フレームのうちの一部をともにステッチして、前記単一のピクチャを生成するように指示する手段と、
前記遠隔サーバから、前記単一のピクチャを受信する手段とを備える、[37]に記載の無線通信デバイス。
[40]前記単一のピクチャで表わされるシーンのARコンテンツ設定を、ユーザ入力に基づいて決定する手段と、
前記シーンのARコンテンツ設定を、前記ARデータベース・サーバへ送信する手段と、
前記ARコンテンツ設定にしたがって、前記単一のピクチャで表わされるシーンのARコンテンツを、前記ARデータベース・サーバから受信する手段と、
さらに備える[37]に記載の無線通信デバイス。
[41]前記シーンのためのARコンテンツ設定に対する修正を示すユーザ入力を受信する手段と、
前記修正されたARコンテンツ設定にしたがって、前記ARコンテンツを更新し、前記単一のピクチャをオーバレイする手段とをさらに備え、
前記ARコンテンツを更新することは、前記ARコンテンツを追加すること、または、前記ARコンテンツを前記単一のピクチャから除去すること、のうちの1つを備える、[40]に記載の無線通信デバイス。
[42]ゆっくり動かす動作、傾ける動作、スクロールする動作、およびズームする動作のうちの1または複数を、前記単一のピクチャに対して実行し、前記単一のピクチャにおいて表わされるシーンの新たなビューを生成する手段と、
前記ARコンテンツを更新し、前記単一のピクチャに、前記新たなビューをオーバレイする手段とをさらに備え、
前記ARコンテンツを更新することは、前記ARコンテンツを追加すること、または、前記ARコンテンツを前記単一のピクチャから除去すること、のうちの1つを備える、[37]に記載の無線通信デバイス。
[43]前記単一のピクチャで表わされるシーンのARコンテンツを、前記ARデータベース・サーバから漸次的に受信する手段と、
前記ARコンテンツが前記ARデータベース・サーバから受信されると、前記ARコンテンツを前記単一のピクチャへ漸次的に追加する手段と、
をさらに備える[37]に記載の無線通信デバイス。
[44]無線通信デバイス(WCD)において実行された場合、1または複数のプログラム可能なプロセッサに対して以下の処理を実行させる、拡張現実感アプリケーションを実行するための命令群を備えたコンピュータ読取可能な媒体であって、前記処理は、
おのおのがシーンの一部を表わす複数のイメージ・フレームを受信することと、
前記複数のイメージ・フレームを単一のピクチャに変換することと、ここで、前記単一のピクチャは、前記シーンを表わすためにともにステッチされる、前記複数のイメージ・フレームのうちの少なくとも一部を備える、
前記単一のピクチャにおいて表わされるシーンの拡張現実感(AR)コンテンツを、ARデータベース・サーバから要求することと、
前記ARデータベース・サーバから、前記単一のピクチャにおいて表されるシーンのARコンテンツを受信することと、
前記ARコンテンツを処理し、前記WCDにおいて表示するために、前記単一のピクチャをオーバレイすることと
を含む、コンピュータ読取可能な媒体。
[45]前記プロセッサに対して、前記複数のイメージ・フレームを単一のピクチャに変換させるための命令群はさらに、前記プロセッサに対して、前記複数のイメージ・フレームのうちの一部をともにステッチし、前記単一のピクチャを生成させることを備える、[44]に記載のコンピュータ読取可能な媒体。
[46]前記プロセッサに対して、前記複数のイメージ・フレームを単一のピクチャに変換させるための命令群はさらに、
前記プロセッサに対して、
前記複数のイメージ・フレームを遠隔サーバへ送信することと、
前記遠隔サーバに対して、前記複数のイメージ・フレームのうちの一部をともにステッチして、前記単一のピクチャを生成するように指示することと、
前記遠隔サーバから、前記単一のピクチャを受信することと
を実行させるための命令群を備える、[44]に記載のコンピュータ読取可能な媒体。
[47]前記プロセッサに対して、
前記単一のピクチャで表わされるシーンのARコンテンツ設定を、ユーザ入力に基づいて決定することと、
前記シーンのARコンテンツ設定を、前記ARデータベース・サーバへ送信することと、
前記ARコンテンツ設定にしたがって、前記単一のピクチャで表わされるシーンのARコンテンツを、前記ARデータベース・サーバから受信することと、
を実行させるための命令群をさらに備える、[44]に記載のコンピュータ読取可能な媒体。
[48]前記プロセッサに対して、
前記シーンのためのARコンテンツ設定に対する修正を示すユーザ入力を受信することと、
前記修正されたARコンテンツ設定にしたがって、前記ARコンテンツを更新し、前記単一のピクチャをオーバレイすることとを実行させるための命令群をさらに備え、
前記ARコンテンツを更新することは、前記ARコンテンツを追加すること、または、前記ARコンテンツを前記単一のピクチャから除去すること、のうちの1つを備える、[47]に記載のコンピュータ読取可能な媒体。
[49]前記プロセッサに対して、
ゆっくり動かす動作、傾ける動作、スクロールする動作、およびズームする動作のうちの1または複数を、前記単一のピクチャに対して実行し、前記単一のピクチャにおいて表わされるシーンの新たなビューを生成することと、
前記ARコンテンツを更新し、前記単一のピクチャに、前記新たなビューをオーバレイすることとを実行させるための命令群をさらに備え、
前記ARコンテンツを更新することは、前記ARコンテンツを追加すること、または、前記ARコンテンツを前記単一のピクチャから除去すること、のうちの1つを備える、[44]に記載のコンピュータ読取可能な媒体。
[50]前記命令群は、プロセッサに対して、
前記単一のピクチャで表わされるシーンのARコンテンツを、前記ARデータベース・サーバから漸次的に受信することと、
前記ARコンテンツが前記ARデータベース・サーバから受信されると、前記ARコンテンツを前記単一のピクチャへ漸次的に追加することと
を実行させる、[44]に記載のコンピュータ読取可能な媒体。

Claims (50)

  1. 無線通信デバイス(WCD)を用いて拡張現実感アプリケーションを実行する方法であって、
    おのおのがシーンの一部を表わす複数のイメージ・フレームを、前記WCDのプロセッサを用いて受信することと、
    前記複数のイメージ・フレームを、単一のピクチャに変換することと、ここで、前記単一のピクチャは、前記シーンを表わすためにともにステッチされる、前記複数のイメージ・フレームのうちの少なくとも一部を備える、
    前記単一のピクチャにおいて表わされるシーンの拡張現実感(AR)コンテンツを、ARデータベース・サーバから要求することと、
    前記ARデータベース・サーバから、前記単一のピクチャにおいて表わされるシーンのARコンテンツを受信することと、
    前記ARコンテンツを処理し、前記WCDにおける表示のために、前記単一のピクチャをオーバレイすることと、
    を備える方法。
  2. 前記複数のイメージ・フレームは、前記シーンのビデオ・データの複数のビデオ・フレームおよび複数の静止画のうちの1つを備える、請求項1に記載の方法。
  3. 前記複数のイメージ・フレームを受信することは、
    前記WCDに含まれたカメラでキャプチャされたイメージ・フレームを受信することと、
    前記WCDの外部の記憶デバイスからイメージ・フレームを受信することと、
    のうちの1または複数を備える、請求項1に記載の方法。
  4. 前記ARコンテンツを要求することは、前記イメージ・フレームの一部および前記単一のピクチャのうちの1つを、前記ARデータベース・サーバへ送信することを備える、請求項1に記載の方法。
  5. 前記複数のイメージ・フレームを単一のピクチャに変換することは、前記WCDのプロセッサを用いて、前記複数のイメージ・フレームのうちの一部をともにステッチし、前記単一のピクチャを生成することを備える、請求項1に記載の方法。
  6. 前記イメージ・データを単一のピクチャに変換することは、
    前記複数のイメージ・フレームを遠隔サーバへ送信することと、
    前記遠隔サーバに対して、前記複数のイメージ・フレームのうちの一部をともにステッチして、前記単一のピクチャを生成するように指示することと、
    前記遠隔サーバから、前記単一のピクチャを受信することと
    を備える、請求項1に記載の方法。
  7. 前記ARデータベース・サーバは、遠隔サーバを備える、請求項1に記載の方法。
  8. 前記単一のピクチャで表わされるシーンのARコンテンツ設定を、ユーザ入力に基づいて決定することと、
    前記シーンのARコンテンツ設定を、前記ARデータベース・サーバへ送信することとをさらに備え、
    前記ARコンテンツを受信することは、前記ARコンテンツ設定にしたがって、前記単一のピクチャで表わされるシーンのARコンテンツを、前記ARデータベース・サーバから受信することを備える、請求項1に記載の方法。
  9. 前記ARコンテンツ設定を決定することは、前記シーンのために、前記ARデータベース・サーバから受信するARコンテンツの1または複数のタイプを示すユーザ入力を受信することを備える、請求項8に記載の方法。
  10. 前記ARコンテンツ設定を決定することは、前記シーンのために、前記ARデータベース・サーバから受信するARコンテンツの量を示すユーザ入力を受信することを備える、請求項8に記載の方法。
  11. 前記ARコンテンツ設定を決定することは、前記シーンのためのARコンテンツを前記ARデータベース・サーバから受信する時刻を示すユーザ入力を受信することを備える、請求項8に記載の方法。
  12. 前記シーンのためのARコンテンツ設定に対する修正を示すユーザ入力を受信することと、
    前記修正されたARコンテンツ設定にしたがって、前記ARコンテンツを更新し、前記単一のピクチャをオーバレイすることとをさらに備え、
    前記ARコンテンツを更新することは、前記ARコンテンツを追加すること、または、前記ARコンテンツを前記単一のピクチャから除去すること、のうちの1つを備える、請求項8に記載の方法。
  13. ゆっくり動かす動作、傾ける動作、スクロールする動作、およびズームする動作のうちの1または複数を、前記単一のピクチャに対して実行し、前記単一のピクチャにおいて表わされるシーンの新たなビューを生成することと、
    前記ARコンテンツを更新し、前記単一のピクチャに、前記新たなビューをオーバレイすることとをさらに備え、
    前記ARコンテンツを更新することは、前記ARコンテンツを追加すること、または、前記ARコンテンツを前記単一のピクチャから除去すること、のうちの1つを備える、をさらに備える請求項1に記載の方法。
  14. 前記単一のピクチャで表わされるシーンの追加のARコンテンツを、前記ARデータベース・サーバから要求することと、
    前記WCDにおける表示のために、既存のARコンテンツに加えて前記単一のピクチャをオーバレイするために、前記追加のARコンテンツを処理することと、
    をさらに備える請求項1に記載の方法。
  15. 前記ARコンテンツを受信することは、前記単一のピクチャで表わされるシーンのARコンテンツを、前記ARデータベース・サーバから漸次的に受信することを備え、
    前記ARコンテンツを処理し、前記単一のピクチャをオーバレイすることは、
    前記ARコンテンツが前記ARデータベース・サーバから受信されると、前記ARコンテンツを前記単一のピクチャへ漸次的に追加すること
    を備える、請求項1に記載の方法。
  16. 前記シーンの一部を表わす複数のイメージ・フレームのおのおのの位置情報および遠近情報を、1または複数のセンサから受信することと、
    前記シーンの少なくとも一部の位置情報および遠近情報を、前記ARデータベース・サーバへ送信することとをさらに備え、
    前記ARコンテンツを受信することは、前記シーンの一部の位置情報および遠近情報に少なくとも部分的に基づいて、前記単一のピクチャで表わされるシーンの一部のARコンテンツを、前記ARデータベース・サーバから受信することを備える、請求項1に記載の方法。
  17. 前記ARコンテンツを受信することは、
    前記単一のピクチャで表わされるシーンのARコンテンツを示すテキストおよびグラフィックのうちの1または複数を、前記ARデータベース・サーバから受信することと、
    前記単一のピクチャに対応するテキストおよびグラフィックの位置情報を、前記ARデータベース・サーバから受信することと
    をさらに備える、請求項1に記載の方法。
  18. 前記ARコンテンツを受信することは、前記単一のピクチャで表わされるシーンと、前記シーンの以前のピクチャとの差分を示す、前記単一のピクチャに表わされるシーンのARコンテンツを、前記ARデータベース・サーバから受信することをさらに備える、請求項1に記載の方法。
  19. 拡張現実感アプリケーションを実行するための無線通信デバイス(WCD)であって、
    イメージ・データを格納するためのメモリと、
    おのおのがシーンの一部を表わす複数のイメージ・フレームを受信することと、
    前記複数のイメージ・フレームを単一のピクチャに変換することと、ここで、前記単一のピクチャは、前記シーンを表わすためにともにステッチされる、前記複数のイメージ・フレームのうちの少なくとも一部を備える、
    前記単一のピクチャにおいて表わされるシーンの拡張現実感(AR)コンテンツを、ARデータベース・サーバから要求することと、
    前記ARデータベース・サーバから、前記単一のピクチャにおいて表されるシーンのARコンテンツを受信することと、
    前記ARコンテンツを処理し、前記単一のピクチャをオーバレイすることと
    を実行するように構成されたプロセッサと、
    前記オーバレイされたARコンテンツを備える単一のピクチャを、前記WCDのユーザへ表示するためのディスプレイと、
    を備える無線通信デバイス。
  20. 前記複数のイメージ・フレームは、前記シーンのビデオ・データの複数のビデオ・フレームおよび複数の静止画のうちの1つを備える、請求項19に記載の無線通信デバイス。
  21. 前記WCDに含まれ、イメージ・フレームをキャプチャするためのカメラをさらに備え、
    前記プロセッサは、前記複数のイメージ・フレームを、前記WCDに含まれるカメラおよび前記WCDの外部の記憶デバイスのうちの1または複数から受信する、請求項19に記載の無線通信デバイス。
  22. 送信機をさらに備え、
    前記プロセッサは、前記シーンのARコンテンツを要求するために、前記送信機によって、前記ARデータベース・サーバへ、前記複数のイメージ・フレームの一部および前記単一のピクチャのうちの1つを送信する、請求項19に記載の無線通信デバイス。
  23. 前記プロセッサは、前記複数のイメージ・フレームの一部をともにステッチして、前記単一のピクチャを生成する、請求項19に記載の無線通信デバイス。
  24. 送信機と受信機とをさらに備え、
    前記プロセッサは、
    前記複数のイメージ・フレームを前記送信機によって遠隔サーバへ送信し、
    前記遠隔サーバに対して、前記複数のイメージ・フレームのうちの一部をともにステッチして、前記単一のピクチャを生成するように指示し、
    前記受信機によって、前記遠隔サーバから、前記単一のピクチャを受信する、
    請求項19に記載の無線通信デバイス。
  25. 前記ARデータベース・サーバは、遠隔サーバを備える、請求項19に記載の無線通信デバイス。
  26. 前記プロセッサは、
    前記単一のピクチャで表わされるシーンのARコンテンツ設定を、ユーザ入力に基づいて決定し、
    前記シーンのARコンテンツ設定を、前記ARデータベース・サーバへ送信し、
    前記ARコンテンツ設定にしたがって、前記単一のピクチャで表わされるシーンのARコンテンツを、前記ARデータベース・サーバから受信する、
    請求項19に記載の無線通信デバイス。
  27. 前記プロセッサは、前記シーンのために、前記ARデータベース・サーバから受信するARコンテンツの1または複数のタイプを示すユーザ入力を受信する、請求項26に記載の無線通信デバイス。
  28. 前記プロセッサは、前記シーンのために、前記ARデータベース・サーバから受信するARコンテンツの量を示すユーザ入力を受信する、請求項26に記載の無線通信デバイス。
  29. 前記プロセッサは、前記シーンのためのARコンテンツを前記ARデータベース・サーバから受信する時刻を示すユーザ入力を受信する、請求項26に記載の無線通信デバイス。
  30. 前記プロセッサは、
    前記シーンのためのARコンテンツ設定に対する修正を示すユーザ入力を受信し、
    前記修正されたARコンテンツ設定にしたがって、前記ARコンテンツを更新し、前記単一のピクチャをオーバレイし、
    ここで、前記ARコンテンツを更新することは、前記ARコンテンツを追加すること、または、前記ARコンテンツを前記単一のピクチャから除去すること、のうちの1つを備える、請求項26に記載の無線通信デバイス。
  31. 前記プロセッサは、
    ゆっくり動かす動作、傾ける動作、スクロールする動作、およびズームする動作のうちの1または複数を、前記単一のピクチャに対して実行し、前記単一のピクチャにおいて表わされるシーンの新たなビューを生成し、
    前記ARコンテンツを更新し、前記単一のピクチャに、前記新たなビューをオーバレイし、
    ここで、前記ARコンテンツを更新することは、前記ARコンテンツを追加すること、または、前記ARコンテンツを前記単一のピクチャから除去すること、のうちの1つを備える、請求項19に記載の無線通信デバイス。
  32. 前記プロセッサは、
    前記単一のピクチャで表わされるシーンの追加のARコンテンツを、前記ARデータベース・サーバから要求し、
    前記WCDにおける表示のために、既存のARコンテンツに加えて前記単一のピクチャをオーバレイするために、前記追加のARコンテンツを処理する、請求項19に記載の無線通信デバイス。
  33. 前記プロセッサは、
    前記単一のピクチャで表わされるシーンのARコンテンツを、前記ARデータベース・サーバから漸次的に受信し、
    前記ARコンテンツが前記ARデータベース・サーバから受信されると、前記ARコンテンツを前記単一のピクチャへ漸次的に追加する、請求項19に記載の無線通信デバイス。
  34. 前記プロセッサは、
    前記シーンの一部を表わす複数のイメージ・フレームのおのおのの位置情報および遠近情報を、1または複数のセンサから受信し、
    前記シーンの少なくとも一部の位置情報および遠近情報を、前記ARデータベース・サーバへ送信し、
    前記シーンの一部の位置情報および遠近情報に少なくとも部分的に基づいて、前記単一のピクチャで表わされるシーンの一部のARコンテンツを、前記ARデータベース・サーバから受信する、請求項19に記載の無線通信デバイス。
  35. 前記プロセッサは、
    前記単一のピクチャで表わされるシーンのARコンテンツを表わすテキストおよびグラフィックのうちの1または複数を、前記ARデータベース・サーバから受信し、
    前記単一のピクチャに対応するテキストおよびグラフィックの位置情報を、前記ARデータベース・サーバから受信する、請求項19に記載の無線通信デバイス。
  36. 前記プロセッサは、前記単一のピクチャで表わされるシーンと、前記シーンの以前のピクチャとの差分を示す、前記単一のピクチャに表わされるシーンのARコンテンツを、前記ARデータベース・サーバから受信する、請求項19に記載の無線通信デバイス。
  37. 拡張現実感アプリケーションを実行するための無線通信デバイス(WCD)であって、
    おのおのがシーンの一部を表わす複数のイメージ・フレームを受信する手段と、
    前記複数のイメージ・フレームを単一のピクチャに変換する手段と、ここで、前記単一のピクチャは、前記シーンを表わすためにともにステッチされる、前記複数のイメージ・フレームのうちの少なくとも一部を備える、
    前記単一のピクチャにおいて表わされるシーンの拡張現実感(AR)コンテンツを、ARデータベース・サーバから要求する手段と、
    前記ARデータベース・サーバから、前記単一のピクチャにおいて表されるシーンのARコンテンツを受信する手段と、
    前記ARコンテンツを処理し、前記WCDにおける表示のために、前記単一のピクチャをオーバレイする手段と、
    を備える無線通信デバイス。
  38. 前記複数のイメージ・フレームを単一のピクチャに変換する手段は、前記複数のイメージ・フレームのうちの一部をともにステッチし、前記単一のピクチャを生成する手段を備える、請求項37に記載の無線通信デバイス。
  39. 前記イメージ・データを単一のピクチャに変換する手段は、
    前記複数のイメージ・フレームを遠隔サーバへ送信する手段と、
    前記遠隔サーバに対して、前記複数のイメージ・フレームのうちの一部をともにステッチして、前記単一のピクチャを生成するように指示する手段と、
    前記遠隔サーバから、前記単一のピクチャを受信する手段とを備える、請求項37に記載の無線通信デバイス。
  40. 前記単一のピクチャで表わされるシーンのARコンテンツ設定を、ユーザ入力に基づいて決定する手段と、
    前記シーンのARコンテンツ設定を、前記ARデータベース・サーバへ送信する手段と、
    前記ARコンテンツ設定にしたがって、前記単一のピクチャで表わされるシーンのARコンテンツを、前記ARデータベース・サーバから受信する手段と、
    さらに備える請求項37に記載の無線通信デバイス。
  41. 前記シーンのためのARコンテンツ設定に対する修正を示すユーザ入力を受信する手段と、
    前記修正されたARコンテンツ設定にしたがって、前記ARコンテンツを更新し、前記単一のピクチャをオーバレイする手段とをさらに備え、
    前記ARコンテンツを更新することは、前記ARコンテンツを追加すること、または、前記ARコンテンツを前記単一のピクチャから除去すること、のうちの1つを備える、請求項40に記載の無線通信デバイス。
  42. ゆっくり動かす動作、傾ける動作、スクロールする動作、およびズームする動作のうちの1または複数を、前記単一のピクチャに対して実行し、前記単一のピクチャにおいて表わされるシーンの新たなビューを生成する手段と、
    前記ARコンテンツを更新し、前記単一のピクチャに、前記新たなビューをオーバレイする手段とをさらに備え、
    前記ARコンテンツを更新することは、前記ARコンテンツを追加すること、または、前記ARコンテンツを前記単一のピクチャから除去すること、のうちの1つを備える、請求項37に記載の無線通信デバイス。
  43. 前記単一のピクチャで表わされるシーンのARコンテンツを、前記ARデータベース・サーバから漸次的に受信する手段と、
    前記ARコンテンツが前記ARデータベース・サーバから受信されると、前記ARコンテンツを前記単一のピクチャへ漸次的に追加する手段と、
    をさらに備える請求項37に記載の無線通信デバイス。
  44. 無線通信デバイス(WCD)において実行された場合、1または複数のプログラム可能なプロセッサに対して以下の処理を実行させる、拡張現実感アプリケーションを実行するための命令群を備えたコンピュータ読取可能な媒体であって、前記処理は、
    おのおのがシーンの一部を表わす複数のイメージ・フレームを受信することと、
    前記複数のイメージ・フレームを単一のピクチャに変換することと、ここで、前記単一のピクチャは、前記シーンを表わすためにともにステッチされる、前記複数のイメージ・フレームのうちの少なくとも一部を備える、
    前記単一のピクチャにおいて表わされるシーンの拡張現実感(AR)コンテンツを、ARデータベース・サーバから要求することと、
    前記ARデータベース・サーバから、前記単一のピクチャにおいて表されるシーンのARコンテンツを受信することと、
    前記ARコンテンツを処理し、前記WCDにおいて表示するために、前記単一のピクチャをオーバレイすることと
    を含む、コンピュータ読取可能な媒体。
  45. 前記プロセッサに対して、前記複数のイメージ・フレームを単一のピクチャに変換させるための命令群はさらに、前記プロセッサに対して、前記複数のイメージ・フレームのうちの一部をともにステッチし、前記単一のピクチャを生成させることを備える、請求項44に記載のコンピュータ読取可能な媒体。
  46. 前記プロセッサに対して、前記複数のイメージ・フレームを単一のピクチャに変換させるための命令群はさらに、
    前記プロセッサに対して、
    前記複数のイメージ・フレームを遠隔サーバへ送信することと、
    前記遠隔サーバに対して、前記複数のイメージ・フレームのうちの一部をともにステッチして、前記単一のピクチャを生成するように指示することと、
    前記遠隔サーバから、前記単一のピクチャを受信することと
    を実行させるための命令群を備える、請求項44に記載のコンピュータ読取可能な媒体。
  47. 前記プロセッサに対して、
    前記単一のピクチャで表わされるシーンのARコンテンツ設定を、ユーザ入力に基づいて決定することと、
    前記シーンのARコンテンツ設定を、前記ARデータベース・サーバへ送信することと、
    前記ARコンテンツ設定にしたがって、前記単一のピクチャで表わされるシーンのARコンテンツを、前記ARデータベース・サーバから受信することと、
    を実行させるための命令群をさらに備える、請求項44に記載のコンピュータ読取可能な媒体。
  48. 前記プロセッサに対して、
    前記シーンのためのARコンテンツ設定に対する修正を示すユーザ入力を受信することと、
    前記修正されたARコンテンツ設定にしたがって、前記ARコンテンツを更新し、前記単一のピクチャをオーバレイすることとを実行させるための命令群をさらに備え、
    前記ARコンテンツを更新することは、前記ARコンテンツを追加すること、または、前記ARコンテンツを前記単一のピクチャから除去すること、のうちの1つを備える、請求項47に記載のコンピュータ読取可能な媒体。
  49. 前記プロセッサに対して、
    ゆっくり動かす動作、傾ける動作、スクロールする動作、およびズームする動作のうちの1または複数を、前記単一のピクチャに対して実行し、前記単一のピクチャにおいて表わされるシーンの新たなビューを生成することと、
    前記ARコンテンツを更新し、前記単一のピクチャに、前記新たなビューをオーバレイすることとを実行させるための命令群をさらに備え、
    前記ARコンテンツを更新することは、前記ARコンテンツを追加すること、または、前記ARコンテンツを前記単一のピクチャから除去すること、のうちの1つを備える、請求項44に記載のコンピュータ読取可能な媒体。
  50. 前記命令群は、プロセッサに対して、
    前記単一のピクチャで表わされるシーンのARコンテンツを、前記ARデータベース・サーバから漸次的に受信することと、
    前記ARコンテンツが前記ARデータベース・サーバから受信されると、前記ARコンテンツを前記単一のピクチャへ漸次的に追加することと
    を実行させる、請求項44に記載のコンピュータ読取可能な媒体。
JP2014541073A 2011-11-08 2012-10-10 無線通信デバイスのためのハンズ・フリー拡張現実感 Expired - Fee Related JP5869140B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201161557265P 2011-11-08 2011-11-08
US61/557,265 2011-11-08
US13/536,543 US9171384B2 (en) 2011-11-08 2012-06-28 Hands-free augmented reality for wireless communication devices
US13/536,543 2012-06-28
PCT/US2012/059584 WO2013070375A1 (en) 2011-11-08 2012-10-10 Hands-free augmented reality for wireless communication devices

Publications (2)

Publication Number Publication Date
JP2015504550A true JP2015504550A (ja) 2015-02-12
JP5869140B2 JP5869140B2 (ja) 2016-02-24

Family

ID=48223405

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014541073A Expired - Fee Related JP5869140B2 (ja) 2011-11-08 2012-10-10 無線通信デバイスのためのハンズ・フリー拡張現実感

Country Status (7)

Country Link
US (1) US9171384B2 (ja)
EP (1) EP2777021B1 (ja)
JP (1) JP5869140B2 (ja)
KR (1) KR101617111B1 (ja)
CN (2) CN107958490B (ja)
IN (1) IN2014CN03487A (ja)
WO (1) WO2013070375A1 (ja)

Families Citing this family (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110221771A1 (en) * 2010-03-12 2011-09-15 Cramer Donald M Merging of Grouped Markers in An Augmented Reality-Enabled Distribution Network
AU2012306059A1 (en) 2011-09-08 2014-03-27 Paofit Holdings Pte Ltd System and method for visualizing synthetic objects withinreal-world video clip
JP5751430B2 (ja) * 2012-12-19 2015-07-22 コニカミノルタ株式会社 画像処理端末、画像処理システム、および画像処理端末の制御プログラム
US9547917B2 (en) * 2013-03-14 2017-01-17 Paypay, Inc. Using augmented reality to determine information
WO2014169066A1 (en) 2013-04-09 2014-10-16 Thermal Imaging Radar, LLC Fire detection system
US9685896B2 (en) 2013-04-09 2017-06-20 Thermal Imaging Radar, LLC Stepper motor control and fire detection system
WO2014185885A1 (en) 2013-05-13 2014-11-20 Empire Technology Development, Llc Line of sight initiated handshake
US9454848B2 (en) * 2013-05-20 2016-09-27 Nokia Technologies Oy Image enhancement using a multi-dimensional model
EP3030935B1 (en) 2013-08-09 2020-11-18 Thermal Imaging Radar LLC Methods for analyzing thermal image data using a plurality of virtual devices and methods for correlating depth values to image pixels
KR102206060B1 (ko) * 2013-11-19 2021-01-21 삼성전자주식회사 전자 장치의 효과 디스플레이 방법 및 그 전자 장치
US10086271B2 (en) 2013-11-25 2018-10-02 Facebook, Inc. Control device for controlling a camera arrangement and a method for controlling an augumented reality application program of the camera arrangement
KR101598921B1 (ko) * 2014-02-18 2016-03-02 홍익대학교 산학협력단 공간 축척을 초월한 영상 촬영 시스템 및 방법
WO2015160828A1 (en) 2014-04-15 2015-10-22 Huntington Ingalls Incorporated System and method for augmented reality display of dynamic environment information
WO2015164755A1 (en) 2014-04-25 2015-10-29 Huntington Ingalls Incorporated Augmented reality display of dynamic target object information
US9864909B2 (en) 2014-04-25 2018-01-09 Huntington Ingalls Incorporated System and method for using augmented reality display in surface treatment procedures
US10147234B2 (en) 2014-06-09 2018-12-04 Huntington Ingalls Incorporated System and method for augmented reality display of electrical system information
US10504294B2 (en) 2014-06-09 2019-12-10 Huntington Ingalls Incorporated System and method for augmented reality discrepancy determination and reporting
US10915754B2 (en) 2014-06-09 2021-02-09 Huntington Ingalls Incorporated System and method for use of augmented reality in outfitting a dynamic structural space
WO2016011149A1 (en) 2014-07-16 2016-01-21 Huntington Ingalls Incorporated System and method for augmented reality display of hoisting and rigging information
WO2016025585A1 (en) * 2014-08-13 2016-02-18 Huntington Ingalls Incorporated System and method for using augmented reality display in surface treatment procedures
US10291597B2 (en) 2014-08-14 2019-05-14 Cisco Technology, Inc. Sharing resources across multiple devices in online meetings
KR102276847B1 (ko) * 2014-09-23 2021-07-14 삼성전자주식회사 가상 오브젝트 제공 방법 및 그 전자 장치
KR102278882B1 (ko) * 2014-10-07 2021-07-20 십일번가 주식회사 동적 화면 전환을 기반으로 한 상품 판매 서비스 장치, 동적 화면 전환을 기반으로 한 상품 판매 시스템, 동적 화면 전환을 기반으로 한 상품을 판매하는 방법 및 컴퓨터 프로그램이 기록된 기록매체
US9659410B2 (en) * 2014-10-21 2017-05-23 Honeywell International Inc. Low latency augmented reality display
CN104376118B (zh) * 2014-12-03 2018-02-16 北京理工大学 基于全景图的精确标注兴趣点的户外移动增强现实方法
US10542126B2 (en) 2014-12-22 2020-01-21 Cisco Technology, Inc. Offline virtual participation in an online conference meeting
US20160196693A1 (en) * 2015-01-06 2016-07-07 Seiko Epson Corporation Display system, control method for display device, and computer program
MX368852B (es) 2015-03-31 2019-10-18 Thermal Imaging Radar Llc Configuración de diferentes sensibilidades de modelos de fondo mediante regiones definidas por el usuario y filtros de fondo.
USD776181S1 (en) 2015-04-06 2017-01-10 Thermal Imaging Radar, LLC Camera
US9948786B2 (en) 2015-04-17 2018-04-17 Cisco Technology, Inc. Handling conferences using highly-distributed agents
WO2016187483A1 (en) * 2015-05-20 2016-11-24 Brian Mullins Light-based radar system for augmented reality
KR101613287B1 (ko) * 2015-06-15 2016-04-19 김영덕 3d 파노라마 영상을 근거로 한 여행지 원스톱 쇼핑 시스템 및 그의 제어 방법
US9704298B2 (en) * 2015-06-23 2017-07-11 Paofit Holdings Pte Ltd. Systems and methods for generating 360 degree mixed reality environments
KR102517104B1 (ko) * 2016-02-17 2023-04-04 삼성전자주식회사 가상 현실 시스템에서 이미지 처리 방법 및 장치
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
CN106250187A (zh) * 2016-07-29 2016-12-21 宇龙计算机通信科技(深圳)有限公司 一种增强现实ar的信息处理方法、装置及系统
US10592867B2 (en) 2016-11-11 2020-03-17 Cisco Technology, Inc. In-meeting graphical user interface display using calendar information and system
US20180150931A1 (en) * 2016-11-29 2018-05-31 Caterpillar Inc. Screen zoom feature for augmented reality applications
US9961302B1 (en) * 2016-12-13 2018-05-01 Cisco Technology, Inc. Video conference annotation
US10516707B2 (en) 2016-12-15 2019-12-24 Cisco Technology, Inc. Initiating a conferencing meeting using a conference room device
US10878474B1 (en) * 2016-12-30 2020-12-29 Wells Fargo Bank, N.A. Augmented reality real-time product overlays using user interests
US10440073B2 (en) 2017-04-11 2019-10-08 Cisco Technology, Inc. User interface for proximity based teleconference transfer
EP3388929A1 (en) * 2017-04-14 2018-10-17 Facebook, Inc. Discovering augmented reality elements in a camera viewfinder display
US10375125B2 (en) 2017-04-27 2019-08-06 Cisco Technology, Inc. Automatically joining devices to a video conference
US10375474B2 (en) 2017-06-12 2019-08-06 Cisco Technology, Inc. Hybrid horn microphone
US10477148B2 (en) 2017-06-23 2019-11-12 Cisco Technology, Inc. Speaker anticipation
US10516709B2 (en) 2017-06-29 2019-12-24 Cisco Technology, Inc. Files automatically shared at conference initiation
US10706391B2 (en) 2017-07-13 2020-07-07 Cisco Technology, Inc. Protecting scheduled meeting in physical room
US10091348B1 (en) 2017-07-25 2018-10-02 Cisco Technology, Inc. Predictive model for voice/video over IP calls
US10574886B2 (en) 2017-11-02 2020-02-25 Thermal Imaging Radar, LLC Generating panoramic video for video management systems
US11315337B2 (en) 2018-05-23 2022-04-26 Samsung Electronics Co., Ltd. Method and apparatus for managing content in augmented reality system
CN112424536A (zh) * 2018-05-29 2021-02-26 贝利莫控股公司 一种用于控制建筑物中hvac部件的方法和移动通信设备
CN108877311A (zh) * 2018-06-25 2018-11-23 南阳理工学院 一种基于增强现实技术的英语学习系统
CN109063039A (zh) * 2018-07-17 2018-12-21 高新兴科技集团股份有限公司 一种基于移动端的视频地图动态标签显示方法及系统
CN109191369B (zh) 2018-08-06 2023-05-05 三星电子(中国)研发中心 2d图片集转3d模型的方法、存储介质和装置
US11394848B2 (en) * 2018-12-24 2022-07-19 Thinkware Corporation Electronic device and operation method thereof, and server and operation method thereof in system for providing location-based service based on object detected from video
CN109814709A (zh) * 2018-12-27 2019-05-28 北京航天智造科技发展有限公司 基于ar系统的操作指导方法及装置
US10970578B2 (en) * 2019-02-07 2021-04-06 Johnson Controls Fire Protection LP System and method for extracting information from a non-planar surface
US11011055B2 (en) * 2019-03-21 2021-05-18 Verizon Patent And Licensing Inc. Collecting movement analytics using augmented reality
US10944921B2 (en) 2019-03-27 2021-03-09 Rovi Guides, Inc. Replacing a background portion of an image
US10887531B2 (en) 2019-03-27 2021-01-05 Rovi Guides, Inc. Replacing a background portion of an image
US11025837B2 (en) 2019-03-27 2021-06-01 ROVl GUIDES, INC. Replacing a background portion of an image
KR102637416B1 (ko) * 2019-10-30 2024-02-16 엘지전자 주식회사 Xr 디바이스 및 그 제어 방법
US11601605B2 (en) 2019-11-22 2023-03-07 Thermal Imaging Radar, LLC Thermal imaging camera device
KR20220039110A (ko) 2020-09-21 2022-03-29 삼성전자주식회사 증강 현실 시스템 및 그 생성 방법
KR102442359B1 (ko) * 2021-03-10 2022-09-13 한국도로공사 증강현실기반 교량 유지관리방법
EP4113987B1 (en) 2021-06-29 2023-11-08 Axis AB System, camera device, method, and computer program for displaying collected sensor data together with images
CN113938653A (zh) * 2021-10-12 2022-01-14 钱保军 一种基于ar梯次级联的多视频监控显示方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012212343A (ja) * 2011-03-31 2012-11-01 Sony Corp 表示制御装置、表示制御方法、およびプログラム

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6552744B2 (en) * 1997-09-26 2003-04-22 Roxio, Inc. Virtual reality camera
US6433835B1 (en) 1998-04-17 2002-08-13 Encamera Sciences Corporation Expanded information capacity for existing communication transmission systems
JP3548459B2 (ja) * 1998-11-20 2004-07-28 富士通株式会社 案内情報提示装置,案内情報提示処理方法,案内情報提示プログラムを記録した記録媒体,案内用スクリプト生成装置,案内情報提供装置,案内情報提供方法および案内情報提供プログラム記録媒体
US6792615B1 (en) * 1999-05-19 2004-09-14 New Horizons Telecasting, Inc. Encapsulated, streaming media automation and distribution system
US6452597B1 (en) * 1999-08-24 2002-09-17 Microsoft Corporation Displaying text on a limited-area display surface
JP3824298B2 (ja) 2001-07-26 2006-09-20 インターナショナル・ビジネス・マシーンズ・コーポレーション サーバ、ウェブコンテンツ編集装置、コンピュータを用いてこれらを実現するプログラム、及びそのウェブコンテンツ編集方法並びに提供方法
US7080325B2 (en) * 2002-02-22 2006-07-18 Call-Tell Llc Graphical device for comprehensive viewing and input of variable data via a browser-based display
US7224847B2 (en) * 2003-02-24 2007-05-29 Microsoft Corp. System and method for real-time whiteboard streaming
US20040228401A1 (en) * 2003-05-12 2004-11-18 Chen Sherman (Xuemin) Method and system for protecting image data in frame buffers of video compression systems
US7495694B2 (en) * 2004-07-28 2009-02-24 Microsoft Corp. Omni-directional camera with calibration and up look angle improvements
US8005831B2 (en) 2005-08-23 2011-08-23 Ricoh Co., Ltd. System and methods for creation and use of a mixed media environment with geographic location information
WO2006105686A1 (en) * 2005-04-06 2006-10-12 Eidgenössische Technische Hochschule Zürich Method of executing an application in a mobile device
US7424218B2 (en) * 2005-07-28 2008-09-09 Microsoft Corporation Real-time preview for panoramic images
US9101279B2 (en) * 2006-02-15 2015-08-11 Virtual Video Reality By Ritchey, Llc Mobile user borne brain activity data and surrounding environment data correlation system
US20080147730A1 (en) * 2006-12-18 2008-06-19 Motorola, Inc. Method and system for providing location-specific image information
US8947421B2 (en) * 2007-10-29 2015-02-03 Interman Corporation Method and server computer for generating map images for creating virtual spaces representing the real world
US20090109341A1 (en) * 2007-10-30 2009-04-30 Qualcomm Incorporated Detecting scene transitions in digital video sequences
US8711176B2 (en) * 2008-05-22 2014-04-29 Yahoo! Inc. Virtual billboards
US8239758B2 (en) * 2008-11-13 2012-08-07 International Business Machines Corporation Truncating character strings to generate a list of unique character strings
US20100145676A1 (en) * 2008-12-09 2010-06-10 Qualcomm Incorporated Method and apparatus for adjusting the length of text strings to fit display sizes
US20100208033A1 (en) 2009-02-13 2010-08-19 Microsoft Corporation Personal Media Landscapes in Mixed Reality
KR101561913B1 (ko) 2009-04-17 2015-10-20 엘지전자 주식회사 이동 단말기의 영상 표시 방법 및 그 장치
US20110209201A1 (en) 2010-02-19 2011-08-25 Nokia Corporation Method and apparatus for accessing media content based on location
US9901828B2 (en) 2010-03-30 2018-02-27 Sony Interactive Entertainment America Llc Method for an augmented reality character to maintain and exhibit awareness of an observer
US9635251B2 (en) * 2010-05-21 2017-04-25 Qualcomm Incorporated Visual tracking using panoramas on mobile devices
US20120036444A1 (en) * 2010-07-01 2012-02-09 Andersen Ann-Cabell Baum Systems and Methods for Interactive Web-based Social Networking and Activities Coordination
US20130171601A1 (en) * 2010-09-22 2013-07-04 Panasonic Corporation Exercise assisting system
US9462280B2 (en) * 2010-12-21 2016-10-04 Intel Corporation Content adaptive quality restoration filtering for high efficiency video coding
US9057874B2 (en) * 2010-12-30 2015-06-16 GM Global Technology Operations LLC Virtual cursor for road scene object selection on full windshield head-up display
US20120221687A1 (en) * 2011-02-27 2012-08-30 Broadcastr, Inc. Systems, Methods and Apparatus for Providing a Geotagged Media Experience
JP2015537264A (ja) * 2012-08-27 2015-12-24 エンパイア テクノロジー ディベロップメント エルエルシー デジタルに仲介された通信の地理的発信元を示すこと

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012212343A (ja) * 2011-03-31 2012-11-01 Sony Corp 表示制御装置、表示制御方法、およびプログラム

Also Published As

Publication number Publication date
WO2013070375A1 (en) 2013-05-16
CN104054111A (zh) 2014-09-17
EP2777021A1 (en) 2014-09-17
KR20140088903A (ko) 2014-07-11
IN2014CN03487A (ja) 2015-10-09
CN107958490B (zh) 2021-07-09
EP2777021B1 (en) 2018-03-28
KR101617111B1 (ko) 2016-04-29
US9171384B2 (en) 2015-10-27
US20130113827A1 (en) 2013-05-09
JP5869140B2 (ja) 2016-02-24
CN107958490A (zh) 2018-04-24

Similar Documents

Publication Publication Date Title
JP5869140B2 (ja) 無線通信デバイスのためのハンズ・フリー拡張現実感
US11323605B2 (en) Method and apparatus for managing a camera network
US20200349774A1 (en) Media Tags - Location-Anchored Digital Media for Augmented Reality and Virtual Reality Environments
KR102196486B1 (ko) 콘텐츠 모음 네비게이션 및 오토포워딩
US9665986B2 (en) Systems and methods for an augmented reality platform
US20120299962A1 (en) Method and apparatus for collaborative augmented reality displays
KR102657053B1 (ko) 옵트아웃 인터스티셜을 이용한 미디어 컬렉션 탐색
US20180196819A1 (en) Systems and apparatuses for providing an augmented reality real estate property interface
US20240161370A1 (en) Methods, apparatus, systems, devices, and computer program products for augmenting reality in connection with real world places
CN110019599A (zh) 获取兴趣点poi信息的方法、系统、装置及电子设备
WO2016005799A1 (en) Social networking system and method
CN111367598B (zh) 动作指令的处理方法、装置、电子设备及计算机可读存储介质
CN112395530A (zh) 数据内容的输出方法、装置、电子设备及计算机可读介质
KR101404222B1 (ko) 지도 서비스 시스템 및 지도 서비스 방법
JP2021052224A (ja) プログラム、情報処理装置、表示方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160106

R150 Certificate of patent or registration of utility model

Ref document number: 5869140

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees