JP6000954B2 - クラウド支援型拡張現実のための適応可能なフレームワーク - Google Patents

クラウド支援型拡張現実のための適応可能なフレームワーク Download PDF

Info

Publication number
JP6000954B2
JP6000954B2 JP2013530209A JP2013530209A JP6000954B2 JP 6000954 B2 JP6000954 B2 JP 6000954B2 JP 2013530209 A JP2013530209 A JP 2013530209A JP 2013530209 A JP2013530209 A JP 2013530209A JP 6000954 B2 JP6000954 B2 JP 6000954B2
Authority
JP
Japan
Prior art keywords
sensor data
captured image
mobile platform
image
pose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013530209A
Other languages
English (en)
Other versions
JP2013541096A (ja
Inventor
スワミナサン、アシュウィン
シャーマ、ピユシュ
ジャング、ボラン
チャリ、ムラリ・アール.
スピンドラ、セラフィン・ディアズ
バヘティ、パワン・クマー
ナラヤナン、ビドヤ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2013541096A publication Critical patent/JP2013541096A/ja
Application granted granted Critical
Publication of JP6000954B2 publication Critical patent/JP6000954B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本願は、両方とも本願の譲受人に譲渡され参照によって本明細書に組み込まれる、2010年9月20日に出願された「An Adaptable Framework For Cloud Assisted Augmented Reality」と題する米国特許仮出願61/384667号、および、2011年9月19日に出願された「An Adaptable Framework For Cloud Assisted Augmented Reality」と題する米国特許出願13/235847号の優先権を主張する。
拡張現実システムは、実世界のユーザの視界に仮想オブジェクトを挿入することができる。従来のARシステムには多くのコンポーネントが存在しうる。これらは、データ獲得、データ処理、オブジェクト検出、オブジェクトトラッキング、レジストレーション、リファインメント(refinement)、およびレンダリングコンポーネントを含む。これらのコンポーネントは、互いに対話して、ユーザに豊かなAR経験を提供することができる。しかしながら、従来のARシステムでの検出およびトラッキングにおけるいくつかのコンポーネントは、計算集約的な操作を使用し、それは、ユーザのためのAR経験を妨害しうる。
モバイルプラットフォームは、待ち時間に敏感な操作(latency sensitive operation)がモバイルプラットフォーム上で実行され、待ち時間に敏感ではないが計算集約的な操作がリモートサーバ上で実行される、分散処理を用いて、画像データを含むセンサデータを効率的に処理する。モバイルプラットフォームは、画像データのようなセンサデータを獲得し、センサデータをサーバに送信するトリガイベントがあるか否かを判定する。トリガイベントは、以前に獲得されたセンサデータに対するセンサデータの変化、例えば、キャプチャ画像におけるシーン変化である。変化が存在するときには、センサデータは、処理のためにサーバに送信される。サーバは、センサデータを処理し、画像内のオブジェクトの識別(identification)のような、センサデータに関連する情報を返す。次いで、モバイルプラットフォームは、識別されたオブジェクトを用いて、基準ベースのトラッキング(reference based tracking)を実行しうる。
一実装形態では、方法は、モバイルプラットフォーム用いてセンサデータを獲得することと、以前に獲得されたセンサデータと比べてセンサデータにおける変化を備えるトリガイベントが存在するか否かを判定することと、トリガイベントが存在する場合にセンサデータをサーバに送信することと、センサデータに関連する情報をサーバから受信することとを含む。センサデータは、オブジェクトのキャプチャ画像、例えば、写真またはビデオフレームでありうる。
別の実装形態では、モバイルプラットフォームは、センサデータを獲得するように適合されたセンサと、無線トランシーバとを含む。センサは、例えば、オブジェクトの画像をキャプチャするためのカメラでありうる。プロセッサは、センサと無線トランシーバとに結合され、センサを介してセンサデータを獲得し、以前に獲得されたセンサデータと比べてセンサデータにおける変化を備えるトリガイベントが存在するか否かを判定し、トリガイベントが存在する場合、無線トランシーバを介してセンサデータを外部プロセッサに送信し、無線トランシーバを介して、センサデータに関連する情報を外部プロセッサから受信するように適合される。
別の実装形態では、モバイルプラットフォームは、センサデータを獲得する手段と、以前に獲得されたセンサデータと比べてセンサデータにおける変化を備えるトリガイベントが存在するか否かを判定する手段と、トリガイベントが存在する場合にセンサデータをサーバに送信する手段と、センサデータに関連する情報をサーバから受信する手段とを含む。センサデータを獲得する手段は、カメラであり、センサデータは、オブジェクトのキャプチャ画像である。
さらに別の実装形態では、プログラムコードを格納した非一時的なコンピュータ読取可能な媒体は、センサデータを獲得するためのプログラムコードと、以前に獲得されたセンサデータと比べてセンサデータにおける変化を備えるトリガイベントが存在するか否かを判定するためのプログラムコードと、トリガイベントが存在する場合、センサデータを外部プロセッサに送信するためのプログラムコードと、センサデータに関連する情報を外部プロセッサから受信するためのプログラムコードとを含む。
図1は、モバイルプラットフォームおよびリモートサーバを含む、分散処理のためのシステムを示すブロック図を示す。 図2は、待ち時間に敏感な操作がモバイルプラットフォームによって実行され、待ち時間に敏感ではないが計算集約的な操作が外部プロセッサによって実行される、分散処理のプロセスを示すフローチャートである。 図3は、サーバ支援型ARのためのシステムの操作のブロック図を示す。 図4は、ポーズがリモートサーバによって提供される、サーバ支援型ARのための呼出フロー図を示す。 図5は、ポーズがリモートサーバによって提供されない、サーバ支援型ARのための別の呼出フロー図を示す。 図6は、シーン変化検出器によって実行される方法のフローチャートを示す。 図7は、最小トリガギャップの関数として、要求されるネットワーク送信を示す、分散処理システムの性能を示すチャートである。 図8は、サーバ支援型ARプロセスを用いた顔認識へのアプローチを示す。 図9は、サーバ支援型ARプロセスを用いた顔認識へのアプローチを示す。 図10は、サーバ支援型ARプロセスを用いた視覚探索へのアプローチを示す。 図11は、サーバ支援型ARプロセスを用いた視覚探索へのアプローチを示す。 図12は、サーバ支援型プロセスを用いた基準ベースのトラッキングへのアプローチを示す。 図13は、サーバ支援型プロセスを用いた基準ベースのトラッキングへのアプローチを示す。 図14は、サーバ支援型プロセスを用いた3Dモデル作成へのアプローチを示す。 図15は、サーバベースの検出(server based detection)を用いた分散処理が可能なモバイルプラットフォームのブロック図である。
詳細な説明
本明細書で開示される分散処理システムは、処理されるべきデータを、無線ネットワークを介してサーバに、またはクラウドコンピューティング環境のネットワークを介して別のデバイスに、いつ提供するかを決定しうるデバイスを含む。デバイスは、また、それ自体がデータを処理しうる。例えば、より効率的な処理のために、待ち時間に敏感な操作は、デバイス上で実行されることが選択され、待ち時間に敏感ではない操作は、遠隔的に実行されることが選択されうる。処理されるべきデータをサーバにいつ送るかを決定するファクタは、数ある中でも特に、データに対して実行されている操作が待ち時間に敏感であるか敏感ではないか、必要とされる計算量、デバイスまたはサーバのいずれかにおけるプロセッサ速度/利用可能性、ネットワーク条件、または、サービス品質を含みうる。
一実施形態では、モバイルプラットフォームと外部サーバとを含むシステムが、拡張現実(AR:Augmented Reality)アプリケーションのために提供され、それにおいては、効率的な処理のために、待ち時間に敏感な操作がモバイルプラットフォーム上で実行され、待ち時間に敏感ではないが計算集約的な操作が、遠隔的に、例えばサーバ上で、実行される。次いで、その結果が、サーバによってモバイルプラットフォームに送られうる。ARアプリケーションのために分散処理を用いることで、エンドユーザは、シームレスにAR経験を楽しむことができる。
本明細書で使用される場合、モバイルプラットフォームは、セルラもしくは他の無線通信デバイス、パーソナル通信システム(PCS)デバイス、パーソナルナビゲーションデバイス(PND)、パーソナル情報マネジャ(PIM)、携帯情報端末(PDA)、または他の適切なモバイルデバイスのような任意のポータブル電子デバイスを指す。モバイルプラットフォームは、無線通信、および/または、ナビゲーション位置決め信号のようなナビゲーション信号を受信することができる。「モバイルプラットフォーム(mobile platform)」という用語は、また、衛星信号受信、支援データ受信、および/または位置関連処理がデバイスで行われるかパーソナルナビゲーションデバイス(PND)で行われるかに関係なく、短距離無線、赤外線、有線接続、または他の接続などによって、PNDと通信するデバイスを含むことが意図される。また、「モバイルプラットフォーム」は、ARの能力を有する無線通信デバイス、コンピュータ、ラップトップ、タブレットコンピュータなどを含む、すべての電子デバイスを含むことが意図される。
図1は、サーバベースのオブジェクト検出および識別を用いる分散処理のためのシステム100を示すブロック図を示す。システム100は、トラッキングのような待ち時間に敏感な操作を実行するモバイルプラットフォーム110を含み、リモートサーバ130は、オブジェクト識別のような、待ち時間に敏感ではないが計算集約的な操作を実行する。モバイルプラットフォームは、カメラ112およびディスプレイ114を含み、および/または動きセンサ164を含みうる。モバイルプラットフォーム110は、オブジェクト102の画像104を獲得することができ、それは、ディスプレイ114上に示されることができる。モバイルプラットフォーム110によってキャプチャされた画像104は、静止画像、例えば、写真、またはビデオストリームからの単一のフレームであることができ、本明細書においてそれらは両方ともキャプチャ画像(captured image)と呼ばれる。モバイルプラットフォーム110は、追加的にまたは代替的に、例えば、衛星測位システム(SPS)受信機166、または、例えば、加速度計、ジャイロスコープ、電子コンパス、もしくは他の類似の動き感知エレメントを含む1または複数の動きセンサ164を使用して、カメラ112以外のセンサから位置および/または向きのデータを含む他のセンサデータを獲得することもできる。SPSは、全地球測位システム(GPS)、ガリレオ、グロナスもしくはコンパスのような全地球的航法衛星システム(GNSS)、または、例えば、日本の上空にある準天頂衛星システム(QZSS)、インドの上空にあるインド地域航法衛星システム(IRNSS)、中国の上空にある北斗(Beidou)などの他の様々な地域システム、および/または、1または複数のグローバルおよび/または地域ナビゲーション衛星システムに関連づけられうるか、そうでなければそれらとともに使用されることが可能な様々な拡張システム(例えば、衛星ベースの拡張システム(SBAS:Satellite Based Augmentation System))のコンステレーションでありうる。
モバイルプラットフォーム110は、キャプチャ画像104および/またはSPS情報もしくは位置情報などのセンサデータのような獲得されたデータ情報をオンボード動きセンサ164からネットワーク120を介してサーバ130に送信する。獲得されたデータ情報は、またさらに、あるいは代替的に、モバイルプラットフォーム110によって現在トラッキングされている任意のオブジェクトの識別のようなコンテキストデータ(contextual data)を含みうる。ネットワーク120は、無線広域ネットワーク(WWAN)、無線ローカルエリアネットワーク(WLAN)、無線パーソナルエリアネットワーク(WPAN)などのような任意の無線通信ネットワークでありうる。サーバ130は、モバイルプラットフォーム110によって提供されるデータ情報を処理し、データ情報に関連する情報を生成する。例えば、サーバ130は、オブジェクトデータベース140を用いて、提供された画像データに基づいてオブジェクト検出および識別を実行しうる。サーバ130は、獲得されたデータに関連する情報をモバイルプラットフォーム110に返す。例えば、サーバ130がモバイルプラットフォーム110によって提供された画像データからオブジェクトを識別すると、サーバ130は、例えば、タイトルもしくは識別番号のような識別子を含むオブジェクトの識別、または、オブジェクト102の基準画像106を、拡張現実アプリケーションのためにモバイルプラットフォームによって使用されうる顕著性(saliency)インジケータ、情報リンクなどのようなあらゆる所望のサイド情報と共に返すことができる。
望まれる場合、サーバ130は、例えば、既知の位置および向きからのオブジェクト102の画像である基準画像106内のオブジェクト102と比べて、画像104がキャプチャされた時点でのモバイルプラットフォーム110のポーズ(位置および向き)を決定し、それをモバイルプラットフォーム110に提供することができる。返されたポーズは、モバイルプラットフォーム110内のトラッキングシステムをブートストラップ(bootstrap)するために使用されうる。換言すると、モバイルプラットフォーム110は、それが画像104をキャプチャした時から基準画像106とポーズをサーバ130から受信する時まで、例えば、視覚的に、または、動きセンサ164を用いて、そのポーズにおけるすべての漸次的な変化をトラッキングしうる。次いで、モバイルプラットフォーム110は、受信されたポーズを、トラッキングされたポーズにおける漸次的な変化と共に使用して、オブジェクト102に対する現在のポーズを迅速に決定することができる。
別の実施形態では、サーバ130は、基準画像106を返すが、ポーズ情報は提供せず、モバイルプラットフォーム110は、オブジェクト検出アルゴリズムを用いてオブジェクト102の基準画像106に対してオブジェクト102の現在のキャプチャ画像を比較することによって、オブジェクト102に対する現在のポーズを決定する。ポーズは、相対的な動きが推定されうるように、トラッキングシステムへの入力として使用されることができる。
さらに別の実施形態では、サーバ130は、ポーズ情報だけを返し、基準画像は提供しない。このケースにおいて、モバイルプラットフォーム110は、キャプチャ画像104をポーズ情報と共に使用して、後にトラッキングシステムによって使用されうる基準画像を作成することができる。代替的に、モバイルプラットフォーム110は、キャプチャ画像104とその後のキャプチャ画像(現在の画像とも呼ばれる)との間の位置における漸次的な変化をトラッキングし、サーバ130から取得されたポーズを漸次的なトラッキング結果と共に用いて、モバイルプラットフォームが生成した基準画像に対する現在の画像のポーズを計算することもできる。基準画像102が存在しない場合、現在の画像は、トラッキングシステムをブートストラップするために使用されうる基準画像の推定値を取得するために、推定されたポーズを用いてワーピングされうる(または、修正されうる)。
追加的に、モバイルプラットフォーム110によってサーバ130に送る検出要求の頻度を最小限に抑えるために、モバイルプラットフォーム110は、トリガイベントが存在する場合にのみ検出要求を開始することができる。トリガイベントは、以前に獲得された画像データまたはセンサデータに対する、画像データまたは動きセンサ164からのセンサデータの変化に基づきうる。例えば、モバイルプラットフォーム110は、画像データの変化が生じたか否かを判定するためにシーン変化検出器304を使用することができる。このように、いくつかの実施形態では、モバイルプラットフォーム110は、シーン変化検出器304によってトリガされたときにのみ、検出要求のためにネットワークを介してサーバ130と通信することができる。シーン変化検出器304は、例えば、新しい情報が現在の画像中に存在するときにのみ、オブジェクト検出のためにサーバとの通信をトリガする。
図2は、待ち時間に敏感な操作がモバイルプラットフォーム110によって実行され、待ち時間に敏感ではないが計算集約的な操作がサーバ130のような外部プロセッサによって実行される、分散処理のプロセスを示すフローチャートである。示されるように、センサデータは、モバイルプラットフォーム110によって獲得される(202)。センサデータは、獲得された画像、例えば、キャプチャされた写真またはビデオフレーム、あるいは、それらから導き出される、文字認識または抽出されたキーポイントを含む情報でありうる。センサデータは、またさらに、あるいは代替的に、例えば、SPS情報、動きセンサ情報、バーコード認識、テキスト検出結果、または、画像の部分的処理から得られた他の結果、ならびに、ユーザ挙動、ユーザ選好、ロケーション、ユーザ情報またはデータ(例えば、ユーザについてのソーシャルネットワーク情報)などのコンテキスト情報、時刻、照明品質(自然対人工)、および、近くに立っている人(画像内で)などを含みうる。
モバイルプラットフォーム110は、以前に獲得されたセンサデータに対するセンサデータの変化のようなトリガイベントが存在していると判定する(204)。例えば、トリガイベントは、新しいまたは異なるオブジェクトが画像中に現れるシーン変化でありうる。獲得されたセンサデータは、シーン変化のようなトリガイベントが検出された後に、サーバ130に送信される(206)。当然、シーン変化が検出されない場合、センサデータは、サーバ130に送信される必要はなく、それによって、通信および検出要求を低減する。
サーバ130は、獲得された情報を処理して、例えば、オブジェクト認識を実行するが、これは、当技術分野においてよく知られている。サーバ130が情報を処理した後、モバイルプラットフォーム110は、センサデータに関連する情報をサーバ130から受信する(208)。例えば、モバイルプラットフォーム110は、例えば、基準画像を含む、オブジェクト識別の結果を受信しうる。センサデータに関連する情報は、追加的にまたは代替的に、モバイルプラットフォーム110の近くに配置されたアイテム(例えば、建物、レストラン、店内の入手可能な製品など)、ならびにサーバからの二次元(2D)または三次元(3D)モデルのような情報、または、ゲーミングなどの他のプロセスにおいて使用されうる情報を含みうる。望まれる場合、以上で論じたように、画像104がキャプチャされた時点での、基準画像内のオブジェクトに対するモバイルプラットフォーム110のポーズを含む追加情報が提供されうる。モバイルプラットフォーム110がローカルキャッシュを含む場合、モバイルプラットフォーム110は、サーバ130によって送られた複数の基準画像を記憶することができる。これらの記憶された基準画像は、例えば、トラッキングが失われた場合にモバイルプラットフォーム110において実行されうるその後の再検出のために使用されることができる。いくつかの実施形態では、サーバは、センサから画像内の複数のオブジェクトを識別する。そのような実施形態では、識別されたオブジェクトのうちの1つについてのみ、基準画像または他のオブジェクト識別子がモバイルプラットフォーム110に送信されることができ、あるいは、それぞれのオブジェクトに対応する複数のオブジェクト識別子が、モバイルプラットフォーム110に送信され、モバイルプラットフォーム110によって受信されることができる。
このように、サーバ130によって提供されうる情報は、認識結果、識別されたオブジェクトについての情報、トラッキングのような様々な機能に使用されうるオブジェクトについての基準画像(1または複数)、認識されたオブジェクトの2D/3Dモデル、認識されたオブジェクトの絶対的なポーズ、表示のために使用される拡張情報、および/または、オブジェクトについての顕著性情報を含みうる。追加的に、サーバ130は、モバイルプラットフォーム110において分類子(classifier)を強化しうるオブジェクトマッチングに関連する情報を送ることができる。1つの可能な例は、モバイルプラットフォーム110がマッチングのために決定ツリー(decision tree)を使用しているときである。このケースでは、サーバ130は、より精確なツリー構築と、その後のより良いマッチングとを容易にするために、ツリーの個々のノードについての値を送ることができる。決定ツリーの例は、例えば、k平均法、kdツリー(k-d tree)、ボキャブラリ・ツリー(vocabulary tree)、および他のツリーを含む。k平均法ツリーのケースでは、サーバ130は、また、モバイルプラットフォーム110上で階層的なk平均法ツリー構造を初期化するためにシードを送り、これによって、モバイルプラットフォーム110が、適切なツリーをロードするためにルックアップを実行できるようにする。
オプション的に、モバイルプラットフォーム110は、オブジェクト102に対するモバイルプラットフォームについてのポーズを取得しうる(210)。例えば、モバイルプラットフォーム110は、オブジェクト102の別の画像をキャプチャし、新しくキャプチャされた画像と基準画像とを比較することによって、サーバ130からポーズ情報を受信することなく、基準画像内のオブジェクトに対するポーズを取得しうる。サーバ130がポーズ情報を提供する場合、モバイルプラットフォームは、初期画像104がキャプチャされた時点での基準画像内のオブジェクトに対するモバイルプラットフォーム110のポーズである、サーバ130によって提供されたポーズを、初期画像104がキャプチャされて以降のモバイルプラットフォーム110のポーズにおけるトラッキングされた変化と組み合わせることによって、現在のポーズを迅速に決定しうる。ポーズがサーバ130の支援を用いて取得されるか、支援なく取得されるかが、ネットワーク120および/またはモバイルプラットフォーム110の能力に依存しうることに注意されたい。例えば、サーバ130がポーズ推定をサポートし、モバイルプラットフォーム110およびサーバ130がポーズを送信するためのアプリケーションプログラミングインターフェース(API)に同意した場合、ポーズ情報は、モバイルプラットフォーム110に送信され、トラッキングのために使用されうる。サーバによって送られたオブジェクト102のポーズ(210)は、相対的回転および変換行列、ホモグラフィ行列、アフィン変換行列の形態、または他の形態でありうる。
オプション的に、モバイルプラットフォーム110は、次いで、サーバ130から受信されたデータを用いて、オブジェクトに対してAR、例えば、ターゲットをトラッキングすること、各フレームにおけるオブジェクトポーズを推定すること、および、仮想オブジェクトを挿入すること、または、推定されたポーズを用いてレンダリングエンジンを通してユーザビューもしくは画像を拡張すること、を実行することができる(212)。
図3は、サーバ130支援型ARのためのシステム100の動作のブロック図を示す。図3に示されるように、基準フリートラッカ(reference-free tracker)302を起動するために、新しいキャプチャ画像300が使用される。基準フリートラッカ302は、オプティカルフロー、正規化相互相関(NCC)、または、当該技術分野において知られている任意の類似した方法に基づいてトラッキングを実行する。基準フリートラッカ302は、新しいキャプチャ画像300内の点、線、領域などの特徴を識別し、例えばフローベクトルを用いて、フレームからフレームへとこれらの特徴をトラッキングする。トラッキング結果から得られたフローベクトルは、以前のキャプチャ画像と現在のキャプチャ画像との間での相対的な動きの推定に役立ち、次には、動きの速度の識別に役立つ。基準フリートラッカ302によって提供された情報は、シーン変化検出器304によって受信される。シーン変化検出器304は、例えば、基準フリートラッカ302からのトラッキングされた特徴を、別のタイプの画像統計値(ヒストグラム統計値のような)、ならびにモバイルプラットフォーム内のセンサからの他の利用可能な情報と共に使用して、シーンの変化を推定する。シーン変化検出器304によってトリガが送られなかった場合、プロセスは、基準フリートラッカ302で継続する。シーン変化検出器304がシーンにおける実質的な変化を識別した場合、シーン変化検出器304は、サーバベース検出器(server based detector)308において検出プロセスを開始しうるトリガ信号を送る。望まれる場合、画像品質推定器306が、画像品質を分析してサーバベース検出器308への要求の送信をさらに制御するために、使用されうる。画像品質推定器306は、画像の品質を調べ、品質が良い場合、すなわち、閾値を上回る場合、検出要求がトリガされる。画像品質が悪い場合、検出はトリガされず、画像は、サーバベース検出器308に送信されない。発明の一実施形態では、モバイルプラットフォーム110は、オブジェクト認識のために良い品質の画像をサーバ130に送る前に、シーン変化が検出されてから有限の時間期間の間、良い品質の画像を待つことができる。
画像の品質は、既知の画像統計値、画像品質測定値、および、他の類似したアプローチに基づきうる。例えば、キャプチャ画像の鮮明度は、ハイパスフィルタリング、ならびに、例えばエッジ強度および空間分布などを表す統計値のセットを生成することによって、定量化されうる。鮮明度の値が、例えばいくつかの以前のフレームにわたって平均化された、シーンの「一般的鮮明度(prevailing sharpness)」を超える場合、またはそれに匹敵する場合、画像は、良い品質の画像として分類されうる。別の実装形態では、FAST(加速セグメントテスト:Features from Accelerated Segment Test)コーナまたはハリス(Harris)コーナのような高速コーナ検出アルゴリズムが、画像を分析するために使用されうる。十分な数のコーナがある場合、例えば、検出されたコーナの数が閾値を上回るか、または、例えばいくつかの以前のフレームにわたって平均化された、シーンの「一般的なコーナの数」よりも多い、またはそれに匹敵する場合、画像は、良い品質の画像として分類されうる。別の実装形態では、エッジの勾配の大きさの平均または標準偏差など、画像からの統計値が、良い品質の画像と悪い品質の画像とを区別するために使用されうる学習分類子(learning classifier)に知らせるために使用されることができる。
画像の品質は、また、センサ入力を使用して測定されうる。例えば、速く移動している間にモバイルプラットフォーム110によってキャプチャされた画像は、ぼやけていることがあり、そのため、モバイルプラットフォーム110が静止している、またはゆっくりと移動している場合よりも品質が悪いことがある。したがって、結果として得られるカメラ画像がオブジェクト検出のために送られるのに十分の品質であるかどうかを決定するために、例えば動きセンサ164からのまたは視覚ベースのトラッキングからの、センサデータからの動き推定値が、閾値と比較されうる。同様に、画像品質は、決定された画像のぼやけ量に基づいて測定されうる。
追加的に、サーバベース検出器308に送信される要求の数をさらに制御するために、トリガ時間マネジャ305が提供されうる。トリガ時間マネジャ305は、システムの状態を維持し、ヒューリスティックスおよびルールに基づきうる。例えば、最後のトリガ画像からの画像の数が、閾値、例えば1000の画像、よりも多い場合、トリガ時間マネジャ305は、タイムアウトしてサーバベース検出器308における検出プロセスを自動的に開始することのできる、トリガを生成しうる。したがって、拡張された数の画像についてトリガがなかった場合、トリガ時間マネジャ305は、追加のオブジェクトがカメラの視野内にあるかどうかを判定するために有用な、トリガを強制しうる。追加的に、トリガ時間マネジャ305は、選択された値ηにおいて2つのトリガ間の最小の間隔を維持するようにプログラミングされうる。すなわち、トリガ時間マネジャ305は、トリガが最後にトリガされた画像からηの画像以内にある場合、トリガを抑制する。トリガされる画像を分離することは、例えば、シーンが高速で変化している場合に有用でありうる。したがって、シーン変化検出器304がηの画像以内に1よりも多くのトリガを生成する場合、1つのトリガ画像しかサーバベース検出器308に送られず、よって、モバイルプラットフォーム110からサーバ130への通信量を低減させる。トリガ時間マネジャ305は、また、トリガスケジュールを管理することができる。例えば、シーン変化検出器304が、最後のトリガからηよりも少なく、μよりも多くの画像だけ前に、新しいトリガを生成する場合、新しいトリガは、記憶され、連続したトリガ間の画像ギャップが少なくともηになるときまでトリガ時間マネジャ305によって延期されうる。例として、μは、2画像であることができ、η≧μであり、例として、ηは、2、4、8、16、32、64のように変化しうる。
トリガ時間マネジャ305は、また、サーバ130の検出失敗を管理しうる。例えば、以前のサーバベース検出の試みが失敗であった場合、トリガ時間マネジャ305は、サーバベース検出器308に要求を再送信するためにトリガを定期的に生成しうる。これらの試みの各々は、最も最近のキャプチャ画像に基づいて異なるクエリ画像を使用しうる。例えば、検出失敗の後、定期的なトリガは、期間ギャップηでトリガ時間マネジャ305によって生成されることができ、例えば、最後に失敗した検出の試みがηの画像よりも前である場合、トリガが送られ、ここで、ηの値は変数でありうる。
サーバベース検出器308が開始されると、新しいキャプチャ画像300に関連したデータがサーバ130に提供される。それは、新しいキャプチャ画像300自体、新しいキャプチャ画像300についての情報、並びに、新しいキャプチャ画像300に関連したセンサデータを含みうる。サーバベース検出器308によってオブジェクトが識別された場合、見つかったオブジェクト、例えば、基準画像、オブジェクトの3Dモデル、または他の関連情報が、モバイルプラットフォーム110に提供され、それは、そのローカルキャッシュ310を更新する。サーバベース検出器308によってオブジェクトが見つからなかった場合、プロセスは、例えば、トリガ時間マネジャ305を使用して、定期的なトリガに戻りうる。Г回の試み、例えば4回の試みの後に、オブジェクトが検出されなかった場合、オブジェクトは、データベースに存在しないとみなされ、システムは、シーン変化検出器ベースのトリガへとリセットする。
見つかったオブジェクトがローカルキャッシュ310内に記憶された状態で、モバイルプラットフォーム110上で動作しているオブジェクト検出器312は、現在のカメラの視野内のオブジェクト、およびオブジェクトに対するポーズを識別するためにオブジェクト検出プロセスを実行し、オブジェクトアイデンティティおよびポーズを基準ベーストラッカ(reference based tracker)314に送る。オブジェクト検出器312によって送られたポーズおよびオブジェクトアイデンティティは、基準ベーストラッカ314を初期化および開始するために使用されうる。その後にキャプチャされた画像(例えば、ビデオのフレーム)の各々において、基準ベーストラッカ314は、オブジェクトに対するポーズを、モバイルプラットフォーム110内のレンダリングエンジンに提供し、それは、表示されたオブジェクトの上に、あるいは画像内で、所望の拡張を行う。一実装形態では、サーバベース検出器308は、基準画像の代わりに、オブジェクトの3Dモデルを送ることができる。そのようなケースでは、3Dモデルは、ローカルキャッシュ310に記憶され、基準ベーストラッカ314への入力として後に使用される。基準ベーストラッカ314が初期化された後、基準ベーストラッカ314は、新しいキャプチャ画像300の各々を受信し、新しいキャプチャ画像300の各々におけるトラッキングされたオブジェクトのロケーションを識別し、それによって、拡張されたデータが、トラッキングされたオブジェクトに対して表示されることを可能にする。基準ベーストラッカ314は、ポーズ推定、顔認識、建物認識、または他のアプリケーションなど、多くのアプリケーションのために使用されうる。
追加的に、基準ベーストラッカ314が初期化された後、基準ベーストラッカ314は、識別されたオブジェクトが存在する、新しいキャプチャ画像300の各々の領域を識別し、この情報はトラッキングマスクのための手段によって記憶される。したがって、システムがそれに関する完全な情報を有する、新しいカメラ画像300内の領域が識別され、基準フリートラッカ302およびシーン変化検出器304への入力として提供される。基準フリートラッカ302およびシーン変化検出器304は、新しいキャプチャ画像300の各々を受信し、トラッキングマスクを使用して、新しいキャプチャ画像300の残りの領域、すなわち、完全な情報が存在しない領域において動作することを継続する。トラッキングマスクをフィードバックとして使用することは、トラッキングされたオブジェクトによる、シーン変化検出器304からの誤ったトリガを低減するのに役立つだけでなく、基準フリートラッカ302およびシーン変化検出器304の計算上の複雑さを低減するにも役立つ。
一実施形態では、図3において点線で示されるように、サーバベース検出器308は、追加的に、基準画像内のオブジェクトに対する、新しいキャプチャ画像300内のオブジェクトについてのポーズ情報を提供することができる。サーバベース検出器308によって提供されるポーズ情報は、基準フリートラッカ302によって決定されるポーズの変化と共に、ポーズ更新器316によって使用されて、更新されたポーズを生成することができる。更新されたポーズは、次いで、基準ベーストラッカ314に提供されうる。
さらに、トラッキングが一時的に失われたときには、ローカルキャッシュ310を探索するローカル検出器318を用いて、後続の再検出が実行されうる。図3は、明瞭にするために、ローカル検出器318およびオブジェクト検出器312を別々に示しているが、望まれる場合、ローカル検出器318は、オブジェクト検出器312を実装する、すなわち、オブジェクト検出器312が再検出を実行することができる。オブジェクトがローカルキャッシュにおいて見つかった場合、基準ベーストラッカ314を再初期化および開始するために、オブジェクトアイデンティティが使用される。
図4は、図3において破線およびポーズ更新器316によって示されるように、ポーズがサーバ130によって提供される、サーバ支援型ARのための呼出フロー図を示す。視野が変化したことをシーン変化検出器304が示すとき(ステップA)、システムマネジャ320が、サーバベース検出器308に、例えば、jpegまたは他のフォーマットでありうる新しい画像、および、オブジェクト検出の要求を提供する(ステップB)ことによって、サーバベース検出プロセスが開始される。また、画像に関連する情報や、SPS、方位センサ表示値、ジャイロ、コンパス、圧力センサ、高度計のようなセンサからの情報を含むセンサデータ、並びに、ユーザデータ、例えば、アプリケーション使用データ、ユーザのプロファイル、ソーシャルネットワーク情報、過去のサーチ、ロケーション/センサ情報など、追加情報または代替情報も、検出器308に送られうる。システムマネジャ320は、また、オブジェクトをトラッキングするためにコマンドを基準フリートラッカ302に送る(ステップC)。検出器308は、データを処理し、(1つまたは複数の)オブジェクトについての基準画像、SIFT特徴などの特徴、記述子などを有する線、メタデータ(拡張用など)、およびARアプリケーションに戻すポーズのような、(1つまたは複数の)オブジェクトのリストを、システムマネジャ320に返すことができる(ステップD)。オブジェクトについての基準画像がローカルキャッシュ310に追加され(ステップE)、ローカルキャッシュ310は、オブジェクトの追加を確認応答する(ステップF)。基準フリートラッカ302は、初期画像と現在の画像との間のポーズの変化を検出器312に提供する(ステップG)。検出器312は、基準画像を使用して、現在のキャプチャ画像内でオブジェクトを見つけ、オブジェクトIDをシステムマネジャ320に提供する(ステップH)。追加的に、サーバベース検出器308によって提供されたポーズは、基準フリートラッカ302からのポーズの変化と共に検出器312によって使用されて、現在のポーズを生成し、それはまた、システムマネジャ320に提供される(ステップH)。システムマネジャ320は、オブジェクトトラッキングを停止するように基準フリートラッカ302に指示し(ステップI)、オブジェクトトラッキングを開始するように基準ベーストラッカ314に指示する(ステップJ)。トラッキングは、トラッキングが失われる(ステップK)まで、基準ベーストラッカ314で継続する。
図5は、ポーズがサーバ130によって提供されない、サーバ支援型ARのための別の呼出フロー図を示す。呼出フローは、ステップDにおいて検出器308がポーズ情報をシステムマネジャ320に提供しないという点を除いて、図4に示された呼出フローと同様である。このように、検出器312は、現在の画像と、検出器308によって提供された基準画像とに基づいてポーズを決定し、そのポーズをシステムマネジャ320に提供する(ステップG)。
前述したように、シーン変化検出器304は、以前のキャプチャ画像に対する現在のキャプチャ画像の変化に基づいて、サーバ130に送られる検出要求の頻度を制御する。シーン変化検出器304は、重要な新しい情報が画像内に存在するときにのみオブジェクト検出を開始するために外部サーバ130と通信することが望ましいときに使用される。
図6は、シーン変化検出器304によって実行される方法のフローチャートを示す。シーン変化検出のためのプロセスは、基準フリートラッカ302(図3)からのメトリックと画像画素ヒストグラムとの組み合わせに基づく。前述したように、基準フリートラッカ302は、オプティカルフロー、正規化相互相関のようなアプローチ、および/または、例えば、点、線、または領域対応として、連続した画像間での相対的な動きをトラッキングするような任意のアプローチを使用する。ヒストグラムベースの方法は、短期間の間にシーンの情報コンテンツに有意な変化がある、ブックフリッピング(book flipping)のような特定のユースケースについて良好に機能し、したがって、シーン検出プロセスでの使用に有益であり、基準フリートラッキングプロセスは、シーン内の情報コンテンツに漸次的な変化があるパニング(panning)のような他のユースケースについて、変化を効率的に検出することができる。
このように、図6に示されるように、入力画像402が提供される。入力画像は、現在のキャプチャ画像であり、それは、現在のビデオフレームまたは写真でありうる。最後の画像がシーン変化検出をトリガしなかった場合(404)、シーン変化検出器の初期化(406)が実行される(406)。初期化は、画像をブロックに、例えば、QVGA画像の場合には8×8のブロックに、分割すること(408)と、例えばM個の最も強いコーナが保持されるFAST(Features from Accelerated Segment Test)コーナ検出器を用いて、各ブロックからキーポイントを抽出すること(410)とを含み、ここで、Mは2でありうる。もちろん、キーポイントを抽出するために、ハリスコーナ(Harris corners)、SIFT(Scale Invariant Feature Transform)特徴点、SURF(Speeded-up Robust Features)、または他の任意の所望の方法など、他の方法が代替的に使用されうる。トリガ信号は返されない(412)。
最後の画像が、シーン変化検出をトリガした場合(404)、オプティカルフロープロセス420として示される基準フリートラッカ302(図3)から、および、ヒストグラムプロセス430として示される画像画素ヒストグラムから、メトリックが得られる。望ましい場合、基準フリートラッカ302は、正規化相互相関のような、オプティカルフロー以外のプロセスを使用してメトリックを生成することができる。オプティカルフロープロセス420は、例えば、正規化相互相関を用いて、以前の画像からコーナをトラッキングし(422)、現在の画像におけるそれらのロケーションを識別する。コーナは、画像を複数のブロックに分割し、例えば、以上で初期化406において説明したように、FASTコーナ閾値に基づいたM個の最強のコーナが保持されるFASTコーナ検出器を用いて、各ブロックからキーポイントを選択することによって、以前に抽出されている可能性があり、あるいは、ハリスコーナの場合、ヘシアン(Hessian)閾値に基づいたM個の最も強いコーナが保持される。基準フリートラッキングは、現在の画像内のコーナ、およびトラッキングにおいて失われたコーナのロケーションを決定するために、連続した画像にわたって、選択されたコーナについて実行される。現在の反復において、すなわち、現在の画像と先行画像との間で失われたコーナの合計強度(424におけるd)は、第1の変化メトリックとして計算され、以前のトリガ以降に、すなわち、現在の画像と以前のトリガ画像との間で失われたコーナの合計強度(426におけるD)は、第2の変化メトリックとして計算され、それらは、ビデオ統計値計算440に提供される。ヒストグラムプロセス430は、現在の入力画像(Cと呼ばれる)をB×B個のブロックに分割し、各ブロックについて色ヒストグラムH i,jを生成する(432)、ここにおいて、iおよびjは、画像におけるブロックインデックスである。ヒストグラムのブロック単位(block-wise)比較が、例えばカイ二乗法(Chi-Square method)を使用して、N番目の過去の画像H i,jからの対応するブロックのヒストグラムを用いて実行される(434)。ヒストグラムの比較は、シーンが有意に変化したかどうかを識別するために、現在の画像とN番目の過去の画像との間の類似性を決定するのに役立つ。一例を用いると、Bは10になるように選択されうる。カイ二乗法を用いて現在の画像とN番目の過去の画像のヒストグラムを比較するために、以下の計算が実行される:
Figure 0006000954
ブロック単位の比較は、異なる値のアレイfijを生成する。アレイfijはソートされ、ヒストグラム変化メトリックhは、例えば、ソートされたアレイfijの中央の、半分のエレメントの平均として決定される(436)。ヒストグラム変化メトリックhは、また、ビデオ統計値計算のために提供される。
前述したように、望まれる場合、シーン変化についてモニタされるべき入力画像の領域を低減するために、シーン変化検出の間、基準ベーストラッカ314(図3)によって提供されるトラッキングマスクが使用されることができる。トラッキングマスクは、オブジェクトが識別される領域を識別し、したがって、シーン変化モニタリングが省略されうる。このように、例えば、入力画像が、例えば422、432において、複数のブロックに分割されるときには、トラッキングマスクを使用して、識別されたオブジェクトを有する領域内であるブロックを識別することができ、その結果、それらのブロックは無視されうる。
ビデオ統計値計算440は、オプティカルフローメトリックd、D、ヒストグラム変化メトリックhを受け取り、メトリックd、D、hと共に提供される、画像品質の決定を生成して、検出がトリガされるべきか否かを決定する。変化メトリックΔが計算され、閾値と比較され(458)て、トリガ信号を返す(460)。当然、変化メトリックΔが閾値未満である場合、トリガ信号は返されない。変化メトリックΔは、例えば以下のように、オプティカルフローメトリックd、D、およびヒストグラム変化メトリックhに基づいて計算されうる(456):
Figure 0006000954
ここで、α、β、およびγは、3つの統計値d、D、hに対して相対的重要度を提供するように適切に選択される重みである(452)。一実施形態では、α、β、およびγの値は、実行時間全体の間、一定に設定されうる。代替的な実施形態では、α、β、およびγの値は、システムの性能についての受信された、起こり得るフィードバックに応じて、またはターゲットとされるユースケースに応じて適応されうる。例えば、パニングタイプのシーン変化検出を含むアプリケーションでは、このケースでは統計値dおよびDがより高い信頼性を有しうるので、αおよびβの値は、γに比べて比較的高く設定されうる。代替的に、ヒストグラム統計値hがより有益となりうるブックフリッピングタイプのユースケースを主に含むアプリケーションでは、αおよびβの値は、γと比べて比較的低く設定されうる。閾値は、望まれる場合、ビデオ統計値計算440の出力に基づいて適応されうる(454)。
1つのケースでは、望まれる場合、シーン検出プロセスは、ヒストグラムからのメトリックなしに、基準フリートラッカ302からのメトリックに基づきうる。例えば、式2から得られる変化メトリックΔは、γ=0で使用されうる。別の実装形態では、入力画像は、複数のブロック、および、例えば、前述したように、M個の最も強いコーナが保持されるFAST(Features from Accelerated Segment Test)コーナ検出器を用いて各ブロックから抽出された複数のキーポイントに分割されうる。現在の画像と以前の画像との間で、例えば閾値と比べて、十分な数のブロックが変化した場合、シーンは変化したと判定され、トリガ信号が返される。ブロックは、例えば、トラッキングされたコーナの数が別の閾値未満である場合、変化したとみなされうる。
さらに、望まれる場合、シーン検出プロセスは、単純に、画像内のコーナの合計数の強度と比べて、以前のトリガ以降に失われたコーナの合計強度(426のD)に基づくことができ、例えば、式2から得られる変化メトリックΔは、α=0およびγ=0で使用されうる。以前のトリガ以降に失われたコーナの合計強度は、以下のように決定されうる:
Figure 0006000954
式3では、sは、コーナjの強度であり、tは、最後にトリガされた画像番号であり、cは、現在の画像番号であり、Liは、フレームiにおける失われたコーナの識別子を含むセットである。望まれる場合、以下のような異なる変化メトリックΔが使用されうる:
Figure 0006000954
ここで、Nは、トリガされた画像におけるコーナの合計数である。変化メトリックΔは、閾値と比較されうる(458)。
追加的に、前述したように、シーンの変化について探索される各画像のエリアを制限するために、トラッキングマスクがシーン変化検出器304によって使用されうる。換言すると、トリガマスクのエリア外のコーナの強度の損失は、関連メトリックである。シーン変化検出器304によって探索されるエリアのサイズの減少は、検出されることが予想されうるコーナの数の対応する減少をもたらす。このように、例えば以下のように、トラッキングマスクに起因するコーナの損失を補償するために、追加のパラメータが使用されうる:
Figure 0006000954
補償パラメータλは、変化メトリックΔを調整するために使用されうる。例えば、シーン検出プロセスが、単純に、以前のトリガ以降に、マスクされていないエリアにおいて失われたコーナの合計強度(D)に基づく場合、式4から得られる変化メトリックΔは以下のように修正されうる:
Figure 0006000954
ここで、Dは、式3によって与えられ(ここで、Liは、フレームiにおけるマスクされていないエリア内の失われたコーナの識別子を含むセットとして定義される)、Aは、画像cに関するマスクのエリアであり、Aは、At+1に初期設定される。
図7は、5つのページが50秒でめくられる典型的なブックフリッピングユースケースに関するシステムの性能を示すチャートである。図7は、オブジェクト検出を要求するための要求されるネットワーク送信の数を、秒単位の最小トリガギャップの関数として示す。同一の最小トリガギャップに必要とされるネットワーク送信の数が少なくなるほど、より良い性能を意味する。定期的トリガについてのカーブ480と、ヒストグラム統計値がなく(γ=0)、かつ基準ベーストラッカ314(図3)を用いない、オプティカルフローに基づくシーン変化検出器(SCD)についてのカーブ482と、ヒストグラム統計値はない(γ=0)が、基準ベーストラッカ314を用いる、オプティカルフローに基づくシーン変化検出器(SCD)についてのカーブ484と、基準ベーストラッカ314およびタイミングマネジャ305(図3)を用いた、オプティカルフローとヒストグラムの組み合わせに基づくシーン変化検出器(SCD)(図6に示された)についてのカーブ486とを含む、いくつかのカーブが示されている。図7からわかるように、組み合わせのシステムは、フリッピングユースケースにおいて他のシステムよりも性能が優れている。
図8は、サーバ支援型ARプロセスを用いた顔認識へのアプローチを示す。図8に示されるように、モバイルプラットフォーム110は、顔の画像を獲得すること、並びに、SPSまたは位置/動きセンサデータのようなあらゆる他の有用なセンサ情報を獲得することを含む、データ獲得502を実行する。モバイルプラットフォーム110は、顔検出504を実行し、矢印506によって示されるように、1または複数の顔についての顔データ(顔の画像でありうる)、並びに、SPSまたは位置/動きセンサデータのようなあらゆる他の有用なデータをサーバ130に提供する。モバイルプラットフォーム110は、顔の2Dの動きをトラッキングする(508)。サーバ130は、例えば、グローバルデータベース512から読み出され、ローカルキャッシュ514に記憶されたデータを用いて、提供された顔データに基づいて顔認識510を実行する。サーバ130は、顔に関するデータ、例えば、アイデンティティまたは他の所望の情報をモバイルプラットフォーム110に提供し、それは、受信されたデータを使用して、ディプレイ114上に表示された顔に名称などで注釈をつけるか、あるいは、レンダリングされた拡張データを提供する(516)。
図9は、サーバ支援型ARプロセスを用いた顔認識への別のアプローチを示す。図9は、図8に示されたアプローチに類似しており、同様に指定されたエレメントは同一である。ただし、図9に示されるように、画像はサーバ130に提供され(508’)、顔検出(504’)はサーバ130によって実行される。
図10は、サーバ支援型ARプロセスを用いた視覚探索へのアプローチを示す。図10に示されるように、モバイルプラットフォーム110は、所望のオブジェクトの画像を獲得すること、並びに、SPSまたは位置/動きセンサデータのような他のあらゆる有用なセンサ情報を獲得することを含む、データ獲得(520)を実行する。モバイルプラットフォーム110は、特徴検出(522)を実行し、矢印526によって示されるように、検出された特徴、並びに、SPSまたは位置/動きセンサデータのような他のあらゆる有用なデータをサーバ130に提供する。モバイルプラットフォーム110は、特徴の2Dの動きをトラッキングする(524)。サーバ130は、例えば、グローバルデータベース530から読み出され、ローカルキャッシュ532に記憶されたデータを用いて、提供された特徴に基づいてオブジェクト認識528を実行する。サーバ130は、また、例えば、基準画像やポーズなどを取得するために、グローバルレジストレーション(534)を実行しうる。サーバ130は、基準画像やポーズなどのオブジェクトに関するデータをモバイルプラットフォーム110に提供し、それは、受信されたデータを使用して、ローカルレジストレーション(536)を実行する。モバイルプラットフォーム110は、次いで、ディスプレイ114上に表示されたオブジェクトに対して所望の拡張データをレンダリングしうる(538)。
図11は、サーバ支援型ARプロセスを用いた視覚探索への別のアプローチを示す。図11は、図10に示されたアプローチに類似しており、同様に指定されたエレメントは同一である。ただし、図11に示されるように、全体画像は、サーバ130に提供され(526’)、特徴認識(522’)は、サーバ130によって実行される。
図12は、サーバ支援型プロセスを用いた基準ベーストラッキングへのアプローチを示す。図12に示されるように、モバイルプラットフォーム110は、所望のオブジェクトの画像を獲得すること、並びに、SPSまたは位置/動きセンサデータのような他のあらゆる有用なセンサ情報を獲得することを含む、データ獲得(540)を実行する。いくつかの実施形態では、モバイルプラットフォーム110は、テキスト認識またはバーコード読取など、サイド情報を生成しうる(541)。モバイルプラットフォーム110は、特徴検出(542)を実行し、矢印546によって示されるように、検出された特徴、並びに、SPSまたは位置/動きセンサデータのような他のあらゆる有用なデータ、さらに、生成された場合にはサイド情報を、サーバ130に提供する。モバイルプラットフォーム110は、例えば、点、線、または領域トラッキング、または、密なオプティカルフローを用いて特徴の2Dの動きをトラッキングする(544)。いくつかの実施形態では、サーバ130は、提供された特徴を用いて、マルチプルプレーン認識(multiple plane recognition)(548)を実行しうる。プレーンが識別されると、オブジェクト認識(550)が、例えば、グローバルデータベース552から読み出され、ローカルキャッシュ554に記憶されたデータを使用して、個々のプレーンまたはプレーンのグループに対して実行されうる。望まれる場合、他の任意の認識方法が使用される。いくつかの実施形態では、サーバ130はまた、望まれる場合、ポーズ推定(555)を実行し、これは、ホモグラフィ行列、アフィン行列、回転行列、変換行列を用いて、6自由度(six-degrees of freedom)で提供されうる。サーバ130は、基準画像のような、オブジェクトに関するデータをモバイルプラットフォーム110に提供し、それは、受信されたデータを使用して、ローカル・ホモグラフィ・レジストレーションまたはローカルエッセンシャル行列レジストレーションでありうるローカルレジストレーション(556)を実行する。前述したように、モバイルプラットフォーム110は、受信されたデータを記憶するためにローカルキャッシュ557を含むことができ、これは、トラッキングが失われた場合にモバイルプラットフォーム110において
実行されうる後続の再検出に有益でありうる。モバイルプラットフォーム110は、次いで、ディスプレイ114上に表示されたオブジェクトに対して所望の拡張データをレンダリングしうる(558)。
図13は、サーバ支援型プロセスを用いた基準ベースのトラッキングへの別のアプローチを示す。図13は、図12に示されたアプローチに類似しており、同様に指定されたエレメントは同一である。ただし、図13に示されるように、全体画像は、サーバ130に提供され(546’)、特徴認識(542’)は、サーバ130によって実行される。
図14は、サーバ支援型プロセスを用いた3Dモデル作成へのアプローチを示す。図14に示されるように、モバイルプラットフォーム110は、所望のオブジェクトの画像を獲得すること、並びに、SPSまたは位置/動きセンサデータのような他のあらゆる有用なセンサ情報を獲得することを含む、データ獲得(560)を実行する。モバイルプラットフォーム110は、2D画像処理(562)を実行し、例えば、オプティカルフローまたは正規化相互相関ベースのアプローチなどの基準フリートラッキングを用いて動きをトラッキングする(564)。モバイルプラットフォーム110は、ポーズの粗な推定を得るために、ローカルな6自由度のレジストレーション(568)を実行する。特定の実施形態ではこのデータは画像と共にサーバ130に提供されうる。サーバ130は、次いで、レジストレーションをリファインするためにバンドル調整(bundle adjustment)を実行しうる(570)。画像のセットおよび異なる視点からの3D点対応を考えると、バンドル調整アルゴリズムは、知られている基準座標システムにおける点の3D座標の推定を助け、異なる視点間でのカメラの相対的な動きの識別を助ける。バンドル調整アルゴリズムは、一般に、計算集約的な操作であり、モバイルプラットフォーム110からサイド情報を、利用可能な場合にはローカルキャッシュ572から追加情報を渡すことによって、サーバ側で効率的に実行されることができる。3D点のロケーションおよび相対的なポーズ(relative pose)が推定された後、それらは、モバイルプラットフォーム110に直接提供されることができる。代替的に、オブジェクトの3Dモデルがデータに基づいてサーバで構築され、そのようなデータがモバイルプラットフォーム110に送られることもできる。モバイルプラットフォーム110は、次いで、サーバ130から得られた情報を用いて、ディスプレイ114上に表示されたオブジェクトに対して所望の拡張データをレンダリングすることができる(576)。
システム構成全体が、モバイルプラットフォーム110、サーバ130、および、例えばネットワーク120のような通信インターフェースの能力に応じて適応可能でありうることに注意されたい。モバイルプラットフォーム110が専用プロセッサをもたないローエンドデバイスである場合、操作の大部分は、サーバ130にオフロードされうる。一方で、モバイルプラットフォーム110が、良い計算能力を有するハイエンドデバイスである場合、モバイルプラットフォーム110は、タスクの一部を実行して、より少ないタスクをサーバ130にオフロードすることを選択しうる。さらに、システムは、例えば、インターフェース上の利用可能な帯域幅に応じて異なるタイプの通信インターフェースを扱うように適応可能でありうる。
一実装形態では、サーバ130は、タスクに関して、および、タスクのどの部分がサーバ130にオフロードされ得るかに関して、モバイルプラットフォーム110にフィードバックを提供することができる。そのようなフィードバックは、サーバ130の能力、実行されるべき操作のタイプ、通信チャネル内の利用可能な帯域幅、モバイルプラットフォーム110および/またはサーバ130の電力レベルなどに基づきうる。例えば、サーバ130は、ネットワーク接続が悪く、データレートが低い場合、モバイルプラットフォーム110がより低い品質のバージョンの画像を送ることを推奨することができる。サーバ130は、また、データレートが低い場合、モバイルプラットフォームがより多くの処理をデータに対して実行し、処理済みのデータをサーバ130に送ることを提案しうる。例えば、モバイルプラットフォーム110は、通信リンクが低いデータレートを有する場合、オブジェクト検出のための特徴を計算し、画像全体を送る代わりに特徴を送ることができる。サーバ130は、ネットワーク接続が良い場合、または、画像内のオブジェクトを認識しようとする過去の試みが失敗であった場合、代わりに、モバイルプラットフォーム110がより高い品質のバージョンの画像を送ること、または、より頻繁に画像を送ること(それによって、最少フレームギャップηを低減する)を推奨しうる。
さらに、本明細書に記載のモバイル−サーバアーキテクチャは、1よりも多くのモバイルプラットフォーム110が使用されるシナリオにも拡張されうる。例えば、2つのモバイルプラットフォーム110は、同一の3Dオブジェクトを異なる角度から見ており、サーバ130は、両方のモバイルプラットフォーム110から得られたデータから共同のバンドル調整を実行して、オブジェクトの良好な3Dモデルのオブジェクトを作成することができる。そのようなアプリケーションは、マルチプレーヤゲーミングなどのアプリケーションに有用でありうる。
図15は、サーバベースの検出を用いた分散処理が可能なモバイルプラットフォーム110のブロック図である。モバイルプラットフォーム110は、カメラ112と、カメラ112によってキャプチャされた画像を表示することが可能なディスプレイ114を含むユーザインターフェース150とを含む。ユーザインターフェース150は、また、キーパッド152、または、ユーザがそれを通じてモバイルプラットフォーム110に情報を入力できる他の入力デバイスを含みうる。望まれる場合、キーパッド152は、タッチセンサを備えたディスプレイ114に仮想キーパッドを一体化させることによって取り除かれる。ユーザインターフェース150は、また、例えばモバイルプラットフォームがセルラ電話である場合、マイクロフォン154およびスピーカ156を含みうる。
モバイルプラットフォーム110は、前述したように、外部サーバ130(図3)と通信するために使用されうる無線トランシーバ162を含むことができる。モバイルプラットフォーム110は、オプション的に、例えば、加速度計、ジャイロスコープ、電子コンパス、または、類似した他の動き感知エレメントを含む動きセンサ164、および、SPSシステムから測位信号を受信することが可能な衛星測位システム(SPS)受信機166のような、ARアプリケーションに役立ちうる追加の特徴を含みうる。当然、モバイルプラットフォーム110は、本開示と関係のない他のエレメントを含みうる。
モバイルプラットフォーム110は、また、カメラ112および無線トランシーバ162に、使用される場合にはユーザインターフェース150、動きセンサ164、およびSPS受信機166のような他の特徴とともに接続され、それらと通信する、制御ユニット170を含みうる。制御ユニット170は、前述したように、カメラ112からデータを受け入れて処理し、それに応答して無線トランシーバ162を通じて外部サーバとの通信を制御する。制御ユニット170は、プロセッサ171と、本明細書で説明された方法または方法の一部を実行するためにプロセッサ171によって実行されるソフトウェア173を含みうる関連メモリ172とによって提供されうる。制御ユニット170は、追加的にまたは代替的に、ハードウェア174および/またはファームウェア175を含みうる。
制御ユニット170は、前述したように外部サーバとの通信をトリガするシーン変化検出器304を含む。図3に示されたトリガ時間マネジャ305および画像品質推定器306のような追加のコンポーネントも含まれうる。制御ユニット170は、さらに、基準フリートラッカ302と、基準ベーストラッカ314と、例えばメモリ172内のローカルキャッシュに記憶されたオブジェクトに基づいて現在の画像内のオブジェクトを検出するために使用される、検出ユニット312とを含む。制御ユニット170は、さらに、AR情報を生成してディスプレイ114上に表示するために拡張現実(AR)ユニット178を含む。シーン変化検出器304、基準フリートラッカ302、基準ベーストラッカ314、検出ユニット312、ARユニット178は、明瞭のために、別個に、かつ、プロセッサ171から離れて示されているが、それらは、単一のユニットであることができ、および/または、プロセッサ171によって読み取られプロセッサ171で実行されるソフトウェア173内の命令に基づいてプロセッサ171に実装されることができる。本明細書で使用されるとき、プロセッサ171、並びに、シーン変化検出器304、基準フリートラッカ302、基準ベーストラッカ314、検出ユニット312、およびARユニット178のうちの1または複数は、1または複数のマイクロプロセッサ、組み込み式プロセッサ、コントローラ、特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)などを含むことができるが、必ずしも含む必要はないことが理解されるであろう。プロセッサという用語は、特定のハードウェアというよりはむしろシステムによって実現される機能を説明することが意図されている。さらに、本明細書で使用される場合、「メモリ」という用語は、あらゆるタイプのコンピュータ記憶媒体を指し、それには、長期メモリ、短期メモリ、またはモバイルプラットフォームに関連付けられた他のメモリが含まれ、いずれか特定のタイプのメモリもしくは特定の数のメモリ、またはメモリが記憶される特定のタイプの媒体に限定されるべきではない。
本明細書で説明された方法は、アプリケーションに応じて様々な手段によって実施されうる。例えば、これらの方法は、ハードウェア174、ファームウェア175、ソフトウェア173、または、それらの組み合わせにおいて実装されうる。ハードウェア実装の場合、処理ユニットは、1または複数の特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、デジタル信号処理デバイス(DSPD)、プログラマブル論理デバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、電子デバイス、本明細書で説明された機能を実行するように設計された他の電子ユニット、または、それらの組み合わせ内に実装されうる。このように、センサデータを獲得するためのデバイスは、カメラ112、SPS受信機166、動きセンサ164、並びに、カメラ112またはセンサデータを獲得するための他の手段によって生成された画像に基づいて、テキスト認識またはバーコード読取のようなサイド情報を生成しうるプロセッサを備えることができる。以前に獲得されたセンサデータと比べてセンサデータの変化を備えるトリガイベントが存在するか否かを判定するためのデバイスは、ソフトウェア173に組み込まれた命令を実行するプロセッサ171によってまたはハードウェア174もしくはファームウェア175において実施されうる検出ユニット312、または、以前に獲得されたセンサデータと比べてセンサデータにおける変化を備えるトリガイベントが存在するか否かを判定するための他の手段を備える。トリガイベントが存在するときにセンサデータをサーバに送信するデバイスは、無線トランシーバ162、またはトリガイベントが存在するときにセンサデータをサーバに送信するための他の手段を備える。サーバからのセンサデータに関連する情報を受信するデバイスは、無線トランシーバ162、またはサーバからセンサデータに関連する情報を受信するための他の手段を備える。オブジェクトに対するモバイルプラットフォームのポーズを得るためのデバイスは、基準フリートラッカ302、無線トランシーバ162、または、オブジェクトに対するモバイルプラットフォームのポーズを得るための他の手段を備える。オブジェクトの基準画像およびポーズを用いてオブジェクトをトラッキングするデバイスは、基準ベーストラッカ314、または、オブジェクトの基準画像およびポーズを使用してオブジェクトをトラッキングする他の手段を備える。以前のキャプチャ画像と比べてキャプチャ画像にシーン変化が存在するか否かを判定するデバイスは、ソフトウェア173に組み込まれた命令を実行するプロセッサ171によってまたはハードウェア174もしくはファームウェア175において実施されうるシーン変化検出器304、または、以前のキャプチャ画像と比べてキャプチャ画像にシーン変化が存在するか否かを判定する他の手段を備える。
ファームウェアおよび/またはソフトウェア実装では、方法は、本明細書で説明された機能を実行するモジュール(例えば、プロシージャ、関数など)で実現されうる。命令を有形に組み込んだ任意の機械読取可能な媒体は、本明細書で説明された方法を実施する際に使用されうる。例えば、ソフトウェア173は、メモリ172に記憶され、プロセッサ171によって実行されるプログラムコードを含みうる。メモリは、プロセッサ171内で、またはプロセッサ171の外部で実装されうる。
ファームウェアおよび/またはソフトウェア実装の場合、機能は、コンピュータ読取可能な媒体上の1または複数の命令またはコードとして記憶されうる。例としては、データ構造でエンコードされた非一時的なコンピュータ読取可能な媒体、およびコンピュータプログラムでエンコードされたコンピュータ読取可能な媒体が含まれる。コンピュータ読取可能な媒体は、物理的なコンピュータ記憶媒体を含む。記憶媒体は、コンピュータによりアクセスされることができる任意の利用可能な媒体でありうる。非限定的な例として、そのようなコンピュータ読取可能な媒体は、RAM、ROM、フラッシュメモリ、EEPROM、CD−ROMまたは他の光ディスク記憶装置、磁気ディスク記憶装置または他の磁気ディスク記憶デバイス、または、コンピュータによってアクセスでき、命令またはデータ構造の形態で所望のプログラムコードを記憶するために使用されることができる他の媒体を備えることができる。ディスク(disk)とディスク(disc)は、本明細書で使用される場合、コンパクトディスク(CD)、レーザディスク、光ディスク、デジタル多用途ディスク(DVD)、フロッピー(登録商標)ディスク、ブルーレイ(登録商標)ディスクを含む。ここで、ディスク(disk)は、通常、磁気作用によってデータを再生し、ディスク(disc)は、レーザーで光学的にデータを再生する。上記の組み合わせもコンピュータ読取可能な媒体の範囲に含まれるべきである。
本発明について、教示の目的で特定の実施形態に関して示したが、本発明は、それらに制限されない。本発明の範囲から逸脱することなく、様々な適応および修正が行われうる。したがって、添付の請求項の趣旨および範囲は、上記説明に制限されるべきではない。
以下に、出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
方法であって、
モバイルプラットフォームを用いてセンサデータを獲得することと、
以前に獲得されたセンサデータと比べて前記センサデータにおける変化を備えるトリガイベントが存在するか否かを判定することと、
前記トリガイベントが存在する場合、前記センサデータをサーバに送信することと、
前記センサデータに関連する情報を前記サーバから受信することと
を備える方法。
[C2]
前記センサデータは、オブジェクトのキャプチャ画像を備える、C1に記載の方法。
[C3]
前記センサデータを前記サーバに送信する前に前記キャプチャ画像の品質を決定することをさらに備え、前記センサデータは、前記キャプチャ画像の前記品質が閾値よりも良い場合にのみ、前記サーバに送信される、C2に記載の方法。
[C4]
前記キャプチャ画像の前記品質を決定することは、前記キャプチャ画像の鮮明度を分析することと、前記キャプチャ画像内の検出されたコーナの数を分析することと、学習分類子とともに前記画像から得られた統計値を使用することと、のうちの少なくとも1つを備える、C3に記載の方法。
[C5]
前記サーバから受信された前記センサデータに関連する前記情報に基づいて、前記オブジェクトについての拡張をレンダリングすることをさらに備える、C2に記載の方法。
[C6]
前記センサデータに関連する前記情報は、前記オブジェクトの識別を備える、C2に記載の方法。
[C7]
前記キャプチャ画像は、複数のオブジェクトを備え、前記センサデータに関連する前記情報は、前記複数のオブジェクトの識別を備える、C2に記載の方法。
[C8]
前記モバイルプラットフォームについて前記複数のオブジェクトの各々に関するポーズを取得することと、
前記ポーズ、および前記センサデータに関連する前記情報を用いて、前記複数のオブジェクトの各々をトラッキングすることと
をさらに備える、C7に記載の方法。
[C9]
前記オブジェクトに対する前記モバイルプラットフォームのポーズを取得することと、
前記ポーズ、および前記センサデータに関連する前記情報を用いて、前記オブジェクトをトラッキングすることと
をさらに備える、C2に記載の方法。
[C10]
前記センサデータに関連する前記情報は、前記オブジェクトの基準画像を備え、前記ポーズを取得することは、前記キャプチャ画像および前記基準画像に基づいて第1のポーズを前記サーバから受信することを備える、C9に記載の方法。
[C11]
前記第1のポーズが前記サーバから受信されるまで前記オブジェクトの基準フリートラッキングを実行することをさらに備える、C10に記載の方法。
[C12]
前記第1のポーズが前記サーバから受信されたとき、前記オブジェクトの第2のキャプチャ画像を獲得することと、
漸次的な変化を決定するために、前記キャプチャ画像と前記第2のキャプチャ画像との間で前記オブジェクトをトラッキングすることと、
前記オブジェクトに対する前記モバイルプラットフォームの前記ポーズを取得するために、前記漸次的な変化および前記第1のポーズを使用することと
をさらに備える、C10に記載の方法。
[C13]
前記オブジェクトの第2のキャプチャ画像を獲得することと、
前記基準画像を用いて、前記第2のキャプチャ画像内の前記オブジェクトを検出することと、
前記オブジェクトに対する前記モバイルプラットフォームの前記ポーズを取得するために、前記基準画像および前記第2のキャプチャ画像で検出された前記オブジェクトを使用することと、
前記オブジェクトの基準ベースのトラッキングを初期化するために前記ポーズを使用することと
をさらに備える、C10に記載の方法。
[C14]
前記センサデータに関連する前記情報は、前記オブジェクトの二次元(2D)モデル、前記オブジェクトの三次元(3D)モデル、拡張情報、前記オブジェクトについての顕著性情報、および、オブジェクトマッチングに関連する情報のうちの少なくとも1つを備える、C2に記載の方法。
[C15]
前記トリガイベントが存在するか否かを判定することは、以前のキャプチャ画像と比べて前記キャプチャ画像におけるシーン変化が存在するか否かを判定することを備える、C2に記載の方法。
[C16]
前記シーン変化が存在するか否かを判定することは、
前記キャプチャ画像および前記以前のキャプチャ画像を用いて第1の変化メトリックを決定することと、
以前のトリガイベントから第2の以前のキャプチャ画像と前記キャプチャ画像とを用いて第2の変化メトリックを決定することと、
前記キャプチャ画像についてのヒストグラム変化メトリックを生成することと、
前記シーン変化を判定するために、前記第1の変化メトリック、前記第2の変化メトリック、および前記ヒストグラム変化メトリックを使用することと
を備える、C15に記載の方法。
[C17]
前記センサデータに関連する前記情報は、オブジェクト識別を備え、前記方法は、さらに、
前記オブジェクトの追加のキャプチャ画像を獲得することと、
前記オブジェクト識別を用いて、前記追加のキャプチャ画像内の前記オブジェクトを識別することと、
前記オブジェクト識別に基づいて前記追加のキャプチャ画像のためのトラッキングマスクを生成することと、ここで、前記トラッキングマスクは、前記オブジェクトが識別される前記追加のキャプチャ画像内の領域を示す、
前記追加のキャプチャ画像の残りの領域を識別するために、前記トラッキングマスクを前記オブジェクトの前記追加のキャプチャ画像と共に使用することと、
前記追加のキャプチャ画像の前記残りの領域におけるシーン変化を備えるトリガイベントを検出することと
を備える、C2に記載の方法。
[C18]
前記センサデータは、画像データ、動きセンサデータ、位置データ、バーコード認識、テキスト検出結果、および、コンテキスト情報のうちの1つまたは複数を含む、C1に記載の方法。
[C19]
前記コンテキスト情報は、ユーザ挙動、ユーザ選好、ロケーション、前記ユーザについての情報、時刻、および照明品質のうちの1つまたは複数を含む、C18に記載の方法。
[C20]
前記センサデータは、顔の画像を備え、前記サーバから受信された前記情報は、前記顔に関連付けられたアイデンティティを備える、C1に記載の方法。
[C21]
前記センサデータは、異なる位置にあるカメラを用いてキャプチャされたオブジェクトの複数の画像と、前記オブジェクトに対する前記カメラのポーズの粗な推定とを備え、前記サーバから受信された前記情報は、前記ポーズのリファインメントおよび前記オブジェクトの三次元モデルのうちの少なくとも1つを備える、C1に記載の方法。
[C22]
モバイルプラットフォームであって、
センサデータを獲得するように適合されたセンサと、
無線トランシーバと、
前記センサと前記無線トランシーバとに結合されたプロセッサであって、前記センサを介してセンサデータを獲得し、以前に獲得されたセンサデータと比べて前記センサデータにおける変化を備えるトリガイベントが存在するか否かを判定し、前記トリガイベントが存在する場合、前記無線トランシーバを介して前記センサデータを外部プロセッサに送信し、前記無線トランシーバを介して前記外部プロセッサから前記センサデータに関連する情報を受信するように適合されたプロセッサと
を備えるモバイルプラットフォーム。
[C23]
前記センサは、カメラであり、前記センサデータは、オブジェクトのキャプチャ画像を備える、C22に記載のモバイルプラットフォーム。
[C24]
前記プロセッサは、前記センサデータが前記外部プロセッサに送信される前に前記キャプチャ画像の品質を決定するようにさらに適合され、前記センサデータは、前記キャプチャ画像の前記品質が閾値よりも良い場合にのみ、前記外部プロセッサに送信される、C23に記載のモバイルプラットフォーム。
[C25]
前記プロセッサは、前記キャプチャ画像の鮮明度の分析、前記キャプチャ画像内の検出されたコーナの数の分析、および前記画像から得られた統計値での学習分類子の処理のうちの少なくとも1つを実行するように適合されることによって、前記キャプチャ画像の前記品質を決定するように適合される、C24に記載のモバイルプラットフォーム。
[C26]
前記プロセッサは、さらに、前記無線トランシーバを介して受信された前記センサデータに関連する前記情報に基づいて前記オブジェクトに対して拡張をレンダリングするように適合される、C23に記載のモバイルプラットフォーム。
[C27]
前記センサデータに関連する前記情報は、前記オブジェクトの識別を備える、C23に記載のモバイルプラットフォーム。
[C28]
前記キャプチャ画像は、複数のオブジェクトを備え、前記センサデータに関連する前記情報は、前記複数のオブジェクトの識別を備える、C23に記載のモバイルプラットフォーム。
[C29]
前記プロセッサは、さらに、前記モバイルプラットフォームに関して前記複数のオブジェクトの各々についてのポーズを取得し、前記ポーズおよび前記センサデータに関連する前記情報を用いて前記複数のオブジェクトの各々をトラッキングするように適合される、C28に記載のモバイルプラットフォーム。
[C30]
前記プロセッサは、さらに、前記オブジェクトに対する前記モバイルプラットフォームのポーズを取得し、前記ポーズおよび前記センサデータに関連する前記情報を用いて前記オブジェクトをトラッキングするように適合される、C23に記載のモバイルプラットフォーム。
[C31]
前記センサデータに関連する前記情報は、前記オブジェクトの基準画像を備え、前記プロセッサは、前記キャプチャ画像および前記基準画像に基づいて第1のポーズを前記外部プロセッサから受信するように適合される、C30に記載のモバイルプラットフォーム。
[C32]
前記プロセッサは、さらに、前記第1のポーズが前記サーバから受信されるまで、前記オブジェクトの基準フリートラッキングを実行するように適合される、C31に記載のモバイルプラットフォーム。
[C33]
前記プロセッサは、さらに、前記第1のポーズが前記外部プロセッサから受信されるとき、前記オブジェクトの第2のキャプチャ画像を獲得し、漸次的な変化を決定するために、前記キャプチャ画像と前記第2のキャプチャ画像との間で前記オブジェクトをトラッキングし、前記オブジェクトに対する前記モバイルプラットフォームの前記ポーズを取得するために前記漸次的な変化と前記第1のポーズとを使用するように適合される、C31に記載のモバイルプラットフォーム。
[C34]
前記プロセッサは、さらに、前記オブジェクトの第2のキャプチャ画像を獲得し、前記基準画像を用いて前記第2のキャプチャ画像内の前記オブジェクトを検出し、前記オブジェクトに対する前記モバイルプラットフォームの前記ポーズを取得するために前記第2のキャプチャ画像および前記基準画像において検出された前記オブジェクトを使用し、前記オブジェクトの基準ベースのトラッキングを初期化するために前記ポーズを使用するように適合される、C31に記載のモバイルプラットフォーム。
[C35]
前記プロセッサはさらに、前記オブジェクトの二次元(2D)モデル、前記オブジェクトの三次元(3D)モデル、拡張情報、前記オブジェクトについての顕著性情報、および、オブジェクトマッチングに関連する情報のうちの少なくとも1つを前記外部プロセッサから前記無線送信機を介して受信するように適合される、C23に記載のモバイルプラットフォーム。
[C36]
前記プロセッサは、以前のキャプチャ画像に対して前記キャプチャ画像におけるシーン変化が存在するか否かを判定するように適合されることによって、前記トリガイベントが存在するか否かを判定するように適合される、C23に記載のモバイルプラットフォーム。
[C37]
前記プロセッサは、前記キャプチャ画像および前記以前のキャプチャ画像を用いて第1の変化メトリックを決定し、以前のトリガイベントから第2の以前のキャプチャ画像と前記キャプチャ画像とを用いて第2の変化メトリックを決定し、前記キャプチャ画像についてのヒストグラム変化メトリックを生成し、前記シーン変化を判定するために、前記第1の変化メトリック、前記第2の変化メトリック、および前記ヒストグラム変化メトリックを使用するように適合されることによって、前記シーン変化が存在するか否かを決定するように適合される、C36に記載のモバイルプラットフォーム。
[C38]
前記センサデータに関連する前記情報は、オブジェクト識別を備えており、前記プロセッサは、さらに、前記オブジェクトの追加のキャプチャ画像を獲得し、前記オブジェクト識別を用いて前記追加のキャプチャ画像内の前記オブジェクトを識別し、前記オブジェクト識別に基づいて前記追加のキャプチャ画像のためのトラッキングマスクを生成し、ここで、前記トラッキングマスクは、前記オブジェクトが識別される前記追加のキャプチャ画像内の領域を示しており、前記追加のキャプチャ画像の残りの領域を識別するために前記トラッキングマスクを前記オブジェクトの前記追加のキャプチャ画像と共に使用し、前記追加のキャプチャ画像の前記残りの領域におけるシーン変化を備えるトリガイベントを検出するように適合される、C23に記載のモバイルプラットフォーム。
[C39]
前記センサデータは、画像データ、動きセンサデータ、位置データ、バーコード認識、テキスト検出結果、およびコンテキスト情報のうちの1または複数を含む、C22に記載のモバイルプラットフォーム。
[C40]
前記コンテキスト情報は、ユーザ挙動、ユーザ選好、ロケーション、前記ユーザについての情報、時刻、および照明品質のうちの1つまたは複数を含む、C39に記載のモバイルプラットフォーム。
[C41]
前記センサはカメラを備え、前記センサデータは顔の画像を備え、前記無線トランシーバを介して受信された前記情報は、前記顔に関連付けられたアイデンティティを備える、C22に記載のモバイルプラットフォーム。
[C42]
前記センサはカメラを備え、前記センサデータは、異なる位置にある前記カメラを用いてキャプチャされたオブジェクトの複数の画像と、前記オブジェクトに対する前記カメラのポーズの粗な推定とを備え、前記サーバから受信される前記情報は、前記ポーズのリファインメントおよび前記オブジェクトの三次元モデルのうちの少なくとも1つを備える、C22に記載のモバイルプラットフォーム。
[C43]
モバイルプラットフォームであって、
センサデータを獲得する手段と、
以前に獲得されたセンサデータと比べて前記センサデータにおける変化を備えるトリガイベントが存在するか否かを判定する手段と、
前記トリガイベントが存在する場合、前記センサデータをサーバに送信する手段と、
前記センサデータに関連する情報を前記サーバから受信する手段と
を備えるモバイルプラットフォーム。
[C44]
センサデータを獲得する前記手段はカメラであり、前記センサデータはオブジェクトのキャプチャ画像であり、前記センサデータに関連する前記情報は、前記オブジェクトの基準画像を備え、前記モバイルプラットフォームは、さらに、
前記オブジェクトに対する前記モバイルプラットフォームのポーズを取得する手段と、
前記ポーズおよび前記オブジェクトの基準画像を用いて前記オブジェクトをトラッキングする手段とを備える、C43に記載のモバイルプラットフォーム。
[C45]
センサデータを獲得する前記手段はカメラであり、前記センサデータは、オブジェクトのキャプチャ画像であり、前記トリガイベントが存在するか否かを判定する前記手段は、以前のキャプチャ画像と比べて前記キャプチャ画像におけるシーン変化が存在するか否かを判定する手段を備える、C43に記載のモバイルプラットフォーム。
[C46]
プログラムコードを格納した非一時的なコンピュータ読取可能な媒体であって、
センサデータを獲得するためのプログラムコードと、
以前に獲得されたセンサデータと比べて前記センサデータにおける変化を備えるトリガイベントが存在するか否かを判定するためのプログラムコードと、
前記トリガイベントが存在する場合、前記センサデータを外部プロセッサに送信するためのプログラムコードと、
前記外部プロセッサから前記センサデータに関連する情報を受信するためのプログラムコードとを備える、非一時的なコンピュータ読取可能な媒体。
[C47]
前記センサデータは、オブジェクトのキャプチャ画像であり、前記センサデータに関連する情報は、前記オブジェクトの基準画像を備え、前記非一時的なコンピュータ読取可能な媒体は、
前記オブジェクトに対するポーズを取得するためのプログラムコードと、
前記ポーズおよび前記オブジェクトの前記基準画像を用いて前記オブジェクトをトラッキングするためのプログラムコードとをさらに備える、C46に記載の非一時的なコンピュータ読取可能な媒体。
[C48]
前記センサデータは、オブジェクトのキャプチャ画像であり、前記トリガイベントが存在するか否かを判定するための前記プログラムコードは、以前のキャプチャ画像と比べて前記キャプチャ画像においてシーン変化が存在するか否かを判定するためのプログラムコードを備える、C46に記載の非一時的なコンピュータ読取可能な媒体。

Claims (50)

  1. プロセッサが実行する方法であって、
    モバイルプラットフォームを用いてセンサデータを獲得することと、ここで、前記センサデータは、オブジェクトの少なくとも1つのキャプチャ画像を備える、
    前記オブジェクトの前記少なくとも1つのキャプチャ画像を備える前記センサデータを使用して、前記オブジェクトをトラッキングすることと、
    以前に獲得されたセンサデータと比べて前記センサデータにおける変化を備えるトリガイベントが存在するか否かを判定することと、
    前記オブジェクトの前記少なくとも1つのキャプチャ画像を備える前記センサデータを使用して、前記オブジェクトをトラッキングし続けている間に、前記トリガイベントが存在する場合、前記センサデータをサーバに送信することと、
    前記センサデータに関連する情報を前記サーバから受信することと
    前記オブジェクトに対する前記モバイルプラットフォームのポーズを取得することと、
    前記ポーズ、および前記センサデータに関連する前記情報を用いて、前記オブジェクトをトラッキングすることと、
    を備え、
    ここで、前記センサデータに関連する前記情報は、前記オブジェクトの基準画像を備え、前記ポーズを取得することは、前記キャプチャ画像および前記基準画像に基づいて第1のポーズを前記サーバから受信することを備える、
    方法。
  2. 前記オブジェクトをトラッキングすることは、前記サーバから受信された前記オブジェクトの基準画像を用いることをさらに含む、請求項1に記載の方法。
  3. 前記センサデータを前記サーバに送信する前に前記キャプチャ画像の品質を決定することをさらに備え、前記センサデータは、前記キャプチャ画像の前記品質が閾値よりも良い場合にのみ、前記サーバに送信される、ここで、前記キャプチャ画像の前記品質を決定することは、前記キャプチャ画像の鮮明度を分析することと、前記キャプチャ画像内の検出されたコーナの数を分析することと、学習分類子とともに前記画像から得られた統計値を使用することと、のうちの少なくとも1つを備える、請求項1に記載の方法。
  4. 前記サーバから受信された前記センサデータに関連する前記情報に基づいて、前記オブジェクトに対して拡張データをレンダリングすることをさらに備える、請求項1に記載の方法。
  5. 前記センサデータに関連する前記情報は、前記オブジェクトの識別をさらに備える、請求項1に記載の方法。
  6. 前記キャプチャ画像は、複数のオブジェクトを備え、前記センサデータに関連する前記情報は、前記複数のオブジェクトの識別を備える、請求項1に記載の方法。
  7. 前記モバイルプラットフォームについて前記複数のオブジェクトの各々に関するポーズを取得することと、
    前記ポーズ、および前記センサデータに関連する前記情報を用いて、前記複数のオブジェクトの各々をトラッキングすることと
    をさらに備える、請求項6に記載の方法。
  8. 前記第1のポーズが前記サーバから受信されるまで前記オブジェクトの基準フリートラッキングを実行することをさらに備える、請求項に記載の方法。
  9. 前記第1のポーズが前記サーバから受信されたとき、前記オブジェクトの第2のキャプチャ画像を獲得することと、
    漸次的な変化を決定するために、前記キャプチャ画像と前記第2のキャプチャ画像との間で前記オブジェクトをトラッキングすることと、
    前記オブジェクトに対する前記モバイルプラットフォームの前記ポーズを取得するために、前記漸次的な変化および前記第1のポーズを使用することと
    をさらに備える、請求項に記載の方法。
  10. 前記オブジェクトの第2のキャプチャ画像を獲得することと、
    前記基準画像を用いて、前記第2のキャプチャ画像内の前記オブジェクトを検出することと、
    前記オブジェクトに対する前記モバイルプラットフォームの前記ポーズを取得するために、前記基準画像および前記第2のキャプチャ画像で検出された前記オブジェクトを使用することと、
    前記オブジェクトの基準ベースのトラッキングを初期化するために前記ポーズを使用することと
    をさらに備える、請求項に記載の方法。
  11. 前記センサデータに関連する前記情報は、前記オブジェクトの二次元(2D)モデル、前記オブジェクトの三次元(3D)モデル、拡張情報、前記オブジェクトについての顕著性情報、および、オブジェクトマッチングに関連する情報のうちの少なくとも1つをさらに備える、請求項1に記載の方法。
  12. 前記トリガイベントが存在するか否かを判定することは、以前のキャプチャ画像と比べて前記キャプチャ画像におけるシーン変化が存在するか否かを判定することを備える、請求項1に記載の方法。
  13. 前記シーン変化が存在するか否かを判定することは、
    前記キャプチャ画像および前記以前のキャプチャ画像を用いて第1の変化メトリックを決定することと、
    以前のトリガイベントから第2の以前のキャプチャ画像と前記キャプチャ画像とを用いて第2の変化メトリックを決定することと、
    前記キャプチャ画像についてのヒストグラム変化メトリックを生成することと、
    前記シーン変化を判定するために、前記第1の変化メトリック、前記第2の変化メトリック、および前記ヒストグラム変化メトリックを使用することと
    を備える、請求項12に記載の方法。
  14. プロセッサが実行する方法であって、
    モバイルプラットフォームを用いてセンサデータを獲得することと、ここで、前記センサデータは、オブジェクトの少なくとも1つのキャプチャ画像を備える、
    前記オブジェクトの前記少なくとも1つのキャプチャ画像を備える前記センサデータを使用して、前記オブジェクトをトラッキングすることと、
    以前に獲得されたセンサデータと比べて前記センサデータにおける変化を備えるトリガイベントが存在するか否かを判定することと、
    前記オブジェクトの前記少なくとも1つのキャプチャ画像を備える前記センサデータを使用して、前記オブジェクトをトラッキングし続けている間に、前記トリガイベントが存在する場合、前記センサデータをサーバに送信することと、
    前記センサデータに関連する情報を前記サーバから受信することと、
    を備え、
    ここで、前記センサデータに関連する前記情報は、オブジェクト識別を備え、前記方法は、さらに、
    前記オブジェクトの追加のキャプチャ画像を獲得することと、
    前記オブジェクト識別を用いて、前記追加のキャプチャ画像内の前記オブジェクトを識別することと、
    前記オブジェクト識別に基づいて前記追加のキャプチャ画像のためのトラッキングマスクを生成することと、ここで、前記トラッキングマスクは、前記オブジェクトが識別される前記追加のキャプチャ画像内の領域を示す、
    前記追加のキャプチャ画像の残りの領域を識別するために、前記トラッキングマスクを前記オブジェクトの前記追加のキャプチャ画像と共に使用することと、
    前記追加のキャプチャ画像の前記残りの領域におけるシーン変化を備えるトリガイベントを検出することと
    を備える、方法。
  15. 前記センサデータは、画像データ、動きセンサデータ、位置データ、バーコード認識、テキスト検出結果、および、コンテキスト情報のうちの1つまたは複数をさらに含む、請求項1に記載の方法。
  16. 前記コンテキスト情報は、ユーザ挙動、ユーザ選好、ロケーション、前記ユーザについての情報、時刻、および照明品質のうちの1つまたは複数を含む、請求項15に記載の方法。
  17. 前記センサデータは、顔の画像を備え、前記サーバから受信された前記情報は、前記顔に関連付けられたアイデンティティを備える、請求項1に記載の方法。
  18. 前記センサデータは、異なる位置にあるカメラを用いてキャプチャされたオブジェクトの複数の画像と、前記オブジェクトに対する前記カメラのポーズの推定とを備え、前記サーバから受信された前記情報は、前記ポーズのリファインメントおよび前記オブジェクトの三次元モデルのうちの少なくとも1つを備える、請求項1に記載の方法。
  19. モバイルプラットフォームであって、
    センサデータを獲得するように適合されたセンサと、ここで、前記センサは、カメラであり、前記センサデータは、オブジェクトの少なくとも1つのキャプチャ画像を備える、
    無線トランシーバと、
    前記センサと前記無線トランシーバとに結合されたプロセッサであって、前記センサを介してセンサデータを獲得し、前記オブジェクトの前記少なくとも1つのキャプチャ画像を備える前記センサデータを使用して、前記オブジェクトをトラッキングし、以前に獲得されたセンサデータと比べて前記センサデータにおける変化を備えるトリガイベントが存在するか否かを判定し、前記オブジェクトの前記少なくとも1つのキャプチャ画像を備える前記センサデータを使用して、前記オブジェクトをトラッキングし続けている間に、前記トリガイベントが存在する場合、前記無線トランシーバを介して前記センサデータを外部プロセッサに送信し、前記無線トランシーバを介して前記外部プロセッサから前記センサデータに関連する情報を受信するように適合されたプロセッサと
    を備え、
    前記プロセッサは、さらに、前記オブジェクトに対する前記モバイルプラットフォームのポーズを取得し、前記ポーズおよび前記センサデータに関連する前記情報を用いて前記オブジェクトをトラッキングするように適合され、
    ここで、前記センサデータに関連する前記情報は、前記オブジェクトの基準画像を備え、前記プロセッサは、前記キャプチャ画像および前記基準画像に基づいて第1のポーズを前記外部プロセッサから受信するように適合される、
    モバイルプラットフォーム。
  20. 前記プロセッサは、サーバから受信された前記オブジェクトの基準画像を用いて前記オブジェクトをトラッキングするようにさらに適合される、請求項19に記載のモバイルプラットフォーム。
  21. 前記プロセッサは、前記センサデータが前記外部プロセッサに送信される前に前記キャプチャ画像の品質を決定するようにさらに適合され、前記センサデータは、前記キャプチャ画像の前記品質が閾値よりも良い場合にのみ、前記外部プロセッサに送信される、ここで、前記プロセッサは、前記キャプチャ画像の鮮明度の分析、前記キャプチャ画像内の検出されたコーナの数の分析、および前記画像から得られた統計値での学習分類子の処理のうちの少なくとも1つを実行するように適合されることによって、前記キャプチャ画像の前記品質を決定するように適合される、請求項19に記載のモバイルプラットフォーム。
  22. 前記プロセッサは、さらに、前記無線トランシーバを介して受信された前記センサデータに関連する前記情報に基づいて前記オブジェクトに対して拡張データをレンダリングするように適合される、請求項19に記載のモバイルプラットフォーム。
  23. 前記センサデータに関連する前記情報は、前記オブジェクトの識別をさらに備える、請求項19に記載のモバイルプラットフォーム。
  24. 前記キャプチャ画像は、複数のオブジェクトを備え、前記センサデータに関連する前記情報は、前記複数のオブジェクトの識別を備える、請求項19に記載のモバイルプラットフォーム。
  25. 前記プロセッサは、さらに、前記モバイルプラットフォームに関して前記複数のオブジェクトの各々についてのポーズを取得し、前記ポーズおよび前記センサデータに関連する前記情報を用いて前記複数のオブジェクトの各々をトラッキングするように適合される、請求項24に記載のモバイルプラットフォーム。
  26. 前記プロセッサは、さらに、前記第1のポーズが前記サーバから受信されるまで、前記オブジェクトの基準フリートラッキングを実行するように適合される、請求項19に記載のモバイルプラットフォーム。
  27. 前記プロセッサは、さらに、前記第1のポーズが前記外部プロセッサから受信されるとき、前記オブジェクトの第2のキャプチャ画像を獲得し、漸次的な変化を決定するために、前記キャプチャ画像と前記第2のキャプチャ画像との間で前記オブジェクトをトラッキングし、前記オブジェクトに対する前記モバイルプラットフォームの前記ポーズを取得するために前記漸次的な変化と前記第1のポーズとを使用するように適合される、請求項19に記載のモバイルプラットフォーム。
  28. 前記プロセッサは、さらに、前記オブジェクトの第2のキャプチャ画像を獲得し、前記基準画像を用いて前記第2のキャプチャ画像内の前記オブジェクトを検出し、前記オブジェクトに対する前記モバイルプラットフォームの前記ポーズを取得するために前記第2のキャプチャ画像および前記基準画像において検出された前記オブジェクトを使用し、前記オブジェクトの基準ベースのトラッキングを初期化するために前記ポーズを使用するように適合される、請求項19に記載のモバイルプラットフォーム。
  29. 前記プロセッサはさらに、前記オブジェクトの二次元(2D)モデル、前記オブジェクトの三次元(3D)モデル、拡張情報、前記オブジェクトについての顕著性情報、および、オブジェクトマッチングに関連する情報のうちの少なくとも1つを前記外部プロセッサから前記無線トランシーバを介して受信するように適合される、請求項19に記載のモバイルプラットフォーム。
  30. 前記プロセッサは、以前のキャプチャ画像に対して前記キャプチャ画像におけるシーン変化が存在するか否かを判定するように適合されることによって、前記トリガイベントが存在するか否かを判定するように適合される、請求項19に記載のモバイルプラットフォーム。
  31. 前記プロセッサは、前記キャプチャ画像および前記以前のキャプチャ画像を用いて第1の変化メトリックを決定し、以前のトリガイベントから第2の以前のキャプチャ画像と前記キャプチャ画像とを用いて第2の変化メトリックを決定し、前記キャプチャ画像についてのヒストグラム変化メトリックを生成し、前記シーン変化を判定するために、前記第1の変化メトリック、前記第2の変化メトリック、および前記ヒストグラム変化メトリックを使用するように適合されることによって、前記シーン変化が存在するか否かを決定するように適合される、請求項30に記載のモバイルプラットフォーム。
  32. モバイルプラットフォームであって、
    センサデータを獲得するように適合されたセンサと、ここで、前記センサは、カメラであり、前記センサデータは、オブジェクトの少なくとも1つのキャプチャ画像を備える、
    無線トランシーバと、
    前記センサと前記無線トランシーバとに結合されたプロセッサであって、前記センサを介してセンサデータを獲得し、前記オブジェクトの前記少なくとも1つのキャプチャ画像を備える前記センサデータを使用して、前記オブジェクトをトラッキングし、以前に獲得されたセンサデータと比べて前記センサデータにおける変化を備えるトリガイベントが存在するか否かを判定し、前記オブジェクトの前記少なくとも1つのキャプチャ画像を備える前記センサデータを使用して、前記オブジェクトをトラッキングし続けている間に、前記トリガイベントが存在する場合、前記無線トランシーバを介して前記センサデータを外部プロセッサに送信し、前記無線トランシーバを介して前記外部プロセッサから前記センサデータに関連する情報を受信するように適合されたプロセッサと、
    を備え、
    ここで、前記センサデータに関連する前記情報は、オブジェクト識別を備えており、前記プロセッサは、さらに、前記オブジェクトの追加のキャプチャ画像を獲得し、前記オブジェクト識別を用いて前記追加のキャプチャ画像内の前記オブジェクトを識別し、前記オブジェクト識別に基づいて前記追加のキャプチャ画像のためのトラッキングマスクを生成し、ここで、前記トラッキングマスクは、前記オブジェクトが識別される前記追加のキャプチャ画像内の領域を示しており、前記追加のキャプチャ画像の残りの領域を識別するために前記トラッキングマスクを前記オブジェクトの前記追加のキャプチャ画像と共に使用し、前記追加のキャプチャ画像の前記残りの領域におけるシーン変化を備えるトリガイベントを検出するように適合される
    バイルプラットフォーム。
  33. 前記センサデータは、画像データ、動きセンサデータ、位置データ、バーコード認識、テキスト検出結果、およびコンテキスト情報のうちの1または複数をさらに含む、請求項19に記載のモバイルプラットフォーム。
  34. 前記コンテキスト情報は、ユーザ挙動、ユーザ選好、ロケーション、前記ユーザについての情報、時刻、および照明品質のうちの1つまたは複数を含む、請求項33に記載のモバイルプラットフォーム。
  35. 前記センサデータは顔の画像を備え、前記無線トランシーバを介して受信された前記情報は、前記顔に関連付けられたアイデンティティを備える、請求項19に記載のモバイルプラットフォーム。
  36. 前記センサデータは、異なる位置にある前記カメラを用いてキャプチャされたオブジェクトの複数の画像と、前記オブジェクトに対する前記カメラのポーズの推定とを備え、前記サーバから受信される前記情報は、前記ポーズのリファインメントおよび前記オブジェクトの三次元モデルのうちの少なくとも1つを備える、請求項19に記載のモバイルプラットフォーム。
  37. モバイルプラットフォームであって、
    センサデータを獲得する手段と、ここで、センサデータを獲得する前記手段は、カメラであり、前記センサデータは、オブジェクトの少なくとも1つのキャプチャ画像を備える、
    前記オブジェクトの前記少なくとも1つのキャプチャ画像を備える前記センサデータを使用して、前記オブジェクトをトラッキングする手段と、
    以前に獲得されたセンサデータと比べて前記センサデータにおける変化を備えるトリガイベントが存在するか否かを判定する手段と、
    前記オブジェクトの前記少なくとも1つのキャプチャ画像を備える前記センサデータを使用して、前記オブジェクトをトラッキングし続けている間に、前記トリガイベントが存在する場合、前記センサデータをサーバに送信する手段と、
    前記センサデータに関連する情報を前記サーバから受信する手段と
    前記オブジェクトに対する前記モバイルプラットフォームのポーズを取得する手段と、
    前記ポーズ、および前記センサデータに関連する前記情報を用いて、前記オブジェクトをトラッキングする手段と、
    を備え、
    ここで、前記センサデータに関連する前記情報は、前記オブジェクトの基準画像を備え、前記ポーズを取得する手段は、前記キャプチャ画像および前記基準画像に基づいて第1のポーズを前記サーバから受信する手段を備える、
    モバイルプラットフォーム。
  38. 前記オブジェクトをトラッキングする前記手段は、前記サーバから受信された前記オブジェクトの基準画像をさらに用いる、請求項37に記載のモバイルプラットフォーム。
  39. 前記トリガイベントが存在するか否かを判定する前記手段は、以前のキャプチャ画像と比べて前記キャプチャ画像におけるシーン変化が存在するか否かを判定する手段を備える、請求項37に記載のモバイルプラットフォーム。
  40. 前記第1のポーズが前記サーバから受信されるまで前記オブジェクトの基準フリートラッキングを実行する手段をさらに備える、請求項37に記載のモバイルプラットフォーム。
  41. 前記第1のポーズが前記サーバから受信されたとき、前記オブジェクトの第2のキャプチャ画像を獲得する手段と、
    漸次的な変化を決定するために、前記キャプチャ画像と前記第2のキャプチャ画像との間で前記オブジェクトをトラッキングする手段と、
    前記オブジェクトに対する前記モバイルプラットフォームの前記ポーズを取得するために、前記漸次的な変化および前記第1のポーズを使用する手段と
    をさらに備える、請求項37に記載のモバイルプラットフォーム
  42. 前記オブジェクトの第2のキャプチャ画像を獲得する手段と、
    前記基準画像を用いて、前記第2のキャプチャ画像内の前記オブジェクトを検出する手段と、
    前記オブジェクトに対する前記モバイルプラットフォームの前記ポーズを取得するために、前記基準画像および前記第2のキャプチャ画像で検出された前記オブジェクトを使用する手段と、
    前記オブジェクトの基準ベースのトラッキングを初期化するために前記ポーズを使用する手段と
    をさらに備える、請求項37に記載のモバイルプラットフォーム。
  43. モバイルプラットフォームであって、
    センサデータを獲得する手段と、ここで、センサデータを獲得する前記手段は、カメラであり、前記センサデータは、オブジェクトの少なくとも1つのキャプチャ画像を備える、
    前記オブジェクトの前記少なくとも1つのキャプチャ画像を備える前記センサデータを使用して、前記オブジェクトをトラッキングする手段と、
    以前に獲得されたセンサデータと比べて前記センサデータにおける変化を備えるトリガイベントが存在するか否かを判定する手段と、
    前記オブジェクトの前記少なくとも1つのキャプチャ画像を備える前記センサデータを使用して、前記オブジェクトをトラッキングし続けている間に、前記トリガイベントが存在する場合、前記センサデータをサーバに送信する手段と、
    前記センサデータに関連する情報を前記サーバから受信する手段と、
    を備え、
    ここで、前記センサデータに関連する前記情報は、オブジェクト識別を備え、前記モバイルプラットフォームは、さらに、
    前記オブジェクトの追加のキャプチャ画像を獲得する手段と、
    前記オブジェクト識別を用いて、前記追加のキャプチャ画像内の前記オブジェクトを識別する手段と、
    前記オブジェクト識別に基づいて前記追加のキャプチャ画像のためのトラッキングマスクを生成する手段と、ここで、前記トラッキングマスクは、前記オブジェクトが識別される前記追加のキャプチャ画像内の領域を示す、
    前記追加のキャプチャ画像の残りの領域を識別するために、前記トラッキングマスクを前記オブジェクトの前記追加のキャプチャ画像と共に使用する手段と、
    前記追加のキャプチャ画像の前記残りの領域におけるシーン変化を備えるトリガイベントを検出する手段と
    を備える、モバイルプラットフォーム。
  44. プログラムコードを格納した非一時的なコンピュータ読取可能な記憶媒体であって、
    モバイルプラットフォームを用いてセンサデータを獲得するためのプログラムコードと、ここで、前記センサデータは、オブジェクトの少なくとも1つのキャプチャ画像を備える、
    前記オブジェクトの前記少なくとも1つのキャプチャ画像を備える前記センサデータを使用して、前記オブジェクトをトラッキングするためのプログラムコードと、
    以前に獲得されたセンサデータと比べて前記センサデータにおける変化を備えるトリガイベントが存在するか否かを判定するためのプログラムコードと、
    前記オブジェクトの前記少なくとも1つのキャプチャ画像を備える前記センサデータを使用して、前記オブジェクトをトラッキングし続けている間に、前記トリガイベントが存在する場合、前記センサデータを外部プロセッサに送信するためのプログラムコードと、
    前記外部プロセッサから前記センサデータに関連する情報を受信するためのプログラムコードと
    前記オブジェクトに対する前記モバイルプラットフォームのポーズを取得するためのプログラムコードと、
    前記ポーズ、および前記センサデータに関連する前記情報を用いて、前記オブジェクトをトラッキングするためのプログラムコードと、
    を備え、
    ここで、前記センサデータに関連する前記情報は、前記オブジェクトの基準画像を備え、前記ポーズを取得するためのプログラムコードは、前記キャプチャ画像および前記基準画像に基づいて第1のポーズを前記外部プロセッサから受信するためのプログラムコードを備える、
    非一時的なコンピュータ読取可能な記憶媒体。
  45. 前記オブジェクトをトラッキングするための前記プログラムコードは、サーバから受信された前記オブジェクトの基準画像をさらに用いる、請求項44に記載の非一時的なコンピュータ読取可能な記憶媒体。
  46. 前記トリガイベントが存在するか否かを判定するための前記プログラムコードは、以前のキャプチャ画像と比べて前記キャプチャ画像においてシーン変化が存在するか否かを判定するためのプログラムコードを備える、請求項44に記載の非一時的なコンピュータ読取可能な記憶媒体。
  47. 前記第1のポーズが前記外部プロセッサから受信されるまで前記オブジェクトの基準フリートラッキングを実行するためのプログラムコードをさらに備える、請求項44に記載の非一時的なコンピュータ読取可能な記憶媒体。
  48. 前記第1のポーズが前記外部プロセッサから受信されたとき、前記オブジェクトの第2のキャプチャ画像を獲得するためのプログラムコードと、
    漸次的な変化を決定するために、前記キャプチャ画像と前記第2のキャプチャ画像との間で前記オブジェクトをトラッキングするためのプログラムコードと、
    前記オブジェクトに対する前記モバイルプラットフォームの前記ポーズを取得するために、前記漸次的な変化および前記第1のポーズを使用するためのプログラムコードと
    をさらに備える、請求項44に記載の非一時的なコンピュータ読取可能な記憶媒体
  49. 前記オブジェクトの第2のキャプチャ画像を獲得するためのプログラムコードと、
    前記基準画像を用いて、前記第2のキャプチャ画像内の前記オブジェクトを検出するためのプログラムコードと、
    前記オブジェクトに対する前記モバイルプラットフォームの前記ポーズを取得するために、前記基準画像および前記第2のキャプチャ画像で検出された前記オブジェクトを使用するためのプログラムコードと、
    前記オブジェクトの基準ベースのトラッキングを初期化するために前記ポーズを使用するためのプログラムコードと
    をさらに備える、請求項44に記載の非一時的なコンピュータ読取可能な記憶媒体。
  50. プログラムコードを格納した非一時的なコンピュータ読取可能な記憶媒体であって、
    モバイルプラットフォームを用いてセンサデータを獲得するためのプログラムコードと、ここで、前記センサデータは、オブジェクトの少なくとも1つのキャプチャ画像を備える、
    前記オブジェクトの前記少なくとも1つのキャプチャ画像を備える前記センサデータを使用して、前記オブジェクトをトラッキングするためのプログラムコードと、
    以前に獲得されたセンサデータと比べて前記センサデータにおける変化を備えるトリガイベントが存在するか否かを判定するためのプログラムコードと、
    前記オブジェクトの前記少なくとも1つのキャプチャ画像を備える前記センサデータを使用して、前記オブジェクトをトラッキングし続けている間に、前記トリガイベントが存在する場合、前記センサデータを外部プロセッサに送信するためのプログラムコードと、
    前記外部プロセッサから前記センサデータに関連する情報を受信するためのプログラムコードと、
    を備え、
    ここで、前記センサデータに関連する前記情報は、オブジェクト識別を備え、前記非一時的なコンピュータ読取可能な記憶媒体は、さらに、
    前記オブジェクトの追加のキャプチャ画像を獲得するためのプログラムコードと、
    前記オブジェクト識別を用いて、前記追加のキャプチャ画像内の前記オブジェクトを識別するためのプログラムコードと、
    前記オブジェクト識別に基づいて前記追加のキャプチャ画像のためのトラッキングマスクを生成するためのプログラムコードと、ここで、前記トラッキングマスクは、前記オブジェクトが識別される前記追加のキャプチャ画像内の領域を示す、
    前記追加のキャプチャ画像の残りの領域を識別するために、前記トラッキングマスクを前記オブジェクトの前記追加のキャプチャ画像と共に使用するためのプログラムコードと、
    前記追加のキャプチャ画像の前記残りの領域におけるシーン変化を備えるトリガイベントを検出するためのプログラムコードと
    を備える、非一時的なコンピュータ読取可能な記憶媒体。
JP2013530209A 2010-09-20 2011-09-19 クラウド支援型拡張現実のための適応可能なフレームワーク Active JP6000954B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US38466710P 2010-09-20 2010-09-20
US61/384,667 2010-09-20
PCT/US2011/052135 WO2012040099A1 (en) 2010-09-20 2011-09-19 An adaptable framework for cloud assisted augmented reality
US13/235,847 US9495760B2 (en) 2010-09-20 2011-09-19 Adaptable framework for cloud assisted augmented reality
US13/235,847 2011-09-19

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015047432A Division JP5989832B2 (ja) 2010-09-20 2015-03-10 クラウド支援型拡張現実のための適応可能なフレームワーク

Publications (2)

Publication Number Publication Date
JP2013541096A JP2013541096A (ja) 2013-11-07
JP6000954B2 true JP6000954B2 (ja) 2016-10-05

Family

ID=44773155

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2013530209A Active JP6000954B2 (ja) 2010-09-20 2011-09-19 クラウド支援型拡張現実のための適応可能なフレームワーク
JP2015047432A Active JP5989832B2 (ja) 2010-09-20 2015-03-10 クラウド支援型拡張現実のための適応可能なフレームワーク
JP2016157488A Active JP6290331B2 (ja) 2010-09-20 2016-08-10 クラウド支援型拡張現実のための適応可能なフレームワーク

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2015047432A Active JP5989832B2 (ja) 2010-09-20 2015-03-10 クラウド支援型拡張現実のための適応可能なフレームワーク
JP2016157488A Active JP6290331B2 (ja) 2010-09-20 2016-08-10 クラウド支援型拡張現実のための適応可能なフレームワーク

Country Status (8)

Country Link
US (2) US9495760B2 (ja)
EP (1) EP2619728B1 (ja)
JP (3) JP6000954B2 (ja)
KR (1) KR101548834B1 (ja)
CN (1) CN103119627B (ja)
ES (1) ES2745739T3 (ja)
HU (1) HUE047021T2 (ja)
WO (1) WO2012040099A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11525186B2 (en) 2019-06-11 2022-12-13 Ecolab Usa Inc. Corrosion inhibitor formulation for geothermal reinjection well

Families Citing this family (104)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110135144A1 (en) * 2009-07-01 2011-06-09 Hand Held Products, Inc. Method and system for collecting voice and image data on a remote device and coverting the combined data
US10395125B2 (en) 2016-10-06 2019-08-27 Smr Patents S.A.R.L. Object detection and classification with fourier fans
EP2601782A4 (en) 2010-08-02 2016-09-28 Univ Beijing REPRESENTATIVE MOVEMENT DATA FLOW EXTRACTION FOR EFFICIENT RECOVERY AND CLASSIFICATION OF VIDEO DATA
JP6000954B2 (ja) 2010-09-20 2016-10-05 クゥアルコム・インコーポレイテッドQualcomm Incorporated クラウド支援型拡張現実のための適応可能なフレームワーク
US8750557B2 (en) * 2011-02-15 2014-06-10 Ebay Inc. Identifying product metadata from an item image
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
US9424255B2 (en) * 2011-11-04 2016-08-23 Microsoft Technology Licensing, Llc Server-assisted object recognition and tracking for mobile devices
US10099614B2 (en) * 2011-11-28 2018-10-16 Magna Electronics Inc. Vision system for vehicle
ITVI20120041A1 (it) * 2012-02-22 2013-08-23 St Microelectronics Srl Rilevazione di caratteristiche di un'immagine
US8965057B2 (en) 2012-03-02 2015-02-24 Qualcomm Incorporated Scene structure-based self-pose estimation
EP2833249B1 (en) * 2012-03-26 2019-06-19 Sony Corporation Information processing device, information processing method and program
US9125255B2 (en) 2012-05-03 2015-09-01 Abl Ip Holding Llc Networked architecture for system of lighting devices having sensors, for intelligent applications
US9064326B1 (en) * 2012-05-10 2015-06-23 Longsand Limited Local cache of augmented reality content in a mobile computing device
US9066200B1 (en) * 2012-05-10 2015-06-23 Longsand Limited User-generated content in a virtual reality environment
US9514570B2 (en) 2012-07-26 2016-12-06 Qualcomm Incorporated Augmentation of tangible objects as user interface controller
JP2015529911A (ja) * 2012-09-28 2015-10-08 インテル コーポレイション 拡張現実情報の決定
US10713846B2 (en) 2012-10-05 2020-07-14 Elwha Llc Systems and methods for sharing augmentation data
US10180715B2 (en) 2012-10-05 2019-01-15 Elwha Llc Correlating user reaction with at least an aspect associated with an augmentation of an augmented view
US10269179B2 (en) * 2012-10-05 2019-04-23 Elwha Llc Displaying second augmentations that are based on registered first augmentations
WO2014058842A1 (en) 2012-10-08 2014-04-17 Patrick Soon-Shiong Distributed storage systems and methods
US9076257B2 (en) * 2013-01-03 2015-07-07 Qualcomm Incorporated Rendering augmented reality based on foreground object
US10109075B2 (en) 2013-03-15 2018-10-23 Elwha Llc Temporal element restoration in augmented reality systems
US10025486B2 (en) 2013-03-15 2018-07-17 Elwha Llc Cross-reality select, drag, and drop for augmented reality systems
US9070217B2 (en) * 2013-03-15 2015-06-30 Daqri, Llc Contextual local image recognition dataset
US9111348B2 (en) 2013-03-15 2015-08-18 Toyota Motor Engineering & Manufacturing North America, Inc. Computer-based method and system of dynamic category object recognition
US20140302919A1 (en) * 2013-04-05 2014-10-09 Mark J. Ladd Systems and methods for sensor-based mobile gaming
US9818150B2 (en) 2013-04-05 2017-11-14 Digimarc Corporation Imagery and annotations
EP2808805A1 (en) * 2013-05-30 2014-12-03 Thomson Licensing Method and apparatus for displaying metadata on a display and for providing metadata for display
CN105308618B (zh) * 2013-06-27 2020-04-03 英特尔公司 借助于并行检测和跟踪和/或分组特征运动移位跟踪的人脸识别
US9443355B2 (en) 2013-06-28 2016-09-13 Microsoft Technology Licensing, Llc Reprojection OLED display for augmented reality experiences
TWI484452B (zh) * 2013-07-25 2015-05-11 Univ Nat Taiwan Normal 擴增實境學習系統及其方法
US9514571B2 (en) 2013-07-25 2016-12-06 Microsoft Technology Licensing, Llc Late stage reprojection
US9582516B2 (en) 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
JP6260215B2 (ja) * 2013-11-13 2018-01-17 富士通株式会社 特徴点追跡装置、及び、特徴点追跡方法
EP3627446B1 (en) * 2013-12-19 2021-06-16 Apple Inc. System, method and medium for generating a geometric model
KR102256057B1 (ko) * 2014-03-17 2021-05-25 에스케이플래닛 주식회사 객체의 자세 기반 검색 결과 제공 장치, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체
KR102221152B1 (ko) * 2014-03-18 2021-02-26 에스케이플래닛 주식회사 객체 자세 기반 연출 효과 제공 장치 및 방법, 그리고 이를 위한 컴퓨터 프로그램이 기록된 기록매체
US10572215B1 (en) * 2014-03-31 2020-02-25 Amazon Technologies, Inc. Extendable architecture for augmented reality system
US9652893B2 (en) 2014-04-29 2017-05-16 Microsoft Technology Licensing, Llc Stabilization plane determination based on gaze location
US9729784B2 (en) * 2014-05-21 2017-08-08 Google Technology Holdings LLC Enhanced image capture
US9723109B2 (en) 2014-05-28 2017-08-01 Alexander Hertel Platform for constructing and consuming realm and object feature clouds
KR102223308B1 (ko) * 2014-05-29 2021-03-08 삼성전자 주식회사 영상처리 방법 및 이를 구현한 전자 장치
WO2015197651A1 (en) * 2014-06-25 2015-12-30 Thomson Licensing Annotation method and corresponding device, computer program product and storage medium
US9626577B1 (en) * 2014-09-15 2017-04-18 Amazon Technologies, Inc. Image selection and recognition processing from a video feed
US9883122B2 (en) * 2014-09-16 2018-01-30 Qualcomm Incorporated Event-based down sampling
EP3286718A4 (en) 2015-04-23 2018-12-05 Hasbro, Inc. Context-aware digital play
US10586102B2 (en) * 2015-08-18 2020-03-10 Qualcomm Incorporated Systems and methods for object tracking
GB2542561B (en) * 2015-09-21 2019-04-17 Canon Kk A portable device and a method for processing a data stream
US20170132267A1 (en) * 2015-11-11 2017-05-11 Le Holdings (Beijing) Co., Ltd. Pushing system and method based on natural information recognition, and a client end
US20170280130A1 (en) * 2016-03-25 2017-09-28 Microsoft Technology Licensing, Llc 2d video analysis for 3d modeling
GB2549940A (en) * 2016-04-29 2017-11-08 Kudan Ltd Discovering points of interest and identifying reference images in video processing and efficient search and storage therefor
JP6533761B2 (ja) * 2016-05-18 2019-06-19 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理システム、および情報処理方法
JP6499993B2 (ja) * 2016-05-18 2019-04-10 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理システム、および情報処理方法
US20180034581A1 (en) * 2016-07-27 2018-02-01 International Business Machines Corporation Quality of service assessment for conferences
US10274582B2 (en) * 2016-09-30 2019-04-30 Bae Systems Information And Electronic Systems Integration Inc. Remote unit data registration
US11400860B2 (en) 2016-10-06 2022-08-02 SMR Patents S.à.r.l. CMS systems and processing methods for vehicles
US10242503B2 (en) 2017-01-09 2019-03-26 Snap Inc. Surface aware lens
KR101897505B1 (ko) * 2017-01-23 2018-09-12 광주과학기술원 다중 카메라 환경에서의 관심 객체를 실시간으로 추적하기 위한 방법 및 시스템
WO2018144315A1 (en) 2017-02-01 2018-08-09 Pcms Holdings, Inc. System and method for augmented reality content delivery in pre-captured environments
US10628675B2 (en) 2017-02-07 2020-04-21 Fyusion, Inc. Skeleton detection and tracking via client-server communication
CN106899829B (zh) * 2017-02-07 2018-06-29 深圳云天励飞技术有限公司 一种视频处理方法及装置
TWI695324B (zh) * 2017-02-15 2020-06-01 宏達國際電子股份有限公司 影像處理裝置及其方法
CN108875460B (zh) * 2017-05-15 2023-06-20 腾讯科技(深圳)有限公司 增强现实处理方法及装置、显示终端及计算机存储介质
IT201700058961A1 (it) 2017-05-30 2018-11-30 Artglass S R L Metodo e sistema di fruizione di un contenuto editoriale in un sito preferibilmente culturale o artistico o paesaggistico o naturalistico o fieristico o espositivo
JP6762913B2 (ja) * 2017-07-11 2020-09-30 キヤノン株式会社 情報処理装置、情報処理方法
US10360832B2 (en) 2017-08-14 2019-07-23 Microsoft Technology Licensing, Llc Post-rendering image transformation using parallel image transformation pipelines
US11206303B2 (en) * 2017-10-18 2021-12-21 Mitsubishi Electric Corporation Image sharing assistance device, image sharing system, and image sharing assistance method
KR101953578B1 (ko) * 2017-10-19 2019-03-04 서울과학기술대학교 산학협력단 클라우드 기반의 가상현실 서비스를 위한 콘텐츠 가공 방법 및 장치
KR101953567B1 (ko) * 2017-11-03 2019-03-04 서울과학기술대학교 산학협력단 가상현실 서비스를 위한 콘텐츠 후처리 방법
US10796185B2 (en) * 2017-11-03 2020-10-06 Facebook, Inc. Dynamic graceful degradation of augmented-reality effects
CN107818592B (zh) * 2017-11-24 2022-04-01 北京华捷艾米科技有限公司 协作式同步定位与地图构建的方法、系统及交互系统
US10565464B2 (en) * 2017-12-21 2020-02-18 At&T Intellectual Property I, L.P. Adaptive cloud offloading of mobile augmented reality
US10970425B2 (en) * 2017-12-26 2021-04-06 Seiko Epson Corporation Object detection and tracking
WO2019177181A1 (ko) 2018-03-12 2019-09-19 라인플러스(주) 뉴럴 네트워크를 이용하여 상황을 인지하는 증강 현실 제공 장치, 제공 방법 및 상기 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램
US11145123B1 (en) 2018-04-27 2021-10-12 Splunk Inc. Generating extended reality overlays in an industrial environment
US11847773B1 (en) 2018-04-27 2023-12-19 Splunk Inc. Geofence-based object identification in an extended reality environment
CN112088377A (zh) 2018-05-07 2020-12-15 谷歌有限责任公司 实时对象检测和跟踪
US11030813B2 (en) 2018-08-30 2021-06-08 Snap Inc. Video clip object tracking
EP3629290B1 (en) 2018-09-26 2023-01-04 Apple Inc. Localization for mobile devices
KR102103430B1 (ko) * 2018-11-08 2020-04-22 서울과학기술대학교 산학협력단 클라우드에 기반한 가상현실 서비스의 레이턴시 측정방법 및 시스템
US11176737B2 (en) 2018-11-27 2021-11-16 Snap Inc. Textured mesh building
US10902685B2 (en) 2018-12-13 2021-01-26 John T. Daly Augmented reality remote authoring and social media platform and system
CN113330484A (zh) * 2018-12-20 2021-08-31 斯纳普公司 虚拟表面修改
US10810430B2 (en) 2018-12-27 2020-10-20 At&T Intellectual Property I, L.P. Augmented reality with markerless, context-aware object tracking
US10984575B2 (en) 2019-02-06 2021-04-20 Snap Inc. Body pose estimation
US11189098B2 (en) 2019-06-28 2021-11-30 Snap Inc. 3D object camera customization system
US11232646B2 (en) 2019-09-06 2022-01-25 Snap Inc. Context-based virtual object rendering
US11196842B2 (en) 2019-09-26 2021-12-07 At&T Intellectual Property I, L.P. Collaborative and edge-enhanced augmented reality systems
CN112752119B (zh) * 2019-10-31 2023-12-01 中兴通讯股份有限公司 一种时延误差校正方法、终端设备、服务器及存储介质
US11227442B1 (en) 2019-12-19 2022-01-18 Snap Inc. 3D captions with semantic graphical elements
US11263817B1 (en) 2019-12-19 2022-03-01 Snap Inc. 3D captions with face tracking
TWI793390B (zh) * 2019-12-25 2023-02-21 財團法人工業技術研究院 資訊顯示方法及其處理裝置與顯示系統
GB2592040B (en) * 2020-02-13 2022-10-12 Advanced Risc Mach Ltd Method and System for Providing Augmented Reality Displays
JP2023540647A (ja) 2020-08-24 2023-09-25 エフディー アイピー アンド ライセンシング エルエルシー 映画産業向けプリビジュアライゼーション・デバイス及びシステム
CN114138829B (zh) * 2020-09-03 2022-11-29 金篆信科有限责任公司 共享Prepare Statement的方法、系统和网络设备
KR20220039110A (ko) 2020-09-21 2022-03-29 삼성전자주식회사 증강 현실 시스템 및 그 생성 방법
US11660022B2 (en) 2020-10-27 2023-05-30 Snap Inc. Adaptive skeletal joint smoothing
US11615592B2 (en) 2020-10-27 2023-03-28 Snap Inc. Side-by-side character animation from realtime 3D body motion capture
US11734894B2 (en) 2020-11-18 2023-08-22 Snap Inc. Real-time motion transfer for prosthetic limbs
US11450051B2 (en) 2020-11-18 2022-09-20 Snap Inc. Personalized avatar real-time motion capture
US11748931B2 (en) 2020-11-18 2023-09-05 Snap Inc. Body animation sharing and remixing
US11880947B2 (en) 2021-12-21 2024-01-23 Snap Inc. Real-time upper-body garment exchange
CN117237399A (zh) * 2022-06-08 2023-12-15 华为云计算技术有限公司 一种物体跟踪方法以及相关设备
US11875492B1 (en) 2023-05-01 2024-01-16 Fd Ip & Licensing Llc Systems and methods for digital compositing

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6118456A (en) 1998-04-02 2000-09-12 Adaptive Media Technologies Method and apparatus capable of prioritizing and streaming objects within a 3-D virtual environment
EP1089198A3 (en) * 1999-09-30 2003-03-12 Hewlett-Packard Company, A Delaware Corporation Content-based image searching
JP2003266349A (ja) 2002-03-18 2003-09-24 Sony Corp 位置認識方法、その装置、そのプログラム、その記録媒体及び位置認識装置搭載型ロボット装置
JP2004145448A (ja) * 2002-10-22 2004-05-20 Toshiba Corp 端末装置、サーバ装置および画像加工方法
JP4418225B2 (ja) * 2003-12-18 2010-02-17 オリンパス株式会社 情報呈示システム
US7656822B1 (en) * 2003-12-22 2010-02-02 Sun Microsystems, Inc. Method and apparatus for decentralized device and service description and discovery
JP2006293912A (ja) 2005-04-14 2006-10-26 Toshiba Corp 情報表示システム、情報表示方法および携帯端末装置
AU2006286320A1 (en) 2005-09-01 2007-03-08 Astragroup As (A Norwegian Company) Post- recording data analysis and retrieval
US20070285554A1 (en) * 2005-10-31 2007-12-13 Dor Givon Apparatus method and system for imaging
US8493323B2 (en) * 2006-08-02 2013-07-23 Research In Motion Limited System and method for adjusting presentation of moving images on an electronic device according to an orientation of the device
US7932938B2 (en) * 2006-08-25 2011-04-26 Micron Technology, Inc. Method, apparatus and system providing adjustment of pixel defect map
FR2911707B1 (fr) 2007-01-22 2009-07-10 Total Immersion Sa Procede et dispositifs de realite augmentee utilisant un suivi automatique, en temps reel, d'objets geometriques planaires textures, sans marqueur, dans un flux video.
GB2452508A (en) 2007-09-05 2009-03-11 Sony Corp Generating a three-dimensional representation of a sports game
US20100214111A1 (en) 2007-12-21 2010-08-26 Motorola, Inc. Mobile virtual and augmented reality system
EP2276234A4 (en) * 2008-04-23 2017-11-22 NEC Corporation Image processing device, camera, image processing method, and program
JP2009301197A (ja) 2008-06-11 2009-12-24 Fujifilm Corp プレビュー提供方法、装置及びプログラム並びに画像付対象物提供装置
JP2010118019A (ja) 2008-11-14 2010-05-27 Sharp Corp 端末装置、配信装置、端末装置の制御方法、配信装置の制御方法、制御プログラムおよび記録媒体
US9683853B2 (en) * 2009-01-23 2017-06-20 Fuji Xerox Co., Ltd. Image matching in support of mobile navigation
US20100257252A1 (en) 2009-04-01 2010-10-07 Microsoft Corporation Augmented Reality Cloud Computing
US20100309225A1 (en) * 2009-06-03 2010-12-09 Gray Douglas R Image matching for mobile augmented reality
KR20110005140A (ko) * 2009-07-09 2011-01-17 주식회사 아인스아이앤에스 컨텐츠 처리 방법 및 컨텐츠 제공 시스템
KR101667715B1 (ko) * 2010-06-08 2016-10-19 엘지전자 주식회사 증강현실을 이용한 경로 안내 방법 및 이를 이용하는 이동 단말기
KR101357262B1 (ko) * 2010-08-13 2014-01-29 주식회사 팬택 필터 정보를 이용한 객체 인식 장치 및 방법
JP6000954B2 (ja) 2010-09-20 2016-10-05 クゥアルコム・インコーポレイテッドQualcomm Incorporated クラウド支援型拡張現実のための適応可能なフレームワーク
US8392450B2 (en) * 2011-02-08 2013-03-05 Autonomy Corporation Ltd. System to augment a visual data stream with user-specific content
US8488011B2 (en) * 2011-02-08 2013-07-16 Longsand Limited System to augment a visual data stream based on a combination of geographical and visual information
US8447329B2 (en) * 2011-02-08 2013-05-21 Longsand Limited Method for spatially-accurate location of a device using audio-visual information
US8493353B2 (en) * 2011-04-13 2013-07-23 Longsand Limited Methods and systems for generating and joining shared experience
US20120300020A1 (en) * 2011-05-27 2012-11-29 Qualcomm Incorporated Real-time self-localization from panoramic images
US8521128B1 (en) * 2011-12-09 2013-08-27 Google Inc. Method, system, and computer program product for obtaining crowd-sourced location information
US9674507B2 (en) * 2013-04-30 2017-06-06 Qualcomm Incorporated Monocular visual SLAM with general and panorama camera movements

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11525186B2 (en) 2019-06-11 2022-12-13 Ecolab Usa Inc. Corrosion inhibitor formulation for geothermal reinjection well

Also Published As

Publication number Publication date
CN103119627A (zh) 2013-05-22
EP2619728A1 (en) 2013-07-31
US9633447B2 (en) 2017-04-25
ES2745739T3 (es) 2020-03-03
WO2012040099A1 (en) 2012-03-29
JP2013541096A (ja) 2013-11-07
US20120243732A1 (en) 2012-09-27
US9495760B2 (en) 2016-11-15
HUE047021T2 (hu) 2020-04-28
CN103119627B (zh) 2017-03-08
JP6290331B2 (ja) 2018-03-07
KR101548834B1 (ko) 2015-08-31
KR20130060339A (ko) 2013-06-07
US20160284099A1 (en) 2016-09-29
JP5989832B2 (ja) 2016-09-07
JP2017011718A (ja) 2017-01-12
JP2015144474A (ja) 2015-08-06
EP2619728B1 (en) 2019-07-17

Similar Documents

Publication Publication Date Title
JP6290331B2 (ja) クラウド支援型拡張現実のための適応可能なフレームワーク
JP6043856B2 (ja) Rgbdカメラを用いた頭部ポーズ推定
US9087403B2 (en) Maintaining continuity of augmentations
US11263475B2 (en) Incremental learning for dynamic feature database management in an object recognition system
US9811731B2 (en) Dynamic extension of map data for object detection and tracking
JP5950973B2 (ja) フレームを選択する方法、装置、及びシステム
JP6144828B2 (ja) 動的に構築された環境地図データに基づくオブジェクト追跡
JP5660648B2 (ja) マルチユーザ拡張現実におけるオンライン参照生成および追跡
EP2802962A1 (en) Augmented reality with sound and geometric analysis
US20150095360A1 (en) Multiview pruning of feature database for object recognition system
KR20210120599A (ko) 아바타 서비스 제공 방법 및 시스템

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140415

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140714

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150310

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150318

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20150522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160617

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160831

R150 Certificate of patent or registration of utility model

Ref document number: 6000954

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250