JP2017011718A - クラウド支援型拡張現実のための適応可能なフレームワーク - Google Patents
クラウド支援型拡張現実のための適応可能なフレームワーク Download PDFInfo
- Publication number
- JP2017011718A JP2017011718A JP2016157488A JP2016157488A JP2017011718A JP 2017011718 A JP2017011718 A JP 2017011718A JP 2016157488 A JP2016157488 A JP 2016157488A JP 2016157488 A JP2016157488 A JP 2016157488A JP 2017011718 A JP2017011718 A JP 2017011718A
- Authority
- JP
- Japan
- Prior art keywords
- sensor data
- captured image
- mobile platform
- image
- pose
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003190 augmentative effect Effects 0.000 title description 8
- 230000008859 change Effects 0.000 claims abstract description 138
- 238000000034 method Methods 0.000 claims abstract description 104
- 238000012545 processing Methods 0.000 claims abstract description 24
- 238000001514 detection method Methods 0.000 claims description 50
- 230000033001 locomotion Effects 0.000 claims description 34
- 230000006399 behavior Effects 0.000 claims description 5
- 238000009877 rendering Methods 0.000 claims description 5
- 238000004458 analytical method Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 abstract description 43
- 238000013459 approach Methods 0.000 description 21
- 230000003287 optical effect Effects 0.000 description 14
- 238000004891 communication Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 230000015654 memory Effects 0.000 description 10
- 230000001960 triggered effect Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 3
- 230000000737 periodic effect Effects 0.000 description 3
- 230000000717 retained effect Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
以下に、本願の出願当初請求項に記載された発明を付記する。
[C1]
方法であって、
モバイルプラットフォームを用いてセンサデータを獲得することと、
以前に獲得されたセンサデータと比べて前記センサデータにおける変化を備えるトリガイベントが存在するか否かを判定することと、
前記トリガイベントが存在する場合、前記センサデータをサーバに送信することと、
前記センサデータに関連する情報を前記サーバから受信することと
を備える方法。
[C2]
前記センサデータは、オブジェクトのキャプチャ画像を備える、上記C1に記載の方法。
[C3]
前記センサデータを前記サーバに送信する前に前記キャプチャ画像の品質を決定することをさらに備え、前記センサデータは、前記キャプチャ画像の前記品質が閾値よりも良い場合にのみ、前記サーバに送信される、上記C2に記載の方法。
[C4]
前記キャプチャ画像の前記品質を決定することは、前記キャプチャ画像の鮮明度を分析することと、前記キャプチャ画像内の検出されたコーナの数を分析することと、学習分類子とともに前記画像から得られた統計値を使用することと、のうちの少なくとも1つを備える、上記C3に記載の方法。
[C5]
前記サーバから受信された前記センサデータに関連する前記情報に基づいて、前記オブジェクトについての拡張をレンダリングすることをさらに備える、上記C2に記載の方法。
[C6]
前記センサデータに関連する前記情報は、前記オブジェクトの識別を備える、上記C2に記載の方法。
[C7]
前記キャプチャ画像は、複数のオブジェクトを備え、前記センサデータに関連する前記情報は、前記複数のオブジェクトの識別を備える、上記C2に記載の方法。
[C8]
前記モバイルプラットフォームについて前記複数のオブジェクトの各々に関するポーズを取得することと、
前記ポーズ、および前記センサデータに関連する前記情報を用いて、前記複数のオブジェクトの各々をトラッキングすることと
をさらに備える、上記C7に記載の方法。
[C9]
前記オブジェクトに対する前記モバイルプラットフォームのポーズを取得することと、
前記ポーズ、および前記センサデータに関連する前記情報を用いて、前記オブジェクトをトラッキングすることと
をさらに備える、上記C2に記載の方法。
[C10]
前記センサデータに関連する前記情報は、前記オブジェクトの基準画像を備え、前記ポーズを取得することは、前記キャプチャ画像および前記基準画像に基づいて第1のポーズを前記サーバから受信することを備える、上記C9に記載の方法。
[C11]
前記第1のポーズが前記サーバから受信されるまで前記オブジェクトの基準フリートラッキングを実行することをさらに備える、上記C10に記載の方法。
[C12]
前記第1のポーズが前記サーバから受信されたとき、前記オブジェクトの第2のキャプチャ画像を獲得することと、
漸次的な変化を決定するために、前記キャプチャ画像と前記第2のキャプチャ画像との間で前記オブジェクトをトラッキングすることと、
前記オブジェクトに対する前記モバイルプラットフォームの前記ポーズを取得するために、前記漸次的な変化および前記第1のポーズを使用することと
をさらに備える、上記C10に記載の方法。
[C13]
前記オブジェクトの第2のキャプチャ画像を獲得することと、
前記基準画像を用いて、前記第2のキャプチャ画像内の前記オブジェクトを検出することと、
前記オブジェクトに対する前記モバイルプラットフォームの前記ポーズを取得するために、前記基準画像および前記第2のキャプチャ画像で検出された前記オブジェクトを使用することと、
前記オブジェクトの基準ベースのトラッキングを初期化するために前記ポーズを使用することと
をさらに備える、上記C10に記載の方法。
[C14]
前記センサデータに関連する前記情報は、前記オブジェクトの二次元(2D)モデル、前記オブジェクトの三次元(3D)モデル、拡張情報、前記オブジェクトについての顕著性情報、および、オブジェクトマッチングに関連する情報のうちの少なくとも1つを備える、上記C2に記載の方法。
[C15]
前記トリガイベントが存在するか否かを判定することは、以前のキャプチャ画像と比べて前記キャプチャ画像におけるシーン変化が存在するか否かを判定することを備える、上記C2に記載の方法。
[C16]
前記シーン変化が存在するか否かを判定することは、
前記キャプチャ画像および前記以前のキャプチャ画像を用いて第1の変化メトリックを決定することと、
以前のトリガイベントから第2の以前のキャプチャ画像と前記キャプチャ画像とを用いて第2の変化メトリックを決定することと、
前記キャプチャ画像についてのヒストグラム変化メトリックを生成することと、
前記シーン変化を判定するために、前記第1の変化メトリック、前記第2の変化メトリック、および前記ヒストグラム変化メトリックを使用することと
を備える、上記C15に記載の方法。
[C17]
前記センサデータに関連する前記情報は、オブジェクト識別を備え、前記方法は、さらに、
前記オブジェクトの追加のキャプチャ画像を獲得することと、
前記オブジェクト識別を用いて、前記追加のキャプチャ画像内の前記オブジェクトを識別することと、
前記オブジェクト識別に基づいて前記追加のキャプチャ画像のためのトラッキングマスクを生成することと、ここで、前記トラッキングマスクは、前記オブジェクトが識別される前記追加のキャプチャ画像内の領域を示す、
前記追加のキャプチャ画像の残りの領域を識別するために、前記トラッキングマスクを前記オブジェクトの前記追加のキャプチャ画像と共に使用することと、
前記追加のキャプチャ画像の前記残りの領域におけるシーン変化を備えるトリガイベントを検出することと
を備える、上記C2に記載の方法。
[C18]
前記センサデータは、画像データ、動きセンサデータ、位置データ、バーコード認識、テキスト検出結果、および、コンテキスト情報のうちの1つまたは複数を含む、上記C1に記載の方法。
[C19]
前記コンテキスト情報は、ユーザ挙動、ユーザ選好、ロケーション、ユーザについての情報、時刻、および照明品質のうちの1つまたは複数を含む、上記C18に記載の方法。
[C20]
前記センサデータは、顔の画像を備え、前記サーバから受信された前記情報は、前記顔に関連付けられたアイデンティティを備える、上記C1に記載の方法。
[C21]
前記センサデータは、異なる位置にあるカメラを用いてキャプチャされたオブジェクトの複数の画像と、前記オブジェクトに対する前記カメラのポーズの粗な推定とを備え、前記サーバから受信された前記情報は、前記ポーズのリファインメントおよび前記オブジェクトの三次元モデルのうちの少なくとも1つを備える、上記C1に記載の方法。
[C22]
モバイルプラットフォームであって、
センサデータを獲得するように適合されたセンサと、
無線トランシーバと、
前記センサと前記無線トランシーバとに結合されたプロセッサであって、前記センサを介してセンサデータを獲得し、以前に獲得されたセンサデータと比べて前記センサデータにおける変化を備えるトリガイベントが存在するか否かを判定し、前記トリガイベントが存在する場合、前記無線トランシーバを介して前記センサデータを外部プロセッサに送信し、前記無線トランシーバを介して前記外部プロセッサから前記センサデータに関連する情報を受信するように適合されたプロセッサと
を備えるモバイルプラットフォーム。
[C23]
前記センサは、カメラであり、前記センサデータは、オブジェクトのキャプチャ画像を備える、上記C22に記載のモバイルプラットフォーム。
[C24]
前記プロセッサは、前記センサデータが前記外部プロセッサに送信される前に前記キャプチャ画像の品質を決定するようにさらに適合され、前記センサデータは、前記キャプチャ画像の前記品質が閾値よりも良い場合にのみ、前記外部プロセッサに送信される、上記C23に記載のモバイルプラットフォーム。
[C25]
前記プロセッサは、前記キャプチャ画像の鮮明度の分析、前記キャプチャ画像内の検出されたコーナの数の分析、および前記画像から得られた統計値での学習分類子の処理のうちの少なくとも1つを実行するように適合されることによって、前記キャプチャ画像の前記品質を決定するように適合される、上記C24に記載のモバイルプラットフォーム。
[C26]
前記プロセッサは、さらに、前記無線トランシーバを介して受信された前記センサデータに関連する前記情報に基づいて前記オブジェクトに対して拡張をレンダリングするように適合される、上記C23に記載のモバイルプラットフォーム。
[C27]
前記センサデータに関連する前記情報は、前記オブジェクトの識別を備える、上記C23に記載のモバイルプラットフォーム。
[C28]
前記キャプチャ画像は、複数のオブジェクトを備え、前記センサデータに関連する前記情報は、前記複数のオブジェクトの識別を備える、上記C23に記載のモバイルプラットフォーム。
[C29]
前記プロセッサは、さらに、前記モバイルプラットフォームに関して前記複数のオブジェクトの各々についてのポーズを取得し、前記ポーズおよび前記センサデータに関連する前記情報を用いて前記複数のオブジェクトの各々をトラッキングするように適合される、上記C28に記載のモバイルプラットフォーム。
[C30]
前記プロセッサは、さらに、前記オブジェクトに対する前記モバイルプラットフォームのポーズを取得し、前記ポーズおよび前記センサデータに関連する前記情報を用いて前記オブジェクトをトラッキングするように適合される、上記C23に記載のモバイルプラットフォーム。
[C31]
前記センサデータに関連する前記情報は、前記オブジェクトの基準画像を備え、前記プロセッサは、前記キャプチャ画像および前記基準画像に基づいて第1のポーズを前記外部プロセッサから受信するように適合される、上記C30に記載のモバイルプラットフォーム。
[C32]
前記プロセッサは、さらに、前記第1のポーズがサーバから受信されるまで、前記オブジェクトの基準フリートラッキングを実行するように適合される、上記C31に記載のモバイルプラットフォーム。
[C33]
前記プロセッサは、さらに、前記第1のポーズが前記外部プロセッサから受信されるとき、前記オブジェクトの第2のキャプチャ画像を獲得し、漸次的な変化を決定するために、前記キャプチャ画像と前記第2のキャプチャ画像との間で前記オブジェクトをトラッキングし、前記オブジェクトに対する前記モバイルプラットフォームの前記ポーズを取得するために前記漸次的な変化と前記第1のポーズとを使用するように適合される、上記C31に記載のモバイルプラットフォーム。
[C34]
前記プロセッサは、さらに、前記オブジェクトの第2のキャプチャ画像を獲得し、前記基準画像を用いて前記第2のキャプチャ画像内の前記オブジェクトを検出し、前記オブジェクトに対する前記モバイルプラットフォームの前記ポーズを取得するために前記第2のキャプチャ画像および前記基準画像において検出された前記オブジェクトを使用し、前記オブジェクトの基準ベースのトラッキングを初期化するために前記ポーズを使用するように適合される、上記C31に記載のモバイルプラットフォーム。
[C35]
前記プロセッサはさらに、前記オブジェクトの二次元(2D)モデル、前記オブジェクトの三次元(3D)モデル、拡張情報、前記オブジェクトについての顕著性情報、および、オブジェクトマッチングに関連する情報のうちの少なくとも1つを前記外部プロセッサから前記無線送信機を介して受信するように適合される、上記C23に記載のモバイルプラットフォーム。
[C36]
前記プロセッサは、以前のキャプチャ画像に対して前記キャプチャ画像におけるシーン変化が存在するか否かを判定するように適合されることによって、前記トリガイベントが存在するか否かを判定するように適合される、上記C23に記載のモバイルプラットフォーム。
[C37]
前記プロセッサは、前記キャプチャ画像および前記以前のキャプチャ画像を用いて第1の変化メトリックを決定し、以前のトリガイベントから第2の以前のキャプチャ画像と前記キャプチャ画像とを用いて第2の変化メトリックを決定し、前記キャプチャ画像についてのヒストグラム変化メトリックを生成し、前記シーン変化を判定するために、前記第1の変化メトリック、前記第2の変化メトリック、および前記ヒストグラム変化メトリックを使用するように適合されることによって、前記シーン変化が存在するか否かを決定するように適合される、上記C36に記載のモバイルプラットフォーム。
[C38]
前記センサデータに関連する前記情報は、オブジェクト識別を備えており、前記プロセッサは、さらに、前記オブジェクトの追加のキャプチャ画像を獲得し、前記オブジェクト識別を用いて前記追加のキャプチャ画像内の前記オブジェクトを識別し、前記オブジェクト識別に基づいて前記追加のキャプチャ画像のためのトラッキングマスクを生成し、ここで、前記トラッキングマスクは、前記オブジェクトが識別される前記追加のキャプチャ画像内の領域を示しており、前記追加のキャプチャ画像の残りの領域を識別するために前記トラッキングマスクを前記オブジェクトの前記追加のキャプチャ画像と共に使用し、前記追加のキャプチャ画像の前記残りの領域におけるシーン変化を備えるトリガイベントを検出するように適合される、上記C23に記載のモバイルプラットフォーム。
[C39]
前記センサデータは、画像データ、動きセンサデータ、位置データ、バーコード認識、テキスト検出結果、およびコンテキスト情報のうちの1または複数を含む、上記C22に記載のモバイルプラットフォーム。
[C40]
前記コンテキスト情報は、ユーザ挙動、ユーザ選好、ロケーション、ユーザについての情報、時刻、および照明品質のうちの1つまたは複数を含む、上記C39に記載のモバイルプラットフォーム。
[C41]
前記センサはカメラを備え、前記センサデータは顔の画像を備え、前記無線トランシーバを介して受信された前記情報は、前記顔に関連付けられたアイデンティティを備える、上記C22に記載のモバイルプラットフォーム。
[C42]
前記センサはカメラを備え、前記センサデータは、異なる位置にある前記カメラを用いてキャプチャされたオブジェクトの複数の画像と、前記オブジェクトに対する前記カメラのポーズの粗な推定とを備え、サーバから受信される前記情報は、前記ポーズのリファインメントおよび前記オブジェクトの三次元モデルのうちの少なくとも1つを備える、上記C22に記載のモバイルプラットフォーム。
[C43]
モバイルプラットフォームであって、
センサデータを獲得する手段と、
以前に獲得されたセンサデータと比べて前記センサデータにおける変化を備えるトリガイベントが存在するか否かを判定する手段と、
前記トリガイベントが存在する場合、前記センサデータをサーバに送信する手段と、
前記センサデータに関連する情報を前記サーバから受信する手段と
を備えるモバイルプラットフォーム。
[C44]
センサデータを獲得する前記手段はカメラであり、前記センサデータはオブジェクトのキャプチャ画像であり、前記センサデータに関連する前記情報は、前記オブジェクトの基準画像を備え、前記モバイルプラットフォームは、さらに、
前記オブジェクトに対する前記モバイルプラットフォームのポーズを取得する手段と、
前記ポーズおよび前記オブジェクトの基準画像を用いて前記オブジェクトをトラッキングする手段とを備える、上記C43に記載のモバイルプラットフォーム。
[C45]
センサデータを獲得する前記手段はカメラであり、前記センサデータは、オブジェクトのキャプチャ画像であり、前記トリガイベントが存在するか否かを判定する前記手段は、以前のキャプチャ画像と比べて前記キャプチャ画像におけるシーン変化が存在するか否かを判定する手段を備える、上記C43に記載のモバイルプラットフォーム。
[C46]
プログラムコードを格納した非一時的なコンピュータ読取可能な媒体であって、
センサデータを獲得するためのプログラムコードと、
以前に獲得されたセンサデータと比べて前記センサデータにおける変化を備えるトリガイベントが存在するか否かを判定するためのプログラムコードと、
前記トリガイベントが存在する場合、前記センサデータを外部プロセッサに送信するためのプログラムコードと、
前記外部プロセッサから前記センサデータに関連する情報を受信するためのプログラムコードとを備える、非一時的なコンピュータ読取可能な媒体。
[C47]
前記センサデータは、オブジェクトのキャプチャ画像であり、前記センサデータに関連する情報は、前記オブジェクトの基準画像を備え、前記非一時的なコンピュータ読取可能な媒体は、
前記オブジェクトに対するポーズを取得するためのプログラムコードと、
前記ポーズおよび前記オブジェクトの前記基準画像を用いて前記オブジェクトをトラッキングするためのプログラムコードとをさらに備える、上記C46に記載の非一時的なコンピュータ読取可能な媒体。
[C48]
前記センサデータは、オブジェクトのキャプチャ画像であり、前記トリガイベントが存在するか否かを判定するための前記プログラムコードは、以前のキャプチャ画像と比べて前記キャプチャ画像においてシーン変化が存在するか否かを判定するためのプログラムコードを備える、上記C46に記載の非一時的なコンピュータ読取可能な媒体。
Claims (48)
- 方法であって、
モバイルプラットフォームを用いてセンサデータを獲得することと、
以前に獲得されたセンサデータと比べて前記センサデータにおける変化を備えるトリガイベントが存在するか否かを判定することと、
前記トリガイベントが存在する場合、前記センサデータをサーバに送信することと、
前記センサデータに関連する情報を前記サーバから受信することと
を備える方法。 - 前記センサデータは、オブジェクトのキャプチャ画像を備える、請求項1に記載の方法。
- 前記センサデータを前記サーバに送信する前に前記キャプチャ画像の品質を決定することをさらに備え、前記センサデータは、前記キャプチャ画像の前記品質が閾値よりも良い場合にのみ、前記サーバに送信される、請求項2に記載の方法。
- 前記キャプチャ画像の前記品質を決定することは、前記キャプチャ画像の鮮明度を分析することと、前記キャプチャ画像内の検出されたコーナの数を分析することと、学習分類子とともに前記画像から得られた統計値を使用することと、のうちの少なくとも1つを備える、請求項3に記載の方法。
- 前記サーバから受信された前記センサデータに関連する前記情報に基づいて、前記オブジェクトについての拡張をレンダリングすることをさらに備える、請求項2に記載の方法。
- 前記センサデータに関連する前記情報は、前記オブジェクトの識別を備える、請求項2に記載の方法。
- 前記キャプチャ画像は、複数のオブジェクトを備え、前記センサデータに関連する前記情報は、前記複数のオブジェクトの識別を備える、請求項2に記載の方法。
- 前記モバイルプラットフォームについて前記複数のオブジェクトの各々に関するポーズを取得することと、
前記ポーズ、および前記センサデータに関連する前記情報を用いて、前記複数のオブジェクトの各々をトラッキングすることと
をさらに備える、請求項7に記載の方法。 - 前記オブジェクトに対する前記モバイルプラットフォームのポーズを取得することと、
前記ポーズ、および前記センサデータに関連する前記情報を用いて、前記オブジェクトをトラッキングすることと
をさらに備える、請求項2に記載の方法。 - 前記センサデータに関連する前記情報は、前記オブジェクトの基準画像を備え、前記ポーズを取得することは、前記キャプチャ画像および前記基準画像に基づいて第1のポーズを前記サーバから受信することを備える、請求項9に記載の方法。
- 前記第1のポーズが前記サーバから受信されるまで前記オブジェクトの基準フリートラッキングを実行することをさらに備える、請求項10に記載の方法。
- 前記第1のポーズが前記サーバから受信されたとき、前記オブジェクトの第2のキャプチャ画像を獲得することと、
漸次的な変化を決定するために、前記キャプチャ画像と前記第2のキャプチャ画像との間で前記オブジェクトをトラッキングすることと、
前記オブジェクトに対する前記モバイルプラットフォームの前記ポーズを取得するために、前記漸次的な変化および前記第1のポーズを使用することと
をさらに備える、請求項10に記載の方法。 - 前記オブジェクトの第2のキャプチャ画像を獲得することと、
前記基準画像を用いて、前記第2のキャプチャ画像内の前記オブジェクトを検出することと、
前記オブジェクトに対する前記モバイルプラットフォームの前記ポーズを取得するために、前記基準画像および前記第2のキャプチャ画像で検出された前記オブジェクトを使用することと、
前記オブジェクトの基準ベースのトラッキングを初期化するために前記ポーズを使用することと
をさらに備える、請求項10に記載の方法。 - 前記センサデータに関連する前記情報は、前記オブジェクトの二次元(2D)モデル、前記オブジェクトの三次元(3D)モデル、拡張情報、前記オブジェクトについての顕著性情報、および、オブジェクトマッチングに関連する情報のうちの少なくとも1つを備える、請求項2に記載の方法。
- 前記トリガイベントが存在するか否かを判定することは、以前のキャプチャ画像と比べて前記キャプチャ画像におけるシーン変化が存在するか否かを判定することを備える、請求項2に記載の方法。
- 前記シーン変化が存在するか否かを判定することは、
前記キャプチャ画像および前記以前のキャプチャ画像を用いて第1の変化メトリックを決定することと、
以前のトリガイベントから第2の以前のキャプチャ画像と前記キャプチャ画像とを用いて第2の変化メトリックを決定することと、
前記キャプチャ画像についてのヒストグラム変化メトリックを生成することと、
前記シーン変化を判定するために、前記第1の変化メトリック、前記第2の変化メトリック、および前記ヒストグラム変化メトリックを使用することと
を備える、請求項15に記載の方法。 - 前記センサデータに関連する前記情報は、オブジェクト識別を備え、前記方法は、さらに、
前記オブジェクトの追加のキャプチャ画像を獲得することと、
前記オブジェクト識別を用いて、前記追加のキャプチャ画像内の前記オブジェクトを識別することと、
前記オブジェクト識別に基づいて前記追加のキャプチャ画像のためのトラッキングマスクを生成することと、ここで、前記トラッキングマスクは、前記オブジェクトが識別される前記追加のキャプチャ画像内の領域を示す、
前記追加のキャプチャ画像の残りの領域を識別するために、前記トラッキングマスクを前記オブジェクトの前記追加のキャプチャ画像と共に使用することと、
前記追加のキャプチャ画像の前記残りの領域におけるシーン変化を備えるトリガイベントを検出することと
を備える、請求項2に記載の方法。 - 前記センサデータは、画像データ、動きセンサデータ、位置データ、バーコード認識、テキスト検出結果、および、コンテキスト情報のうちの1つまたは複数を含む、請求項1に記載の方法。
- 前記コンテキスト情報は、ユーザ挙動、ユーザ選好、ロケーション、ユーザについての情報、時刻、および照明品質のうちの1つまたは複数を含む、請求項18に記載の方法。
- 前記センサデータは、顔の画像を備え、前記サーバから受信された前記情報は、前記顔に関連付けられたアイデンティティを備える、請求項1に記載の方法。
- 前記センサデータは、異なる位置にあるカメラを用いてキャプチャされたオブジェクトの複数の画像と、前記オブジェクトに対する前記カメラのポーズの粗な推定とを備え、前記サーバから受信された前記情報は、前記ポーズのリファインメントおよび前記オブジェクトの三次元モデルのうちの少なくとも1つを備える、請求項1に記載の方法。
- モバイルプラットフォームであって、
センサデータを獲得するように適合されたセンサと、
無線トランシーバと、
前記センサと前記無線トランシーバとに結合されたプロセッサであって、前記センサを介してセンサデータを獲得し、以前に獲得されたセンサデータと比べて前記センサデータにおける変化を備えるトリガイベントが存在するか否かを判定し、前記トリガイベントが存在する場合、前記無線トランシーバを介して前記センサデータを外部プロセッサに送信し、前記無線トランシーバを介して前記外部プロセッサから前記センサデータに関連する情報を受信するように適合されたプロセッサと
を備えるモバイルプラットフォーム。 - 前記センサは、カメラであり、前記センサデータは、オブジェクトのキャプチャ画像を備える、請求項22に記載のモバイルプラットフォーム。
- 前記プロセッサは、前記センサデータが前記外部プロセッサに送信される前に前記キャプチャ画像の品質を決定するようにさらに適合され、前記センサデータは、前記キャプチャ画像の前記品質が閾値よりも良い場合にのみ、前記外部プロセッサに送信される、請求項23に記載のモバイルプラットフォーム。
- 前記プロセッサは、前記キャプチャ画像の鮮明度の分析、前記キャプチャ画像内の検出されたコーナの数の分析、および前記画像から得られた統計値での学習分類子の処理のうちの少なくとも1つを実行するように適合されることによって、前記キャプチャ画像の前記品質を決定するように適合される、請求項24に記載のモバイルプラットフォーム。
- 前記プロセッサは、さらに、前記無線トランシーバを介して受信された前記センサデータに関連する前記情報に基づいて前記オブジェクトに対して拡張をレンダリングするように適合される、請求項23に記載のモバイルプラットフォーム。
- 前記センサデータに関連する前記情報は、前記オブジェクトの識別を備える、請求項23に記載のモバイルプラットフォーム。
- 前記キャプチャ画像は、複数のオブジェクトを備え、前記センサデータに関連する前記情報は、前記複数のオブジェクトの識別を備える、請求項23に記載のモバイルプラットフォーム。
- 前記プロセッサは、さらに、前記モバイルプラットフォームに関して前記複数のオブジェクトの各々についてのポーズを取得し、前記ポーズおよび前記センサデータに関連する前記情報を用いて前記複数のオブジェクトの各々をトラッキングするように適合される、請求項28に記載のモバイルプラットフォーム。
- 前記プロセッサは、さらに、前記オブジェクトに対する前記モバイルプラットフォームのポーズを取得し、前記ポーズおよび前記センサデータに関連する前記情報を用いて前記オブジェクトをトラッキングするように適合される、請求項23に記載のモバイルプラットフォーム。
- 前記センサデータに関連する前記情報は、前記オブジェクトの基準画像を備え、前記プロセッサは、前記キャプチャ画像および前記基準画像に基づいて第1のポーズを前記外部プロセッサから受信するように適合される、請求項30に記載のモバイルプラットフォーム。
- 前記プロセッサは、さらに、前記第1のポーズがサーバから受信されるまで、前記オブジェクトの基準フリートラッキングを実行するように適合される、請求項31に記載のモバイルプラットフォーム。
- 前記プロセッサは、さらに、前記第1のポーズが前記外部プロセッサから受信されるとき、前記オブジェクトの第2のキャプチャ画像を獲得し、漸次的な変化を決定するために、前記キャプチャ画像と前記第2のキャプチャ画像との間で前記オブジェクトをトラッキングし、前記オブジェクトに対する前記モバイルプラットフォームの前記ポーズを取得するために前記漸次的な変化と前記第1のポーズとを使用するように適合される、請求項31に記載のモバイルプラットフォーム。
- 前記プロセッサは、さらに、前記オブジェクトの第2のキャプチャ画像を獲得し、前記基準画像を用いて前記第2のキャプチャ画像内の前記オブジェクトを検出し、前記オブジェクトに対する前記モバイルプラットフォームの前記ポーズを取得するために前記第2のキャプチャ画像および前記基準画像において検出された前記オブジェクトを使用し、前記オブジェクトの基準ベースのトラッキングを初期化するために前記ポーズを使用するように適合される、請求項31に記載のモバイルプラットフォーム。
- 前記プロセッサはさらに、前記オブジェクトの二次元(2D)モデル、前記オブジェクトの三次元(3D)モデル、拡張情報、前記オブジェクトについての顕著性情報、および、オブジェクトマッチングに関連する情報のうちの少なくとも1つを前記外部プロセッサから前記無線送信機を介して受信するように適合される、請求項23に記載のモバイルプラットフォーム。
- 前記プロセッサは、以前のキャプチャ画像に対して前記キャプチャ画像におけるシーン変化が存在するか否かを判定するように適合されることによって、前記トリガイベントが存在するか否かを判定するように適合される、請求項23に記載のモバイルプラットフォーム。
- 前記プロセッサは、前記キャプチャ画像および前記以前のキャプチャ画像を用いて第1の変化メトリックを決定し、以前のトリガイベントから第2の以前のキャプチャ画像と前記キャプチャ画像とを用いて第2の変化メトリックを決定し、前記キャプチャ画像についてのヒストグラム変化メトリックを生成し、前記シーン変化を判定するために、前記第1の変化メトリック、前記第2の変化メトリック、および前記ヒストグラム変化メトリックを使用するように適合されることによって、前記シーン変化が存在するか否かを決定するように適合される、請求項36に記載のモバイルプラットフォーム。
- 前記センサデータに関連する前記情報は、オブジェクト識別を備えており、前記プロセッサは、さらに、前記オブジェクトの追加のキャプチャ画像を獲得し、前記オブジェクト識別を用いて前記追加のキャプチャ画像内の前記オブジェクトを識別し、前記オブジェクト識別に基づいて前記追加のキャプチャ画像のためのトラッキングマスクを生成し、ここで、前記トラッキングマスクは、前記オブジェクトが識別される前記追加のキャプチャ画像内の領域を示しており、前記追加のキャプチャ画像の残りの領域を識別するために前記トラッキングマスクを前記オブジェクトの前記追加のキャプチャ画像と共に使用し、前記追加のキャプチャ画像の前記残りの領域におけるシーン変化を備えるトリガイベントを検出するように適合される、請求項23に記載のモバイルプラットフォーム。
- 前記センサデータは、画像データ、動きセンサデータ、位置データ、バーコード認識、テキスト検出結果、およびコンテキスト情報のうちの1または複数を含む、請求項22に記載のモバイルプラットフォーム。
- 前記コンテキスト情報は、ユーザ挙動、ユーザ選好、ロケーション、ユーザについての情報、時刻、および照明品質のうちの1つまたは複数を含む、請求項39に記載のモバイルプラットフォーム。
- 前記センサはカメラを備え、前記センサデータは顔の画像を備え、前記無線トランシーバを介して受信された前記情報は、前記顔に関連付けられたアイデンティティを備える、請求項22に記載のモバイルプラットフォーム。
- 前記センサはカメラを備え、前記センサデータは、異なる位置にある前記カメラを用いてキャプチャされたオブジェクトの複数の画像と、前記オブジェクトに対する前記カメラのポーズの粗な推定とを備え、サーバから受信される前記情報は、前記ポーズのリファインメントおよび前記オブジェクトの三次元モデルのうちの少なくとも1つを備える、請求項22に記載のモバイルプラットフォーム。
- モバイルプラットフォームであって、
センサデータを獲得する手段と、
以前に獲得されたセンサデータと比べて前記センサデータにおける変化を備えるトリガイベントが存在するか否かを判定する手段と、
前記トリガイベントが存在する場合、前記センサデータをサーバに送信する手段と、
前記センサデータに関連する情報を前記サーバから受信する手段と
を備えるモバイルプラットフォーム。 - センサデータを獲得する前記手段はカメラであり、前記センサデータはオブジェクトのキャプチャ画像であり、前記センサデータに関連する前記情報は、前記オブジェクトの基準画像を備え、前記モバイルプラットフォームは、さらに、
前記オブジェクトに対する前記モバイルプラットフォームのポーズを取得する手段と、
前記ポーズおよび前記オブジェクトの基準画像を用いて前記オブジェクトをトラッキングする手段とを備える、請求項43に記載のモバイルプラットフォーム。 - センサデータを獲得する前記手段はカメラであり、前記センサデータは、オブジェクトのキャプチャ画像であり、前記トリガイベントが存在するか否かを判定する前記手段は、以前のキャプチャ画像と比べて前記キャプチャ画像におけるシーン変化が存在するか否かを判定する手段を備える、請求項43に記載のモバイルプラットフォーム。
- プログラムコードを格納した非一時的なコンピュータ読取可能な媒体であって、
センサデータを獲得するためのプログラムコードと、
以前に獲得されたセンサデータと比べて前記センサデータにおける変化を備えるトリガイベントが存在するか否かを判定するためのプログラムコードと、
前記トリガイベントが存在する場合、前記センサデータを外部プロセッサに送信するためのプログラムコードと、
前記外部プロセッサから前記センサデータに関連する情報を受信するためのプログラムコードとを備える、非一時的なコンピュータ読取可能な媒体。 - 前記センサデータは、オブジェクトのキャプチャ画像であり、前記センサデータに関連する情報は、前記オブジェクトの基準画像を備え、前記非一時的なコンピュータ読取可能な媒体は、
前記オブジェクトに対するポーズを取得するためのプログラムコードと、
前記ポーズおよび前記オブジェクトの前記基準画像を用いて前記オブジェクトをトラッキングするためのプログラムコードとをさらに備える、請求項46に記載の非一時的なコンピュータ読取可能な媒体。 - 前記センサデータは、オブジェクトのキャプチャ画像であり、前記トリガイベントが存在するか否かを判定するための前記プログラムコードは、以前のキャプチャ画像と比べて前記キャプチャ画像においてシーン変化が存在するか否かを判定するためのプログラムコードを備える、請求項46に記載の非一時的なコンピュータ読取可能な媒体。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US38466710P | 2010-09-20 | 2010-09-20 | |
US61/384,667 | 2010-09-20 | ||
US13/235,847 US9495760B2 (en) | 2010-09-20 | 2011-09-19 | Adaptable framework for cloud assisted augmented reality |
US13/235,847 | 2011-09-19 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015047432A Division JP5989832B2 (ja) | 2010-09-20 | 2015-03-10 | クラウド支援型拡張現実のための適応可能なフレームワーク |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017011718A true JP2017011718A (ja) | 2017-01-12 |
JP6290331B2 JP6290331B2 (ja) | 2018-03-07 |
Family
ID=44773155
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013530209A Active JP6000954B2 (ja) | 2010-09-20 | 2011-09-19 | クラウド支援型拡張現実のための適応可能なフレームワーク |
JP2015047432A Active JP5989832B2 (ja) | 2010-09-20 | 2015-03-10 | クラウド支援型拡張現実のための適応可能なフレームワーク |
JP2016157488A Active JP6290331B2 (ja) | 2010-09-20 | 2016-08-10 | クラウド支援型拡張現実のための適応可能なフレームワーク |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013530209A Active JP6000954B2 (ja) | 2010-09-20 | 2011-09-19 | クラウド支援型拡張現実のための適応可能なフレームワーク |
JP2015047432A Active JP5989832B2 (ja) | 2010-09-20 | 2015-03-10 | クラウド支援型拡張現実のための適応可能なフレームワーク |
Country Status (8)
Country | Link |
---|---|
US (2) | US9495760B2 (ja) |
EP (1) | EP2619728B1 (ja) |
JP (3) | JP6000954B2 (ja) |
KR (1) | KR101548834B1 (ja) |
CN (1) | CN103119627B (ja) |
ES (1) | ES2745739T3 (ja) |
HU (1) | HUE047021T2 (ja) |
WO (1) | WO2012040099A1 (ja) |
Families Citing this family (106)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110135144A1 (en) * | 2009-07-01 | 2011-06-09 | Hand Held Products, Inc. | Method and system for collecting voice and image data on a remote device and coverting the combined data |
US10395125B2 (en) | 2016-10-06 | 2019-08-27 | Smr Patents S.A.R.L. | Object detection and classification with fourier fans |
KR101436342B1 (ko) * | 2010-08-02 | 2014-09-01 | 페킹 유니버시티 | 효과적인 비디오 분류 및 검색을 위한 대표 모션 플로우 추출 |
ES2745739T3 (es) * | 2010-09-20 | 2020-03-03 | Qualcomm Inc | Un entorno adaptable para realidad aumentada asistida por la nube |
US8750557B2 (en) * | 2011-02-15 | 2014-06-10 | Ebay Inc. | Identifying product metadata from an item image |
US8810598B2 (en) | 2011-04-08 | 2014-08-19 | Nant Holdings Ip, Llc | Interference based augmented reality hosting platforms |
US9424255B2 (en) * | 2011-11-04 | 2016-08-23 | Microsoft Technology Licensing, Llc | Server-assisted object recognition and tracking for mobile devices |
WO2013078345A1 (en) | 2011-11-21 | 2013-05-30 | Nant Holdings Ip, Llc | Subscription bill service, systems and methods |
US10099614B2 (en) * | 2011-11-28 | 2018-10-16 | Magna Electronics Inc. | Vision system for vehicle |
ITVI20120041A1 (it) * | 2012-02-22 | 2013-08-23 | St Microelectronics Srl | Rilevazione di caratteristiche di un'immagine |
US8965057B2 (en) | 2012-03-02 | 2015-02-24 | Qualcomm Incorporated | Scene structure-based self-pose estimation |
US9984468B2 (en) * | 2012-03-26 | 2018-05-29 | Sony Corporation | Information processing device and method for recognising an image |
US9125255B2 (en) | 2012-05-03 | 2015-09-01 | Abl Ip Holding Llc | Networked architecture for system of lighting devices having sensors, for intelligent applications |
US9066200B1 (en) * | 2012-05-10 | 2015-06-23 | Longsand Limited | User-generated content in a virtual reality environment |
US9064326B1 (en) * | 2012-05-10 | 2015-06-23 | Longsand Limited | Local cache of augmented reality content in a mobile computing device |
US9087403B2 (en) | 2012-07-26 | 2015-07-21 | Qualcomm Incorporated | Maintaining continuity of augmentations |
CN104541300B (zh) * | 2012-09-28 | 2019-01-22 | 英特尔公司 | 增强现实信息的确定 |
US10713846B2 (en) | 2012-10-05 | 2020-07-14 | Elwha Llc | Systems and methods for sharing augmentation data |
US10269179B2 (en) * | 2012-10-05 | 2019-04-23 | Elwha Llc | Displaying second augmentations that are based on registered first augmentations |
US10180715B2 (en) | 2012-10-05 | 2019-01-15 | Elwha Llc | Correlating user reaction with at least an aspect associated with an augmentation of an augmented view |
CN104769571B (zh) | 2012-10-08 | 2018-02-13 | P·孙雄 | 分布式存储系统和方法 |
US9076257B2 (en) * | 2013-01-03 | 2015-07-07 | Qualcomm Incorporated | Rendering augmented reality based on foreground object |
US9111348B2 (en) | 2013-03-15 | 2015-08-18 | Toyota Motor Engineering & Manufacturing North America, Inc. | Computer-based method and system of dynamic category object recognition |
US10109075B2 (en) | 2013-03-15 | 2018-10-23 | Elwha Llc | Temporal element restoration in augmented reality systems |
US9070217B2 (en) | 2013-03-15 | 2015-06-30 | Daqri, Llc | Contextual local image recognition dataset |
US10025486B2 (en) | 2013-03-15 | 2018-07-17 | Elwha Llc | Cross-reality select, drag, and drop for augmented reality systems |
US9818150B2 (en) | 2013-04-05 | 2017-11-14 | Digimarc Corporation | Imagery and annotations |
WO2014165862A1 (en) | 2013-04-05 | 2014-10-09 | Ladd Mark J | Systems and methods for sensor-based mobile gaming |
EP2808805A1 (en) * | 2013-05-30 | 2014-12-03 | Thomson Licensing | Method and apparatus for displaying metadata on a display and for providing metadata for display |
US9477889B2 (en) * | 2013-06-27 | 2016-10-25 | Intel Corporation | Face recognition with parallel detection and tracking, and/or grouped feature motion shift tracking |
US9443355B2 (en) | 2013-06-28 | 2016-09-13 | Microsoft Technology Licensing, Llc | Reprojection OLED display for augmented reality experiences |
TWI484452B (zh) * | 2013-07-25 | 2015-05-11 | Univ Nat Taiwan Normal | 擴增實境學習系統及其方法 |
US9514571B2 (en) | 2013-07-25 | 2016-12-06 | Microsoft Technology Licensing, Llc | Late stage reprojection |
US9582516B2 (en) | 2013-10-17 | 2017-02-28 | Nant Holdings Ip, Llc | Wide area augmented reality location-based services |
JP6260215B2 (ja) * | 2013-11-13 | 2018-01-17 | 富士通株式会社 | 特徴点追跡装置、及び、特徴点追跡方法 |
CN105849771B (zh) * | 2013-12-19 | 2019-06-04 | 苹果公司 | 用于跟踪移动设备的方法和系统 |
KR102256057B1 (ko) * | 2014-03-17 | 2021-05-25 | 에스케이플래닛 주식회사 | 객체의 자세 기반 검색 결과 제공 장치, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체 |
KR102221152B1 (ko) * | 2014-03-18 | 2021-02-26 | 에스케이플래닛 주식회사 | 객체 자세 기반 연출 효과 제공 장치 및 방법, 그리고 이를 위한 컴퓨터 프로그램이 기록된 기록매체 |
US10572215B1 (en) * | 2014-03-31 | 2020-02-25 | Amazon Technologies, Inc. | Extendable architecture for augmented reality system |
US9652893B2 (en) | 2014-04-29 | 2017-05-16 | Microsoft Technology Licensing, Llc | Stabilization plane determination based on gaze location |
US9729784B2 (en) * | 2014-05-21 | 2017-08-08 | Google Technology Holdings LLC | Enhanced image capture |
US9723109B2 (en) | 2014-05-28 | 2017-08-01 | Alexander Hertel | Platform for constructing and consuming realm and object feature clouds |
KR102223308B1 (ko) | 2014-05-29 | 2021-03-08 | 삼성전자 주식회사 | 영상처리 방법 및 이를 구현한 전자 장치 |
US20170164056A1 (en) * | 2014-06-25 | 2017-06-08 | Thomson Licensing | Annotation method and corresponding device, computer program product and storage medium |
US9626577B1 (en) * | 2014-09-15 | 2017-04-18 | Amazon Technologies, Inc. | Image selection and recognition processing from a video feed |
US9883122B2 (en) * | 2014-09-16 | 2018-01-30 | Qualcomm Incorporated | Event-based down sampling |
EP3286718A4 (en) | 2015-04-23 | 2018-12-05 | Hasbro, Inc. | Context-aware digital play |
US10586102B2 (en) * | 2015-08-18 | 2020-03-10 | Qualcomm Incorporated | Systems and methods for object tracking |
GB2542561B (en) * | 2015-09-21 | 2019-04-17 | Canon Kk | A portable device and a method for processing a data stream |
US20170132267A1 (en) * | 2015-11-11 | 2017-05-11 | Le Holdings (Beijing) Co., Ltd. | Pushing system and method based on natural information recognition, and a client end |
US20170280130A1 (en) * | 2016-03-25 | 2017-09-28 | Microsoft Technology Licensing, Llc | 2d video analysis for 3d modeling |
GB2549940A (en) * | 2016-04-29 | 2017-11-08 | Kudan Ltd | Discovering points of interest and identifying reference images in video processing and efficient search and storage therefor |
JP6533761B2 (ja) * | 2016-05-18 | 2019-06-19 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理システム、および情報処理方法 |
JP6499993B2 (ja) * | 2016-05-18 | 2019-04-10 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理システム、および情報処理方法 |
US20180034581A1 (en) * | 2016-07-27 | 2018-02-01 | International Business Machines Corporation | Quality of service assessment for conferences |
US10274582B2 (en) * | 2016-09-30 | 2019-04-30 | Bae Systems Information And Electronic Systems Integration Inc. | Remote unit data registration |
US11400860B2 (en) | 2016-10-06 | 2022-08-02 | SMR Patents S.à.r.l. | CMS systems and processing methods for vehicles |
US10242503B2 (en) | 2017-01-09 | 2019-03-26 | Snap Inc. | Surface aware lens |
KR101897505B1 (ko) * | 2017-01-23 | 2018-09-12 | 광주과학기술원 | 다중 카메라 환경에서의 관심 객체를 실시간으로 추적하기 위한 방법 및 시스템 |
EP3577631A1 (en) | 2017-02-01 | 2019-12-11 | PCMS Holdings, Inc. | System and method for augmented reality content delivery in pre-captured environments |
US10628675B2 (en) | 2017-02-07 | 2020-04-21 | Fyusion, Inc. | Skeleton detection and tracking via client-server communication |
CN106899829B (zh) * | 2017-02-07 | 2018-06-29 | 深圳云天励飞技术有限公司 | 一种视频处理方法及装置 |
CN108428242B (zh) * | 2017-02-15 | 2022-02-08 | 宏达国际电子股份有限公司 | 图像处理装置及其方法 |
CN108875460B (zh) * | 2017-05-15 | 2023-06-20 | 腾讯科技(深圳)有限公司 | 增强现实处理方法及装置、显示终端及计算机存储介质 |
IT201700058961A1 (it) | 2017-05-30 | 2018-11-30 | Artglass S R L | Metodo e sistema di fruizione di un contenuto editoriale in un sito preferibilmente culturale o artistico o paesaggistico o naturalistico o fieristico o espositivo |
JP6762913B2 (ja) * | 2017-07-11 | 2020-09-30 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
US10360832B2 (en) | 2017-08-14 | 2019-07-23 | Microsoft Technology Licensing, Llc | Post-rendering image transformation using parallel image transformation pipelines |
JP6725183B2 (ja) * | 2017-10-18 | 2020-07-15 | 三菱電機株式会社 | 画像共有支援装置、画像共有システム、及び、画像共有支援方法 |
KR101953578B1 (ko) * | 2017-10-19 | 2019-03-04 | 서울과학기술대학교 산학협력단 | 클라우드 기반의 가상현실 서비스를 위한 콘텐츠 가공 방법 및 장치 |
US10796185B2 (en) * | 2017-11-03 | 2020-10-06 | Facebook, Inc. | Dynamic graceful degradation of augmented-reality effects |
KR101953567B1 (ko) * | 2017-11-03 | 2019-03-04 | 서울과학기술대학교 산학협력단 | 가상현실 서비스를 위한 콘텐츠 후처리 방법 |
CN107818592B (zh) * | 2017-11-24 | 2022-04-01 | 北京华捷艾米科技有限公司 | 协作式同步定位与地图构建的方法、系统及交互系统 |
US10565464B2 (en) * | 2017-12-21 | 2020-02-18 | At&T Intellectual Property I, L.P. | Adaptive cloud offloading of mobile augmented reality |
US10970425B2 (en) * | 2017-12-26 | 2021-04-06 | Seiko Epson Corporation | Object detection and tracking |
WO2019177181A1 (ko) | 2018-03-12 | 2019-09-19 | 라인플러스(주) | 뉴럴 네트워크를 이용하여 상황을 인지하는 증강 현실 제공 장치, 제공 방법 및 상기 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램 |
US11145123B1 (en) | 2018-04-27 | 2021-10-12 | Splunk Inc. | Generating extended reality overlays in an industrial environment |
US11847773B1 (en) | 2018-04-27 | 2023-12-19 | Splunk Inc. | Geofence-based object identification in an extended reality environment |
US11651589B2 (en) | 2018-05-07 | 2023-05-16 | Google Llc | Real time object detection and tracking |
US11030813B2 (en) | 2018-08-30 | 2021-06-08 | Snap Inc. | Video clip object tracking |
EP3629290B1 (en) | 2018-09-26 | 2023-01-04 | Apple Inc. | Localization for mobile devices |
KR102103430B1 (ko) * | 2018-11-08 | 2020-04-22 | 서울과학기술대학교 산학협력단 | 클라우드에 기반한 가상현실 서비스의 레이턴시 측정방법 및 시스템 |
US11176737B2 (en) | 2018-11-27 | 2021-11-16 | Snap Inc. | Textured mesh building |
US10902685B2 (en) | 2018-12-13 | 2021-01-26 | John T. Daly | Augmented reality remote authoring and social media platform and system |
US11501499B2 (en) | 2018-12-20 | 2022-11-15 | Snap Inc. | Virtual surface modification |
US10810430B2 (en) | 2018-12-27 | 2020-10-20 | At&T Intellectual Property I, L.P. | Augmented reality with markerless, context-aware object tracking |
US10984575B2 (en) | 2019-02-06 | 2021-04-20 | Snap Inc. | Body pose estimation |
WO2020251772A1 (en) | 2019-06-11 | 2020-12-17 | Ecolab Usa Inc. | Corrosion inhibitor formulation for geothermal reinjection well |
US11189098B2 (en) | 2019-06-28 | 2021-11-30 | Snap Inc. | 3D object camera customization system |
US11232646B2 (en) | 2019-09-06 | 2022-01-25 | Snap Inc. | Context-based virtual object rendering |
US11196842B2 (en) | 2019-09-26 | 2021-12-07 | At&T Intellectual Property I, L.P. | Collaborative and edge-enhanced augmented reality systems |
CN112752119B (zh) * | 2019-10-31 | 2023-12-01 | 中兴通讯股份有限公司 | 一种时延误差校正方法、终端设备、服务器及存储介质 |
US11227442B1 (en) | 2019-12-19 | 2022-01-18 | Snap Inc. | 3D captions with semantic graphical elements |
US11263817B1 (en) | 2019-12-19 | 2022-03-01 | Snap Inc. | 3D captions with face tracking |
TWI793390B (zh) * | 2019-12-25 | 2023-02-21 | 財團法人工業技術研究院 | 資訊顯示方法及其處理裝置與顯示系統 |
GB2592040B (en) * | 2020-02-13 | 2022-10-12 | Advanced Risc Mach Ltd | Method and System for Providing Augmented Reality Displays |
CA3190568A1 (en) | 2020-08-24 | 2022-03-03 | Brandon Fayette | Previsualization devices and systems for the film industry |
CN114138829B (zh) * | 2020-09-03 | 2022-11-29 | 金篆信科有限责任公司 | 共享Prepare Statement的方法、系统和网络设备 |
KR20220039110A (ko) | 2020-09-21 | 2022-03-29 | 삼성전자주식회사 | 증강 현실 시스템 및 그 생성 방법 |
US11615592B2 (en) | 2020-10-27 | 2023-03-28 | Snap Inc. | Side-by-side character animation from realtime 3D body motion capture |
US11660022B2 (en) | 2020-10-27 | 2023-05-30 | Snap Inc. | Adaptive skeletal joint smoothing |
US11748931B2 (en) | 2020-11-18 | 2023-09-05 | Snap Inc. | Body animation sharing and remixing |
US11450051B2 (en) | 2020-11-18 | 2022-09-20 | Snap Inc. | Personalized avatar real-time motion capture |
US11734894B2 (en) | 2020-11-18 | 2023-08-22 | Snap Inc. | Real-time motion transfer for prosthetic limbs |
US11880947B2 (en) | 2021-12-21 | 2024-01-23 | Snap Inc. | Real-time upper-body garment exchange |
CN117237399A (zh) * | 2022-06-08 | 2023-12-15 | 华为云计算技术有限公司 | 一种物体跟踪方法以及相关设备 |
US11875492B1 (en) | 2023-05-01 | 2024-01-16 | Fd Ip & Licensing Llc | Systems and methods for digital compositing |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004145448A (ja) * | 2002-10-22 | 2004-05-20 | Toshiba Corp | 端末装置、サーバ装置および画像加工方法 |
JP2005182350A (ja) * | 2003-12-18 | 2005-07-07 | Olympus Corp | 情報呈示システム、情報呈示装置、及びサーバ |
JP2006293912A (ja) * | 2005-04-14 | 2006-10-26 | Toshiba Corp | 情報表示システム、情報表示方法および携帯端末装置 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6118456A (en) | 1998-04-02 | 2000-09-12 | Adaptive Media Technologies | Method and apparatus capable of prioritizing and streaming objects within a 3-D virtual environment |
EP1089198A3 (en) | 1999-09-30 | 2003-03-12 | Hewlett-Packard Company, A Delaware Corporation | Content-based image searching |
JP2003266349A (ja) | 2002-03-18 | 2003-09-24 | Sony Corp | 位置認識方法、その装置、そのプログラム、その記録媒体及び位置認識装置搭載型ロボット装置 |
US7656822B1 (en) * | 2003-12-22 | 2010-02-02 | Sun Microsystems, Inc. | Method and apparatus for decentralized device and service description and discovery |
AU2006286320A1 (en) | 2005-09-01 | 2007-03-08 | Astragroup As (A Norwegian Company) | Post- recording data analysis and retrieval |
US20070285554A1 (en) * | 2005-10-31 | 2007-12-13 | Dor Givon | Apparatus method and system for imaging |
US8493323B2 (en) * | 2006-08-02 | 2013-07-23 | Research In Motion Limited | System and method for adjusting presentation of moving images on an electronic device according to an orientation of the device |
US7932938B2 (en) * | 2006-08-25 | 2011-04-26 | Micron Technology, Inc. | Method, apparatus and system providing adjustment of pixel defect map |
FR2911707B1 (fr) | 2007-01-22 | 2009-07-10 | Total Immersion Sa | Procede et dispositifs de realite augmentee utilisant un suivi automatique, en temps reel, d'objets geometriques planaires textures, sans marqueur, dans un flux video. |
GB2452508A (en) | 2007-09-05 | 2009-03-11 | Sony Corp | Generating a three-dimensional representation of a sports game |
US20100214111A1 (en) | 2007-12-21 | 2010-08-26 | Motorola, Inc. | Mobile virtual and augmented reality system |
US8682031B2 (en) * | 2008-04-23 | 2014-03-25 | Nec Corporation | Image processing device, camera, image processing method, and program |
JP2009301197A (ja) | 2008-06-11 | 2009-12-24 | Fujifilm Corp | プレビュー提供方法、装置及びプログラム並びに画像付対象物提供装置 |
JP2010118019A (ja) * | 2008-11-14 | 2010-05-27 | Sharp Corp | 端末装置、配信装置、端末装置の制御方法、配信装置の制御方法、制御プログラムおよび記録媒体 |
US9683853B2 (en) * | 2009-01-23 | 2017-06-20 | Fuji Xerox Co., Ltd. | Image matching in support of mobile navigation |
US20100257252A1 (en) | 2009-04-01 | 2010-10-07 | Microsoft Corporation | Augmented Reality Cloud Computing |
US20100309225A1 (en) * | 2009-06-03 | 2010-12-09 | Gray Douglas R | Image matching for mobile augmented reality |
KR20110005140A (ko) * | 2009-07-09 | 2011-01-17 | 주식회사 아인스아이앤에스 | 컨텐츠 처리 방법 및 컨텐츠 제공 시스템 |
KR101667715B1 (ko) * | 2010-06-08 | 2016-10-19 | 엘지전자 주식회사 | 증강현실을 이용한 경로 안내 방법 및 이를 이용하는 이동 단말기 |
KR101357262B1 (ko) * | 2010-08-13 | 2014-01-29 | 주식회사 팬택 | 필터 정보를 이용한 객체 인식 장치 및 방법 |
ES2745739T3 (es) | 2010-09-20 | 2020-03-03 | Qualcomm Inc | Un entorno adaptable para realidad aumentada asistida por la nube |
US8447329B2 (en) * | 2011-02-08 | 2013-05-21 | Longsand Limited | Method for spatially-accurate location of a device using audio-visual information |
US8488011B2 (en) * | 2011-02-08 | 2013-07-16 | Longsand Limited | System to augment a visual data stream based on a combination of geographical and visual information |
US8392450B2 (en) * | 2011-02-08 | 2013-03-05 | Autonomy Corporation Ltd. | System to augment a visual data stream with user-specific content |
US8493353B2 (en) * | 2011-04-13 | 2013-07-23 | Longsand Limited | Methods and systems for generating and joining shared experience |
US20120300020A1 (en) * | 2011-05-27 | 2012-11-29 | Qualcomm Incorporated | Real-time self-localization from panoramic images |
US8521128B1 (en) * | 2011-12-09 | 2013-08-27 | Google Inc. | Method, system, and computer program product for obtaining crowd-sourced location information |
US9674507B2 (en) * | 2013-04-30 | 2017-06-06 | Qualcomm Incorporated | Monocular visual SLAM with general and panorama camera movements |
-
2011
- 2011-09-19 ES ES11767336T patent/ES2745739T3/es active Active
- 2011-09-19 JP JP2013530209A patent/JP6000954B2/ja active Active
- 2011-09-19 EP EP11767336.8A patent/EP2619728B1/en active Active
- 2011-09-19 CN CN201180045056.3A patent/CN103119627B/zh active Active
- 2011-09-19 US US13/235,847 patent/US9495760B2/en active Active
- 2011-09-19 HU HUE11767336A patent/HUE047021T2/hu unknown
- 2011-09-19 KR KR1020137010149A patent/KR101548834B1/ko active IP Right Grant
- 2011-09-19 WO PCT/US2011/052135 patent/WO2012040099A1/en active Application Filing
-
2015
- 2015-03-10 JP JP2015047432A patent/JP5989832B2/ja active Active
-
2016
- 2016-06-10 US US15/179,936 patent/US9633447B2/en active Active
- 2016-08-10 JP JP2016157488A patent/JP6290331B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004145448A (ja) * | 2002-10-22 | 2004-05-20 | Toshiba Corp | 端末装置、サーバ装置および画像加工方法 |
JP2005182350A (ja) * | 2003-12-18 | 2005-07-07 | Olympus Corp | 情報呈示システム、情報呈示装置、及びサーバ |
JP2006293912A (ja) * | 2005-04-14 | 2006-10-26 | Toshiba Corp | 情報表示システム、情報表示方法および携帯端末装置 |
Non-Patent Citations (1)
Title |
---|
STEPHAN GAMMETER ET AL.: ""Server-side object recognition and client-side object tracking for mobile augmented reality"", COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS(CVPRW), 2010 IEEE COMPUTER SOCIETY CONFERENCE ON, JPN6014015642, 13 June 2010 (2010-06-13), pages 1 - 8, XP031728435, ISSN: 0003640594 * |
Also Published As
Publication number | Publication date |
---|---|
US9495760B2 (en) | 2016-11-15 |
CN103119627B (zh) | 2017-03-08 |
KR101548834B1 (ko) | 2015-08-31 |
ES2745739T3 (es) | 2020-03-03 |
HUE047021T2 (hu) | 2020-04-28 |
JP5989832B2 (ja) | 2016-09-07 |
US20160284099A1 (en) | 2016-09-29 |
US9633447B2 (en) | 2017-04-25 |
US20120243732A1 (en) | 2012-09-27 |
JP6000954B2 (ja) | 2016-10-05 |
EP2619728A1 (en) | 2013-07-31 |
CN103119627A (zh) | 2013-05-22 |
JP2015144474A (ja) | 2015-08-06 |
JP2013541096A (ja) | 2013-11-07 |
WO2012040099A1 (en) | 2012-03-29 |
KR20130060339A (ko) | 2013-06-07 |
EP2619728B1 (en) | 2019-07-17 |
JP6290331B2 (ja) | 2018-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6290331B2 (ja) | クラウド支援型拡張現実のための適応可能なフレームワーク | |
US11263475B2 (en) | Incremental learning for dynamic feature database management in an object recognition system | |
JP6043856B2 (ja) | Rgbdカメラを用いた頭部ポーズ推定 | |
US9811731B2 (en) | Dynamic extension of map data for object detection and tracking | |
US9087403B2 (en) | Maintaining continuity of augmentations | |
JP6144828B2 (ja) | 動的に構築された環境地図データに基づくオブジェクト追跡 | |
JP2015079490A (ja) | フレームを選択する方法、装置、及びシステム | |
KR20160003066A (ko) | 일반적인 카메라 움직임 및 파노라마 카메라 움직임을 갖는 단안 시각 slam | |
EP2802962A1 (en) | Augmented reality with sound and geometric analysis | |
WO2015048046A1 (en) | Multiview pruning of feature database for object recognition system | |
KR20210120599A (ko) | 아바타 서비스 제공 방법 및 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170907 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170912 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6290331 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |