JP2013539872A - マルチユーザ拡張現実におけるオンライン参照生成および追跡 - Google Patents
マルチユーザ拡張現実におけるオンライン参照生成および追跡 Download PDFInfo
- Publication number
- JP2013539872A JP2013539872A JP2013528358A JP2013528358A JP2013539872A JP 2013539872 A JP2013539872 A JP 2013539872A JP 2013528358 A JP2013528358 A JP 2013528358A JP 2013528358 A JP2013528358 A JP 2013528358A JP 2013539872 A JP2013539872 A JP 2013539872A
- Authority
- JP
- Japan
- Prior art keywords
- image
- planar object
- reference image
- mobile platform
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 36
- 238000000034 method Methods 0.000 claims description 50
- 230000015654 memory Effects 0.000 claims description 27
- 230000005540 biological transmission Effects 0.000 claims description 13
- 230000009466 transformation Effects 0.000 claims description 8
- 238000013519 translation Methods 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims 4
- 238000006243 chemical reaction Methods 0.000 claims 1
- 238000000844 transformation Methods 0.000 claims 1
- 230000008569 process Effects 0.000 description 11
- 239000011159 matrix material Substances 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 230000001413 cellular effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- KLDZYURQCUYZBL-UHFFFAOYSA-N 2-[3-[(2-hydroxyphenyl)methylideneamino]propyliminomethyl]phenol Chemical compound OC1=CC=CC=C1C=NCCCN=CC1=CC=CC=C1O KLDZYURQCUYZBL-UHFFFAOYSA-N 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 201000001098 delayed sleep phase syndrome Diseases 0.000 description 1
- 208000033921 delayed sleep phase type circadian rhythm sleep disease Diseases 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
Description
本出願は、2010年9月9日に出願された「Online Reference Generation And Tracking For Multi-User Augmented Reality」という表題の米国特許仮出願第61/381,344号の優先権を、米国特許法第119条に基づき主張し、前記の出願は本出願の譲受人に譲渡され、参照により本明細書に組み込まれる。
q≒PQ 式1
P=K[R|t] 式2
q'≒hq 式3
q≒HQ 式5
H≒K[r1r2t] 式6
α=cos-1(r33) 式7
100' マルチユーザARシステム
102 平面オブジェクト、オブジェクト
102A 画像
102B 画像
102C 画像
103 矢印
104 参照画像
105 矢印
106 矢印
107 矢印
110 モバイルプラットフォーム
110A マスタデバイス、第1のモバイルプラットフォーム
110B 追加モバイルプラットフォーム、他のモバイルプラットフォーム
110C 追加モバイルプラットフォーム、他のモバイルプラットフォーム
114 背面カメラ
130 サーバ
300 デバイス
Claims (45)
- 平面オブジェクトの少なくとも2つの画像をキャプチャするステップと、
前記少なくとも2つの画像を使用して、前記平面オブジェクトに関する第1のモバイルプラットフォームの、ポジションおよび方位を含む第1のポーズを判断するステップと、
前記平面オブジェクトに関する前記第1のモバイルプラットフォームの前記方位を使用して、前記第1のモバイルプラットフォームによってキャプチャされた前記平面オブジェクトの画像をワープして、前記平面オブジェクトの正面図の参照画像を作るステップと、
前記平面オブジェクトに関する第2のモバイルプラットフォームの第2のポーズを、前記第2のモバイルプラットフォームによってキャプチャされた前記平面オブジェクトの第2の画像および前記参照画像を使用して判断するステップと
を含む方法。 - 前記平面オブジェクトに関する前記第2のモバイルプラットフォームの前記第2のポーズに基づいて、前記第2のモバイルプラットフォームにより拡張現実アプリケーションを実行するステップをさらに含む、請求項1に記載の方法。
- 前記平面オブジェクトに関する前記第1のモバイルプラットフォームの、前記ポジションおよび前記方位を含む前記第1のポーズを判断するステップは、
前記少なくとも2つの画像から特徴を抽出するステップと、
前記特徴を使用して、前記少なくとも2つの画像間の2D-2Dホモグラフィhを計算するステップと、
前記特徴の3D座標を計算して、前記平面オブジェクトの面に対応する3D面を定義するステップと、
前記特徴および前記3D面を使用して、前記3D面と前記少なくとも2つの画像のうちの1つとの間の3D-2DホモグラフィHを計算するステップと、
前記3D-2DホモグラフィHを使用して、前記第1のポーズを判断するステップと
を含む、請求項1に記載の方法。 - 前記平面オブジェクトに関する前記第2のモバイルプラットフォームの前記第2のポーズを、前記第2のモバイルプラットフォームによってキャプチャされた前記平面オブジェクトの前記画像および前記参照画像を使用して判断するステップは、
前記参照画像から特徴を抽出するステップと、
前記参照画像から抽出された前記特徴に対応する3D面上における3Dポイントを定義するステップと、
前記3Dポイントの2D投影と合致する、前記第2のモバイルプラットフォームによってキャプチャされた前記平面オブジェクトの前記画像内のポイントを発見するステップと、
合致した3D-2Dポイントペアを使用して、前記第2のモバイルプラットフォームの前記第2のポーズを推定するステップと
を含む、請求項1に記載の方法。 - 前記参照画像から抽出された前記特徴は、ポイント特徴またはライン特徴を含む、請求項4に記載の方法。
- 前記平面オブジェクトに関する前記第1のモバイルプラットフォームの、前記ポジションおよび前記方位を含む前記第1のポーズを判断するステップは、前記第1のモバイルプラットフォームによって実行される、請求項1に記載の方法。
- 前記平面オブジェクトの前記画像をワープするステップは、前記第1のモバイルプラットフォームによって実行される、請求項1に記載の方法。
- 前記第2のモバイルプラットフォームに前記参照画像を送信するステップをさらに含む、請求項1に記載の方法。
- 前記第1のモバイルプラットフォームによって前記平面オブジェクトの前記少なくとも2つの画像を送信するステップをさらに含み、前記平面オブジェクトに関する前記第1のモバイルプラットフォームの、前記ポジションおよび前記方位を含む前記第1のポーズを判断するステップは、サーバによって実行される、請求項1に記載の方法。
- 前記平面オブジェクトの前記画像をワープするステップは、サーバによって実行される、請求項1に記載の方法。
- ワープされる前記第1のモバイルプラットフォームによってキャプチャされた前記平面オブジェクトの前記画像は、前記平面オブジェクトの前記少なくとも2つの画像のうちの1つである、請求項1に記載の方法。
- 前記第1のモバイルプラットフォームにより前記平面オブジェクトの追加画像をキャプチャするステップをさらに含み、ワープされる前記第1のモバイルプラットフォームによってキャプチャされた前記平面オブジェクトの前記画像は、前記平面オブジェクトの前記追加画像である、請求項1に記載の方法。
- 前記第1のモバイルプラットフォームにより前記平面オブジェクトの追加画像をキャプチャするステップと、
前記平面オブジェクトの前記追加画像および前記参照画像を使用して、前記平面オブジェクトに関する前記第1のモバイルプラットフォームの更新された第1のポーズを生成するステップと、
前記平面オブジェクトに関する前記第1のモバイルプラットフォームの前記更新された第1のポーズに基づいて、前記第1のモバイルプラットフォームにより拡張現実アプリケーションを実行するステップと
をさらに含む、請求項1に記載の方法。 - 前記第2のモバイルプラットフォームを使用して、前記平面オブジェクトの前記正面図の前記参照画像に含まれない前記平面オブジェクトの一部分を含む新規画像をキャプチャするステップと、
前記新規画像と前記参照画像とをマージして、前記平面オブジェクトの前記正面図の新規参照画像を生成するステップと、
前記平面オブジェクトに関する前記第2のモバイルプラットフォームの更新された第2のポーズを、前記第2のモバイルプラットフォームによってキャプチャされた前記平面オブジェクトの後続画像および前記新規参照画像を使用して判断するステップと
をさらに含む、請求項1に記載の方法。 - 前記新規画像と前記参照画像とをマージして、前記平面オブジェクトの前記正面図の前記新規参照画像を生成するステップは、恒等変換を通じて前記参照画像のピクセルを前記新規参照画像に変換するステップと、前記新規画像のピクセルを前記新規参照画像に変換するステップとを含む、請求項14に記載の方法。
- 前記新規画像のピクセルを前記新規参照画像に変換するステップは、計算されたホモグラフィまたはアフィン変換のうちの少なくとも1つを使用して実行される、請求項15に記載の方法。
- 前記平面オブジェクトの前記少なくとも2つの画像の両方は、前記第1のモバイルプラットフォームによってキャプチャされる、請求項1に記載の方法。
- 前記平面オブジェクトの前記少なくとも2つの画像のうちの1つは、前記第1のモバイルプラットフォームによってキャプチャされ、前記平面オブジェクトの前記少なくとも2つの画像のうちのもう1つは、前記第2のモバイルプラットフォームによってキャプチャされる、請求項1に記載の方法。
- 前記第1のモバイルプラットフォームの前記方位を使用して、前記第1のモバイルプラットフォームによってキャプチャされた前記平面オブジェクトの前記画像をワープするステップは、計算されたホモグラフィを使用するステップを含む、請求項1に記載の方法。
- 前記平面オブジェクトの前記画像をワープするステップは、ワープされた画像を作り、前記方法は、前記ワープされた画像を平行移動およびスケーリングして、前記平面オブジェクトの前記正面図の前記参照画像を作るステップをさらに含む、請求項1に記載の方法。
- 処理される少なくとも2つの画像を受信するためのインターフェースであって、前記少なくとも2つの画像が平面オブジェクトの異なるビューを包含し、前記少なくとも2つの画像のうちの少なくとも1つが第1のカメラによってキャプチャされる、インターフェースと、
データ送信インターフェースと、
処理される少なくとも2つの画像を受信するための前記インターフェースおよび前記データ送信インターフェースに接続されたプロセッサと、
前記プロセッサに接続されたメモリと、
前記メモリに保存された、前記平面オブジェクトの前記少なくとも2つの画像を分析し、前記少なくとも2つの画像を使用して前記平面オブジェクトに関する前記第1のカメラの、ポジションおよび方位を含むポーズを判断すること、前記方位を使用して前記平面オブジェクトの画像をワープして、前記平面オブジェクトの正面図の参照画像を作ること、前記データ送信インターフェースを介して第2のカメラを有するモバイルプラットフォームに前記参照画像を送信して、前記参照画像を使用してマルチユーザ拡張現実アプリケーションを実行することを前記プロセッサに行わせるように構成されたソフトウェアと
を含む装置。 - 前記装置はサーバであり、処理される少なくとも2つの画像を受信するための前記インターフェースおよび前記データ送信インターフェースは、外部インターフェースであり、前記参照画像は、複数のモバイルプラットフォームに送信される、請求項21に記載の装置。
- 前記装置は、前記第1のカメラをさらに含む第1のモバイルプラットフォームであり、処理される少なくとも2つの画像を受信するための前記インターフェースは、前記第1のカメラと前記プロセッサとの間のインターフェースであり、前記データ送信インターフェースはワイヤレストランシーバである、請求項21に記載の装置。
- 前記メモリに保存された、前記参照画像を使用して前記マルチユーザ拡張現実アプリケーションを実行することを前記プロセッサに行わせるように構成されたソフトウェアは、前記参照画像および前記平面オブジェクトの追加画像を使用して前記平面オブジェクトに関する前記第1のカメラの前記ポーズを更新することを前記プロセッサに行わせるソフトウェアを含む、請求項23に記載の装置。
- 前記第1のカメラの前記ポーズを更新することを前記プロセッサに行わせる前記ソフトウェアは、前記参照画像から特徴を抽出し、前記参照画像から抽出された前記特徴に対応する3D面上における3Dポイントを定義し、前記3Dポイントの2D投影と合致する前記平面オブジェクトの前記追加画像内のポイントを発見し、前記合致した3D-2Dポイントペアを使用して前記ポーズを更新するソフトウェアを含む、請求項24に記載の装置。
- 前記メモリに保存された、前記平面オブジェクトに関する前記第1のカメラの前記ポーズを判断することを前記プロセッサに行わせるように構成された前記ソフトウェアは、前記メモリに保存された、前記少なくとも2つの画像から特徴を抽出し、前記特徴を使用して前記少なくとも2つの画像間の2D-2Dホモグラフィhを計算し、前記特徴の3D座標を計算して、前記平面オブジェクトの面に対応する3D面を定義し、前記特徴および前記3D面を使用して前記3D面と前記少なくとも2つの画像のうちの1つとの間の3D-2DホモグラフィHを計算し、前記3D-2DホモグラフィHを使用して前記ポーズを判断するように前記プロセッサ内で作動するソフトウェアを含む、請求項21に記載の装置。
- 前記参照画像を作るためにワープされる前記平面オブジェクトの前記画像は、前記平面オブジェクトの前記少なくとも2つの画像のうちの1つである、請求項21に記載の装置。
- 前記参照画像を作るためにワープされる前記平面オブジェクトの前記画像は、前記平面オブジェクトの追加画像である、請求項21に記載の装置。
- 前記メモリに保存された前記ソフトウェアは、前記参照画像と前記参照画像に含まれない前記平面オブジェクトの一部分を含む新規画像とをマージして、前記平面オブジェクトの前記正面図の新規参照画像を生成すること、前記データ送信インターフェースを介して前記第2のカメラを有する前記モバイルプラットフォームに前記新規参照画像を送信して、前記新規参照画像を使用して前記マルチユーザ拡張現実アプリケーションを実行することを前記プロセッサに行わせるように構成される、請求項21に記載の装置。
- 前記メモリに保存された前記ソフトウェアは、恒等変換を通じて前記参照画像のピクセルを前記新規参照画像に変換すること、および計算されたホモグラフィまたはアフィン変換のうちの少なくとも1つを使用して前記新規画像のピクセルを前記新規参照画像に変換することによって、前記新規画像と前記参照画像とをマージして前記新規参照画像を生成することを前記プロセッサに行わせるように構成される、請求項29に記載の装置。
- 前記メモリに保存された前記ソフトウェアは、計算されたホモグラフィを使用して前記平面オブジェクトの前記画像をワープすることを前記プロセッサに行わせるように構成される、請求項21に記載の装置。
- 前記メモリに保存された前記ソフトウェアは、前記平面オブジェクトの前記画像をワープして、ワープされた画像を生成することを前記プロセッサに行わせるように構成され、前記メモリに保存された、前記プロセッサ内で作動する前記ソフトウェアは、前記ワープされた画像を平行移動およびスケーリングして、前記平面オブジェクトの前記正面図の前記参照画像を作ることを前記プロセッサにさらに行わせる、請求項21に記載の装置。
- モバイルプラットフォームであって、
カメラと、
ワイヤレストランシーバと、
前記カメラおよび前記ワイヤレストランシーバに接続されたプロセッサと、
前記プロセッサに接続されたメモリと、
前記メモリに接続されたディスプレイと、
前記メモリに保存された、平面オブジェクトの少なくとも2つのキャプチャされた画像を分析し、前記少なくとも2つのキャプチャされた画像を使用して前記平面オブジェクトに関する前記モバイルプラットフォームの、ポジションおよび方位を含むポーズを判断すること、前記方位を使用して前記平面オブジェクトの画像をワープして、前記平面オブジェクトの正面図の参照画像を作ること、少なくとも1つの他のモバイルプラットフォームに前記参照画像を送信すること、および前記ディスプレイに表示される前記参照画像を使用して前記少なくとも1つの他のモバイルプラットフォームによりマルチユーザ拡張現実アプリケーションを実行することを前記プロセッサに行わせるソフトウェアと
を含むモバイルプラットフォーム。 - 平面オブジェクトの少なくとも2つの画像をキャプチャするための手段と、
前記少なくとも2つの画像を使用して、前記平面オブジェクトに関する第1のモバイルプラットフォームの、ポジションおよび方位を含むポーズを判断するための手段と、
前記平面オブジェクトに関する前記第1のモバイルプラットフォームの前記方位を使用して、前記平面オブジェクトの画像をワープして、前記平面オブジェクトの正面図の参照画像を作るための手段と、
前記平面オブジェクトに関する第2のモバイルプラットフォームの第2のポーズを、前記第2のモバイルプラットフォームによってキャプチャされた前記平面オブジェクトの第2の画像および前記参照画像を使用して判断するための手段と
を含むシステム。 - 前記平面オブジェクトに関する前記第2のモバイルプラットフォームの前記第2のポーズに基づいて、前記第2のモバイルプラットフォームにより拡張現実アプリケーションを実行するための手段をさらに含む、請求項34に記載のシステム。
- 前記第1のモバイルプラットフォームは、前記平面オブジェクトに関する、前記ポジションおよび前記方位を含む前記ポーズを判断するための前記手段と、前記平面オブジェクトの前記画像をワープするための前記手段とを含み、前記第1のモバイルプラットフォームは、前記第2のモバイルプラットフォームに前記参照画像を送信するための手段をさらに含む、請求項34に記載のシステム。
- 前記平面オブジェクトに関する、前記ポジションおよび前記方位を含む前記ポーズを判断するための前記手段と、前記平面オブジェクトの前記画像をワープするための前記手段とを含むサーバをさらに含み、前記サーバは、前記平面オブジェクトの前記少なくとも2つの画像を受信するための手段と、前記第2のモバイルプラットフォームに前記参照画像を送信するための手段とをさらに含む、請求項34に記載のシステム。
- ワープされる前記平面オブジェクトの前記画像は、前記平面オブジェクトの前記少なくとも2つの画像のうちの1つまたは前記平面オブジェクトの追加画像を含む、請求項34に記載のシステム。
- 前記参照画像と前記参照画像に含まれない前記平面オブジェクトの一部分を含む新規画像とをマージして、前記平面オブジェクトの前記正面図の新規参照画像を生成するための手段をさらに含み、前記第2のモバイルプラットフォームの前記第2のポーズを判断するための前記手段は、前記第2のモバイルプラットフォームによってキャプチャされた前記平面オブジェクトの異なる画像および前記新規参照画像を使用して前記平面オブジェクトに関する前記第2のモバイルプラットフォームの前記第2のポーズを更新する、請求項34に記載のシステム。
- 前記新規画像と前記参照画像とをマージして前記新規参照画像を生成するための前記手段は、恒等変換を通じて前記参照画像のピクセルを前記新規参照画像に変換し、計算されたホモグラフィまたはアフィン変換のうちの少なくとも1つを使用して前記新規画像のピクセルを前記新規参照画像に変換する、請求項39に記載のシステム。
- 前記第1のモバイルプラットフォームの前記方位を使用して前記平面オブジェクトの前記画像をワープするための前記手段は、平行移動を含む計算されたホモグラフィおよび前記方位を使用する、請求項34に記載のシステム。
- 前記平面オブジェクトの前記画像をワープするための前記手段は、ワープされた画像を作り、前記システムは、前記ワープされた画像を平行移動およびスケーリングして、前記平面オブジェクトの前記正面図の前記参照画像を作るための手段をさらに含む、請求項34に記載のシステム。
- コンピュータにより実行可能なプログラムコードを記録したコンピュータ可読記録媒体であって、
平面オブジェクトの少なくとも2つの画像を分析して、前記平面オブジェクトに関する前記少なくとも2つの画像のうちの少なくとも1つをキャプチャしたカメラの、ポジションおよび方位を含むポーズを判断するためのプログラムコードと、
前記方位を使用して前記平面オブジェクトの画像をワープして、前記平面オブジェクトの正面図の参照画像を作るためのプログラムコードと、
前記参照画像を送信するためのプログラムコードと、
前記参照画像を使用してマルチユーザ拡張現実アプリケーションを実行するためのプログラムコードと
を含むコンピュータ可読記録媒体。 - 前記参照画像と前記参照画像に含まれない前記平面オブジェクトの一部分を含む新規画像とをマージして、前記平面オブジェクトの前記正面図の新規参照画像を生成するためのプログラムコードと、
前記新規参照画像を送信するためのプログラムコードと、
前記新規参照画像を使用して前記マルチユーザ拡張現実アプリケーションを実行するためのプログラムコードと
をさらに含む、請求項43に記載のコンピュータ可読記録媒体。 - 前記新規画像と前記参照画像とをマージして、前記新規参照画像を生成するための前記プログラムコードは、
恒等変換を通じて前記参照画像のピクセルを前記新規参照画像に変換するためのプログラムコードと、
計算されたホモグラフィまたはアフィン変換のうちの少なくとも1つを使用して、前記新規画像のピクセルを前記新規参照画像に変換するためのプログラムコードと
を含む、請求項44に記載のコンピュータ可読記録媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US38134410P | 2010-09-09 | 2010-09-09 | |
US61/381,344 | 2010-09-09 | ||
US13/082,187 | 2011-04-07 | ||
US13/082,187 US9013550B2 (en) | 2010-09-09 | 2011-04-07 | Online reference generation and tracking for multi-user augmented reality |
PCT/US2011/051109 WO2012034092A1 (en) | 2010-09-09 | 2011-09-09 | Online reference generation and tracking for multi-user augmented reality |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013539872A true JP2013539872A (ja) | 2013-10-28 |
JP5660648B2 JP5660648B2 (ja) | 2015-01-28 |
Family
ID=44678049
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013528358A Expired - Fee Related JP5660648B2 (ja) | 2010-09-09 | 2011-09-09 | マルチユーザ拡張現実におけるオンライン参照生成および追跡 |
Country Status (6)
Country | Link |
---|---|
US (2) | US9013550B2 (ja) |
EP (1) | EP2614487B1 (ja) |
JP (1) | JP5660648B2 (ja) |
KR (2) | KR101689923B1 (ja) |
CN (1) | CN103155001B (ja) |
WO (1) | WO2012034092A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015184777A (ja) * | 2014-03-20 | 2015-10-22 | コニカミノルタ株式会社 | 拡張現実表示装置、拡張現実表示システム、拡張現実表示方法および拡張現実表示プログラム |
Families Citing this family (122)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9171221B2 (en) * | 2010-07-18 | 2015-10-27 | Spatial Cam Llc | Camera to track an object |
US8866920B2 (en) | 2008-05-20 | 2014-10-21 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
US11792538B2 (en) | 2008-05-20 | 2023-10-17 | Adeia Imaging Llc | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
EP2289235A4 (en) | 2008-05-20 | 2011-12-28 | Pelican Imaging Corp | RECORDING AND PROCESSING IMAGES BY MONOLITHIC CAMERA ARRANGEMENT WITH HETEROGENIC IMAGE TRANSFORMER |
US20100205628A1 (en) | 2009-02-12 | 2010-08-12 | Davis Bruce L | Media processing methods and arrangements |
DE102009049073A1 (de) * | 2009-10-12 | 2011-04-21 | Metaio Gmbh | Verfahren zur Darstellung von virtueller Information in einer Ansicht einer realen Umgebung |
US8514491B2 (en) | 2009-11-20 | 2013-08-20 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
KR101824672B1 (ko) | 2010-05-12 | 2018-02-05 | 포토네이션 케이맨 리미티드 | 이미저 어레이 구조 및 어레이 카메라 |
US9013550B2 (en) | 2010-09-09 | 2015-04-21 | Qualcomm Incorporated | Online reference generation and tracking for multi-user augmented reality |
US8878950B2 (en) | 2010-12-14 | 2014-11-04 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using super-resolution processes |
US8810598B2 (en) | 2011-04-08 | 2014-08-19 | Nant Holdings Ip, Llc | Interference based augmented reality hosting platforms |
EP2708019B1 (en) | 2011-05-11 | 2019-10-16 | FotoNation Limited | Systems and methods for transmitting and receiving array camera image data |
US20130050499A1 (en) * | 2011-08-30 | 2013-02-28 | Qualcomm Incorporated | Indirect tracking |
US9305361B2 (en) | 2011-09-12 | 2016-04-05 | Qualcomm Incorporated | Resolving homography decomposition ambiguity based on orientation sensors |
US20130070060A1 (en) | 2011-09-19 | 2013-03-21 | Pelican Imaging Corporation | Systems and methods for determining depth from multiple views of a scene that include aliasing using hypothesized fusion |
WO2013049699A1 (en) | 2011-09-28 | 2013-04-04 | Pelican Imaging Corporation | Systems and methods for encoding and decoding light field image files |
US9424255B2 (en) * | 2011-11-04 | 2016-08-23 | Microsoft Technology Licensing, Llc | Server-assisted object recognition and tracking for mobile devices |
WO2013078345A1 (en) | 2011-11-21 | 2013-05-30 | Nant Holdings Ip, Llc | Subscription bill service, systems and methods |
WO2013111229A1 (ja) * | 2012-01-23 | 2013-08-01 | 日本電気株式会社 | カメラ校正装置、カメラ校正方法およびカメラ校正用プログラム |
US9412206B2 (en) | 2012-02-21 | 2016-08-09 | Pelican Imaging Corporation | Systems and methods for the manipulation of captured light field image data |
KR20130117303A (ko) * | 2012-04-18 | 2013-10-25 | 삼성전자주식회사 | 증강 현실 이미지를 디스플레이하기 위한 방법 및 그 전자 장치 |
US9210392B2 (en) | 2012-05-01 | 2015-12-08 | Pelican Imaging Coporation | Camera modules patterned with pi filter groups |
WO2013173728A1 (en) | 2012-05-17 | 2013-11-21 | The University Of North Carolina At Chapel Hill | Methods, systems, and computer readable media for unified scene acquisition and pose tracking in a wearable display |
CN104508681B (zh) | 2012-06-28 | 2018-10-30 | Fotonation开曼有限公司 | 用于检测有缺陷的相机阵列、光学器件阵列和传感器的系统及方法 |
US20140002674A1 (en) | 2012-06-30 | 2014-01-02 | Pelican Imaging Corporation | Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors |
CN102821323B (zh) * | 2012-08-01 | 2014-12-17 | 成都理想境界科技有限公司 | 基于增强现实技术的视频播放方法、系统及移动终端 |
US9131295B2 (en) | 2012-08-07 | 2015-09-08 | Microsoft Technology Licensing, Llc | Multi-microphone audio source separation based on combined statistical angle distributions |
US8619082B1 (en) | 2012-08-21 | 2013-12-31 | Pelican Imaging Corporation | Systems and methods for parallax detection and correction in images captured using array cameras that contain occlusions using subsets of images to perform depth estimation |
US9269146B2 (en) * | 2012-08-23 | 2016-02-23 | Microsoft Technology Licensing, Llc | Target object angle determination using multiple cameras |
US20140055632A1 (en) | 2012-08-23 | 2014-02-27 | Pelican Imaging Corporation | Feature based high resolution motion estimation from low resolution images captured using an array source |
US20140092281A1 (en) | 2012-09-28 | 2014-04-03 | Pelican Imaging Corporation | Generating Images from Light Fields Utilizing Virtual Viewpoints |
US9214021B2 (en) * | 2012-10-09 | 2015-12-15 | The Boeing Company | Distributed position identification |
US9237340B2 (en) * | 2012-10-10 | 2016-01-12 | Texas Instruments Incorporated | Camera pose estimation |
US9143711B2 (en) | 2012-11-13 | 2015-09-22 | Pelican Imaging Corporation | Systems and methods for array camera focal plane control |
US9076257B2 (en) | 2013-01-03 | 2015-07-07 | Qualcomm Incorporated | Rendering augmented reality based on foreground object |
WO2014130849A1 (en) | 2013-02-21 | 2014-08-28 | Pelican Imaging Corporation | Generating compressed light field representation data |
US9253380B2 (en) | 2013-02-24 | 2016-02-02 | Pelican Imaging Corporation | Thin form factor computational array cameras and modular array cameras |
WO2014138695A1 (en) | 2013-03-08 | 2014-09-12 | Pelican Imaging Corporation | Systems and methods for measuring scene information while capturing images using array cameras |
US8866912B2 (en) | 2013-03-10 | 2014-10-21 | Pelican Imaging Corporation | System and methods for calibration of an array camera using a single captured image |
US9124831B2 (en) | 2013-03-13 | 2015-09-01 | Pelican Imaging Corporation | System and methods for calibration of an array camera |
US9898866B2 (en) | 2013-03-13 | 2018-02-20 | The University Of North Carolina At Chapel Hill | Low latency stabilization for head-worn displays |
US9106784B2 (en) | 2013-03-13 | 2015-08-11 | Pelican Imaging Corporation | Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing |
US9519972B2 (en) | 2013-03-13 | 2016-12-13 | Kip Peli P1 Lp | Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies |
WO2014164909A1 (en) | 2013-03-13 | 2014-10-09 | Pelican Imaging Corporation | Array camera architecture implementing quantum film sensors |
WO2014159779A1 (en) | 2013-03-14 | 2014-10-02 | Pelican Imaging Corporation | Systems and methods for reducing motion blur in images or video in ultra low light with array cameras |
US10733798B2 (en) * | 2013-03-14 | 2020-08-04 | Qualcomm Incorporated | In situ creation of planar natural feature targets |
WO2014153098A1 (en) | 2013-03-14 | 2014-09-25 | Pelican Imaging Corporation | Photmetric normalization in array cameras |
US9497429B2 (en) | 2013-03-15 | 2016-11-15 | Pelican Imaging Corporation | Extended color processing on pelican array cameras |
US10122993B2 (en) | 2013-03-15 | 2018-11-06 | Fotonation Limited | Autofocus system for a conventional camera that uses depth information from an array camera |
WO2014145856A1 (en) * | 2013-03-15 | 2014-09-18 | Pelican Imaging Corporation | Systems and methods for stereo imaging with camera arrays |
US9633442B2 (en) * | 2013-03-15 | 2017-04-25 | Fotonation Cayman Limited | Array cameras including an array camera module augmented with a separate camera |
US9445003B1 (en) | 2013-03-15 | 2016-09-13 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information |
US9367811B2 (en) * | 2013-03-15 | 2016-06-14 | Qualcomm Incorporated | Context aware localization, mapping, and tracking |
US9898856B2 (en) | 2013-09-27 | 2018-02-20 | Fotonation Cayman Limited | Systems and methods for depth-assisted perspective distortion correction |
US9582516B2 (en) | 2013-10-17 | 2017-02-28 | Nant Holdings Ip, Llc | Wide area augmented reality location-based services |
US9264592B2 (en) | 2013-11-07 | 2016-02-16 | Pelican Imaging Corporation | Array camera modules incorporating independently aligned lens stacks |
WO2015074078A1 (en) | 2013-11-18 | 2015-05-21 | Pelican Imaging Corporation | Estimating depth from projected texture using camera arrays |
US9456134B2 (en) | 2013-11-26 | 2016-09-27 | Pelican Imaging Corporation | Array camera configurations incorporating constituent array cameras and constituent cameras |
KR102209008B1 (ko) * | 2014-02-17 | 2021-01-28 | 삼성전자주식회사 | 카메라 포즈 추정 장치 및 카메라 포즈 추정 방법 |
WO2015134795A2 (en) | 2014-03-05 | 2015-09-11 | Smart Picture Technologies, Inc. | Method and system for 3d capture based on structure from motion with pose detection tool |
WO2015134996A1 (en) | 2014-03-07 | 2015-09-11 | Pelican Imaging Corporation | System and methods for depth regularization and semiautomatic interactive matting using rgb-d images |
US10380410B2 (en) | 2014-04-07 | 2019-08-13 | Eyeways Systems Ltd. | Apparatus and method for image-based positioning, orientation and situational awareness |
CN103955499B (zh) * | 2014-04-22 | 2018-02-02 | 北京航空航天大学 | 一种基于即时计算与动态追踪的视觉体验增强方法 |
EP2940989B1 (en) * | 2014-05-02 | 2022-01-05 | Samsung Electronics Co., Ltd. | Method and apparatus for generating composite image in electronic device |
US9521319B2 (en) | 2014-06-18 | 2016-12-13 | Pelican Imaging Corporation | Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor |
WO2016012041A1 (en) * | 2014-07-23 | 2016-01-28 | Metaio Gmbh | Method and system for presenting at least part of an image of a real object in a view of a real environment, and method and system for selecting a subset of a plurality of images |
WO2016054089A1 (en) | 2014-09-29 | 2016-04-07 | Pelican Imaging Corporation | Systems and methods for dynamic calibration of array cameras |
US11049476B2 (en) | 2014-11-04 | 2021-06-29 | The University Of North Carolina At Chapel Hill | Minimal-latency tracking and display for matching real and virtual worlds in head-worn displays |
US20160134860A1 (en) * | 2014-11-12 | 2016-05-12 | Dejan Jovanovic | Multiple template improved 3d modeling of imaged objects using camera position and pose to obtain accuracy |
WO2016155767A1 (en) * | 2015-03-30 | 2016-10-06 | Siemens Aktiengesellschaft | Method and system for determining an orientation of a mobile device |
US9942474B2 (en) | 2015-04-17 | 2018-04-10 | Fotonation Cayman Limited | Systems and methods for performing high speed video capture and depth estimation using array cameras |
CN104850229B (zh) | 2015-05-18 | 2019-03-22 | 小米科技有限责任公司 | 识别物体的方法及装置 |
US10083522B2 (en) | 2015-06-19 | 2018-09-25 | Smart Picture Technologies, Inc. | Image based measurement system |
US9800778B2 (en) * | 2015-07-21 | 2017-10-24 | Qualcomm Incorporated | Camera orientation notification system |
CN106776267A (zh) * | 2015-11-25 | 2017-05-31 | 富士通株式会社 | 网页应用兼容性测试方法和网页应用兼容性测试设备 |
GB2545275A (en) * | 2015-12-11 | 2017-06-14 | Nokia Technologies Oy | Causing provision of virtual reality content |
US9747668B2 (en) * | 2016-01-21 | 2017-08-29 | Disney Enterprises, Inc. | Reconstruction of articulated objects from a moving camera |
JP6775969B2 (ja) * | 2016-02-29 | 2020-10-28 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US10452133B2 (en) * | 2016-12-12 | 2019-10-22 | Microsoft Technology Licensing, Llc | Interacting with an environment using a parent device and at least one companion device |
IL290142B2 (en) * | 2017-03-17 | 2023-10-01 | Magic Leap Inc | A mixed reality system with the assembly of multi-source virtual content and a method for creating virtual content using it |
US20230107110A1 (en) * | 2017-04-10 | 2023-04-06 | Eys3D Microelectronics, Co. | Depth processing system and operational method thereof |
CN107133986B (zh) * | 2017-04-26 | 2019-08-20 | 武汉科技大学 | 一种基于二维标定物的相机标定方法 |
US10269181B2 (en) * | 2017-05-31 | 2019-04-23 | Verizon Patent And Licensing Inc. | Methods and systems for generating a virtualized projection of a customized view of a real-world scene for inclusion within virtual reality media content |
EP3616035B1 (en) | 2017-06-19 | 2024-04-24 | Apple Inc. | Augmented reality interface for interacting with displayed maps |
US10779011B2 (en) | 2017-07-31 | 2020-09-15 | Qualcomm Incorporated | Error concealment in virtual reality system |
US10304254B2 (en) | 2017-08-08 | 2019-05-28 | Smart Picture Technologies, Inc. | Method for measuring and modeling spaces using markerless augmented reality |
US10482618B2 (en) | 2017-08-21 | 2019-11-19 | Fotonation Limited | Systems and methods for hybrid depth regularization |
US10762713B2 (en) * | 2017-09-18 | 2020-09-01 | Shoppar Inc. | Method for developing augmented reality experiences in low computer power systems and devices |
US10777007B2 (en) | 2017-09-29 | 2020-09-15 | Apple Inc. | Cooperative augmented reality map interface |
US10685456B2 (en) | 2017-10-12 | 2020-06-16 | Microsoft Technology Licensing, Llc | Peer to peer remote localization for devices |
US10460512B2 (en) * | 2017-11-07 | 2019-10-29 | Microsoft Technology Licensing, Llc | 3D skeletonization using truncated epipolar lines |
IL274976B2 (en) * | 2017-12-15 | 2024-05-01 | Magic Leap Inc | Improved positioning for a display device |
US10504289B2 (en) | 2018-05-01 | 2019-12-10 | Dell Products, Lp | Method and apparatus for securely displaying private information using an augmented reality headset |
US10410372B1 (en) | 2018-06-14 | 2019-09-10 | The University Of North Carolina At Chapel Hill | Methods, systems, and computer-readable media for utilizing radial distortion to estimate a pose configuration |
US10908428B2 (en) * | 2018-09-25 | 2021-02-02 | Facebook Technologies, Llc | Multiple-device system with multiple power and data configurations |
US11189054B2 (en) * | 2018-09-28 | 2021-11-30 | Apple Inc. | Localization and mapping using images from multiple devices |
US10547974B1 (en) * | 2019-03-19 | 2020-01-28 | Microsoft Technology Licensing, Llc | Relative spatial localization of mobile devices |
AU2020274025B2 (en) | 2019-05-10 | 2022-10-20 | Smart Picture Technologies, Inc. | Methods and systems for measuring and modeling spaces using markerless photo-based augmented reality process |
US10949960B2 (en) * | 2019-06-20 | 2021-03-16 | Intel Corporation | Pose synthesis in unseen human poses |
CN114600165A (zh) | 2019-09-17 | 2022-06-07 | 波士顿偏振测定公司 | 用于使用偏振提示表面建模的系统和方法 |
EP4042101A4 (en) | 2019-10-07 | 2023-11-22 | Boston Polarimetrics, Inc. | SYSTEMS AND METHODS FOR DETECTING SURFACE NORMALS USING POLARIZATION |
WO2021104203A1 (en) | 2019-11-27 | 2021-06-03 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Associating device coordinate systems in a multi-person augmented reality system |
KR102558903B1 (ko) | 2019-11-30 | 2023-07-24 | 보스턴 폴라리메트릭스, 인크. | 편광 신호를 이용한 투명 물체 분할을 위한 시스템 및 방법 |
US11816757B1 (en) * | 2019-12-11 | 2023-11-14 | Meta Platforms Technologies, Llc | Device-side capture of data representative of an artificial reality environment |
US11663736B2 (en) * | 2019-12-27 | 2023-05-30 | Snap Inc. | Marker-based shared augmented reality session creation |
KR102245760B1 (ko) * | 2019-12-31 | 2021-04-29 | 주식회사 버넥트 | 테이블 탑 디바이스 및 이를 포함하는 테이블 탑 시스템 |
JP7462769B2 (ja) | 2020-01-29 | 2024-04-05 | イントリンジック イノベーション エルエルシー | 物体の姿勢の検出および測定システムを特徴付けるためのシステムおよび方法 |
CN115428028A (zh) | 2020-01-30 | 2022-12-02 | 因思创新有限责任公司 | 用于合成用于在包括偏振图像的不同成像模态下训练统计模型的数据的系统和方法 |
US20210327119A1 (en) * | 2020-04-17 | 2021-10-21 | Occipital, Inc. | System for Generating a Three-Dimensional Scene Reconstructions |
WO2021243088A1 (en) | 2020-05-27 | 2021-12-02 | Boston Polarimetrics, Inc. | Multi-aperture polarization optical systems using beam splitters |
US11374808B2 (en) | 2020-05-29 | 2022-06-28 | Corning Research & Development Corporation | Automated logging of patching operations via mixed reality based labeling |
US11295135B2 (en) * | 2020-05-29 | 2022-04-05 | Corning Research & Development Corporation | Asset tracking of communication equipment via mixed reality based labeling |
US11924397B2 (en) * | 2020-07-23 | 2024-03-05 | Samsung Electronics Co., Ltd. | Generation and distribution of immersive media content from streams captured via distributed mobile devices |
US11483533B2 (en) | 2021-01-05 | 2022-10-25 | At&T Intellectual Property I, L.P. | System and method for social immersive content rendering |
US20220230410A1 (en) * | 2021-01-19 | 2022-07-21 | Objectvideo Labs, Llc | Object localization in video |
US12020455B2 (en) | 2021-03-10 | 2024-06-25 | Intrinsic Innovation Llc | Systems and methods for high dynamic range image reconstruction |
US12069227B2 (en) | 2021-03-10 | 2024-08-20 | Intrinsic Innovation Llc | Multi-modal and multi-spectral stereo camera arrays |
US11954886B2 (en) | 2021-04-15 | 2024-04-09 | Intrinsic Innovation Llc | Systems and methods for six-degree of freedom pose estimation of deformable objects |
US11290658B1 (en) | 2021-04-15 | 2022-03-29 | Boston Polarimetrics, Inc. | Systems and methods for camera exposure control |
US12067746B2 (en) | 2021-05-07 | 2024-08-20 | Intrinsic Innovation Llc | Systems and methods for using computer vision to pick up small objects |
US11689813B2 (en) | 2021-07-01 | 2023-06-27 | Intrinsic Innovation Llc | Systems and methods for high dynamic range imaging using crossed polarizers |
US12045950B2 (en) | 2021-09-27 | 2024-07-23 | Ford Global Technologies, Llc | Object pose estimation |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6353679B1 (en) * | 1998-11-03 | 2002-03-05 | Compaq Computer Corporation | Sample refinement method of multiple mode probability density estimation |
US20030076980A1 (en) * | 2001-10-04 | 2003-04-24 | Siemens Corporate Research, Inc.. | Coded visual markers for tracking and camera calibration in mobile computing systems |
NZ539632A (en) * | 2002-10-22 | 2008-01-31 | Artoolworks | Tracking a surface in a 3-dimensional scene using natural visual features of the surface |
US7671916B2 (en) | 2004-06-04 | 2010-03-02 | Electronic Arts Inc. | Motion sensor using dual camera inputs |
US7336814B2 (en) * | 2004-07-14 | 2008-02-26 | Braintech Canada, Inc. | Method and apparatus for machine-vision |
JP4689380B2 (ja) * | 2004-09-28 | 2011-05-25 | キヤノン株式会社 | 情報処理方法および装置 |
WO2006105054A2 (en) * | 2005-03-25 | 2006-10-05 | Sarnoff Corporation | Method and system for improving video metadata through the use of frame-to-frame correspondences |
US7889905B2 (en) * | 2005-05-23 | 2011-02-15 | The Penn State Research Foundation | Fast 3D-2D image registration method with application to continuously guided endoscopy |
JP2007033087A (ja) | 2005-07-22 | 2007-02-08 | Sony Corp | キャリブレーション装置及び方法 |
US8401240B2 (en) * | 2006-11-09 | 2013-03-19 | University Of Florida Research Foundation, Inc. | Passive single camera imaging system for determining motor vehicle speed |
KR100918392B1 (ko) * | 2006-12-05 | 2009-09-24 | 한국전자통신연구원 | 3d 컨텐츠 저작을 위한 개인형 멀티미디어 스튜디오플랫폼 장치 및 방법 |
FR2911707B1 (fr) | 2007-01-22 | 2009-07-10 | Total Immersion Sa | Procede et dispositifs de realite augmentee utilisant un suivi automatique, en temps reel, d'objets geometriques planaires textures, sans marqueur, dans un flux video. |
US20090010507A1 (en) * | 2007-07-02 | 2009-01-08 | Zheng Jason Geng | System and method for generating a 3d model of anatomical structure using a plurality of 2d images |
DE602007003849D1 (de) * | 2007-10-11 | 2010-01-28 | Mvtec Software Gmbh | System und Verfahren zur 3D-Objekterkennung |
KR20090088210A (ko) * | 2008-02-14 | 2009-08-19 | 주식회사 만도 | 두 개의 기준점을 이용한 목표주차위치 검출 방법과 장치및 그를 이용한 주차 보조 시스템 |
GB2458927B (en) * | 2008-04-02 | 2012-11-14 | Eykona Technologies Ltd | 3D Imaging system |
US20100097444A1 (en) * | 2008-10-16 | 2010-04-22 | Peter Lablans | Camera System for Creating an Image From a Plurality of Images |
FR2933218B1 (fr) * | 2008-06-30 | 2011-02-11 | Total Immersion | Procede et dispositif permettant de detecter en temps reel des interactions entre un utilisateur et une scene de realite augmentee |
EP2154650A1 (en) * | 2008-08-12 | 2010-02-17 | IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. | 3D time-of-flight camera system and position/orientation calibration method therefor |
US8970690B2 (en) | 2009-02-13 | 2015-03-03 | Metaio Gmbh | Methods and systems for determining the pose of a camera with respect to at least one object of a real environment |
US20100208033A1 (en) | 2009-02-13 | 2010-08-19 | Microsoft Corporation | Personal Media Landscapes in Mixed Reality |
US7901095B2 (en) * | 2009-03-27 | 2011-03-08 | Seiko Epson Corporation | Resolution scalable view projection |
US8839121B2 (en) | 2009-05-06 | 2014-09-16 | Joseph Bertolami | Systems and methods for unifying coordinate systems in augmented reality applications |
US8755569B2 (en) * | 2009-05-29 | 2014-06-17 | University Of Central Florida Research Foundation, Inc. | Methods for recognizing pose and action of articulated objects with collection of planes in motion |
US20110115671A1 (en) | 2009-11-17 | 2011-05-19 | Qualcomm Incorporated | Determination of elevation of mobile station |
US8427536B2 (en) | 2009-11-19 | 2013-04-23 | Qualcomm Incorporated | Orientation determination of a mobile station using side and top view images |
US9412164B2 (en) * | 2010-05-25 | 2016-08-09 | Hewlett-Packard Development Company, L.P. | Apparatus and methods for imaging system calibration |
US20120011142A1 (en) | 2010-07-08 | 2012-01-12 | Qualcomm Incorporated | Feedback to improve object recognition |
US9013550B2 (en) | 2010-09-09 | 2015-04-21 | Qualcomm Incorporated | Online reference generation and tracking for multi-user augmented reality |
-
2011
- 2011-04-07 US US13/082,187 patent/US9013550B2/en active Active
- 2011-09-09 EP EP11761201.0A patent/EP2614487B1/en active Active
- 2011-09-09 KR KR1020137008997A patent/KR101689923B1/ko active IP Right Grant
- 2011-09-09 JP JP2013528358A patent/JP5660648B2/ja not_active Expired - Fee Related
- 2011-09-09 WO PCT/US2011/051109 patent/WO2012034092A1/en active Application Filing
- 2011-09-09 KR KR1020157017271A patent/KR20150082684A/ko not_active Application Discontinuation
- 2011-09-09 CN CN201180043651.3A patent/CN103155001B/zh active Active
-
2015
- 2015-03-19 US US14/662,555 patent/US9558557B2/en active Active
Non-Patent Citations (3)
Title |
---|
CSNB201000851001; Gary Bradski,外1名: 「詳解 OpenCV」 初版, 20090824, p.388,395-396, 株式会社オライリー・ジャパン * |
JPN6014008425; Wonwoo Lee,外3名: '"Point-and-Shoot for Ubiquitous Tagging on Mobile Phones"' IEEE International Symposium on Mixed and Augmented Reality 2010 Science and Technology Proceedings , 20101013, p.57-64, IEEE * |
JPN6014008426; Gary Bradski,外1名: 「詳解 OpenCV」 初版, 20090824, p.388,395-396, 株式会社オライリー・ジャパン * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015184777A (ja) * | 2014-03-20 | 2015-10-22 | コニカミノルタ株式会社 | 拡張現実表示装置、拡張現実表示システム、拡張現実表示方法および拡張現実表示プログラム |
Also Published As
Publication number | Publication date |
---|---|
KR101689923B1 (ko) | 2016-12-26 |
US20120062702A1 (en) | 2012-03-15 |
CN103155001A (zh) | 2013-06-12 |
US9558557B2 (en) | 2017-01-31 |
EP2614487B1 (en) | 2021-01-06 |
US20150193935A1 (en) | 2015-07-09 |
KR20150082684A (ko) | 2015-07-15 |
JP5660648B2 (ja) | 2015-01-28 |
WO2012034092A1 (en) | 2012-03-15 |
US9013550B2 (en) | 2015-04-21 |
KR20130051501A (ko) | 2013-05-20 |
CN103155001B (zh) | 2017-09-08 |
EP2614487A1 (en) | 2013-07-17 |
WO2012034092A8 (en) | 2012-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5660648B2 (ja) | マルチユーザ拡張現実におけるオンライン参照生成および追跡 | |
US11481982B2 (en) | In situ creation of planar natural feature targets | |
KR101585521B1 (ko) | 장면 구조-기반 자가-포즈 추정 | |
JP6258953B2 (ja) | 単眼視覚slamのための高速初期化 | |
US9674507B2 (en) | Monocular visual SLAM with general and panorama camera movements | |
US9582707B2 (en) | Head pose estimation using RGBD camera | |
JP5774226B2 (ja) | 方位センサに基づくホモグラフィ分解の曖昧性の解決 | |
WO2019021569A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2018195241A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
KR101863647B1 (ko) | 3d 맵들에 대한 가설 라인 맵핑 및 검증 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140303 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140602 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141127 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5660648 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |