JP6273400B2 - 周辺情報を使用した高速テンプレートマッチング - Google Patents
周辺情報を使用した高速テンプレートマッチング Download PDFInfo
- Publication number
- JP6273400B2 JP6273400B2 JP2017500014A JP2017500014A JP6273400B2 JP 6273400 B2 JP6273400 B2 JP 6273400B2 JP 2017500014 A JP2017500014 A JP 2017500014A JP 2017500014 A JP2017500014 A JP 2017500014A JP 6273400 B2 JP6273400 B2 JP 6273400B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- template
- templates
- pose
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000002093 peripheral effect Effects 0.000 title claims description 65
- 238000000034 method Methods 0.000 claims description 72
- 238000012545 processing Methods 0.000 claims description 26
- 230000015654 memory Effects 0.000 claims description 24
- 230000008569 process Effects 0.000 claims description 17
- 230000005484 gravity Effects 0.000 claims description 14
- 230000036544 posture Effects 0.000 description 54
- 238000004891 communication Methods 0.000 description 24
- 239000011159 matrix material Substances 0.000 description 18
- 238000004364 calculation method Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 230000003936 working memory Effects 0.000 description 10
- 238000001514 detection method Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- LNEPOXFFQSENCJ-UHFFFAOYSA-N haloperidol Chemical compound C1CC(O)(C=2C=CC(Cl)=CC=2)CCN1CCCC(=O)C1=CC=C(F)C=C1 LNEPOXFFQSENCJ-UHFFFAOYSA-N 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- NCGICGYLBXGBGN-UHFFFAOYSA-N 3-morpholin-4-yl-1-oxa-3-azonia-2-azanidacyclopent-3-en-5-imine;hydrochloride Chemical group Cl.[N-]1OC(=N)C=[N+]1N1CCOCC1 NCGICGYLBXGBGN-UHFFFAOYSA-N 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 229920000642 polymer Polymers 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/09—Recognition of logos
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/10—Recognition assisted with metadata
Description
roll=cos-1(λ2(v2-v0)/a)
ターゲットオブジェクト1134を特定の姿勢テンプレートと関連付けるためにマッチングがなされると、次いで、S1104においてユーザのロケーションおよび向きを割り出すためにS1102においてテンプレートマッチングの一部として特定された姿勢情報とともに、少なくとも部分的に、会場レイアウトおよびPOI情報1120が使用され得る。会場レイアウトおよびPOI情報1120がターゲットオブジェクト1134に関連付けられたマップロケーションを含むので、姿勢情報は、画像1135をキャプチャしたカメラに関連付けられた向首情報を提供し、ユーザがカメラと同じ方向に面するものと仮定すれば、2Dマップ上のユーザの向きは、店頭の壁に対するカメラ回転角度に基づいて割り出される。関連のエリア内のユーザの考えられるロケーションを改良するために、この角度を使用することもできる。
110 カメラ
112 視野
130 周辺情報、重力ベクトル
140 画像
142 周辺情報、平行線周辺情報
144 周辺情報、平行線周辺情報
146 周辺情報、消失点周辺情報
150 ターゲットオブジェクト
152 姿勢
400 モバイルデバイス
401 カメラ
403 ディスプレイ出力部
404 ユーザ入力モジュール
410 プロセッサ
412 ワイヤレストランシーバ
414 アンテナ
416 リンク
420 メモリ
421 テンプレートマッチング部
423 オペレーティングシステム
424 アプリケーション
430 方位センサ
440 バス
442 SPSトランシーバ
444 SPSアンテナ
446 リンク
500 システム
502 特徴抽出器
504 カメラ姿勢計算機
506 注目点検出器、POI検出器
510 カメラ
600 システム
602 エッジ抽出器
604 消失点推定器
606 回転行列計算モジュール
700 画像
750 GAP(登録商標)ストアのロゴ
800 画像
801 店舗ロゴ
804 水平消失点
805 水平線
806 垂直消失点
807 垂直線
1000 ダイアグラム
1102 ダイアグラム
1120 会場レイアウトおよびPOI情報
1125 GAP(登録商標)のロケーション
1130 ALDO(登録商標)のロケーション
1134 ターゲットオブジェクト
1135 画像
1200 コンピュータシステム
1205 バス
1210 プロセッサ
1215 入力デバイス
1220 出力デバイス
1225 ストレージデバイス
1230 通信サブシステム
1235 作業メモリ
1240 オペレーティングシステム
1245 アプリケーション
1300 システム
1305a コンピューティングデバイス
1305b コンピューティングデバイス
1305c コンピューティングデバイス
1310 ネットワーク
1320a データベース
1320b データベース
1360a サーバ
1360b サーバ
Claims (24)
- 周辺情報を使用したテンプレートマッチングの加速のための方法であって、
ターゲットオブジェクトおよび周辺情報を含む、カメラを介してキャプチャされるロケーションの画像を取得するステップと、
前記周辺情報に少なくとも部分的に基づいて前記ターゲットオブジェクトに対する前記カメラの姿勢を計算するステップと、
テンプレートマッチングシステムにアクセスするステップであって、前記テンプレートマッチングシステムが複数のオブジェクトの各オブジェクトに関して複数のテンプレートを備え、各テンプレートがテンプレートの姿勢に関連付けられる、ステップと、
マッチング姿勢テンプレートの組を特定するために前記カメラの前記姿勢が前記テンプレートの姿勢にマッチングする、前記複数のテンプレートのうちのいくつかのテンプレートを事前選択するステップと、
前記ターゲットオブジェクトとのテンプレートマッチングを特定するためにマッチング姿勢テンプレートの前記組を処理するステップと
を備える、方法。 - 前記周辺情報が前記画像を処理することから生じる消失点情報を備える、請求項1に記載の方法。
- 前記周辺情報が、前記カメラを備えるモバイルデバイスによって収集されるセンサ情報をさらに備える、請求項2に記載の方法。
- 前記センサ情報が加速度計データを備え、前記周辺情報が前記加速度計データから少なくとも部分的に決定される重力ベクトルを備える、請求項3に記載の方法。
- 前記周辺情報が少なくとも2つの水平消失点からなる、請求項2に記載の方法。
- 前記周辺情報が1つの水平消失点および重力ベクトルからなる、請求項2に記載の方法。
- マッチング姿勢テンプレートの前記組を特定するために前記カメラの前記姿勢が前記テンプレートの姿勢にマッチングする、前記複数のテンプレートのうちのいくつかのテンプレートを事前選択するステップが、
しきい値量未満の姿勢角度の差を有する、前記複数のテンプレートのうちのいくつかのテンプレートを識別することと、
マッチング姿勢テンプレートの前記組として、前記しきい値量未満の姿勢角度の前記差を有する、前記複数のテンプレートのうちの前記いくつかのテンプレートを選択することと
を備える、請求項1に記載の方法。 - マッチング姿勢テンプレートの前記組を特定するために前記カメラの前記姿勢が前記テンプレートの姿勢にマッチングする、前記複数のテンプレートのうちのいくつかのテンプレートを事前選択するステップが、
前記複数のテンプレートのうちの少なくとも1つのテンプレートによって表される各オブジェクトに関して、最小量だけ前記カメラの前記姿勢と異なる各オブジェクトに関連付けられた前記テンプレートを特定することと、
マッチング姿勢テンプレートの前記組の一部として、前記最小量だけ前記カメラの前記姿勢と異なる各オブジェクトに関連付けられた前記テンプレートを選択することと
を備える、請求項1に記載の方法。 - 前記ターゲットオブジェクトにマッチングする前記テンプレートに関連付けられたロケーション情報を特定するステップと、
前記ターゲットオブジェクトにマッチングする前記テンプレートに関連付けられた前記ロケーション情報と前記カメラの前記姿勢とに基づいて前記カメラの前記ロケーションを推定するステップと
をさらに備える、請求項1に記載の方法。 - 前記カメラの前記ロケーションに基づいて前記カメラを備えるモバイルデバイスに位置情報サービスを提供するステップ
をさらに備える、請求項9に記載の方法。 - 前記ターゲットオブジェクトが店舗ロゴを備える、請求項1に記載の方法。
- 前記周辺情報に少なくとも部分的に基づいて前記ターゲットオブジェクトに対する前記カメラの前記姿勢を計算するステップが、
前記画像の複数のエッジライン特徴部を識別するために前記画像を処理すること
を備える、請求項1に記載の方法。 - 前記複数のエッジライン特徴部を検出することが、水平エッジライン特徴部と垂直エッジライン特徴部とを検出することを備える、請求項12に記載の方法。
- 前記複数のエッジライン特徴部を検出することが、床、屋根、またはドアのうちの少なくとも1つを検出することを備える、請求項13に記載の方法。
- 前記カメラの前記姿勢を計算するステップが、前記周辺情報に基づいて、前記画像内の前記ターゲットオブジェクトに関して規定される、平面に対するパン、チルト、またはロールのうちの少なくとも1つとして前記カメラの前記姿勢を計算することを備える、
請求項1に記載の方法。 - 周辺情報を使用したテンプレートマッチングの加速のためのモバイルデバイスであって、
プロセッサと、
前記プロセッサに結合されたカメラと、
前記プロセッサに結合されたメモリであって、
ターゲットオブジェクトと前記周辺情報の少なくとも一部とを含む、前記カメラを介してキャプチャされるロケーションの画像を取得することと、
前記周辺情報に少なくとも部分的に基づいて前記ターゲットオブジェクトに対する前記カメラの姿勢を計算することと、
テンプレートマッチングシステムにアクセスすることであって、前記テンプレートマッチングシステムが複数のオブジェクトの各オブジェクトに関して複数のテンプレートを備え、各テンプレートがテンプレートの姿勢に関連付けられる、ことと、
マッチング姿勢テンプレートの組を特定するために前記カメラの前記姿勢が前記テンプレートの姿勢にマッチングする、前記複数のテンプレートのうちのいくつかのテンプレートを事前選択することと、
前記ターゲットオブジェクトとのテンプレートマッチングを特定するためにマッチング姿勢テンプレートの前記組を処理することと
を前記プロセッサに行わせる命令を備えるメモリと
を備える、モバイルデバイス。 - ディスプレイ
をさらに備え、
前記命令がさらに、前記プロセッサに、前記ターゲットオブジェクトにマッチングする前記テンプレートに関連付けられた前記ロケーションを決定させ、前記ターゲットオブジェクトにマッチングする前記テンプレートに関連付けられた前記ロケーションに基づいて前記モバイルデバイスの推定ロケーションを表示させる、
請求項16に記載のモバイルデバイス。 - 加速度計
をさらに備え、
前記命令がさらに、前記プロセッサに、前記加速度計からのセンサデータに基づいて重力ベクトルを特定させ、前記画像からの前記周辺情報とともに前記重力ベクトルを使用して前記ターゲットオブジェクトに対する前記カメラの前記姿勢を計算させる、
請求項16に記載のモバイルデバイス。 - プロセッサによって実行されたとき、システムにテンプレートマッチングの方法を実行させる命令を備える非一時的コンピュータ可読ストレージデバイスであって、前記方法が、
ターゲットオブジェクトおよび周辺情報を含む、カメラを介してキャプチャされるロケーションの画像を取得するステップと、
前記周辺情報に少なくとも部分的に基づいて前記ターゲットオブジェクトに対する前記カメラの姿勢を計算するステップと、
テンプレートマッチングシステムにアクセスするステップであって、前記テンプレートマッチングシステムが複数のオブジェクトの各オブジェクトに関して複数のテンプレートを備え、各テンプレートがテンプレートの姿勢に関連付けられる、ステップと、
マッチング姿勢テンプレートの組を特定するために前記カメラの前記姿勢が前記テンプレートの姿勢にマッチングする、前記複数のテンプレートのうちのいくつかのテンプレートを事前選択するステップと、
前記ターゲットオブジェクトとのテンプレートマッチングを特定するためにマッチング姿勢テンプレートの前記組を処理するステップと
を備える、非一時的コンピュータ可読ストレージデバイス。 - 前記テンプレートマッチングシステムにアクセスするステップが、ワイヤレスネットワークを介して、前記カメラを備えるモバイルデバイスから、前記複数のテンプレートを含むデータベースを備えるサーバシステムへの要求を通信することを備える、請求項19に記載の非一時的コンピュータ可読ストレージデバイス。
- 周辺情報を使用したテンプレートマッチングの加速のためのモバイルデバイスであって、
ターゲットオブジェクトおよび周辺情報を含む、カメラを介してキャプチャされるロケーションの画像を取得するための手段と、
前記周辺情報に少なくとも部分的に基づいて前記ターゲットオブジェクトに対する前記カメラの姿勢を計算するための手段と、
テンプレートマッチングシステムにアクセスするための手段であって、前記テンプレートマッチングシステムが複数のオブジェクトの各オブジェクトに関して複数のテンプレートを備え、各テンプレートがテンプレートの姿勢に関連付けられる、手段と、
マッチング姿勢テンプレートの組を特定するために前記カメラの前記姿勢が前記テンプレートの姿勢にマッチングする、前記複数のテンプレートのうちのいくつかのテンプレートを事前選択するための手段と、
前記ターゲットオブジェクトとのテンプレートマッチングを特定するためにマッチング姿勢テンプレートの前記組を処理するための手段と
を備える、モバイルデバイス。 - 重力ベクトルを特定するための手段
をさらに備え、
前記ターゲットオブジェクトに対する前記カメラの前記姿勢を計算するための前記手段が、前記画像からの前記周辺情報とともに前記重力ベクトルを使用する、
請求項21に記載のモバイルデバイス。 - 前記ターゲットオブジェクトにマッチングする前記テンプレートに関連付けられたロケーションに基づいて前記モバイルデバイスの前記ロケーションを推定するための手段と、
前記モバイルデバイスの前記推定ロケーションを表示するための手段と
をさらに備える、請求項21に記載のモバイルデバイス。 - 前記カメラの前記姿勢を計算する際に使用するために前記画像から特徴部を抽出するための手段と、
前記画像内の注目する点を検出するための手段であって、注目する前記点が前記ターゲットオブジェクトを備える、手段と
をさらに備える、請求項21に記載のモバイルデバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/328,308 US9317921B2 (en) | 2014-07-10 | 2014-07-10 | Speed-up template matching using peripheral information |
US14/328,308 | 2014-07-10 | ||
PCT/US2015/034049 WO2016007243A1 (en) | 2014-07-10 | 2015-06-03 | Speed-up template matching using peripheral information |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017520063A JP2017520063A (ja) | 2017-07-20 |
JP2017520063A5 JP2017520063A5 (ja) | 2017-12-28 |
JP6273400B2 true JP6273400B2 (ja) | 2018-01-31 |
Family
ID=53404939
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017500014A Expired - Fee Related JP6273400B2 (ja) | 2014-07-10 | 2015-06-03 | 周辺情報を使用した高速テンプレートマッチング |
Country Status (6)
Country | Link |
---|---|
US (1) | US9317921B2 (ja) |
EP (1) | EP3138078B1 (ja) |
JP (1) | JP6273400B2 (ja) |
KR (1) | KR101749017B1 (ja) |
CN (1) | CN106471548B (ja) |
WO (1) | WO2016007243A1 (ja) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9878447B2 (en) * | 2015-04-10 | 2018-01-30 | Microsoft Technology Licensing, Llc | Automated collection and labeling of object data |
US9652896B1 (en) | 2015-10-30 | 2017-05-16 | Snap Inc. | Image based tracking in augmented reality systems |
US9984499B1 (en) | 2015-11-30 | 2018-05-29 | Snap Inc. | Image and point cloud based tracking and in augmented reality systems |
US20190318188A1 (en) * | 2016-01-29 | 2019-10-17 | Ent. Services Development Corporation Lp | Image skew identification |
US11385105B2 (en) * | 2016-04-04 | 2022-07-12 | Teledyne Flir, Llc | Techniques for determining emitted radiation intensity |
US10891502B1 (en) * | 2017-01-19 | 2021-01-12 | State Farm Mutual Automobile Insurance Company | Apparatuses, systems and methods for alleviating driver distractions |
US10319149B1 (en) | 2017-02-17 | 2019-06-11 | Snap Inc. | Augmented reality anamorphosis system |
US10074381B1 (en) | 2017-02-20 | 2018-09-11 | Snap Inc. | Augmented reality speech balloon system |
CN108734738B (zh) * | 2017-04-18 | 2021-10-29 | 杭州海康威视数字技术股份有限公司 | 相机标定方法及装置 |
US10387730B1 (en) | 2017-04-20 | 2019-08-20 | Snap Inc. | Augmented reality typography personalization system |
US10169874B2 (en) * | 2017-05-30 | 2019-01-01 | International Business Machines Corporation | Surface-based object identification |
CN107330917B (zh) * | 2017-06-23 | 2019-06-25 | 歌尔股份有限公司 | 移动目标的跟踪拍摄方法和跟踪设备 |
CN107516105B (zh) * | 2017-07-20 | 2020-06-16 | 阿里巴巴集团控股有限公司 | 图像处理方法及装置 |
CN107369179B (zh) * | 2017-07-31 | 2020-01-07 | 征图新视(江苏)科技股份有限公司 | 一种高精度图像定位方法 |
US10740974B1 (en) | 2017-09-15 | 2020-08-11 | Snap Inc. | Augmented reality system |
US10636137B1 (en) * | 2017-10-23 | 2020-04-28 | Amazon Technologies, Inc. | System for determining object orientations in an image |
US10970425B2 (en) * | 2017-12-26 | 2021-04-06 | Seiko Epson Corporation | Object detection and tracking |
WO2019164514A1 (en) * | 2018-02-23 | 2019-08-29 | Google Llc | Transitioning between map view and augmented reality view |
JP2021122079A (ja) * | 2018-05-08 | 2021-08-26 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びプログラム |
CN109582147B (zh) * | 2018-08-08 | 2022-04-26 | 亮风台(上海)信息科技有限公司 | 一种用于呈现增强交互内容的方法以及用户设备 |
US10997760B2 (en) | 2018-08-31 | 2021-05-04 | Snap Inc. | Augmented reality anthropomorphization system |
US11972529B2 (en) | 2019-02-01 | 2024-04-30 | Snap Inc. | Augmented reality system |
US10547974B1 (en) * | 2019-03-19 | 2020-01-28 | Microsoft Technology Licensing, Llc | Relative spatial localization of mobile devices |
US10811055B1 (en) * | 2019-06-27 | 2020-10-20 | Fuji Xerox Co., Ltd. | Method and system for real time synchronization of video playback with user motion |
CN110414458B (zh) * | 2019-08-01 | 2022-03-08 | 北京主线科技有限公司 | 基于平面标签和模板匹配的定位方法及装置 |
KR20210034253A (ko) | 2019-09-20 | 2021-03-30 | 삼성전자주식회사 | 위치 추정 장치 및 방법 |
CN111915608B (zh) * | 2020-09-11 | 2023-08-15 | 北京百度网讯科技有限公司 | 建筑物提取方法、装置、设备和存储介质 |
CN114536399B (zh) * | 2022-01-07 | 2023-04-25 | 中国人民解放军海军军医大学第一附属医院 | 基于多个位姿标识的误差检测方法及机器人系统 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030012410A1 (en) * | 2001-07-10 | 2003-01-16 | Nassir Navab | Tracking and pose estimation for augmented reality using real features |
DE10323915A1 (de) | 2003-05-23 | 2005-02-03 | Daimlerchrysler Ag | Kamerabasierte Positionserkennung für ein Straßenfahrzeug |
JP2005135014A (ja) * | 2003-10-28 | 2005-05-26 | Hitachi Kokusai Electric Inc | 物体検出装置 |
JP4418225B2 (ja) * | 2003-12-18 | 2010-02-17 | オリンパス株式会社 | 情報呈示システム |
JP2007011607A (ja) * | 2005-06-29 | 2007-01-18 | Mitsubishi Electric Corp | 地図検索装置および携帯端末 |
JP2008035328A (ja) | 2006-07-31 | 2008-02-14 | Fujifilm Corp | テンプレート生成装置、画像配置装置、変更テンプレート生成装置およびそのプログラム |
JP5013961B2 (ja) | 2007-05-21 | 2012-08-29 | キヤノン株式会社 | 位置姿勢計測装置及びその制御方法 |
US20090110267A1 (en) * | 2007-09-21 | 2009-04-30 | The Regents Of The University Of California | Automated texture mapping system for 3D models |
US8401276B1 (en) | 2008-05-20 | 2013-03-19 | University Of Southern California | 3-D reconstruction and registration |
US8555315B2 (en) | 2009-04-10 | 2013-10-08 | United Video Properties, Inc. | Systems and methods for navigating a media guidance application with multiple perspective views |
WO2011048497A2 (en) | 2009-10-19 | 2011-04-28 | National University Of Singapore | Computer vision based hybrid tracking for augmented reality in outdoor urban environments |
JP5455124B2 (ja) | 2010-04-01 | 2014-03-26 | 国立大学法人鳥取大学 | カメラ姿勢パラメータ推定装置 |
US8938257B2 (en) * | 2011-08-19 | 2015-01-20 | Qualcomm, Incorporated | Logo detection for indoor positioning |
WO2013086475A1 (en) | 2011-12-08 | 2013-06-13 | Cornell University | System and methods for world-scale camera pose estimation |
US9147122B2 (en) | 2012-05-31 | 2015-09-29 | Qualcomm Incorporated | Pose estimation based on peripheral information |
-
2014
- 2014-07-10 US US14/328,308 patent/US9317921B2/en active Active
-
2015
- 2015-06-03 CN CN201580034534.9A patent/CN106471548B/zh active Active
- 2015-06-03 WO PCT/US2015/034049 patent/WO2016007243A1/en active Application Filing
- 2015-06-03 KR KR1020177000283A patent/KR101749017B1/ko active IP Right Grant
- 2015-06-03 EP EP15729701.1A patent/EP3138078B1/en not_active Not-in-force
- 2015-06-03 JP JP2017500014A patent/JP6273400B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN106471548A (zh) | 2017-03-01 |
KR20170008321A (ko) | 2017-01-23 |
US20160012593A1 (en) | 2016-01-14 |
KR101749017B1 (ko) | 2017-06-19 |
EP3138078B1 (en) | 2017-09-27 |
JP2017520063A (ja) | 2017-07-20 |
CN106471548B (zh) | 2018-07-13 |
US9317921B2 (en) | 2016-04-19 |
EP3138078A1 (en) | 2017-03-08 |
WO2016007243A1 (en) | 2016-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6273400B2 (ja) | 周辺情報を使用した高速テンプレートマッチング | |
US11165959B2 (en) | Connecting and using building data acquired from mobile devices | |
JP6100380B2 (ja) | 特に装置に係る視覚ベースの位置決めに使用される画像処理方法 | |
US9121724B2 (en) | 3D position tracking for panoramic imagery navigation | |
EP2583254B1 (en) | Mobile device based content mapping for augmented reality environment | |
AU2023275894A1 (en) | Automated control of image acquisition via use of mobile device user interface | |
EP3168571B1 (en) | Utilizing camera to assist with indoor pedestrian navigation | |
US20140247280A1 (en) | Federated mobile device positioning | |
JP2017520063A5 (ja) | ||
WO2014162044A1 (en) | Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system | |
WO2013180840A1 (en) | Pose estimation based on peripheral information | |
US11062475B2 (en) | Location estimating apparatus and method, learning apparatus and method, and computer program products | |
CN107885763B (zh) | 室内图中兴趣点信息的更新方法、装置及计算机可读介质 | |
KR101413605B1 (ko) | 네비게이션 시스템 및 방법 | |
CN111127584A (zh) | 建立视觉地图的方法和装置、电子设备和存储介质 | |
US20150161819A1 (en) | Method and apparatus for optimized presentation of complex maps | |
Shangguan et al. | Towards accurate object localization with smartphones | |
CA3069813C (en) | Capturing, connecting and using building interior data from mobile devices | |
CN113610702B (zh) | 一种建图方法、装置、电子设备及存储介质 | |
JP6393000B2 (ja) | 3dマップに関する仮説的ラインマッピングおよび検証 | |
JP6959305B2 (ja) | 生成装置、生成方法、および生成プログラム | |
JP2021038958A (ja) | 生成装置、生成方法、および生成プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170104 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170104 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20170104 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20170530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170814 |
|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A524 Effective date: 20171114 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171211 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180105 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6273400 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |