JP2015513679A - シーン構造ベース自己姿勢推定 - Google Patents
シーン構造ベース自己姿勢推定 Download PDFInfo
- Publication number
- JP2015513679A JP2015513679A JP2014559896A JP2014559896A JP2015513679A JP 2015513679 A JP2015513679 A JP 2015513679A JP 2014559896 A JP2014559896 A JP 2014559896A JP 2014559896 A JP2014559896 A JP 2014559896A JP 2015513679 A JP2015513679 A JP 2015513679A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- image
- reference image
- query
- direction vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本出願は、2012年3月2日に出願した「Scene Structure-Based Self-Pose Estimation」という表題の米国仮出願第61/606,209号に対して米国特許法第119条による優先権を主張する、2012年7月12日に出願した「Scene Structure-Based Self-Pose Estimation」という表題の米国出願第13/547,987号の優先権を主張するものであり、それらの両方が本出願の譲受人に譲渡され、参照により本出願に組み込まれている。
E=KTFK 式4
P=[R|t] 式7
v=-RTt 式9
306 参照画像I'のセットS
309 シーン
310 建物
312 建物
316 幾何回復
318 マッチング
320 モデル推定
323 分解
324 3D方向ベクトル、方向ベクトル
326 位置推定値
328 ロバスト姿勢推定
Claims (24)
- カメラでキャプチャされたシーンのクエリ画像を受信するステップと、
データベースから前記シーンの複数の参照画像を受信するステップであって、各参照画像は関連位置推定値を有する、ステップと、
前記クエリ画像および前記複数の参照画像に基づいて、前記クエリ画像に関するカメラ中心の未知の位置と各参照画像に関する参照カメラ中心との間の方向を表す方向ベクトルを生成するステップと、
前記方向ベクトルおよび各参照画像の前記関連位置推定値を使用して、6自由度を有する前記カメラの姿勢を判断するステップと
を含む方法。 - 前記クエリ画像に関する前記カメラ中心と各参照画像に関する前記参照カメラ中心との間の方向を表す前記方向ベクトルを生成するステップは、ホモグラフィ、エッセンシャル行列、およびファンダメンタル行列のうちの少なくとも1つを使用するステップを含む、請求項1に記載の方法。
- 6自由度を有する前記カメラの前記姿勢は、前記方向ベクトルおよび各参照画像の前記関連位置推定値を使用して3点姿勢問題を解くことによって判断される、請求項1に記載の方法。
- 前記データベースから前記シーンの前記複数の参照画像を受信するステップは、
前記クエリ画像がキャプチャされたときの前記カメラの概略位置を使用して、参照画像の第1のセットを生成するステップと、
前記クエリ画像中の特徴を各参照画像中の特徴とマッチングすることによって、参照画像の前記第1のセットをフィルタ処理して、前記複数の参照画像を生成するステップと
を含む、請求項1に記載の方法。 - 各参照画像の前記関連位置推定値は、関連方位を含まない、請求項1に記載の方法。
- 各参照画像は、関連カメラキャリブレーションを有し、前記方向ベクトルを生成するステップは、各参照画像の前記関連カメラキャリブレーションを使用する、請求項1に記載の方法。
- カメラでキャプチャされたシーンのクエリ画像を受信することが可能な第1のインターフェースと、
データベースから前記シーンの複数の参照画像を受信することが可能な第2のインターフェースであって、各参照画像は関連位置推定値を有する、第2のインターフェースと、
前記第1のインターフェースからの前記クエリ画像および前記第2のインターフェースからの前記複数の参照画像を受信するように結合されたプロセッサであって、前記クエリ画像および前記複数の参照画像に基づいて、前記クエリ画像に関するカメラ中心の未知の位置と各参照画像に関する参照カメラ中心との間の方向を表す方向ベクトルを生成し、前記方向ベクトルおよび各参照画像の前記関連位置推定値を使用して、6自由度を有する前記カメラの姿勢を判断するように構成されたプロセッサと
を含む装置。 - 前記装置は、前記カメラをさらに含み、前記第1のインターフェースは、前記カメラと前記プロセッサとの間のインターフェースであり、前記第2のインターフェースは、ワイヤレスインターフェースである、請求項7に記載の装置。
- 前記第1のインターフェースは、ワイヤレスインターフェースであり、前記第2のインターフェースは、前記データベースと前記プロセッサとの間のインターフェースである、請求項7に記載の装置。
- 前記プロセッサは、ホモグラフィ、エッセンシャル行列、およびファンダメンタル行列のうちの少なくとも1つを使用して、前記クエリ画像に関する前記カメラ中心と各参照画像に関する前記参照カメラ中心との間の方向を表す前記方向ベクトルを生成するように構成される、請求項7に記載の装置。
- 前記プロセッサは、前記方向ベクトルおよび各参照画像の前記関連位置推定値を使用して3点姿勢問題を解くことによって、6自由度を有する前記カメラの前記姿勢を判断するように構成される、請求項7に記載の装置。
- 前記プロセッサは、前記クエリ画像中の特徴を各参照画像中の特徴とマッチングすることによって、前記複数の参照画像をフィルタ処理するようにさらに構成される、請求項7に記載の装置。
- 各参照画像の前記関連位置推定値は、関連方位を含まない、請求項7に記載の装置。
- 各参照画像は、関連カメラキャリブレーションを有し、前記方向ベクトルを生成するステップは、各参照画像の前記関連カメラキャリブレーションを使用する、請求項7に記載の装置。
- カメラでキャプチャされたシーンのクエリ画像を受信するための手段と、
データベースから前記シーンの複数の参照画像を受信するための手段であって、各参照画像は関連位置推定値を有する、手段と、
前記クエリ画像および前記複数の参照画像に基づいて、前記クエリ画像に関するカメラ中心の未知の位置と各参照画像に関する参照カメラ中心との間の方向を表す方向ベクトルを生成するための手段と、
前記方向ベクトルおよび各参照画像の前記関連位置推定値を使用して、6自由度を有する前記カメラの姿勢を判断するための手段と
を含む装置。 - 前記クエリ画像に関する前記カメラ中心と各参照画像に関する前記参照カメラ中心との間の方向を表す前記方向ベクトルを生成するための前記手段は、ホモグラフィ、エッセンシャル行列、およびファンダメンタル行列のうちの少なくとも1つを使用する、請求項15に記載の装置。
- 6自由度を有する前記カメラの前記姿勢は、前記方向ベクトルおよび各参照画像の前記関連位置推定値を使用して3点姿勢問題を解くことによって判断される、請求項15に記載の装置。
- 前記データベースから前記シーンの前記複数の参照画像を受信するための前記手段は、前記クエリ画像がキャプチャされたときの前記カメラの概略位置を使用して、参照画像の第1のセットを生成し、前記クエリ画像中の特徴を各参照画像中の特徴とマッチングすることによって、参照画像の前記第1のセットをフィルタ処理して、前記複数の参照画像を生成する、請求項15に記載の装置。
- 各参照画像の前記関連位置推定値は、関連方位を含まない、請求項15に記載の装置。
- 各参照画像は、関連カメラキャリブレーションを有し、前記方向ベクトルを生成するための前記手段は、各参照画像の前記関連カメラキャリブレーションを使用する、請求項15に記載の装置。
- プログラムコードを記憶した非一時的コンピュータ可読記憶媒体であって、
カメラでキャプチャされたシーンのクエリ画像を受信するためのプログラムコードと、
データベースから前記シーンの複数の参照画像を受信するためのプログラムコードであって、各参照画像は関連位置推定値を有する、プログラムコードと、
前記クエリ画像および前記複数の参照画像に基づいて、前記クエリ画像に関するカメラ中心の未知の位置と各参照画像に関する参照カメラ中心との間の方向を表す方向ベクトルを生成するためのプログラムコードと、
前記方向ベクトルおよび各参照画像の前記関連位置推定値を使用して、6自由度を有する前記カメラの姿勢を判断するためのプログラムコードと
を含む非一時的コンピュータ可読記憶媒体。 - 前記クエリ画像に関する前記カメラ中心と各参照画像に関する前記参照カメラ中心との間の方向を表す前記方向ベクトルを生成するための前記プログラムコードは、ホモグラフィ、エッセンシャル行列、およびファンダメンタル行列のうちの少なくとも1つを使用する、請求項21に記載の非一時的コンピュータ可読記憶媒体。
- 6自由度を有する前記カメラの前記姿勢は、前記方向ベクトルおよび各参照画像の前記関連位置推定値を使用して3点姿勢問題を解くことによって判断される、請求項21に記載の非一時的コンピュータ可読記憶媒体。
- 前記データベースから前記シーンの前記複数の参照画像を受信するための前記プログラムコードは、
前記クエリ画像がキャプチャされたときの前記カメラの概略位置を使用して、参照画像の第1のセットを生成するためのプログラムコードと、
前記クエリ画像中の特徴を各参照画像中の特徴とマッチングすることによって、参照画像の前記第1のセットをフィルタ処理して、前記複数の参照画像を生成するためのプログラムコードと
を含む、請求項21に記載の非一時的コンピュータ可読記憶媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261606209P | 2012-03-02 | 2012-03-02 | |
US61/606,209 | 2012-03-02 | ||
US13/547,987 | 2012-07-12 | ||
US13/547,987 US8965057B2 (en) | 2012-03-02 | 2012-07-12 | Scene structure-based self-pose estimation |
PCT/US2013/023669 WO2013130208A1 (en) | 2012-03-02 | 2013-01-29 | Scene structure-based self-pose estimation |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015513679A true JP2015513679A (ja) | 2015-05-14 |
JP2015513679A5 JP2015513679A5 (ja) | 2015-06-25 |
JP5946924B2 JP5946924B2 (ja) | 2016-07-06 |
Family
ID=49042864
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014559896A Expired - Fee Related JP5946924B2 (ja) | 2012-03-02 | 2013-01-29 | シーン構造ベース自己姿勢推定 |
Country Status (6)
Country | Link |
---|---|
US (1) | US8965057B2 (ja) |
EP (1) | EP2820618B1 (ja) |
JP (1) | JP5946924B2 (ja) |
KR (1) | KR101585521B1 (ja) |
CN (1) | CN104145294B (ja) |
WO (1) | WO2013130208A1 (ja) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9317928B2 (en) | 2012-04-06 | 2016-04-19 | Adobe Systems Incorporated | Detecting and tracking point features with primary colors |
US8873846B2 (en) * | 2012-04-06 | 2014-10-28 | Adobe Systems Incorporated | Detecting and tracking point features with primary colors |
US9159133B2 (en) * | 2012-11-05 | 2015-10-13 | Qualcomm Incorporated | Adaptive scale and/or gravity estimation |
US10168871B2 (en) * | 2013-09-16 | 2019-01-01 | Rovi Guides, Inc. | Methods and systems for presenting direction-specific media assets |
US10037469B2 (en) | 2013-12-10 | 2018-07-31 | Google Llc | Image location through large object detection |
DE102014003284A1 (de) * | 2014-03-05 | 2015-09-10 | Astrium Gmbh | Verfahren zur Positions- und Lagebestimmung mittels virtueller Referenzbilder |
US10484697B2 (en) * | 2014-09-09 | 2019-11-19 | Qualcomm Incorporated | Simultaneous localization and mapping for video coding |
WO2016155767A1 (en) * | 2015-03-30 | 2016-10-06 | Siemens Aktiengesellschaft | Method and system for determining an orientation of a mobile device |
GB2546954A (en) * | 2015-04-17 | 2017-08-09 | Cinime Asia Pacific Pte Ltd | A location method and system |
US9984301B2 (en) * | 2015-04-20 | 2018-05-29 | Qualcomm Incorporated | Non-matching feature-based visual motion estimation for pose determination |
WO2017201487A1 (en) * | 2016-05-20 | 2017-11-23 | Magic Leap, Inc. | Method and system for performing convolutional image transformation estimation |
US9996936B2 (en) * | 2016-05-20 | 2018-06-12 | Qualcomm Incorporated | Predictor-corrector based pose detection |
US9965689B2 (en) * | 2016-06-09 | 2018-05-08 | Qualcomm Incorporated | Geometric matching in visual navigation systems |
CN107665231A (zh) * | 2016-07-27 | 2018-02-06 | 优屏亚太私人有限公司 | 定位方法和系统 |
US10311330B2 (en) * | 2016-08-17 | 2019-06-04 | International Business Machines Corporation | Proactive input selection for improved image analysis and/or processing workflows |
US10579741B2 (en) | 2016-08-17 | 2020-03-03 | International Business Machines Corporation | Proactive input selection for improved machine translation |
CN109215077B (zh) * | 2017-07-07 | 2022-12-06 | 腾讯科技(深圳)有限公司 | 一种相机姿态信息确定的方法及相关装置 |
CN107806861B (zh) * | 2017-09-14 | 2020-03-06 | 中国人民解放军92859部队 | 一种基于本质矩阵分解的倾斜影像相对定向方法 |
FR3073655B1 (fr) * | 2017-11-16 | 2019-10-18 | Thales | Procede de determination d'un vecteur vitesse visuel d'un engin mobile, produit programme d'ordinateur et systeme de determination associes |
CN108010055B (zh) * | 2017-11-23 | 2022-07-12 | 塔普翊海(上海)智能科技有限公司 | 三维物体的跟踪系统及其跟踪方法 |
US11393160B2 (en) * | 2018-03-23 | 2022-07-19 | Intel Corporation | Deep geometric model fitting |
EP4296943A3 (en) * | 2018-12-26 | 2024-04-03 | Elbit Systems Land and C4I Ltd. | Methods and systems for camera 3d pose determination |
WO2020222871A1 (en) * | 2019-04-30 | 2020-11-05 | Google Llc | Systems and interfaces for location-based device control |
KR102316216B1 (ko) * | 2019-11-12 | 2021-10-22 | 네이버랩스 주식회사 | 블라인드 워터마킹 기술을 이용한 카메라 기반 측위 방법 및 시스템 |
KR102383567B1 (ko) * | 2019-12-16 | 2022-04-06 | 네이버랩스 주식회사 | 시각 정보 처리 기반의 위치 인식 방법 및 시스템 |
CN113689374B (zh) * | 2020-05-18 | 2023-10-27 | 浙江大学 | 一种植物叶片表面粗糙度确定方法及系统 |
WO2022092511A1 (ko) * | 2020-10-30 | 2022-05-05 | 에스케이텔레콤 주식회사 | 3차원 맵을 생성하는 방법 및 생성된 3차원 맵을 이용하여 사용자 단말의 포즈를 결정하는 방법 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1594322A2 (en) * | 2004-02-11 | 2005-11-09 | British Broadcasting Corporation | Position determination |
WO2006001129A1 (ja) * | 2004-06-29 | 2006-01-05 | Sony Corporation | 情報処理装置および方法、プログラム、並びに情報処理システム |
JP2008185417A (ja) * | 2007-01-29 | 2008-08-14 | Sony Corp | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9229540B2 (en) | 2004-01-30 | 2016-01-05 | Electronic Scripting Products, Inc. | Deriving input from six degrees of freedom interfaces |
US7463778B2 (en) * | 2004-01-30 | 2008-12-09 | Hewlett-Packard Development Company, L.P | Motion estimation for compressing multiple view images |
JP5403861B2 (ja) | 2006-11-06 | 2014-01-29 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
US20100045701A1 (en) | 2008-08-22 | 2010-02-25 | Cybernet Systems Corporation | Automatic mapping of augmented reality fiducials |
US8644551B2 (en) * | 2009-10-15 | 2014-02-04 | Flyby Media, Inc. | Systems and methods for tracking natural planar shapes for augmented reality applications |
CN103119627B (zh) | 2010-09-20 | 2017-03-08 | 高通股份有限公司 | 用于云辅助式扩增现实的可适应性框架 |
EP2619605A1 (en) | 2010-09-23 | 2013-07-31 | Telefónica, S.A. | Method and system for calculating the geo-location of a personal device |
CN102034238B (zh) * | 2010-12-13 | 2012-07-18 | 西安交通大学 | 基于光学成像测头和视觉图结构的多摄像机系统标定方法 |
-
2012
- 2012-07-12 US US13/547,987 patent/US8965057B2/en active Active
-
2013
- 2013-01-29 CN CN201380011701.9A patent/CN104145294B/zh not_active Expired - Fee Related
- 2013-01-29 JP JP2014559896A patent/JP5946924B2/ja not_active Expired - Fee Related
- 2013-01-29 KR KR1020147027656A patent/KR101585521B1/ko active IP Right Grant
- 2013-01-29 EP EP13706779.9A patent/EP2820618B1/en not_active Not-in-force
- 2013-01-29 WO PCT/US2013/023669 patent/WO2013130208A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1594322A2 (en) * | 2004-02-11 | 2005-11-09 | British Broadcasting Corporation | Position determination |
WO2006001129A1 (ja) * | 2004-06-29 | 2006-01-05 | Sony Corporation | 情報処理装置および方法、プログラム、並びに情報処理システム |
JP2008185417A (ja) * | 2007-01-29 | 2008-08-14 | Sony Corp | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20130230214A1 (en) | 2013-09-05 |
EP2820618A1 (en) | 2015-01-07 |
KR20140136016A (ko) | 2014-11-27 |
US8965057B2 (en) | 2015-02-24 |
CN104145294B (zh) | 2017-03-08 |
JP5946924B2 (ja) | 2016-07-06 |
KR101585521B1 (ko) | 2016-01-14 |
WO2013130208A1 (en) | 2013-09-06 |
EP2820618B1 (en) | 2018-09-26 |
CN104145294A (zh) | 2014-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5946924B2 (ja) | シーン構造ベース自己姿勢推定 | |
US9031283B2 (en) | Sensor-aided wide-area localization on mobile devices | |
US10134196B2 (en) | Mobile augmented reality system | |
JP6215442B2 (ja) | クライアント−サーバベースの動的検索 | |
JP5660648B2 (ja) | マルチユーザ拡張現実におけるオンライン参照生成および追跡 | |
EP2715667B1 (en) | Planar mapping and tracking for mobile devices | |
WO2018068678A1 (zh) | 一种立体摄像机外部参数的确定方法及装置 | |
JP6348574B2 (ja) | 総体的カメラ移動およびパノラマカメラ移動を使用した単眼視覚slam | |
JP6456347B2 (ja) | 平面固有の特徴のターゲットのinsitu生成 | |
US20120300020A1 (en) | Real-time self-localization from panoramic images | |
WO2016199605A1 (ja) | 画像処理装置および方法、並びにプログラム | |
CN111127524A (zh) | 一种轨迹跟踪与三维重建方法、系统及装置 | |
JP2009266224A (ja) | リアルタイム・ビジュアル・オドメトリの方法およびシステム | |
WO2011063282A2 (en) | Orientation determination of a mobile station using side and top view images | |
ES2923924T3 (es) | Referenciación 3D | |
JP6393000B2 (ja) | 3dマップに関する仮説的ラインマッピングおよび検証 | |
Mamatas et al. | Using Inertial Measurements to Aid in Camera Intrinsic Parameter Estimation | |
CN117451052A (zh) | 基于视觉和轮速计的定位方法、装置、设备及存储介质 | |
CN117419725A (zh) | 先验地图数据生成方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150415 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150415 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20150415 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20150508 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150608 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150908 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151120 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160601 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5946924 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |