JP2023502192A - 視覚的ポジショニング方法および関連装置、機器並びにコンピュータ可読記憶媒体 - Google Patents
視覚的ポジショニング方法および関連装置、機器並びにコンピュータ可読記憶媒体 Download PDFInfo
- Publication number
- JP2023502192A JP2023502192A JP2021569000A JP2021569000A JP2023502192A JP 2023502192 A JP2023502192 A JP 2023502192A JP 2021569000 A JP2021569000 A JP 2021569000A JP 2021569000 A JP2021569000 A JP 2021569000A JP 2023502192 A JP2023502192 A JP 2023502192A
- Authority
- JP
- Japan
- Prior art keywords
- image
- parameters
- camera
- processed
- current image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 95
- 238000000034 method Methods 0.000 title claims abstract description 88
- 230000005484 gravity Effects 0.000 claims abstract description 126
- 230000009466 transformation Effects 0.000 claims description 78
- 239000013598 vector Substances 0.000 claims description 54
- 230000001133 acceleration Effects 0.000 claims description 40
- 230000006870 function Effects 0.000 claims description 38
- 238000006073 displacement reaction Methods 0.000 claims description 30
- 230000008569 process Effects 0.000 claims description 25
- 238000012545 processing Methods 0.000 claims description 13
- 230000004044 response Effects 0.000 claims description 11
- 230000003068 static effect Effects 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 24
- 238000005457 optimization Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 5
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000001186 cumulative effect Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 108010001267 Protein Subunits Proteins 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 239000010410 layer Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Theoretical Computer Science (AREA)
- Pure & Applied Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Computational Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Algebra (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Automatic Disk Changers (AREA)
- Manufacturing Optical Record Carriers (AREA)
- Optical Recording Or Reproduction (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本願は、2020年10月23日に中国特許局に提出された、出願番号が202011148780.6である、中国特許出願に基づいて提出されるものであり、当該中国特許出願の優先権を主張し、当該中国特許出願の全ての内容が参照によって本願に組み込まれる。
,
,
)二乗和の根を計算して、カメラ加速度
として使用することができ、即ち、
である。
)を計算し、ベクトル合計を重力ベクトルとして使用することができ、または、ベクトルと同じ方向の単位ベクトルを重力ベクトルとして使用することもでき、重力ベクトルに対して、実際の適用ニーズに従って設定することができ、ここでは限定しない。
に表すことができ、y座標軸に対応するカメラの回転角度は、
に表すことができ、z座標軸に対応するカメラの回転角度は、
に表すことができ、世界座標系x座標軸に対応するカメラの回転パラメータ
、世界座標系y座標軸に対応する回転パラメータ
、世界座標系z座標軸に対応する回転パラメータ
は、それぞれ以下のように表すことができる。
……(1)
、世界座標系y座標軸に対応する回転パラメータ
、世界座標系z座標軸に対応する回転パラメータ
によって得られることができ、ここで、上記の回転パラメータ
、回転パラメータ
および回転パラメータ
の乗積を、回転パラメータRとして使用することができ、即ち、回転パラメータRは、以下の通りに表すことができる。
……(2)
と重力ベクトル
との夾角
は、以下に通りに表すことができる。
……(3)
を取得した後、カメラのプリセットの高さhおよび夾角
に対して第2プリセットの演算を実行して、特徴点の深度値zを取得することができ、第2プリセットの演算は、プリセットの高さを夾角で除算するコサイン値を含み、プリセットの高さhは、実際の適用状況に従って設定することができる。AR適用を例として、仮想物体のサイズに従って設定することができ、例えば、仮想物体は、一般的なサイズの猫や犬などのペットである場合、プリセットの高さを0.5米~1米に設定することができ、他の適用状況は、実際の状況に従って設定することができ、ここではいちいち列挙をしない。ここで、深度値zは、以下の通りに表すことができる。
……(4)
を使用して、特徴点座標uおよび特徴点深度値duを含む第1座標情報
を三次元空間に逆投影して、特徴点の三次元座標
を取得し、現在の画像k-1と次のフレームの画像kとの間のポーズ変換パラメータTおよび三次元から二次元への投影関数
を使用して、現在の画像特徴点の三次元座標
を次のフレームの画像kに投影して、次のフレームの画像における特徴点の投影点
を取得することを含み得、それにより、次のフレームの画像k内のローカル領域における投影点の画素値
と、現在の画像k-1の特徴点ローカル領域に対応する画素値
との間に差異があることを取得し、さらに、当該差異に基づいて、現在の画像k-1と次のフレームの画像kとの間のポーズ変換パラメータを取得することができる。ここで、ローカル領域は、特徴点(または投影点)を中心とする一長方形領域(例えば、3*3領域、4*4領域、8*8領域など)であり得、以下の式に示された通りである。
……(5)
は、ターゲット関数を表し、ここで、
は、ロバスト関数を表し、ノイズ影響を低減するために使用され、
は、ノルム演算を表し、
は、ポーズ変換パラメータTを最適化対象としてターゲット関数を最小化することを表し、
は、ターゲット関数を解けて得られたポーズ変換パラメータを表す。
を取得した後、モバイル機器は、ポーズ変換パラメータ
および現在の画像k-1のカメラポーズパラメータ
を使用して、次のフレームの画像のカメラポーズパラメータ
を取得することができる。ここで、ポーズ変換パラメータ
を現在の画像k-1のカメラポーズパラメータ
と乗算して、次のフレームの画像のカメラポーズパラメータ
を取得することができる。
の精度が比較的に低くする。精度を向上させるために、モバイル機器は、収束した三次元点(例えば、三次元モデル内の三次元点)を使用して、次のフレームの画像のカメラポーズパラメータ
を最適化することができる。ここで、収束した三次元点をマッチングしアライメントすることにより投影点を取得することができ、投影点を利用して、上記のスパース画像アライメントによって得られた次のフレームの画像のカメラポーズパラメータ
に対して特徴点アライメントの最適化を実行するステップは、収束した三次元点から次のフレームの画像kに投影できる三次元点を選択して、ターゲット三次元点として使用し、撮影された画像から、ターゲット三次元点が投影できる画像のうち、最も早く撮影された画像を選択して、参照画像として使用し、参照画像内のローカル領域におけるターゲット三次元点の画素値
を取得し、上記の概算された次のフレームの画像のカメラポーズパラメータ
を使用して、ターゲット三次元点を次のフレームの画像に投影して、次のフレームの画像におけるターゲット三次元点の投影点
を取得し、それにより、次のフレームの画像内のローカル領域における投影点
の画素値
を取得し、さらに、ローカル領域画素値
およびローカル領域画素値
を使用して、投影点
に関するターゲット関数を構築することができ、以下の式を参照されたい。
……(7)
は、ターゲット関数を表し、ここで、
は、ノルム演算を表し、
は、アフィン変換行列を表し、異なる視角による画像の歪みを補正するために使用され、
は、投影点
の位置を最適化対象としてターゲット関数を最小化することを表す。
を取得した後、モバイル機器は、上記の特徴点アライメントによって得られた投影点
に基づいて、上記のスパース画像アライメントによって得られた次のフレームの画像のカメラポーズパラメータ
を最適化し、最終的に、最適化して次のフレームの画像のカメラポーズパラメータ
を取得することができる。ポーズ最適化のステップは、次のフレームの画像のカメラポーズパラメータ
および三次元から二次元への投影関数
を使用して、ターゲット三次元点
を次のフレームの画像kに再投影して、投影点
を取得し、投影点
と、特徴点アライメントステップで最適化して得られた次のフレームの画像の投影点
との位置差異を使用して、カメラポーズパラメータ
に関するターゲット関数を構築することができ、以下の式を参照されたい。
……(8)
は、ターゲット関数を表し、ここで、
は、ロバスト関数を表し、ノイズ影響を低減するために使用され、
は、ノルム演算を表し、
は、ポーズ変換パラメータ
を最適化対象としてターゲット関数を最小化することを表す。
および逆深度値zは、ベータとガウスの混合モデル分布(Beta Gaussian Mixture Model Distribution)とほぼ一致し、以下の式を参照されたい。
……(9)
を第k回観察した後の確率分布を表し、
,
は、ベータ分布のパラメータを表し、
,
は、逆深度ガウス分布の平均値と分散を表す。確率分布を取得した後、モバイル機器は、取得された確率分布を使用して、次のフレームの画像内の特徴点の深度情報を取得することができる。例えば、逆深度ガウス分布の分散
が、一プリセットの深度範囲(例えば、1/200)より小さい場合、深度値収束に見なされることができ、この場合の逆深度ガウス分布の平均値
の逆数を取って特徴点の深度値として使用して、撮影プロセスで、特徴点の深度値を最適化し続けることができる。
に表し、前のフレームの画像内の画素点の少なくとも一部の二次元座標をuに表し、画素点の少なくとも一部の深度値をduに表し、二次元から三次元への逆投影関数を
に表すことができ、三次元から二次元への投影関数を
に表すことができ、投影点は、
に表すことができ、ここで、上記の実施例における関連ステップを参照でき、ここでは詳細に説明しない。
と、処理されるべき画像内のローカル領域における、画素点の少なくとも一部に対応する投影点
の画素値
との間の差異を使用して、ポーズ変換パラメータに関するターゲット関数を構築することができる。
Claims (17)
- 視覚的ポジショニング方法であって、
カメラの重力情報を取得することと、
前記重力情報を使用して、プリセットの運動状態の前記カメラによって撮影される現在の画像のカメラポーズパラメータを取得することと、
前記現在の画像のカメラポーズパラメータに基づいて、前記現在の画像後の処理されるべき画像のカメラポーズパラメータを取得することと、を含む、視覚的ポジショニング方法。 - 前記重力情報は、重力方向情報を含み、前記現在の画像のカメラポーズパラメータに基づいて、前記現在の画像後の処理されるべき画像のカメラポーズパラメータを取得する前に、前記視覚的ポジショニング方法は、
前記現在の画像内の特徴点の特徴方向情報を取得することと、
前記特徴点の特徴方向情報および前記重力方向情報を使用して、前記現在の画像内の前記特徴点の深度情報を取得することと、をさらに含み、
前記現在の画像のカメラポーズパラメータに基づいて、前記現在の画像後の処理されるべき画像のカメラポーズパラメータを取得することは、
前記現在の画像内の前記特徴点の深度情報および前記現在の画像のカメラポーズパラメータに基づいて、前記現在の画像後の処理されるべき画像内の前記特徴点の深度情報および前記処理されるべき画像のカメラポーズパラメータを取得することを含む、
請求項1に記載の視覚的ポジショニング方法。 - 前記特徴方向情報は、前記特徴点の方向ベクトルを含み、前記重力方向情報は、重力ベクトルを含み、前記深度情報は、前記特徴点の深度値を含み、
前記特徴点の特徴方向情報および前記重力方向情報を使用して、前記現在の画像内の前記特徴点の深度情報を取得することは、
前記特徴点の前記方向ベクトルおよび前記重力ベクトルに対して第1プリセットの演算を実行して、前記特徴点の前記方向ベクトルと前記重力ベクトルとの夾角を取得することと、
前記カメラのプリセットの高さおよび前記夾角に対して第2プリセットの演算を実行して、前記特徴点の深度値を取得することと、を含む、
請求項2に記載の視覚的ポジショニング方法。 - 前記第1プリセットの演算は、内積演算を含み、
および/または、前記第2プリセットの演算は、前記プリセットの高さを前記夾角のコサイン値で除算することを含む、
請求項3に記載の視覚的ポジショニング方法。 - 前記現在の画像内の前記特徴点の深度情報および前記現在の画像のカメラポーズパラメータに基づいて、前記現在の画像後の処理されるべき画像内の前記特徴点の深度情報および前記処理されるべき画像のカメラポーズパラメータを取得することは、
プリセットのポーズ追跡方式を使用して、前記現在の画像内の前記特徴点の深度情報、前記現在の画像のカメラポーズパラメータに対して追跡処理を実行して、前記現在の画像の次のフレームの画像内の前記特徴点の深度情報および前記次のフレームの画像のカメラポーズパラメータを取得することと、
前記次のフレームの画像を前記現在の画像として使用し、前記プリセットのポーズ追跡方式を使用して、前記現在の画像内の前記特徴点の深度情報、前記現在の画像のカメラポーズパラメータに対して追跡処理を実行するステップおよび後続のステップを再実行することと、を含む、
請求項2に記載の視覚的ポジショニング方法。 - 前記プリセットのポーズ追跡方式を使用して、前記現在の画像内の前記特徴点の深度情報、前記現在の画像のカメラポーズパラメータに対して追跡処理を実行して、前記現在の画像の次のフレームの画像内の前記特徴点の深度情報および前記次のフレームの画像のカメラポーズパラメータを取得することは、
前記現在の画像内の前記特徴点の深度情報を使用して、前記次のフレームの画像における前記特徴点の投影点を決定することと、
前記現在の画像内のローカル領域における前記特徴点の画素値と前記次のフレームの画像内のローカル領域における前記投影点の画素値との間の差異に基づいて、前記現在の画像と前記次のフレームの画像との間のポーズ変換パラメータを取得することと、
前記ポーズ変換パラメータおよび前記現在の画像のカメラポーズパラメータを使用して、前記次のフレームの画像のカメラポーズパラメータを取得することと、
収束した三次元点を使用して、前記次のフレームの画像のカメラポーズパラメータを最適化することと、
前記特徴点の深度情報の確率分布を取得し、前記確率分布を使用して、次のフレームの画像内の前記特徴点の深度情報を取得することと、を含む、
請求項5に記載の視覚的ポジショニング方法。 - 前記カメラポーズパラメータは、回転パラメータおよび変位パラメータを含み、
前記現在の画像のカメラポーズパラメータに基づいて、前記現在の画像後の処理されるべき画像のカメラポーズパラメータを取得した後、前記視覚的ポジショニング方法は、
前記処理されるべき画像のカメラポーズパラメータが、プリセットの安定状態条件を満たさないことに応答して、前記処理されるべき画像の変位パラメータを取得できないことを決定することと、
前記処理されるべき画像の前のフレームの画像の画素値および前記前のフレームの画像のカメラポーズパラメータを使用して、前記処理されるべき画像の回転パラメータを取得することと、をさらに含む、
請求項1に記載の視覚的ポジショニング方法。 - 前記処理されるべき画像の前のフレームの画像の画素値および前記前のフレームの画像のカメラポーズパラメータを使用して、前記処理されるべき画像の回転パラメータを取得することは、
前記処理されるべき画像と前記前のフレームの画像との間のポーズ変換パラメータを使用して、前記前のフレームの画像内の画素点の少なくとも一部に対して投影変換を実行して、前記処理されるべき画像における前記画素点の少なくとも一部の投影点を取得することと、
前記前のフレームの画像における前記画素点の少なくとも一部の画素値と、前記処理されるべき画像における、前記画素点の少なくとも一部に対応する前記投影点の画素値との間の差異を使用して、前記ポーズ変換パラメータに関するターゲット関数を構築することと、
前記ターゲット関数を解けて得られた前記ポーズ変換パラメータを使用して、前記前のフレームの画像のカメラポーズパラメータに対して変換処理を実行して、前記処理されるべき画像の回転パラメータを取得することと、を含む、
請求項7に記載の視覚的ポジショニング方法。 - 前記処理されるべき画像と前記前のフレームの画像との間のポーズ変換パラメータを使用して、前記前のフレームの画像内の画素点の少なくとも一部に対して投影変換を実行して、前記処理されるべき画像における前記画素点の少なくとも一部の投影点を取得する前に、前記視覚的ポジショニング方法は、
前記前のフレームの画像に対してダウンサンプリング処理を実行して、前記前のフレームの画像のサムネイル画像を取得することをさらに含み、
前記処理されるべき画像と前記前のフレームの画像との間のポーズ変換パラメータを使用して、前記処理されるべき画像内の画素点の少なくとも一部に対して投影変換を実行して、前記処理されるべき画像における前記画素点の少なくとも一部の投影点を取得することは、
前記処理されるべき画像と前記前のフレームの画像との間のポーズ変換パラメータを使用して、前記サムネイル画像内の画素点に対して投影変換を実行して、前記処理されるべき画像における前記サムネイル画像内の画素点の投影点を取得することを含む、
請求項8に記載の視覚的ポジショニング方法。 - 前記処理されるべき画像の前のフレームの画像の画素値および前記前のフレームの画像のカメラポーズパラメータを使用して、前記処理されるべき画像の回転パラメータを取得した後、前記視覚的ポジショニング方法は、
前記カメラの現在の加速度情報を検出し、前記加速度情報が、前記プリセットの運動状態にあるか否かを判断することと、
前記プリセットの運動状態にある場合、前記カメラの重力情報を取得するステップおよび後続のステップを再実行し、
前記プリセットの運動状態にない場合、前記カメラの現在の加速度情報を検出するステップおよび後続のステップを再実行することと、をさらに含む、
請求項7に記載の視覚的ポジショニング方法。 - 前記重力情報は、重力方向情報を含み、前記カメラポーズパラメータは、回転パラメータおよび変位パラメータを含み、前記重力情報を使用して、プリセットの運動状態の前記カメラによって撮影される現在の画像のカメラポーズパラメータを取得することは、
前記重力方向情報を使用して、世界座標系x座標軸、y座標軸およびz座標軸にそれぞれ対応する前記カメラの回転角度を取得することであって、前記カメラが前記回転角度に従って回転した後の重力方向は、前記z座標軸の逆方向と同じである、ことと、
前記回転角度を使用して、前記回転パラメータを取得し、前記変位パラメータをプリセットの数値に設定することと、を含む、
請求項1に記載の視覚的ポジショニング方法。 - 前記世界座標系の原点は、前記カメラが前記現在の画像を撮影するときの位置であり、前記プリセットの数値は0である、
請求項11に記載の視覚的ポジショニング方法。 - 前記プリセットの運動状態は、静的状態または均一速度の運動状態を含み、
および/または、前記重力情報は、前記プリセットの運動状態における前記カメラの加速度情報を使用して得られたものである、
請求項1ないし12のいずれか一項に記載の視覚的ポジショニング方法。 - 視覚的ポジショニング装置であって、
カメラの重力情報を取得するように構成される重力情報取得部と、
前記重力情報を使用して、プリセットの運動状態の前記カメラによって撮影される現在の画像のカメラポーズパラメータを取得するように構成される第1ポーズ取得部と、
前記現在の画像のカメラポーズパラメータに基づいて、前記現在の画像後の処理されるべき画像のカメラポーズパラメータを取得するように構成される第2ポーズ取得部と、を備える、視覚的ポジショニング装置。 - 互いに結合されるメモリとプロセッサとを備える電子機器であって、前記プロセッサは、前記メモリに記憶されるプログラム命令を実行して、請求項1ないし13のいずれか一項に記載の視覚的ポジショニング方法を実施する、電子機器。
- プロセッサによって実行されるとき、前記プロセッサに請求項1ないし13のいずれか一項に記載の視覚的ポジショニング方法を実現させるためのプログラム命令を記憶した、コンピュータ可読記憶媒体。
- 電子機器で実行されるとき、前記電子機器内のプロセッサに、請求項1ないし13のいずれか一項に記載の視覚的ポジショニング方法を実現させるためのコンピュータ可読コードを含む、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011148780.6A CN112348889A (zh) | 2020-10-23 | 2020-10-23 | 视觉定位方法及相关装置、设备 |
CN202011148780.6 | 2020-10-23 | ||
PCT/CN2021/076957 WO2022083038A1 (zh) | 2020-10-23 | 2021-02-19 | 视觉定位方法及相关装置、设备和计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023502192A true JP2023502192A (ja) | 2023-01-23 |
JP7280385B2 JP7280385B2 (ja) | 2023-05-23 |
Family
ID=74360141
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021569000A Active JP7280385B2 (ja) | 2020-10-23 | 2021-02-19 | 視覚的ポジショニング方法および関連装置、機器並びにコンピュータ可読記憶媒体 |
Country Status (5)
Country | Link |
---|---|
JP (1) | JP7280385B2 (ja) |
KR (1) | KR20220054582A (ja) |
CN (1) | CN112348889A (ja) |
TW (1) | TWI795885B (ja) |
WO (1) | WO2022083038A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112348889A (zh) * | 2020-10-23 | 2021-02-09 | 浙江商汤科技开发有限公司 | 视觉定位方法及相关装置、设备 |
CN112884840A (zh) * | 2021-03-29 | 2021-06-01 | 湖南国科微电子股份有限公司 | 一种视觉定位方法、装置、设备及存储介质 |
CN115641648B (zh) * | 2022-12-26 | 2023-08-18 | 苏州飞蝶虚拟现实科技有限公司 | 基于视觉对重复动作分析过滤的3d远程互动处理系统 |
CN116429094B (zh) * | 2023-06-15 | 2023-09-26 | 小米汽车科技有限公司 | 定位方法、装置、电子设备及存储介质 |
CN117058209B (zh) * | 2023-10-11 | 2024-01-23 | 山东欧龙电子科技有限公司 | 一种基于三维地图的飞行汽车视觉图像深度信息计算方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013027628A1 (ja) * | 2011-08-24 | 2013-02-28 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2017108370A (ja) * | 2015-07-06 | 2017-06-15 | セイコーエプソン株式会社 | 頭部装着型表示装置およびコンピュータープログラム |
WO2019237099A1 (en) * | 2018-06-08 | 2019-12-12 | Magic Leap, Inc. | Augmented reality viewer with automated surface selection placement and content orientation placement |
JP2020042575A (ja) * | 2018-09-11 | 2020-03-19 | 富士通株式会社 | 情報処理装置、位置合わせ方法、及びプログラム |
JP2020067978A (ja) * | 2018-10-26 | 2020-04-30 | 富士通株式会社 | 床面検出プログラム、床面検出方法及び端末装置 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10664993B1 (en) * | 2017-03-13 | 2020-05-26 | Occipital, Inc. | System for determining a pose of an object |
CN108305317B (zh) * | 2017-08-04 | 2020-03-17 | 腾讯科技(深圳)有限公司 | 一种图像处理方法、装置及存储介质 |
CN110720113A (zh) * | 2018-08-01 | 2020-01-21 | 深圳市大疆创新科技有限公司 | 一种参数处理方法、装置及摄像设备、飞行器 |
CN110349213B (zh) * | 2019-06-28 | 2023-12-12 | Oppo广东移动通信有限公司 | 基于深度信息的位姿确定方法、装置、介质与电子设备 |
CN110335316B (zh) * | 2019-06-28 | 2023-04-18 | Oppo广东移动通信有限公司 | 基于深度信息的位姿确定方法、装置、介质与电子设备 |
CN111210463B (zh) * | 2020-01-15 | 2022-07-15 | 上海交通大学 | 基于特征点辅助匹配的虚拟宽视角视觉里程计方法及系统 |
CN111709984B (zh) * | 2020-06-08 | 2024-02-06 | 亮风台(上海)信息科技有限公司 | 位姿深度预测方法、视觉里程计方法、装置、设备及介质 |
CN111696162B (zh) * | 2020-06-11 | 2022-02-22 | 中国科学院地理科学与资源研究所 | 一种双目立体视觉精细地形测量系统及方法 |
CN112348889A (zh) * | 2020-10-23 | 2021-02-09 | 浙江商汤科技开发有限公司 | 视觉定位方法及相关装置、设备 |
-
2020
- 2020-10-23 CN CN202011148780.6A patent/CN112348889A/zh active Pending
-
2021
- 2021-02-19 WO PCT/CN2021/076957 patent/WO2022083038A1/zh active Application Filing
- 2021-02-19 KR KR1020227003202A patent/KR20220054582A/ko unknown
- 2021-02-19 JP JP2021569000A patent/JP7280385B2/ja active Active
- 2021-08-25 TW TW110131503A patent/TWI795885B/zh active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013027628A1 (ja) * | 2011-08-24 | 2013-02-28 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2017108370A (ja) * | 2015-07-06 | 2017-06-15 | セイコーエプソン株式会社 | 頭部装着型表示装置およびコンピュータープログラム |
WO2019237099A1 (en) * | 2018-06-08 | 2019-12-12 | Magic Leap, Inc. | Augmented reality viewer with automated surface selection placement and content orientation placement |
JP2020042575A (ja) * | 2018-09-11 | 2020-03-19 | 富士通株式会社 | 情報処理装置、位置合わせ方法、及びプログラム |
JP2020067978A (ja) * | 2018-10-26 | 2020-04-30 | 富士通株式会社 | 床面検出プログラム、床面検出方法及び端末装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112348889A (zh) | 2021-02-09 |
WO2022083038A1 (zh) | 2022-04-28 |
TW202217755A (zh) | 2022-05-01 |
JP7280385B2 (ja) | 2023-05-23 |
KR20220054582A (ko) | 2022-05-03 |
TWI795885B (zh) | 2023-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7280385B2 (ja) | 視覚的ポジショニング方法および関連装置、機器並びにコンピュータ可読記憶媒体 | |
US20210190497A1 (en) | Simultaneous location and mapping (slam) using dual event cameras | |
CN107990899B (zh) | 一种基于slam的定位方法和系统 | |
US10636168B2 (en) | Image processing apparatus, method, and program | |
JP2009252112A (ja) | 画像処理装置、画像処理方法 | |
JP2011179908A (ja) | 3次元計測装置、その処理方法及びプログラム | |
CN113409391B (zh) | 视觉定位方法及相关装置、设备和存储介质 | |
CN113256718B (zh) | 定位方法和装置、设备及存储介质 | |
EP2851868A1 (en) | 3D Reconstruction | |
CN113361365B (zh) | 定位方法和装置、设备及存储介质 | |
WO2022188334A1 (zh) | 定位初始化方法和装置、设备、存储介质、程序产品 | |
Frahm et al. | Camera calibration with known rotation | |
JP7420135B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP6922348B2 (ja) | 情報処理装置、方法、及びプログラム | |
TW202314593A (zh) | 定位方法及設備、電腦可讀儲存媒體 | |
Huttunen et al. | A monocular camera gyroscope | |
JP2022132063A (ja) | 拡張現実提供装置のポーズ決定方法及び装置 | |
CN113052907B (zh) | 一种动态环境移动机器人的定位方法 | |
JP5976089B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
US11758100B2 (en) | Portable projection mapping device and projection mapping system | |
WO2010089938A1 (ja) | 回転推定装置、回転推定方法および記録媒体 | |
WO2021251171A1 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
Garro et al. | Fast Metric Acquisition with Mobile Devices. | |
JP3452188B2 (ja) | 2次元動画像中の特徴点の追跡方法 | |
CN111489376A (zh) | 跟踪交互设备的方法、装置、终端设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211118 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230418 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230511 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7280385 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |