JPWO2021178919A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2021178919A5
JPWO2021178919A5 JP2022552548A JP2022552548A JPWO2021178919A5 JP WO2021178919 A5 JPWO2021178919 A5 JP WO2021178919A5 JP 2022552548 A JP2022552548 A JP 2022552548A JP 2022552548 A JP2022552548 A JP 2022552548A JP WO2021178919 A5 JPWO2021178919 A5 JP WO2021178919A5
Authority
JP
Japan
Prior art keywords
image
encoder
descriptor
points
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022552548A
Other languages
English (en)
Other versions
JP2023515669A (ja
Publication date
Application filed filed Critical
Priority claimed from PCT/US2021/021239 external-priority patent/WO2021178919A1/en
Publication of JP2023515669A publication Critical patent/JP2023515669A/ja
Publication of JPWO2021178919A5 publication Critical patent/JPWO2021178919A5/ja
Pending legal-status Critical Current

Links

Description

別の開示される実施形態は、クロスリアリティ(XR)システムを対象とし、これは、深度を推定するように構成され、本明細書に説明されるような深度のために利用される。クロスリアリティシステムは、ディスプレイシステムを有する、頭部搭載型ディスプレイデバイスを備える。例えば、頭部搭載型ディスプレイは、一対の接眼ディスプレイを眼鏡状構造内に有してもよい。コンピューティングシステムは、頭部搭載型ディスプレイと動作可能に通信する。複数のカメラセンサは、コンピューティングシステムと動作可能に通信する。コンピューティングシステムは、上記に説明される方法のいずれかにおいて、カメラセンサによって捕捉された複数のマルチビュー画像からの場面内の特徴の深度を推定するように構成される。クロスリアリティシステムの付加的側面では、プロセスは、上記に説明されるクロスリアリティシステムの付加的側面のうちの任意の1つまたはそれを上回るものを含んでもよい。例えば、プロセスは、カメラセンサからのカメラセンサの視野内の場面のアンカ画像と、場面の基準画像のセットとを含む、マルチビュー画像を取得するステップと、(1)アンカ画像および各基準画像に関する記述子の個別の記述子フィールドを出力し、(ii)相対的姿勢と併せて、アンカ画像内の着目点を検出し、代替視点から基準画像内の検索空間を決定し、(iii)中間特徴マップを出力する、共有RGBエンコーダおよび記述子デコーダを通して、アンカ画像および基準画像を通過させるステップと、各基準画像の検索空間内の個別の記述子をサンプリングし、検索空間内の記述子を決定し、識別された記述子とアンカ画像内の着目点に関する記述子をマッチングさせるステップであって、そのようなマッチングされる記述子は、マッチングされた特徴点と称される、ステップと、特異値分解(SVD)を使用して、マッチングされた特徴点を三角測量し、3D点を出力するステップと、3D点を疎深度エンコーダを通して通過させ、疎深度画像を3D点および出力特徴マップから作成するステップと、深度デコーダが、疎深度エンコーダに関する出力特徴マップと、RGBエンコーダからの中間特徴マップとに基づいて、稠密深度画像を生成するステップとを含んでもよい。
本発明は、例えば、以下を提供する。
(項目1)
マルチビュー画像からの場面内の特徴の深度を推定するための方法であって、前記方法は、
前記場面のアンカ画像と、前記場面の基準画像のセットとを含むマルチビュー画像を取得するステップと、
(1)前記アンカ画像および各基準画像に関する記述子の個別の記述子フィールドを出力し、(ii)相対的姿勢と併せて、前記アンカ画像内の着目点を検出し、代替視点から前記基準画像内の検索空間を決定し、(iii)中間特徴マップを出力する、共有RGBエンコーダおよび記述子デコーダを通して、前記アンカ画像および基準画像を通過させるステップと、
各基準画像の前記検索空間内の前記個別の記述子をサンプリングし、前記検索空間内の記述子を決定し、前記識別された記述子と前記アンカ画像内の着目点に関する記述子をマッチングさせるステップであって、そのようなマッチングされる記述子は、マッチングされた特徴点と称される、ステップと、
特異値分解(SVD)を使用して、前記マッチングされた特徴点を三角測量し、3D点を出力するステップと、
前記3D点を疎深度エンコーダを通して通過させ、疎深度画像を前記3D点および出力特徴マップから作成するステップと、
深度デコーダが、前記疎深度エンコーダに関する前記出力特徴マップと、前記RGBエンコーダからの前記中間特徴マップとに基づいて、稠密深度画像を生成するステップと
を含む、方法。
(項目2)
前記共有RGBエンコーダおよび記述子デコーダは、RGB画像エンコーダおよび疎深度画像エンコーダを含む2つのエンコーダと、着目点検出エンコーダ、記述子デコーダ、および稠密深度予測エンコーダを含む3つのデコーダとを備える、項目1に記載の方法。
(項目3)
前記共有RGBエンコーダおよび記述子デコーダは、前記アンカ画像およびトランザクション画像の完全分解能に作用するように構成される完全畳み込みニューラルネットワークである、項目1に記載の方法。
(項目4)
前記RGBエンコーダからの前記特徴マップを第1のタスク特有のデコーダヘッドの中にフィードし、前記アンカ画像内の着目点の検出のための加重を決定し、着目点記述を出力するステップ
をさらに含む、項目1に記載の方法。
(項目5)
前記記述子デコーダは、U-Net様アーキテクチャを備え、前記識別された記述子と前記着目点に関する記述子をマッチングさせるために、微細および粗大レベル画像情報を融合させる、項目1に記載の方法。
(項目6)
前記検索空間は、前記基準画像内の個別のエピポーラ線+前記エピポーラ線の両側上の固定されたオフセットに制約され、前記エピポーラ線に沿った実行可能深度感知範囲内にある、項目1に記載の方法。
(項目7)
双線形サンプリングが、前記共有RGBエンコーダおよび記述子デコーダによって使用され、前記個別の記述子を前記記述子フィールド内の所望の点において出力する、項目1に記載の方法。
(項目8)
前記マッチングされた特徴点を三角測量するステップは、
空間軸を横断して、softmaxを算出し、相互相関マップを出力することによって、前記着目点の個別の2次元(2D)位置を推定するステップと、
soft-argmax演算を実施し、節点の2D位置を対応する相互相関マップの質量中心として計算するステップと、
線形代数三角測量を前記2D推定値から実施するステップと、
特異値分解(SVD)を使用して、3D点を出力するステップと
を含む、項目1に記載の方法。
(項目9)
クロスリアリティシステムであって、
ディスプレイシステムを有する頭部搭載型ディスプレイデバイスと、
前記頭部搭載型ディスプレイと動作可能に通信するコンピューティングシステムと、
前記コンピューティングシステムと動作可能に通信する複数のカメラセンサと
を備え、前記コンピューティングシステムは、
前記カメラセンサからの前記カメラセンサの視野内の場面のアンカ画像と、場面の基準画像のセットとを含むマルチビュー画像を取得するステップと、
(1)前記アンカ画像および各基準画像に関する記述子の個別の記述子フィールドを出力し、(ii)相対的姿勢と併せて、前記アンカ画像内の着目点を検出し、代替視点から前記基準画像内の検索空間を決定し、(iii)中間特徴マップを出力する、共有RGBエンコーダおよび記述子デコーダを通して、前記アンカ画像および基準画像を通過させるステップと、
各基準画像の前記検索空間内の前記個別の記述子をサンプリングし、前記検索空間内の記述子を決定し、前記識別された記述子と前記アンカ画像内の着目点に関する記述子をマッチングさせるステップであって、そのようなマッチングされる記述子は、マッチングされた特徴点と称される、ステップと、
特異値分解(SVD)を使用して、前記マッチングされた特徴点を三角測量し、3D点を出力するステップと、
前記3D点を疎深度エンコーダを通して通過させ、疎深度画像を前記3D点および出力特徴マップから作成するステップと、
深度デコーダが、前記疎深度エンコーダに関する前記出力特徴マップと、前記RGBエンコーダからの前記中間特徴マップとに基づいて、稠密深度画像を生成するステップと
を含むプロセスによって、前記カメラセンサによって捕捉された複数のマルチビュー画像からの場面内の特徴の深度を推定するように構成される、クロスリアリティシステム。
(項目10)
前記共有RGBエンコーダおよび記述子デコーダは、RGB画像エンコーダおよび疎深度画像エンコーダを含む2つのエンコーダと、着目点検出エンコーダ、記述子デコーダ、および稠密深度予測エンコーダを含む3つのデコーダとを備える、項目9に記載のクロスリアリティシステム。
(項目11)
前記共有RGBエンコーダおよび記述子デコーダは、前記アンカ画像およびトランザクション画像の完全分解能に作用するように構成される完全畳み込みニューラルネットワークである、項目9に記載のクロスリアリティシステム。
(項目12)
前記カメラセンサによって捕捉された複数のマルチビュー画像からの場面内の特徴の深度を推定するためのプロセスはさらに、
前記RGBエンコーダからの前記特徴マップを第1のタスク特有のデコーダヘッドの中にフィードし、前記アンカ画像内の着目点の検出のための加重を決定し、着目点記述を出力するステップ
を含む、項目9に記載のクロスリアリティシステム。
(項目13)
前記記述子デコーダは、U-Net様アーキテクチャを備え、前記識別された記述子と前記着目点に関する記述子をマッチングさせるために、微細および粗大レベル画像情報を融合させる、項目9に記載のクロスリアリティシステム。
(項目14)
前記検索空間は、前記基準画像内の個別のエピポーラ線+前記エピポーラ線の両側上の固定されたオフセットに制約され、前記エピポーラ線に沿った実行可能深度感知範囲内にある、項目9に記載のクロスリアリティシステム。
(項目15)
双線形サンプリングが、前記共有RGBエンコーダおよび記述子デコーダによって使用され、前記個別の記述子を前記記述子フィールド内の所望の点において出力する、項目9に記載のクロスリアリティシステム。
(項目16)
前記マッチングされた特徴点を三角測量するステップは、
空間軸を横断して、softmaxを算出し、相互相関マップを出力することによって、前記着目点の個別の2次元(2D)位置を推定するステップと、
soft-argmax演算を実施し、節点の2D位置を対応する相互相関マップの質量中心として計算するステップと、
線形代数三角測量を前記2D推定値から実施するステップと、
特異値分解(SVD)を使用して、3D点を出力するステップと
を含む、項目9に記載のクロスリアリティシステム。

Claims (16)

  1. マルチビュー画像からの場面内の特徴の深度を推定するための方法であって、前記方法は、
    前記場面のアンカ画像と、前記場面の基準画像のセットとを含むマルチビュー画像を取得することと、
    (1)前記アンカ画像および各基準画像に関する記述子の個別の記述子フィールドを出力し、(ii)相対的姿勢と併せて、前記アンカ画像内の着目点を検出し、代替視点から前記基準画像内の検索空間を決定し、(iii)中間特徴マップを出力する、共有RGBエンコーダおよび記述子デコーダを通して、前記アンカ画像および基準画像を通過させることであって、前記記述子デコーダは、記述子を訓練するように構成される学習アーキテクチャを利用する、ことと、
    各基準画像の前記検索空間内の前記個別の記述子をサンプリングし、前記検索空間内の記述子を決定し、前記識別された記述子と前記アンカ画像内の前記疎着目点に関する記述子をマッチングさせることであって、そのようなマッチングされる記述子は、マッチングされた特徴点と称される、ことと、
    特異値分解(SVD)を使用して、前記マッチングされた特徴点を三角測量し、3D点を出力することと、
    前記3D点を疎深度エンコーダを通して通過させ、疎深度画像を前記3D点および出力特徴マップから作成することと、
    深度デコーダが、前記疎深度エンコーダに関する前記出力特徴マップと、前記RGBエンコーダからの前記中間特徴マップとに基づいて、稠密深度画像を生成すること
    を含む、方法。
  2. 前記共有RGBエンコーダおよび記述子デコーダは、RGB画像エンコーダおよび疎深度画像エンコーダを含む2つのエンコーダと、着目点検出エンコーダ、記述子デコーダ、および稠密深度予測エンコーダを含む3つのデコーダとを備える、請求項1に記載の方法。
  3. 前記共有RGBエンコーダおよび記述子デコーダは、前記アンカ画像およびトランザクション画像の完全分解能に作用するように構成される完全畳み込みニューラルネットワークである、請求項1に記載の方法。
  4. 前記RGBエンコーダからの前記特徴マップを第1のタスク特有のデコーダヘッドの中にフィードし、前記アンカ画像内の前記疎着目点の検出のための加重を決定し、着目点記述を出力すること
    をさらに含む、請求項1に記載の方法。
  5. 前記記述子デコーダは、U-Net様アーキテクチャを備え、前記識別された記述子と前記着目点に関する記述子をマッチングさせるために、微細および粗大レベル画像情報を融合させる、請求項1に記載の方法。
  6. 前記検索空間は、前記基準画像内の個別のエピポーラ線+前記エピポーラ線の両側上の固定されたオフセットに制約され、前記エピポーラ線に沿った実行可能深度感知範囲内にある、請求項1に記載の方法。
  7. 双線形サンプリングが、前記共有RGBエンコーダおよび記述子デコーダによって使用され、前記個別の記述子を前記記述子フィールド内の所望の点において出力する、請求項1に記載の方法。
  8. 前記マッチングされた特徴点を三角測量するステップは、
    空間軸を横断して、softmaxを算出し、相互相関マップを出力することによって、前記着目点の個別の2次元(2D)位置を推定することと、
    soft-argmax演算を実施し、節点の2D位置を対応する相互相関マップの質量中心として計算することと、
    線形代数三角測量を前記2D推定値から実施することと、
    特異値分解(SVD)を使用して、3D点を出力すること
    を含む、請求項1に記載の方法。
  9. クロスリアリティシステムであって、
    ディスプレイシステムを有する頭部搭載型ディスプレイデバイスと、
    前記頭部搭載型ディスプレイと動作可能に通信するコンピューティングシステムと、
    前記コンピューティングシステムと動作可能に通信する複数のカメラセンサと
    を備え、
    前記コンピューティングシステムは、
    前記カメラセンサからの前記カメラセンサの視野内の場面のアンカ画像と、場面の基準画像のセットとを含むマルチビュー画像を取得することと、
    (1)前記アンカ画像および各基準画像に関する記述子の個別の記述子フィールドを出力し、(ii)相対的姿勢と併せて、前記アンカ画像内の着目点を検出し、代替視点から前記基準画像内の検索空間を決定し、(iii)中間特徴マップを出力する、共有RGBエンコーダおよび記述子デコーダを通して、前記アンカ画像および基準画像を通過させることであって、前記記述子デコーダは、記述子を訓練するように構成される学習アーキテクチャを利用する、ことと、
    各基準画像の前記検索空間内の前記個別の記述子をサンプリングし、前記検索空間内の記述子を決定し、前記識別された記述子と前記アンカ画像内の前記疎着目点に関する記述子をマッチングさせることであって、そのようなマッチングされる記述子は、マッチングされた特徴点と称される、ことと、
    特異値分解(SVD)を使用して、前記マッチングされた特徴点を三角測量し、3D点を出力することと、
    前記3D点を疎深度エンコーダを通して通過させ、疎深度画像を前記3D点および出力特徴マップから作成することと、
    深度デコーダが、前記疎深度エンコーダに関する前記出力特徴マップと、前記RGBエンコーダからの前記中間特徴マップとに基づいて、稠密深度画像を生成すること
    を含むプロセスによって、前記カメラセンサによって捕捉された複数のマルチビュー画像からの場面内の特徴の深度を推定するように構成される、クロスリアリティシステム。
  10. 前記共有RGBエンコーダおよび記述子デコーダは、RGB画像エンコーダおよび疎深度画像エンコーダを含む2つのエンコーダと、着目点検出エンコーダ、記述子デコーダ、および稠密深度予測エンコーダを含む3つのデコーダとを備える、請求項9に記載のクロスリアリティシステム。
  11. 前記共有RGBエンコーダおよび記述子デコーダは、前記アンカ画像およびトランザクション画像の完全分解能に作用するように構成される完全畳み込みニューラルネットワークである、請求項9に記載のクロスリアリティシステム。
  12. 前記カメラセンサによって捕捉された複数のマルチビュー画像からの場面内の特徴の深度を推定するためのプロセスは
    前記RGBエンコーダからの前記特徴マップを第1のタスク特有のデコーダヘッドの中にフィードし、前記アンカ画像内の前記疎着目点の検出のための加重を決定し、着目点記述を出力すること
    さらに含む、請求項9に記載のクロスリアリティシステム。
  13. 前記記述子デコーダは、U-Net様アーキテクチャを備え、前記識別された記述子と前記着目点に関する記述子をマッチングさせるために、微細および粗大レベル画像情報を融合させる、請求項9に記載のクロスリアリティシステム。
  14. 前記検索空間は、前記基準画像内の個別のエピポーラ線+前記エピポーラ線の両側上の固定されたオフセットに制約され、前記エピポーラ線に沿った実行可能深度感知範囲内にある、請求項9に記載のクロスリアリティシステム。
  15. 双線形サンプリングが、前記共有RGBエンコーダおよび記述子デコーダによって使用され、前記個別の記述子を前記記述子フィールド内の所望の点において出力する、請求項9に記載のクロスリアリティシステム。
  16. 前記マッチングされた特徴点を三角測量するステップは、
    空間軸を横断して、softmaxを算出し、相互相関マップを出力することによって、前記着目点の個別の2次元(2D)位置を推定することと、
    soft-argmax演算を実施し、節点の2D位置を対応する相互相関マップの質量中心として計算することと、
    線形代数三角測量を前記2D推定値から実施することと、
    特異値分解(SVD)を使用して、3D点を出力すること
    を含む、請求項9に記載のクロスリアリティシステム。
JP2022552548A 2020-03-05 2021-03-05 マルチビューステレオのための疎点の三角測量および緻密化を学習することによる深度推定のためのシステムおよび方法 Pending JP2023515669A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202062985773P 2020-03-05 2020-03-05
US62/985,773 2020-03-05
PCT/US2021/021239 WO2021178919A1 (en) 2020-03-05 2021-03-05 Systems and methods for depth estimation by learning triangulation and densification of sparse points for multi-view stereo

Publications (2)

Publication Number Publication Date
JP2023515669A JP2023515669A (ja) 2023-04-13
JPWO2021178919A5 true JPWO2021178919A5 (ja) 2024-03-07

Family

ID=77554899

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022552548A Pending JP2023515669A (ja) 2020-03-05 2021-03-05 マルチビューステレオのための疎点の三角測量および緻密化を学習することによる深度推定のためのシステムおよび方法

Country Status (5)

Country Link
US (1) US11948320B2 (ja)
EP (1) EP4115145A4 (ja)
JP (1) JP2023515669A (ja)
CN (1) CN115210532A (ja)
WO (1) WO2021178919A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200137380A1 (en) * 2018-10-31 2020-04-30 Intel Corporation Multi-plane display image synthesis mechanism
US11481871B2 (en) * 2021-03-12 2022-10-25 Samsung Electronics Co., Ltd. Image-guided depth propagation for space-warping images
US20230111306A1 (en) * 2021-10-13 2023-04-13 GE Precision Healthcare LLC Self-supervised representation learning paradigm for medical images
US12086965B2 (en) * 2021-11-05 2024-09-10 Adobe Inc. Image reprojection and multi-image inpainting based on geometric depth parameters
CN114820745B (zh) * 2021-12-13 2024-09-13 南瑞集团有限公司 单目视觉深度估计系统、方法、计算机设备及计算机可读存储介质
CN114332510B (zh) * 2022-01-04 2024-03-22 安徽大学 一种层次化的图像匹配方法
CN114742794B (zh) * 2022-04-02 2024-08-27 北京信息科技大学 一种基于三角剖分的临时道路检测方法及系统
CN114913287B (zh) * 2022-04-07 2023-08-22 北京拙河科技有限公司 一种三维人体模型重建方法及系统
WO2023225235A1 (en) * 2022-05-19 2023-11-23 Innopeak Technology, Inc. Method for predicting depth map via multi-view stereo system, electronic apparatus and storage medium
CN116071504B (zh) * 2023-03-06 2023-06-09 安徽大学 一种面向高分辨率图像的多视图立体重建方法
CN116934829B (zh) * 2023-09-15 2023-12-12 天津云圣智能科技有限责任公司 无人机目标深度估计的方法、装置、存储介质及电子设备

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7152051B1 (en) 2002-09-30 2006-12-19 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US9177381B2 (en) * 2010-12-22 2015-11-03 Nani Holdings IP, LLC Depth estimate determination, systems and methods
KR101927967B1 (ko) 2011-08-09 2018-12-12 삼성전자주식회사 다시점 비디오 데이터의 깊이맵 부호화 방법 및 장치, 복호화 방법 및 장치
WO2013054499A1 (ja) 2011-10-11 2013-04-18 パナソニック株式会社 画像処理装置、撮像装置および画像処理方法
EP2973476A4 (en) * 2013-03-15 2017-01-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US9483843B2 (en) * 2014-01-13 2016-11-01 Transgaming Inc. Method and system for expediting bilinear filtering
US20150262412A1 (en) * 2014-03-17 2015-09-17 Qualcomm Incorporated Augmented reality lighting with dynamic geometry
US9704232B2 (en) * 2014-03-18 2017-07-11 Arizona Board of Regents of behalf of Arizona State University Stereo vision measurement system and method
US9418319B2 (en) 2014-11-21 2016-08-16 Adobe Systems Incorporated Object detection using cascaded convolutional neural networks
US10762712B2 (en) 2016-04-01 2020-09-01 Pcms Holdings, Inc. Apparatus and method for supporting interactive augmented reality functionalities
GB2556910A (en) 2016-11-25 2018-06-13 Nokia Technologies Oy Virtual reality display
US10783394B2 (en) 2017-06-20 2020-09-22 Nvidia Corporation Equivariant landmark transformation for landmark localization
US11676296B2 (en) * 2017-08-11 2023-06-13 Sri International Augmenting reality using semantic segmentation
CA3078530A1 (en) 2017-10-26 2019-05-02 Magic Leap, Inc. Gradient normalization systems and methods for adaptive loss balancing in deep multitask networks
US10929654B2 (en) * 2018-03-12 2021-02-23 Nvidia Corporation Three-dimensional (3D) pose estimation from a monocular camera
US10304193B1 (en) * 2018-08-17 2019-05-28 12 Sigma Technologies Image segmentation and object detection using fully convolutional neural network
US10682108B1 (en) * 2019-07-16 2020-06-16 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for three-dimensional (3D) reconstruction of colonoscopic surfaces for determining missing regions
US11727587B2 (en) * 2019-11-12 2023-08-15 Geomagical Labs, Inc. Method and system for scene image modification
US11763433B2 (en) * 2019-11-14 2023-09-19 Samsung Electronics Co., Ltd. Depth image generation method and device
US11900626B2 (en) * 2020-01-31 2024-02-13 Toyota Research Institute, Inc. Self-supervised 3D keypoint learning for ego-motion estimation

Similar Documents

Publication Publication Date Title
CN112785702B (zh) 一种基于2d激光雷达和双目相机紧耦合的slam方法
US10455218B2 (en) Systems and methods for estimating depth using stereo array cameras
KR101295714B1 (ko) 3차원 증강 현실 제공 장치 및 방법
EP3427227B1 (en) Methods and computer program products for calibrating stereo imaging systems by using a planar mirror
Smisek et al. 3D with Kinect
CA2577840C (en) A method for automated 3d imaging
JP6782903B2 (ja) 自己運動推定システム、自己運動推定システムの制御方法及びプログラム
US20220051425A1 (en) Scale-aware monocular localization and mapping
CN108413917B (zh) 非接触式三维测量系统、非接触式三维测量方法及测量装置
JP2007263669A (ja) 3次元座標取得装置
KR101544021B1 (ko) 3차원 지도 생성 장치 및 3차원 지도 생성 방법
WO2015068470A1 (ja) 3次元形状計測装置、3次元形状計測方法及び3次元形状計測プログラム
JPWO2021178919A5 (ja)
Civera et al. Dimensionless monocular SLAM
EP2913793B1 (en) Image processing device and image processing method
WO2021167910A1 (en) A method for generating a dataset, a method for generating a neural network, and a method for constructing a model of a scene
US9245343B1 (en) Real-time image geo-registration processing
CN113808070B (zh) 一种双目数字散斑图像相关的视差测量方法
JP3512894B2 (ja) 相対的移動量算出装置及び相対的移動量算出方法
CN115049784A (zh) 一种基于双目粒子图像的三维速度场重建方法
JP2023054608A (ja) 実スケール奥行算出装置、実スケール奥行算出方法、および実スケール奥行算出プログラム
CN113269857A (zh) 坐标系关系获取方法及装置
WO2022185726A1 (ja) 画像処理装置、画像処理方法、およびプログラム
Burschka Monocular navigation in large scale dynamic environments
Godding et al. 4D Surface matching for high-speed stereo sequences