JP2021082265A - 深度点線特徴に基づくドローン視覚走行距離計方法 - Google Patents
深度点線特徴に基づくドローン視覚走行距離計方法 Download PDFInfo
- Publication number
- JP2021082265A JP2021082265A JP2020168211A JP2020168211A JP2021082265A JP 2021082265 A JP2021082265 A JP 2021082265A JP 2020168211 A JP2020168211 A JP 2020168211A JP 2020168211 A JP2020168211 A JP 2020168211A JP 2021082265 A JP2021082265 A JP 2021082265A
- Authority
- JP
- Japan
- Prior art keywords
- points
- point
- feature
- visual image
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 68
- 238000000034 method Methods 0.000 title claims abstract description 45
- 239000011159 matrix material Substances 0.000 claims abstract description 13
- 238000005457 optimization Methods 0.000 claims abstract description 8
- 238000005070 sampling Methods 0.000 claims description 23
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 230000005484 gravity Effects 0.000 claims description 3
- 102000008115 Signaling Lymphocytic Activation Molecule Family Member 1 Human genes 0.000 description 1
- 108010074687 Signaling Lymphocytic Activation Molecule Family Member 1 Proteins 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
Abstract
Description
深度カメラのキャリブレーションを行い、深度カメラの内部パラメータ行列及び歪み係数を取得するステップS1と、
深度カメラを用いて視覚的画像を取得し、視覚的画像のキーポイントの特徴を抽出し、キーポイントの画素座標を三次元座標に変換するステップS2と、
視覚的画像の線特徴を抽出するステップS3と、
平均視差法及び質量追跡法によって、視覚的画像から現在のキーフレームを抽出するステップS4と、
抽出されたキーポイントの特徴及び線特徴を用いて、視覚的画像の隣接フレームに対して特徴マッチングを行い、ICPアルゴリズムを用いて機器の移動の姿勢を推定するステップS5と、
推定した移動の姿勢について局所的最適化を行い、姿勢を出力するステップS6と、を含む。
視覚的画像をグレースケールに変換してグレースケール画像を得て、グレースケール画像についてガウシアンピラミッドを作成し、ガウシアンピラミッドの各層の画像のスケール因子に従って各層の画像の特徴点の数を決定し、特徴点の数に応じてキーポイントを抽出するステップS201と、
グレースケール重心法を利用して、以下の計算式
キーポイントのBRIEF記述子を算出して、BRIEF記述子を用いて特徴点を並べ替え、BRIEF記述子の算出過程としては、Pをキーポイントとして、キーポイントPの周囲からN個の点対を選択し、N個の点対をP1(A,B)、P2(A,B)、PN(A,B)として組み合わせて記述子とし、ここで、A及びBは1つの点対の2つの画素点を表し、AのグレースケールがBよりも大きい場合、値が1であり、逆の場合は、0であるステップS203と、
深度カメラを用いて測定した視覚的画像の深度を利用して、キーポイントの画素座標を三次元座標に変換するステップS204と、を含む。
線分検出器LSDで視覚的画像のグレースケール図についてリニアカットを行い、視覚的画像上の線分S={Si,i=1,2,3,…,}(ここで、Si=[Ai,Bi]、Ai、Biはそれぞれ線分の2つの端点の画素座標である。)を抽出するステップS301と、
サンプリング点の数を設定して、線分Sについてサンプリングし、サンプリングにより得られた点を対応する深度及びカメラの内部パラメータ行列で空間三次元座標に変換し、ここで、サンプリング点の数はn
ランダムサンプリング一貫性方法でサンプリング点のうちの誤差点を除去し、誤差点を除去された点集合を得てn’とし、点集合n’のうちの点について直線フィッティングを行い、点集合n’における点を選択してフィッティング直線までのマハラノビス距離を算出し、最適3D点を得て、最適3D点を用いて直線をフィッティングするステップS303と、を含む。
誤差を除去されたサンプリング点の数と元のサンプリング点の数との比が所定のしきい値よりも大きい場合、サンプリング点のマハラノビス距離を、計算式
前記質量追跡法は、現在の視覚的画像フレームが追跡する特徴点の数が所定の数のしきい値未満であると、現在の視覚的画像フレームをキーフレームとして設定することである。
マッチング中、線特徴が検出されておらず、点特徴だけが検出された場合、検出された点を3D点に変換して、ICPアルゴリズムによってカメラ移動を推定するステップと、
マッチング中、特徴点が検出されておらず、線特徴だけが検出された場合、検出された線から点をランダムに選択し、選択された点についてICPアルゴリズムによってカメラ移動を推定するステップと、
マッチング中、点特徴と線特徴の両方が検出された場合、検出した点についてICPアルゴリズムによってカメラ移動を推定するステップと、を含む。
本発明では、視覚的画像の点特徴と線特徴をそれぞれ抽出し、点特徴と線特徴のマッチングに応じてキーフレームを選択することにより、特徴点の少ないシーンや高速移動の場合は、ドローンに特徴の誤マッチング、特徴点ロスにより、姿勢の推定の正確性が不十分になるという上記従来技術の欠点を解決し、姿勢推定の正確性を高める。
図1に示すように、深度点線特徴に基づくドローン視覚走行距離計方法は、ステップS1〜S6を含む。
特定の実施例では、ros(ロボット操作システム)のcamera_calibration機能パケットを用いて深度カメラのキャリブレーションを行い、カメラの内部パラメータ行列(fx、fy、cx、cy)及び外部パラメータ(歪み係数)を取得する。
より具体的には、ステップS2は、具体的には、ステップS201〜S204を含む。
S201:視覚的画像をグレースケールに変換してグレースケール画像を得て、グレースケール画像についてガウシアンピラミッドを作成し、ガウシアンピラミッドの各層の画像のスケール因子に従って各層の画像の特徴点の数を決定し、特徴点の数に応じてキーポイントを抽出する。
なお、特定の実施例では、前記ガウシアンピラミッドは7層、前記キーポイントはfastキーポイントであるようにしてもよい。
S202:グレースケール重心法を利用して、計算式
S203:キーポイントのBRIEF記述子を算出して、BRIEF記述子を用いて特徴点を並べ替え、密集点を削除して、特徴点を均一に分布させ、マッチングを行う。記述子を算出する際に、具体的には、Pをキーポイントとして、キーポイントPの周囲からN個の点対を選択し、N個の点対を、P1(A,B)、P2(A,B)、PN(A,B)として組み合わせて記述子とし、ここで、A及びBは1つの点対の2つの画素点を表し、AのグレースケールがBよりも大きい場合、値が1であり、逆の場合は、0である。
S204:深度カメラを用いて測定した視覚的画像の深度を利用して、キーポイントの画素座標を三次元座標に変換する。計算式は以下に示される。
ステップS3の線特徴の抽出は、具体的には、
線分検出器LSDで視覚的画像のグレースケール図についてリニアカットを行い、視覚的画像上の線分S={Si,i=1,2,3,…,}(ここで、Si=[Ai,Bi]、Ai、Biはそれぞれ線分の2つの端点の画素座標である。)を抽出するステップS301と、
サンプリング点の数を設定して、線分Sについてサンプリングし、サンプリングにより得られた点を対応する深度及びカメラの内部パラメータ行列で空間三次元座標に変換し、ここで、サンプリング点の数はn
ランダムサンプリング一貫性方法でサンプリング点のうちの誤差点を除去し、誤差点を除去された点集合を得てn’とし、点集合n’のうちの点について直線フィッティングを行い、点集合n’における点を選択してフィッティング直線までのマハラノビス距離を算出し、最適3D点を得て、最適3D点を用いて直線をフィッティングするステップS303と、を含む。
さらに、マハラノビス距離の式を用いて最適3D点を得ることは、具体的には、
誤差を除去されたサンプリング点の数と元のサンプリング点の数との比が所定のしきい値よりも大きい場合、サンプリング点のマハラノビス距離を、計算式
ステップS4の前記平均視差法は、現在の視覚的画像フレームと前のキーフレームの前に追跡した特徴点の平均視差がしきい値Tを超えると、現在の視覚的画像フレームを新しいキーフレームとすることであり、
前記質量追跡法は、現在の視覚的画像フレームが追跡する特徴点の数が所定の数のしきい値未満であると、現在の視覚的画像フレームをキーフレームとして設定することである。
ステップS5では、抽出されたキーポイントの特徴及び線特徴を用いて、視覚的画像の隣接フレームに対して特徴マッチングを行い、ICPアルゴリズムを用いて機器の移動の姿勢を推定することは、具体的には、
マッチング中、線特徴が検出されておらず、点特徴だけが検出された場合、検出された点を3D点に変換して、ICPアルゴリズムによってカメラ移動を推定するステップと、
マッチング中、特徴点が検出されておらず、線特徴だけが検出された場合、検出された線から点をランダムに選択し、選択された点についてICPアルゴリズムによってカメラ移動を推定するステップと、
マッチング中、点特徴と線特徴の両方が検出された場合、検出した点についてICPアルゴリズムによってカメラ移動を推定するステップと、を含む。
より具体的には、ステップS6では、前記推定した移動の姿勢について局所的最適化を行う際に、スライドウィンドウの姿勢図を用いて最適化を行い、具体的には、スライドウィンドウのサイズをMフレーム(Mは正整数)とし、Mフレームの姿勢に対して局所的な非線形最適化を行うたびに、最小二乗モデルを作成し、深度カメラの観察画素値、内部パラメータ行列を用いて、レーベンバーグ・マルカート法により最適姿勢を求める。
最小二乗モデル
Claims (7)
- 深度点線特徴に基づくドローン視覚走行距離計方法であって、
深度カメラのキャリブレーションを行い、深度カメラの内部パラメータ行列及び歪み係数を取得するステップS1と、
深度カメラを用いて視覚的画像を取得し、視覚的画像のキーポイントの特徴を抽出し、キーポイントの画素座標を三次元座標に変換するステップS2と、
視覚的画像の線特徴を抽出するステップS3と、
平均視差法及び質量追跡法によって、視覚的画像から現在のキーフレームを抽出するステップS4と、
抽出されたキーポイントの特徴及び線特徴を用いて、視覚的画像の隣接フレームに対して特徴マッチングを行い、ICPアルゴリズムを用いて機器の移動の姿勢を推定するステップS5と、
推定した移動の姿勢について局所的最適化を行い、姿勢を出力するステップS6と、を含む、ことを特徴とする深度点線特徴に基づくドローン視覚走行距離計方法。 - ステップS2は、具体的には、
視覚的画像をグレースケールに変換してグレースケール画像を得て、グレースケール画像についてガウシアンピラミッドを作成し、ガウシアンピラミッドの各層の画像のスケール因子に従って各層の画像の特徴点の数を決定し、特徴点の数に応じてキーポイントを抽出するステップS201と、
グレースケール重心法を利用して、以下の計算式
キーポイントのBRIEF記述子を算出して、BRIEF記述子を用いて特徴点を並べ替え、BRIEF記述子の算出過程としては、Pをキーポイントとして、キーポイントPの周囲からN個の点対を選択し、N個の点対をP1(A,B)、P2(A,B)、PN(A,B)として組み合わせて記述子とし、ここで、A及びBは1つの点対の2つの画素点を表し、AのグレースケールがBよりも大きい場合、値が1であり、逆の場合は、0であるステップS203と、
深度カメラを用いて測定した視覚的画像の深度を利用して、キーポイントの画素座標を三次元座標に変換するステップS204と、を含む、ことを特徴とする請求項1に記載の深度点線特徴に基づくドローン視覚走行距離計方法。 - ステップS3の線特徴の抽出は、具体的には、
線分検出器LSDで視覚的画像のグレースケール図についてリニアカットを行い、視覚的画像上の線分S={Si,i=1,2,3,…,}(ここで、Si=[Ai,Bi]、Ai、Biはそれぞれ線分の2つの端点の画素座標である。)を抽出するステップS301と、
サンプリング点の数を設定して、線分Sについてサンプリングし、サンプリングにより得られた点を対応する深度及びカメラの内部パラメータ行列で空間三次元座標に変換し、ここで、サンプリング点の数はn
ランダムサンプリング一貫性方法でサンプリング点のうちの誤差点を除去し、誤差点を除去された点集合を得てn’とし、点集合n’のうちの点について直線フィッティングを行い、点集合n’における点を選択してフィッティング直線までのマハラノビス距離を算出し、最適3D点を得て、最適3D点を用いて直線をフィッティングするステップS303と、を含む、ことを特徴とする請求項1に記載の深度点線特徴に基づくドローン視覚走行距離計方法。 - ステップS4の前記平均視差法は、現在の視覚的画像フレームと前のキーフレームの前に追跡した特徴点の平均視差がしきい値Tを超えると、現在の視覚的画像フレームを新しいキーフレームとすることであり、
前記質量追跡法は、現在の視覚的画像フレームが追跡する特徴点の数が所定の数のしきい値未満であると、現在の視覚的画像フレームをキーフレームとして設定することである、ことを特徴とする請求項1に記載の深度点線特徴に基づくドローン視覚走行距離計方法。 - ステップS5では、抽出されたキーポイントの特徴及び線特徴を用いて、視覚的画像の隣接フレームに対して特徴マッチングを行い、ICPアルゴリズムを用いて機器の移動の姿勢を推定することは、具体的には、
マッチング中、線特徴が検出されておらず、点特徴だけが検出された場合、検出された点を3D点に変換して、ICPアルゴリズムによってカメラ移動を推定するステップと、
マッチング中、特徴点が検出されておらず、線特徴だけが検出された場合、検出された線から点をランダムに選択し、選択された点についてICPアルゴリズムによってカメラ移動を推定するステップと、
マッチング中、点特徴と線特徴の両方が検出された場合、検出した点についてICPアルゴリズムによってカメラ移動を推定するステップと、を含む、ことを特徴とする請求項1に記載の深度点線特徴に基づくドローン視覚走行距離計方法。 - ステップS6では、前記推定した移動の姿勢について局所的最適化を行う際に、スライドウィンドウの姿勢図を用いて最適化を行い、具体的には、スライドウィンドウのサイズをMフレーム(Mは正整数)とし、Mフレームの姿勢に対して局所的な非線形最適化を行うたびに、最小二乗モデルを作成し、深度カメラの観察画素値、内部パラメータ行列を用いて、レーベンバーグ・マルカート法により最適姿勢を求める、ことを特徴とする請求項1に記載の深度点線特徴に基づくドローン視覚走行距離計方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911122317.1A CN111047620A (zh) | 2019-11-15 | 2019-11-15 | 一种基于深度点线特征的无人机视觉里程计方法 |
CN201911122317.1 | 2019-11-15 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6852936B1 JP6852936B1 (ja) | 2021-03-31 |
JP2021082265A true JP2021082265A (ja) | 2021-05-27 |
Family
ID=70232109
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020168211A Active JP6852936B1 (ja) | 2019-11-15 | 2020-10-05 | 深度点線特徴に基づくドローン視覚走行距離計方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6852936B1 (ja) |
CN (1) | CN111047620A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022239827A1 (ja) | 2021-05-14 | 2022-11-17 | テルモ株式会社 | 止血器具 |
CN116524026A (zh) * | 2023-05-08 | 2023-08-01 | 哈尔滨理工大学 | 一种基于频域和语义的动态视觉slam方法 |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111540016B (zh) * | 2020-04-27 | 2023-11-10 | 深圳南方德尔汽车电子有限公司 | 基于图像特征匹配的位姿计算方法、装置、计算机设备及存储介质 |
CN112070175A (zh) * | 2020-09-04 | 2020-12-11 | 湖南国科微电子股份有限公司 | 视觉里程计方法、装置、电子设备及存储介质 |
CN112414431B (zh) * | 2020-11-18 | 2023-05-12 | 的卢技术有限公司 | 一种鲁棒的车载多传感器外参标定方法 |
CN113052908B (zh) * | 2021-04-16 | 2023-08-04 | 南京工业大学 | 一种基于多传感器数据融合的移动机器人位姿估计算法 |
CN113222838A (zh) * | 2021-05-07 | 2021-08-06 | 国网山西省电力公司吕梁供电公司 | 基于视觉定位的无人机自主巡线方法 |
CN113688816B (zh) * | 2021-07-21 | 2023-06-23 | 上海工程技术大学 | 一种改进orb特征点提取的视觉里程计的计算方法 |
CN113793355B (zh) * | 2021-09-13 | 2022-12-16 | 中国铁路设计集团有限公司 | 无人机影像铁路钢轨顶面中心线自动匹配方法 |
CN113837277B (zh) * | 2021-09-24 | 2022-11-18 | 东南大学 | 一种基于视觉点线特征优化的多源融合slam系统 |
CN114018214A (zh) * | 2021-10-18 | 2022-02-08 | 武汉理工大学 | 一种基于硬件加速系统的标志物双目亚像素测距方法 |
CN114199205B (zh) * | 2021-11-16 | 2023-09-05 | 河北大学 | 基于改进四叉树orb算法的双目测距方法 |
CN114393575B (zh) * | 2021-12-17 | 2024-04-02 | 重庆特斯联智慧科技股份有限公司 | 基于用户姿势高效能识别的机器人控制方法和系统 |
CN114663509B (zh) * | 2022-03-23 | 2022-09-27 | 北京科技大学 | 一种关键点热力图引导的自监督单目视觉里程计方法 |
CN115690205B (zh) * | 2022-10-09 | 2023-12-05 | 北京自动化控制设备研究所 | 基于点线综合特征的视觉相对位姿测量误差估计方法 |
CN116067360B (zh) * | 2023-01-09 | 2023-08-22 | 安徽工程大学 | 一种基于双重约束的机器人地图构建方法、存储介质及设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012526335A (ja) * | 2009-05-12 | 2012-10-25 | トヨタ自動車株式会社 | 物体認識方法、物体認識装置、自律移動ロボット |
JP2019011971A (ja) * | 2017-06-29 | 2019-01-24 | 株式会社東芝 | 推定システムおよび自動車 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108053445A (zh) * | 2017-12-08 | 2018-05-18 | 中南大学 | 特征融合的rgb-d相机运动估计方法 |
CN109974743B (zh) * | 2019-03-14 | 2021-01-01 | 中山大学 | 一种基于gms特征匹配及滑动窗口位姿图优化的视觉里程计 |
CN109993113B (zh) * | 2019-03-29 | 2023-05-02 | 东北大学 | 一种基于rgb-d和imu信息融合的位姿估计方法 |
CN110345944A (zh) * | 2019-05-27 | 2019-10-18 | 浙江工业大学 | 融合视觉特征和imu信息的机器人定位方法 |
CN110319772B (zh) * | 2019-07-12 | 2020-12-15 | 上海电力大学 | 基于无人机的视觉大跨度测距方法 |
-
2019
- 2019-11-15 CN CN201911122317.1A patent/CN111047620A/zh active Pending
-
2020
- 2020-10-05 JP JP2020168211A patent/JP6852936B1/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012526335A (ja) * | 2009-05-12 | 2012-10-25 | トヨタ自動車株式会社 | 物体認識方法、物体認識装置、自律移動ロボット |
JP2019011971A (ja) * | 2017-06-29 | 2019-01-24 | 株式会社東芝 | 推定システムおよび自動車 |
Non-Patent Citations (1)
Title |
---|
友納 正裕: "エッジ点追跡に基づくステレオカメラを用いた三次元SLAM", 日本ロボット学会誌, vol. 27, no. 7, JPN6021005567, 15 September 2009 (2009-09-15), JP, pages 759 - 767, ISSN: 0004447758 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022239827A1 (ja) | 2021-05-14 | 2022-11-17 | テルモ株式会社 | 止血器具 |
CN116524026A (zh) * | 2023-05-08 | 2023-08-01 | 哈尔滨理工大学 | 一种基于频域和语义的动态视觉slam方法 |
CN116524026B (zh) * | 2023-05-08 | 2023-10-27 | 哈尔滨理工大学 | 一种基于频域和语义的动态视觉slam方法 |
Also Published As
Publication number | Publication date |
---|---|
JP6852936B1 (ja) | 2021-03-31 |
CN111047620A (zh) | 2020-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6852936B1 (ja) | 深度点線特徴に基づくドローン視覚走行距離計方法 | |
CN110349250B (zh) | 一种基于rgbd相机的室内动态场景的三维重建方法 | |
CN112785702A (zh) | 一种基于2d激光雷达和双目相机紧耦合的slam方法 | |
JP5297403B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、プログラムおよび記憶媒体 | |
CN110807809B (zh) | 基于点线特征和深度滤波器的轻量级单目视觉定位方法 | |
CN111833333A (zh) | 一种基于双目视觉的悬臂式掘进装备位姿测量方法及系统 | |
CN111260773B (zh) | 小障碍物的三维重建方法、检测方法及检测系统 | |
CN109840922B (zh) | 基于双目光场相机的深度获取方法和系统 | |
CN107300382B (zh) | 一种用于水下机器人的单目视觉定位方法 | |
CN111260715B (zh) | 深度图的处理方法、小障碍物检测方法及系统 | |
CN116222543B (zh) | 用于机器人环境感知的多传感器融合地图构建方法及系统 | |
CN111998862A (zh) | 一种基于bnn的稠密双目slam方法 | |
Giubilato et al. | Scale correct monocular visual odometry using a lidar altimeter | |
Kostavelis et al. | Visual odometry for autonomous robot navigation through efficient outlier rejection | |
CN114627491A (zh) | 一种基于极线汇聚的单人三维姿态估计方法 | |
Ann et al. | Study on 3D scene reconstruction in robot navigation using stereo vision | |
CN114022798A (zh) | 一种基于数字孪生技术的变电站巡检机器人避障方法 | |
CN112017259B (zh) | 一种基于深度相机与热像仪的室内定位与建图方法 | |
CN108648219A (zh) | 一种基于双目的障碍物与可行区域检测方法 | |
CN110570473A (zh) | 一种基于点线融合的权重自适应位姿估计方法 | |
CN116128966A (zh) | 一种基于环境物体的语义定位方法 | |
CN113203407B (zh) | 基于关键平面的视觉惯性里程计方法 | |
Suzuki et al. | Spatial model for capturing size and shape of object from point cloud data for robot vision system with LIDAR sensors | |
Su et al. | Fast detection method of checkerboard corners based on the combination of template matching and Harris Operator | |
Yang et al. | Real-time 3D Reconstruction of Aerial Transmission Lines |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201005 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20201005 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210203 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210224 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210304 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6852936 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |