JP2021082265A - 深度点線特徴に基づくドローン視覚走行距離計方法 - Google Patents

深度点線特徴に基づくドローン視覚走行距離計方法 Download PDF

Info

Publication number
JP2021082265A
JP2021082265A JP2020168211A JP2020168211A JP2021082265A JP 2021082265 A JP2021082265 A JP 2021082265A JP 2020168211 A JP2020168211 A JP 2020168211A JP 2020168211 A JP2020168211 A JP 2020168211A JP 2021082265 A JP2021082265 A JP 2021082265A
Authority
JP
Japan
Prior art keywords
points
point
feature
visual image
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020168211A
Other languages
English (en)
Other versions
JP6852936B1 (ja
Inventor
仁全 魯
Renquan Lu
仁全 魯
偉 孟
Wei Meng
偉 孟
倩倩 蔡
Qianqian Cai
倩倩 蔡
彬 邱
Bin Qiu
彬 邱
鴻一 李
Hongyi Li
鴻一 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Application granted granted Critical
Publication of JP6852936B1 publication Critical patent/JP6852936B1/ja
Publication of JP2021082265A publication Critical patent/JP2021082265A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform

Abstract

【課題】深度点線特徴に基づくドローン視覚走行距離計方法を提供する。【解決手段】ドローン視覚走行距離計方法は、深度カメラのキャリブレーションを行い、深度カメラの内部パラメータ行列及び歪み係数を取得するステップS1と、深度カメラを用いて視覚的画像を取得し、視覚的画像のキーポイントの特徴を抽出し、キーポイントの画素座標を三次元座標に変換するステップS2と、視覚的画像の線特徴を抽出するステップS3と、平均視差法及び質量追跡法によって、視覚的画像から現在のキーフレームを抽出するステップS4と、抽出されたキーポイントの特徴及び線特徴を用いて、視覚的画像の隣接フレームに対して特徴マッチングを行い、ICPアルゴリズムを用いて機器の移動の姿勢を推定するステップS5と、推定した移動の姿勢について局所的最適化を行い、姿勢を出力するステップS6と、を含む。本発明は、ドローンの姿勢推定の正確度を高める。【選択図】図1

Description

本発明は、ロボット視覚の技術分野に関し、より具体的には、深度点線特徴に基づくドローン視覚走行距離計方法に関する。
ロボットは、GPSのない未知の環境では、センサ(例えばレーザ、カメラなど)を通じて収集した距離や画像などの情報に基づいてロボットの移動を推定し地図を作成することによって、未知の区域で自由に移動することができ、それは、SLAM(Simultaneous Localization and Mapping)である。ここ数十年の間、SLAMはロボットの分野で最も盛んに研究されており、軍事や民間用のさまざまな分野、たとえばロボット掃除機、グリッド巡視・監督用ドローンなどに使用されている。センサによってレーザSLAMと視覚SLAMに分けられる。視覚SLAMでは、たとえば、ORB SLAM(特徴点検出手法の代表例)、VINS−MONO(オプティカルフロー法による追跡及びIMU融合)、RGBD SLAMなど、多くの優れたアルゴリズムがオープンソースになっている。
レーザSLAMは、現在非常に成熟しており、広く実用されている。ただし、レーザSLAMに比べて、視覚SLAMはカメラが低価であり、より多くの情報を収集できることから、研究者たちの注目を集めているが、もちろん、視覚的画像には多くの無用な情報があることにより、処理の難度を上げ、大量の計算資源をしめてしまう。特徴点に基づくSLAMは、特徴点の算出に時間がかかるため、実際にはあまり適用されていない。従来の特徴点に基づくSLAMアルゴリズムでは、カメラで抽出された特徴点が外部環境の影響(たとえば、動的環境、明らかな光の変化がある屋外、特徴点の少ない平坦な壁や天井など)を受けるため、システムによる特徴点追跡が失敗しやすく、誤マッチングや特徴ロスの状況がよくあり、その結果、SLAMシステム全体の精度が低下し、深刻な場合は作動できなくなる。
現在、特徴点の少ないシーンや高速移動の場合は、ドローンに特徴の誤マッチング、特徴点ロスという欠陥が発生しやすく、その結果、姿勢推定の正確性が不十分になる。
本発明は、特徴点の少ないシーンや高速移動の場合は、ドローンに特徴の誤マッチング、特徴点ロスにより、姿勢推定の正確性が不十分になるという上記従来技術の欠点を解決するために、深度点線特徴に基づくドローン視覚走行距離計方法を提供する。
本発明の第1の目的は、上記技術的課題を解決することであり、本発明の技術案は、以下のとおりである。
深度点線特徴に基づくドローン視覚走行距離計方法であって、
深度カメラのキャリブレーションを行い、深度カメラの内部パラメータ行列及び歪み係数を取得するステップS1と、
深度カメラを用いて視覚的画像を取得し、視覚的画像のキーポイントの特徴を抽出し、キーポイントの画素座標を三次元座標に変換するステップS2と、
視覚的画像の線特徴を抽出するステップS3と、
平均視差法及び質量追跡法によって、視覚的画像から現在のキーフレームを抽出するステップS4と、
抽出されたキーポイントの特徴及び線特徴を用いて、視覚的画像の隣接フレームに対して特徴マッチングを行い、ICPアルゴリズムを用いて機器の移動の姿勢を推定するステップS5と、
推定した移動の姿勢について局所的最適化を行い、姿勢を出力するステップS6と、を含む。
さらに、ステップS2は、具体的には、
視覚的画像をグレースケールに変換してグレースケール画像を得て、グレースケール画像についてガウシアンピラミッドを作成し、ガウシアンピラミッドの各層の画像のスケール因子に従って各層の画像の特徴点の数を決定し、特徴点の数に応じてキーポイントを抽出するステップS201と、
グレースケール重心法を利用して、以下の計算式
Figure 2021082265
(式中、fはグレースケール値であり、画素グレースケール値がしきい値T未満である場合、0であり、しきい値Tよりも大きい場合、fである。)によりキーポイントの重心画素座標を算出するステップS202と、
キーポイントのBRIEF記述子を算出して、BRIEF記述子を用いて特徴点を並べ替え、BRIEF記述子の算出過程としては、Pをキーポイントとして、キーポイントPの周囲からN個の点対を選択し、N個の点対をP1(A,B)、P2(A,B)、PN(A,B)として組み合わせて記述子とし、ここで、A及びBは1つの点対の2つの画素点を表し、AのグレースケールがBよりも大きい場合、値が1であり、逆の場合は、0であるステップS203と、
深度カメラを用いて測定した視覚的画像の深度を利用して、キーポイントの画素座標を三次元座標に変換するステップS204と、を含む。
さらに、ステップS3の線特徴の抽出は、具体的には、
線分検出器LSDで視覚的画像のグレースケール図についてリニアカットを行い、視覚的画像上の線分S={Si,i=1,2,3,…,}(ここで、S=[Ai,]、A、Bはそれぞれ線分の2つの端点の画素座標である。)を抽出するステップS301と、
サンプリング点の数を設定して、線分Sについてサンプリングし、サンプリングにより得られた点を対応する深度及びカメラの内部パラメータ行列で空間三次元座標に変換し、ここで、サンプリング点の数はn
Figure 2021082265
S長さ以下の最大整数である、ステップS302と、
ランダムサンプリング一貫性方法でサンプリング点のうちの誤差点を除去し、誤差点を除去された点集合を得てn’とし、点集合n’のうちの点について直線フィッティングを行い、点集合n’における点を選択してフィッティング直線までのマハラノビス距離を算出し、最適3D点を得て、最適3D点を用いて直線をフィッティングするステップS303と、を含む。
さらに、マハラノビス距離の式を用いて最適3D点を得ることは、具体的には、
誤差を除去されたサンプリング点の数と元のサンプリング点の数との比が所定のしきい値よりも大きい場合、サンプリング点のマハラノビス距離を、計算式
Figure 2021082265
Q=A+ω(B−A)をマハラノビス距離の計算式に代入し、
Figure 2021082265
ωの最適解を代入すると、マハラノビス距離の最適解を得る。
さらに、ステップS4の前記平均視差法は、現在の視覚的画像フレームと前のキーフレームの前に追跡した特徴点の平均視差がしきい値Tを超えると、現在の視覚的画像フレームを新しいキーフレームとすることであり、
前記質量追跡法は、現在の視覚的画像フレームが追跡する特徴点の数が所定の数のしきい値未満であると、現在の視覚的画像フレームをキーフレームとして設定することである。
さらに、ステップS5では、抽出されたキーポイントの特徴及び線特徴を用いて、視覚的画像の隣接フレームに対して特徴マッチングを行い、ICPアルゴリズムを用いて機器の移動の姿勢を推定することは、具体的には、
マッチング中、線特徴が検出されておらず、点特徴だけが検出された場合、検出された点を3D点に変換して、ICPアルゴリズムによってカメラ移動を推定するステップと、
マッチング中、特徴点が検出されておらず、線特徴だけが検出された場合、検出された線から点をランダムに選択し、選択された点についてICPアルゴリズムによってカメラ移動を推定するステップと、
マッチング中、点特徴と線特徴の両方が検出された場合、検出した点についてICPアルゴリズムによってカメラ移動を推定するステップと、を含む。
さらに、ステップS6では、前記推定した移動の姿勢について局所的最適化を行う際に、スライドウィンドウの姿勢図を用いて最適化を行い、具体的には、スライドウィンドウのサイズをMフレーム(Mは正整数)とし、Mフレームの姿勢に対して局所的な非線形最適化を行うたびに、最小二乗モデルを作成し、深度カメラの観察画素値、内部パラメータ行列を用いて、レーベンバーグ・マルカート法により最適姿勢を求める。
従来技術に比べて、本発明の技術案の有益な効果は以下のとおりである。
本発明では、視覚的画像の点特徴と線特徴をそれぞれ抽出し、点特徴と線特徴のマッチングに応じてキーフレームを選択することにより、特徴点の少ないシーンや高速移動の場合は、ドローンに特徴の誤マッチング、特徴点ロスにより、姿勢の推定の正確性が不十分になるという上記従来技術の欠点を解決し、姿勢推定の正確性を高める。
本発明の方法のフローチャートである。
本発明の上記目的、特徴及び利点をより明瞭に理解できるように、以下、図面及び特定の実施形態を参照しながら本発明をさらに詳細に説明する。なお、矛盾しない限り、本願の実施例及び実施例における特徴を互いに組み合わせることができる。
以下の説明において、本発明を十分に理解するために多くの詳細を記載するが、本発明はここで説明するものと異なる別の形態で実施してもよく、したがって、本発明の特許範囲は以下で開示する特定の実施例により制限されない。
実施例1
図1に示すように、深度点線特徴に基づくドローン視覚走行距離計方法は、ステップS1〜S6を含む。
S1:深度カメラのキャリブレーションを行い、深度カメラの内部パラメータ行列及び歪み係数を取得する。
特定の実施例では、ros(ロボット操作システム)のcamera_calibration機能パケットを用いて深度カメラのキャリブレーションを行い、カメラの内部パラメータ行列(f、f、c、c)及び外部パラメータ(歪み係数)を取得する。
S2:深度カメラを用いて視覚的画像を取得し、視覚的画像のキーポイントの特徴を抽出し、キーポイントの画素座標を三次元座標に変換する。
より具体的には、ステップS2は、具体的には、ステップS201〜S204を含む。
S201:視覚的画像をグレースケールに変換してグレースケール画像を得て、グレースケール画像についてガウシアンピラミッドを作成し、ガウシアンピラミッドの各層の画像のスケール因子に従って各層の画像の特徴点の数を決定し、特徴点の数に応じてキーポイントを抽出する。
なお、特定の実施例では、前記ガウシアンピラミッドは7層、前記キーポイントはfastキーポイントであるようにしてもよい。
S202:グレースケール重心法を利用して、計算式
Figure 2021082265
(式中、fはグレースケール値であり、画素グレースケール値がしきい値T未満である場合、0であり、しきい値Tよりも大きい場合、fである。)によりキーポイントの重心画素座標を算出する。
S203:キーポイントのBRIEF記述子を算出して、BRIEF記述子を用いて特徴点を並べ替え、密集点を削除して、特徴点を均一に分布させ、マッチングを行う。記述子を算出する際に、具体的には、Pをキーポイントとして、キーポイントPの周囲からN個の点対を選択し、N個の点対を、P1(A,B)、P2(A,B)、PN(A,B)として組み合わせて記述子とし、ここで、A及びBは1つの点対の2つの画素点を表し、AのグレースケールがBよりも大きい場合、値が1であり、逆の場合は、0である。
S204:深度カメラを用いて測定した視覚的画像の深度を利用して、キーポイントの画素座標を三次元座標に変換する。計算式は以下に示される。
Figure 2021082265
(式中、uは画素の横座標、vは画素の縦座標、dは視覚的画像の深度、Pはキーポイントを表し、(f、f、c、c)は深度カメラの内部パラメータ行列である。)
S3:視覚的画像の線特徴を抽出する。
ステップS3の線特徴の抽出は、具体的には、
線分検出器LSDで視覚的画像のグレースケール図についてリニアカットを行い、視覚的画像上の線分S={Si,i=1,2,3,…,}(ここで、S=[Ai,]、A、Bはそれぞれ線分の2つの端点の画素座標である。)を抽出するステップS301と、
サンプリング点の数を設定して、線分Sについてサンプリングし、サンプリングにより得られた点を対応する深度及びカメラの内部パラメータ行列で空間三次元座標に変換し、ここで、サンプリング点の数はn
Figure 2021082265
S長さ以下の最大整数である、ステップS302と、
ランダムサンプリング一貫性方法でサンプリング点のうちの誤差点を除去し、誤差点を除去された点集合を得てn’とし、点集合n’のうちの点について直線フィッティングを行い、点集合n’における点を選択してフィッティング直線までのマハラノビス距離を算出し、最適3D点を得て、最適3D点を用いて直線をフィッティングするステップS303と、を含む。
さらに、マハラノビス距離の式を用いて最適3D点を得ることは、具体的には、
誤差を除去されたサンプリング点の数と元のサンプリング点の数との比が所定のしきい値よりも大きい場合、サンプリング点のマハラノビス距離を、計算式
Figure 2021082265
Q=A+ω(B−A)をマハラノビス距離の計算式に代入し、
Figure 2021082265
ωの最適解を代入すると、マハラノビス距離の最適解を得る。
S4:平均視差法及び質量追跡法によって、視覚的画像から現在のキーフレームを抽出する。
ステップS4の前記平均視差法は、現在の視覚的画像フレームと前のキーフレームの前に追跡した特徴点の平均視差がしきい値Tを超えると、現在の視覚的画像フレームを新しいキーフレームとすることであり、
前記質量追跡法は、現在の視覚的画像フレームが追跡する特徴点の数が所定の数のしきい値未満であると、現在の視覚的画像フレームをキーフレームとして設定することである。
S5:抽出されたキーポイントの特徴及び線特徴を用いて、視覚的画像の隣接フレームに対して特徴マッチングを行い、ICPアルゴリズムを用いて機器の移動の姿勢を推定する。
ステップS5では、抽出されたキーポイントの特徴及び線特徴を用いて、視覚的画像の隣接フレームに対して特徴マッチングを行い、ICPアルゴリズムを用いて機器の移動の姿勢を推定することは、具体的には、
マッチング中、線特徴が検出されておらず、点特徴だけが検出された場合、検出された点を3D点に変換して、ICPアルゴリズムによってカメラ移動を推定するステップと、
マッチング中、特徴点が検出されておらず、線特徴だけが検出された場合、検出された線から点をランダムに選択し、選択された点についてICPアルゴリズムによってカメラ移動を推定するステップと、
マッチング中、点特徴と線特徴の両方が検出された場合、検出した点についてICPアルゴリズムによってカメラ移動を推定するステップと、を含む。
S6:推定した移動の姿勢について局所的最適化を行い、姿勢を出力する。
より具体的には、ステップS6では、前記推定した移動の姿勢について局所的最適化を行う際に、スライドウィンドウの姿勢図を用いて最適化を行い、具体的には、スライドウィンドウのサイズをMフレーム(Mは正整数)とし、Mフレームの姿勢に対して局所的な非線形最適化を行うたびに、最小二乗モデルを作成し、深度カメラの観察画素値、内部パラメータ行列を用いて、レーベンバーグ・マルカート法により最適姿勢を求める。
たとえば、現在のキーフレームのシーケンスが{k1,k2,…,k10}である場合、キーフレームk11が追加されると、最も前のフレームk1を捨てて、そうすると、スライドウィンドウのフレームシーケンスは{k2,k3,…,k11}になり、この10フレームの姿勢について局所的非線形最適化を行うたびに、
最小二乗モデル
Figure 2021082265
kはステップ1でキャリブレーションされたカメラの内部パラメータ行列であり、ξは求める姿勢のリー代数表現である。)を作成し、レーベンバーグ・マルカート法により最適姿勢を求める。
もちろん、本発明の上記実施例は、本発明を明瞭に説明するために例示するものに過ぎず、本発明の実施形態を限定するものではない。当業者であれば、上記説明に基づいてさまざまな形態の変化や変更を行うことができる。ここでは、すべての実施形態を挙げる必要がなく、またすべての実施形態を挙げることが不可能なことである。本発明の主旨及び原則を逸脱することなく行われるすべての修正、等同な置換や改良などは、本発明の特許請求の範囲の特許範囲に含まれるものとする。

Claims (7)

  1. 深度点線特徴に基づくドローン視覚走行距離計方法であって、
    深度カメラのキャリブレーションを行い、深度カメラの内部パラメータ行列及び歪み係数を取得するステップS1と、
    深度カメラを用いて視覚的画像を取得し、視覚的画像のキーポイントの特徴を抽出し、キーポイントの画素座標を三次元座標に変換するステップS2と、
    視覚的画像の線特徴を抽出するステップS3と、
    平均視差法及び質量追跡法によって、視覚的画像から現在のキーフレームを抽出するステップS4と、
    抽出されたキーポイントの特徴及び線特徴を用いて、視覚的画像の隣接フレームに対して特徴マッチングを行い、ICPアルゴリズムを用いて機器の移動の姿勢を推定するステップS5と、
    推定した移動の姿勢について局所的最適化を行い、姿勢を出力するステップS6と、を含む、ことを特徴とする深度点線特徴に基づくドローン視覚走行距離計方法。
  2. ステップS2は、具体的には、
    視覚的画像をグレースケールに変換してグレースケール画像を得て、グレースケール画像についてガウシアンピラミッドを作成し、ガウシアンピラミッドの各層の画像のスケール因子に従って各層の画像の特徴点の数を決定し、特徴点の数に応じてキーポイントを抽出するステップS201と、
    グレースケール重心法を利用して、以下の計算式
    Figure 2021082265
    (式中、fはグレースケール値であり、画素グレースケール値がしきい値T未満である場合、0であり、しきい値Tよりも大きい場合、fである。)によりキーポイントの重心画素座標を算出するステップS202と、
    キーポイントのBRIEF記述子を算出して、BRIEF記述子を用いて特徴点を並べ替え、BRIEF記述子の算出過程としては、Pをキーポイントとして、キーポイントPの周囲からN個の点対を選択し、N個の点対をP1(A,B)、P2(A,B)、PN(A,B)として組み合わせて記述子とし、ここで、A及びBは1つの点対の2つの画素点を表し、AのグレースケールがBよりも大きい場合、値が1であり、逆の場合は、0であるステップS203と、
    深度カメラを用いて測定した視覚的画像の深度を利用して、キーポイントの画素座標を三次元座標に変換するステップS204と、を含む、ことを特徴とする請求項1に記載の深度点線特徴に基づくドローン視覚走行距離計方法。
  3. ステップS3の線特徴の抽出は、具体的には、
    線分検出器LSDで視覚的画像のグレースケール図についてリニアカットを行い、視覚的画像上の線分S={Si,i=1,2,3,…,}(ここで、S=[Ai,]、A、Bはそれぞれ線分の2つの端点の画素座標である。)を抽出するステップS301と、
    サンプリング点の数を設定して、線分Sについてサンプリングし、サンプリングにより得られた点を対応する深度及びカメラの内部パラメータ行列で空間三次元座標に変換し、ここで、サンプリング点の数はn
    Figure 2021082265
    S長さ以下の最大整数である、ステップS302と、
    ランダムサンプリング一貫性方法でサンプリング点のうちの誤差点を除去し、誤差点を除去された点集合を得てn’とし、点集合n’のうちの点について直線フィッティングを行い、点集合n’における点を選択してフィッティング直線までのマハラノビス距離を算出し、最適3D点を得て、最適3D点を用いて直線をフィッティングするステップS303と、を含む、ことを特徴とする請求項1に記載の深度点線特徴に基づくドローン視覚走行距離計方法。
  4. マハラノビス距離の式を用いて最適3D点を得ることは、具体的には、
    点集合n’における点の数と元のサンプリング点の数との比が所定のしきい値よりも大きい場合、サンプリング点のマハラノビス距離を、計算式
    Figure 2021082265
    Q=A+ω(B−A)をマハラノビス距離の計算式に代入し、
    Figure 2021082265
    ωの最適解を代入すると、マハラノビス距離の最適解を得る、ことを特徴とする請求項3に記載の深度点線特徴に基づくドローン視覚走行距離計方法。
  5. ステップS4の前記平均視差法は、現在の視覚的画像フレームと前のキーフレームの前に追跡した特徴点の平均視差がしきい値Tを超えると、現在の視覚的画像フレームを新しいキーフレームとすることであり、
    前記質量追跡法は、現在の視覚的画像フレームが追跡する特徴点の数が所定の数のしきい値未満であると、現在の視覚的画像フレームをキーフレームとして設定することである、ことを特徴とする請求項1に記載の深度点線特徴に基づくドローン視覚走行距離計方法。
  6. ステップS5では、抽出されたキーポイントの特徴及び線特徴を用いて、視覚的画像の隣接フレームに対して特徴マッチングを行い、ICPアルゴリズムを用いて機器の移動の姿勢を推定することは、具体的には、
    マッチング中、線特徴が検出されておらず、点特徴だけが検出された場合、検出された点を3D点に変換して、ICPアルゴリズムによってカメラ移動を推定するステップと、
    マッチング中、特徴点が検出されておらず、線特徴だけが検出された場合、検出された線から点をランダムに選択し、選択された点についてICPアルゴリズムによってカメラ移動を推定するステップと、
    マッチング中、点特徴と線特徴の両方が検出された場合、検出した点についてICPアルゴリズムによってカメラ移動を推定するステップと、を含む、ことを特徴とする請求項1に記載の深度点線特徴に基づくドローン視覚走行距離計方法。
  7. ステップS6では、前記推定した移動の姿勢について局所的最適化を行う際に、スライドウィンドウの姿勢図を用いて最適化を行い、具体的には、スライドウィンドウのサイズをMフレーム(Mは正整数)とし、Mフレームの姿勢に対して局所的な非線形最適化を行うたびに、最小二乗モデルを作成し、深度カメラの観察画素値、内部パラメータ行列を用いて、レーベンバーグ・マルカート法により最適姿勢を求める、ことを特徴とする請求項1に記載の深度点線特徴に基づくドローン視覚走行距離計方法。
JP2020168211A 2019-11-15 2020-10-05 深度点線特徴に基づくドローン視覚走行距離計方法 Active JP6852936B1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201911122317.1A CN111047620A (zh) 2019-11-15 2019-11-15 一种基于深度点线特征的无人机视觉里程计方法
CN201911122317.1 2019-11-15

Publications (2)

Publication Number Publication Date
JP6852936B1 JP6852936B1 (ja) 2021-03-31
JP2021082265A true JP2021082265A (ja) 2021-05-27

Family

ID=70232109

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020168211A Active JP6852936B1 (ja) 2019-11-15 2020-10-05 深度点線特徴に基づくドローン視覚走行距離計方法

Country Status (2)

Country Link
JP (1) JP6852936B1 (ja)
CN (1) CN111047620A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022239827A1 (ja) 2021-05-14 2022-11-17 テルモ株式会社 止血器具
CN116524026A (zh) * 2023-05-08 2023-08-01 哈尔滨理工大学 一种基于频域和语义的动态视觉slam方法

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111540016B (zh) * 2020-04-27 2023-11-10 深圳南方德尔汽车电子有限公司 基于图像特征匹配的位姿计算方法、装置、计算机设备及存储介质
CN112070175A (zh) * 2020-09-04 2020-12-11 湖南国科微电子股份有限公司 视觉里程计方法、装置、电子设备及存储介质
CN112414431B (zh) * 2020-11-18 2023-05-12 的卢技术有限公司 一种鲁棒的车载多传感器外参标定方法
CN113052908B (zh) * 2021-04-16 2023-08-04 南京工业大学 一种基于多传感器数据融合的移动机器人位姿估计算法
CN113222838A (zh) * 2021-05-07 2021-08-06 国网山西省电力公司吕梁供电公司 基于视觉定位的无人机自主巡线方法
CN113688816B (zh) * 2021-07-21 2023-06-23 上海工程技术大学 一种改进orb特征点提取的视觉里程计的计算方法
CN113793355B (zh) * 2021-09-13 2022-12-16 中国铁路设计集团有限公司 无人机影像铁路钢轨顶面中心线自动匹配方法
CN113837277B (zh) * 2021-09-24 2022-11-18 东南大学 一种基于视觉点线特征优化的多源融合slam系统
CN114018214A (zh) * 2021-10-18 2022-02-08 武汉理工大学 一种基于硬件加速系统的标志物双目亚像素测距方法
CN114199205B (zh) * 2021-11-16 2023-09-05 河北大学 基于改进四叉树orb算法的双目测距方法
CN114393575B (zh) * 2021-12-17 2024-04-02 重庆特斯联智慧科技股份有限公司 基于用户姿势高效能识别的机器人控制方法和系统
CN114663509B (zh) * 2022-03-23 2022-09-27 北京科技大学 一种关键点热力图引导的自监督单目视觉里程计方法
CN115690205B (zh) * 2022-10-09 2023-12-05 北京自动化控制设备研究所 基于点线综合特征的视觉相对位姿测量误差估计方法
CN116067360B (zh) * 2023-01-09 2023-08-22 安徽工程大学 一种基于双重约束的机器人地图构建方法、存储介质及设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012526335A (ja) * 2009-05-12 2012-10-25 トヨタ自動車株式会社 物体認識方法、物体認識装置、自律移動ロボット
JP2019011971A (ja) * 2017-06-29 2019-01-24 株式会社東芝 推定システムおよび自動車

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108053445A (zh) * 2017-12-08 2018-05-18 中南大学 特征融合的rgb-d相机运动估计方法
CN109974743B (zh) * 2019-03-14 2021-01-01 中山大学 一种基于gms特征匹配及滑动窗口位姿图优化的视觉里程计
CN109993113B (zh) * 2019-03-29 2023-05-02 东北大学 一种基于rgb-d和imu信息融合的位姿估计方法
CN110345944A (zh) * 2019-05-27 2019-10-18 浙江工业大学 融合视觉特征和imu信息的机器人定位方法
CN110319772B (zh) * 2019-07-12 2020-12-15 上海电力大学 基于无人机的视觉大跨度测距方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012526335A (ja) * 2009-05-12 2012-10-25 トヨタ自動車株式会社 物体認識方法、物体認識装置、自律移動ロボット
JP2019011971A (ja) * 2017-06-29 2019-01-24 株式会社東芝 推定システムおよび自動車

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
友納 正裕: "エッジ点追跡に基づくステレオカメラを用いた三次元SLAM", 日本ロボット学会誌, vol. 27, no. 7, JPN6021005567, 15 September 2009 (2009-09-15), JP, pages 759 - 767, ISSN: 0004447758 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022239827A1 (ja) 2021-05-14 2022-11-17 テルモ株式会社 止血器具
CN116524026A (zh) * 2023-05-08 2023-08-01 哈尔滨理工大学 一种基于频域和语义的动态视觉slam方法
CN116524026B (zh) * 2023-05-08 2023-10-27 哈尔滨理工大学 一种基于频域和语义的动态视觉slam方法

Also Published As

Publication number Publication date
JP6852936B1 (ja) 2021-03-31
CN111047620A (zh) 2020-04-21

Similar Documents

Publication Publication Date Title
JP6852936B1 (ja) 深度点線特徴に基づくドローン視覚走行距離計方法
CN110349250B (zh) 一种基于rgbd相机的室内动态场景的三维重建方法
CN112785702A (zh) 一种基于2d激光雷达和双目相机紧耦合的slam方法
JP5297403B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、プログラムおよび記憶媒体
CN110807809B (zh) 基于点线特征和深度滤波器的轻量级单目视觉定位方法
CN111833333A (zh) 一种基于双目视觉的悬臂式掘进装备位姿测量方法及系统
CN111260773B (zh) 小障碍物的三维重建方法、检测方法及检测系统
CN109840922B (zh) 基于双目光场相机的深度获取方法和系统
CN107300382B (zh) 一种用于水下机器人的单目视觉定位方法
CN111260715B (zh) 深度图的处理方法、小障碍物检测方法及系统
CN116222543B (zh) 用于机器人环境感知的多传感器融合地图构建方法及系统
CN111998862A (zh) 一种基于bnn的稠密双目slam方法
Giubilato et al. Scale correct monocular visual odometry using a lidar altimeter
Kostavelis et al. Visual odometry for autonomous robot navigation through efficient outlier rejection
CN114627491A (zh) 一种基于极线汇聚的单人三维姿态估计方法
Ann et al. Study on 3D scene reconstruction in robot navigation using stereo vision
CN114022798A (zh) 一种基于数字孪生技术的变电站巡检机器人避障方法
CN112017259B (zh) 一种基于深度相机与热像仪的室内定位与建图方法
CN108648219A (zh) 一种基于双目的障碍物与可行区域检测方法
CN110570473A (zh) 一种基于点线融合的权重自适应位姿估计方法
CN116128966A (zh) 一种基于环境物体的语义定位方法
CN113203407B (zh) 基于关键平面的视觉惯性里程计方法
Suzuki et al. Spatial model for capturing size and shape of object from point cloud data for robot vision system with LIDAR sensors
Su et al. Fast detection method of checkerboard corners based on the combination of template matching and Harris Operator
Yang et al. Real-time 3D Reconstruction of Aerial Transmission Lines

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201005

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201005

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210304

R150 Certificate of patent or registration of utility model

Ref document number: 6852936

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250