JP7280393B2 - 視覚位置決め方法、関連モデルの訓練方法及び関連装置並びに機器 - Google Patents

視覚位置決め方法、関連モデルの訓練方法及び関連装置並びに機器 Download PDF

Info

Publication number
JP7280393B2
JP7280393B2 JP2021578181A JP2021578181A JP7280393B2 JP 7280393 B2 JP7280393 B2 JP 7280393B2 JP 2021578181 A JP2021578181 A JP 2021578181A JP 2021578181 A JP2021578181 A JP 2021578181A JP 7280393 B2 JP7280393 B2 JP 7280393B2
Authority
JP
Japan
Prior art keywords
point
matching
points
image
point pairs
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021578181A
Other languages
English (en)
Other versions
JP2023502819A (ja
Inventor
▲鮑▼▲虎▼▲軍▼
章国▲鋒▼
余▲海▼林
▲馮▼友▲計▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Sensetime Technology Development Co Ltd
Original Assignee
Zhejiang Sensetime Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Sensetime Technology Development Co Ltd filed Critical Zhejiang Sensetime Technology Development Co Ltd
Publication of JP2023502819A publication Critical patent/JP2023502819A/ja
Application granted granted Critical
Publication of JP7280393B2 publication Critical patent/JP7280393B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Description

[関連出願への相互参照]
本願は、2020年10月16日に中国特許局に提出された、出願番号が202011110569.5である中国特許出願に基づいて提出されるものであり、当該中国特許出願の優先権を主張し、当該中国特許出願の全ての内容が参照として本願に組み込まれる。
[技術分野]
本開示は、コンピュータビジョンの技術分野に関し、特に、視覚位置決め方法、関連モデルの訓練方法及び関連装置並びに機器に関する。
視覚位置決めは、マップデータの様々な表現方式に応じて、複数の方式に分けることができる。その中でも、構造ベース方式(特徴ベース(feature-based)方式)は、高い精度と優れた一般化性能を備えているため、幅広く注目されている。
現在、特徴ベースの方式により視覚位置決めを実行する場合、画像データとマップデータとの間の複数の点ペアをマッチングして取得する必要がある。しかしながら、部分的な類似度を用いてマッチング関係を確立すると、その信頼度が弱く、特に、大規模なシナリオや繰り返し構造/繰り返しテクスチャを含むシナリオでは、誤ったマッチングが発生しやすく、その結果、視覚位置決めの精度に影響を与える。ランダム・サンプル・コンセンサス(RANSAC:Random Sample Consensus)を使用すると、誤ったマッチングを除去することができるが、RANSACは各サンプル点を確率抽出するため、初期マッチングの外れ点が多すぎると、RANSACには時間がかかるとともに精度が低いという問題があり、その結果、視覚位置決めの即時性と精度に影響を与える。これを鑑みて、視覚位置決めの精度と即時性を向上させることは解決すべき課題となる。
本開示は、視覚位置決め方法、関連モデルの訓練方法及び関連装置並びに機器を提供する。
本開示の第1態様は、マッチング予測モデルの訓練方法は、サンプル画像及びマップデータを用いて、サンプルマッチングデータを構築することであって、サンプルマッチングデータは、いくつかのグループの点ペア及び各グループの点ペアの実際の一致値を含み、各グループの点ペアの2つの点はそれぞれサンプル画像及びマップデータから取得されたものである、ことと、マッチング予測モデルを用いていくつかのグループの点ペアに対して予測処理を行い、点ペアの予測一致値を取得することと、実際の一致値及び前記予測一致値を用いて、マッチング予測モデルの損失値を決定することと、損失値を用いて、マッチング予測モデルのパラメータを調整することと、を含む。
したがって、サンプル画像及びマップデータを用いてサンプルマッチングデータを構築し、サンプルマッチングデータは、いくつかのグループの点ペア及び各グループの点ペアの実際の一致値を含み、各グループの点ペアの2つの点はそれぞれサンプル画像及びマップデータから取得されたものであり、マッチング予測モデルを用いていくつかのグループの点ペアに対して予測処理を行い、点ペアの予測一致値を取得し、実際の一致値及び前記予測一致値を用いて、マッチング予測モデルの損失値を決定し、損失値を用いてマッチング予測モデルのパラメータを調整することにより、マッチング予測モデルを用いて一致関係を確立することができる。それによって、視覚位置決めの実行中、マッチング予測モデルを用いて点ペア間の一致値を予測することができ、したがって、予測された一致値に基づいて、一致値の高い点ペアを優先的にサンプリングし、位置決め対象となる画像の姿勢パラメータを決定することができ、これによって、視覚位置決めの精度と即時性を向上させるのに役に立つことができる。
ここで、サンプル画像及びマップデータを用いて、サンプルマッチングデータを構築することは、サンプル画像からいくつかの画像点を取得し、マップデータからいくつかのマップ点を取得して、いくつかのグループの点ペアを構成することであって、いくつかのグループの点ペアは、含まれた画像点とマップ点との間に一致する少なくとも1つのグループの一致点ペアを含む、ことと、各グループの一致点ペアについて、姿勢パラメータを用いてマップ点をサンプル画像が属する次元に投影して、マップ点の投影点を取得することと、画像点と投影点との間の差に基づいて、一致点ペアの実際の一致値を決定することと、を含む。
したがって、サンプル画像からいくつかの画像点を取得し、マップデータからいくつかのマップ点を取得し、これらによって、いくつかのグループの点ペアを構成し、いくつかのグループの点ペアは、含まれた画像点とマップ点との間に一致する少なくとも1つのグループの一致点ペアを含み、これによって、マッチング予測モデルを訓練するためのサンプルを生成することができ、各グループの一致点ペアについて、姿勢パラメータを用いてマップ点をサンプル画像が属する次元に投影して、マップ点の投影点を取得し、画像点と投影点との間の差に基づいて、一致点ペアの実際の一致値を決定することにより、訓練過程中マッチング予測モデルに一致点ペアの幾何学的特徴を学習させることができ、これによって、マッチング予測モデルの精度を向上させるのに役に立つ。
ここで、いくつかのグループの点ペアは、含まれた画像点とマップ点との間に一致しない少なくとも1つのグループの不一致点ペアを含み、サンプル画像及びマップデータを用いて、サンプルマッチングデータを構築することは、不一致点ペアの実際の一致値を、事前設定された値に設定することを更に含む。
したがって、いくつかのグループの点ペアは、含まれた画像点とマップ点との間に一致しない少なくとも1つのグループの不一致点ペアを含み、一致点ペアと区別させるために、不一致点ペアの実際の一致値を、事前設定された値に設定し、それによって、マッチング予測モデルのロバスト性を向上させるのに役に立つ。
ここで、サンプル画像からいくつかの画像点を取得し、マップデータからいくつかのマップ点を取得して、いくつかのグループの点ペアを構成することは、サンプル画像内の画像点を第1画像点及び第2画像点に分割することであって、マップデータには第1画像点に一致するマップ点があり、マップデータには第2画像点に一致するマップ点がない、ことと、第1画像点のそれぞれについて、マップデータからいくつかの第1マップ点を割り当てて、第1画像点及び第1マップ点のそれぞれを第1点ペアとして使用することであって、第1マップ点は、第1画像点に一致するマップ点を含む、ことと、第2画像点のそれぞれについて、マップデータからいくつかの第2マップ点を割り当てて、第2画像点及び第2マップ点のそれぞれを第2点ペアとして使用することと、第1点ペア及び第2点ペアからいくつかのグループの点ペアを抽出することと、を含む。
したがって、サンプル画像内の画像を第1画像点及び第2画像点に分割し、マップには第1画像点に一致するマップ点があり、画像データには第2画像点に一致する画像点がなく、第1画像点について、マップデータからいくつかの第1マップ点を割り当てて、第1画像点及び第1マップ点のそれぞれを第1点ペアとして使用し、第1マップ点は、第1画像点に一致するマップ点を含み、第2画像点のそれぞれについて、マップデータからいくつかの第2マップ点を割り当てて、第2画像点及び第2マップ点のそれぞれを第2点ペアとして使用し、第1点ペア及び第2点ペアからいくつかのグループの点ペアを抽出する。これにより、数が多くて不一致点ペア及び一致点ペアを含む、マッチング予測モデルを訓練するためのいくつかのグループの点ペアを構築することができ、これによって、マッチング予測モデルの精度を向上させるのに役に立つ。
ここで、姿勢パラメータを用いてマップ点をサンプル画像が属する次元に投影して、マップ点の投影点を取得することは、一致点ペアに基づいて、サンプル画像の姿勢パラメータを計算することと、姿勢パラメータを用いてマップ点をサンプル画像が属する次元に投影して、マップ点の投影点を取得することと、を含む。
したがって、一致点ペアを用いて、サンプル画像の姿勢パラメータを計算し、姿勢パラメータを用いてマップ点をサンプル画像が属する次元に投影して、マップ点の投影点を取得することにより、投影点と画像点との間の差の精度を向上させるのに役に立つことができ、よって、マッチング予測モデルの精度を向上させるのに役に立つことができる。
ここで、画像点と投影点との間の差に基づいて、一致点ペアの実際の一致値を決定することは、事前設定された確率分布関数を用いて差を確率密度値に変換して、一致点ペアの実際の一致値として使用する。
したがって、事前設定された確率分布関数を用いて差を確率密度値に変換して、一致点ペアの実際の一致値として使用することによって、投影点と画像点との間の差を正確に表すのに役に立つことができ、よって、マッチング予測モデルの精度を向上させるのに役に立つことができる。
ここで、サンプルマッチングデータは2部グラフであり、2部グラフは、いくつかのグループの点ペアと各グループの点ペアを連結する連結辺を含み、連結辺には、点ペアに対応する実際の一致値が注釈され、マッチング予測モデルは、サンプル画像が属する次元に対応する第1点特徴抽出サブモデル、マップデータが属する次元に対応する第2点特徴抽出サブモデル及び辺特徴抽出サブモデルを含み、マッチング予測モデルを用いていくつかのグループの点ペアに対して予測処理を行い、点ペアの予測一致値を取得することは、第1点特徴抽出サブモデル及び第2点特徴抽出サブモデルを用いて2部グラフに対して特徴抽出を実行して、第1特徴及び第2特徴を取得することと、辺特徴抽出サブモデルを用いて第1特徴及び第2特徴に対して特徴抽出を実行して、第3特徴を取得することと、第3特徴を用いて、連結辺に対応する点ペアの予測一致値を取得することと、を含む。
したがって、2部グラフに対して点特徴抽出及び辺特徴抽出を行い、それによって、マッチング予測モデルに、配的空間幾何学的構造を効果的に感知させることができ、よって、マッチング予測モデルの精度を向上させるのに役に立つことができる。
ここで、第1点特徴抽出サブモデル及び第2点特徴抽出サブモデルの構造は、少なくとも1つの残差ブロックを含むか、少なくとも1つの残差ブロック及び少なくとも1つの空間変換ネットワークを含み、及び/又は、辺特徴抽出サブモデルは、少なくとも1つの残差ブロックを含む。
したがって、第1点特徴抽出サブモデル及び第2点特徴抽出サブモデルの構造を、少なくとも1つの残差ブロックを含むか、少なくとも1つの残差ブロック及び少なくとも1つの空間変換ネットワークを含むように設定し、辺特徴抽出サブモデルを少なくとも1つの残差ブロックを含むように設定し、これによって、マッチング予測モデルを最適化するのに役に立ち、マッチング予測モデルの精度を向上させることができる。
ここで、いくつかのグループの点ペアは、含まれた画像点とマップ点との間に一致する少なくとも1つのグループの一致点ペアと、含まれた画像点とマップ点との間に一致しない少なくとも1つのグループの不一致点ペアとを含み、実際の一致値及び前記予測一致値を用いて、マッチング予測モデルの損失値を決定することは、一致点ペアの予測一致値及び実際の一致値を用いて、マッチング予測モデルの第1損失値を決定することと、不一致点ペアの予測一致値及び実際の一致値を用いて、マッチング予測モデルの第2損失値を決定することと、第1損失値及び第2損失値に対して加重処理を行い、マッチング予測モデルの損失値を取得することと、を含む。
したがって、一致点ペアの予測一致値及び実際の一致値を用いて、マッチング予測モデルの第1損失値を決定し、不一致点ペアの予測一致値及び実際の損失値を用いて、マッチング予測モデルの第2損失値を決定することにより、第1損失値及び第2損失値に対して加重処理を行い、マッチング予測モデルの損失値を取得し、これによって、マッチング予測モデルに、一致する空間幾何学的構造を効果的に感知させるのに役たつことができ、よって、マッチング予測モデルの精度を向上させる。
ここで、一致点ペアの予測一致値及び実際の一致値を用いて、マッチング予測モデルの第1損失値を決定する前に、前記方法は、一致点ペアの第1数量、及び不一致点ペアの第2数量をそれぞれ統計することを更に含み、一致点ペアの予測一致値及び実際の一致値を用いて、マッチング予測モデルの第1損失値を決定することは、一致点ペアの予測一致値と実際の一致値との間の差値、及び第1数量を用いて、第1損失値を決定することを含み、不一致点ペアの予測一致値及び実際の一致値を用いて、マッチング予測モデルの第2損失値を決定することは、不一致点ペアの予測一致値と実際の一致値との間の差値、及び第2数量を用いて、第2損失値を決定することを含む。
したがって、一致点ペアの第1数量、及び不一致点ペアの第2数量を統計することにより、一致点ペアの予測一致値と実際の一致値との間の差値、及び第1数量を用いて、第1損失値を決定し、不一致点ペアの予測一致値と実際の一致値との間の差、及び第2数量を用いて、第2損失値を決定し、これによって、マッチング予測モデルの損失値の精度を向上させるのに役に立ち、マッチング予測モデルの精度を向上させるのに役に立つことができる。
ここで、サンプル画像が属する次元は2次元又は3次元であり、マップデータが属する次元は2次元又は3次元である。
したがって、サンプル画像及びマップデータが属する次元を設定することにより、2次元-2次元のマッチング予測モデルを訓練することができ、又は2次元-3次元のマッチング予測モデルを訓練することができ、又は3次元-3次元のマッチング予測モデルを訓練することができ、それによって、マッチング予測モデルの適用範囲を向上させることができる。
本開示の第2態様は、視覚位置決め方法を提供し、前記視覚位置決め方法は、位置決め対象となる画像とマップデータとを用いて、認識対象となるマッチングデータを構築することであって、認識対象となるマッチングデータは、いくつかのグループの点ペアを含み、各グループの点ペアの2つの点は、位置決め対象となる画像及びマップデータから取得されたものである、ことと、マッチング予測モデルを用いていくつかのグループの点ペアに対して予測処理を行い、点ペアの予測一致値を取得することと、点ペアの予測一致値に基づいて、位置決め対象となる画像のカメラデバイスの姿勢パラメータを決定することと、を含む。
したがって、位置決め対象となる画像とマップデータとを用いて、認識対象となるマッチングデータを構築し、認識対象となるマッチングデータは、いくつかのグループの点ペアを含み、各グループの点ペアの2つの点は、位置決め対象となる画像及びマップデータから取得されたものであり、マッチング予測モデルを用いていくつかのグループの点ペアに対して予測処理を行い、点ペアの予測一致値を取得し、点ペアの予測一致値に基づいて、位置決め対象となる画像のカメラデバイスの姿勢パラメータを決定し、これによって、視覚位置決め精度と即時性を向上させる。
ここで、点ペアの予測一致値に基づいて、位置決め対象となる画像のカメラデバイスの姿勢パラメータを決定することは、予測一致値に従っていくつかのグループの点ペアを降順に配列することと、前の予め設定された数量のグループの点ペアを用いて、位置決め対象となる画像のカメラデバイスの姿勢パラメータを決定することと、を含む。
したがって、予測一致値に従っていくつかのグループの点ペアを降順に配列し、前の予め設定された数量グループの点ペアを用いて、位置決め対象となる画像のカメラデバイスの姿勢パラメータを決定することにより、配列された後の点ペアでインクリメンタルサンプリングを実行するのに役に立つことができ、一致値が高い点ペアを優先的にサンプリングするため、幾何学的演繹により姿勢パラメータを解くように導くことができ、それによって、視覚位置決めの精度と即時性を向上させることができる。
ここで、マッチング予測モデルは、上記の第1態様におけるマッチング予測モデルの訓練方法によって取得されたものである。
したがって、上記のマッチング予測モデルの訓練方法によって取得されたマッチング予測モデルに対して視覚位置決めを行うことにより、視覚位置決めの精度と即時性を向上させることができる。
本開示の第3態様は、マッチング予測モデルの訓練装置を提供し、前記訓練装置は、サンプル構築部、予測処理部、損失決定部及びパラメータ調整部を備え、サンプル構築部は、サンプル画像及びマップデータを用いて、サンプルマッチングデータを構築するように構成され、ここで、サンプルマッチングデータは、いくつかのグループの点ペア及び各グループの点ペアの実際の一致値を含み、各グループの点ペアの2つの点はそれぞれサンプル画像及びマップデータから取得されたものであり、予測処理部は、マッチング予測モデルを用いていくつかのグループの点ペアに対して予測処理を行い、点ペアの予測一致値を取得するように構成され、損失決定部は、実際の一致値及び前記予測一致値を用いて、マッチング予測モデルの損失値を決定するように構成され、パラメータ調整部は、損失値を用いて、マッチング予測モデルのパラメータを調整するように構成される。
本開示の第4態様は、視覚位置決め装置を提供し、前記視覚位置決め装置は、データ構築部、予測処理部及びパラメータ決定部を備え、データ構築部は、位置決め対象となる画像とマップデータとを用いて、認識対象となるマッチングデータを構築するように構成され、ここで、認識対象となるマッチングデータは、いくつかのグループの点ペアを含み、各グループの点ペアの2つの点は、位置決め対象となる画像及びマップデータから取得されたものであり、予測処理部は、マッチング予測モデルを用いていくつかのグループの点ペアに対して予測処理を行い、点ペアの予測一致値を取得するように構成され、パラメータ決定部は、点ペアの予測一致値に基づいて、位置決め対象となる画像のカメラデバイスの姿勢パラメータを決定するように構成される。
本開示の第5態様は、電子機器を提供し、前記電子機器は、互に結合されているメモリとプロセッサとを備え、プロセッサは、メモリに記憶されているプログラム命令を実行することにより、上記の第1態様におけるマッチング予測モデルの訓練方法、又は上記の第2態様における視覚位置決め方法を実現するように構成される。
本開示の第6態様は、プログラム命令が記憶されているコンピュータ可読記憶媒体を提供し、プログラム命令がプロセッサによって実行されるときに、プロセッサに上記の第1態様におけるマッチング予測モデルの訓練方法、又は上記の第2態様における視覚位置決め方法を実現させる。
本開示の第7態様は、コンピュータ可読コードを含むコンピュータプログラムを提供し、前記コンピュータ可読コードが電子機器で実行され、前記電子機器のプロセッサによって実行されるときに、プロセッサに上記の第1態様におけるマッチング予測モデルの訓練方法、又は上記の第2態様における視覚位置決め方法を実現させる。
上記の方案により、マッチング予測モデルを用いて一致関係を確立することができ、それによって、視覚位置決め中、マッチング予測モデルを用いて点ペア間の一致値を予測することができ、したがって、予測された一致値に基づいて、一致値の高い点ペアを優先的にサンプリングし、一致関係を確立することができ、よって、視覚位置決めの精度と即時性を向上させるのに役に立つことができる。
例えば、本願は以下の項目を提供する。
(項目1)
マッチング予測モデルの訓練方法であって、
サンプル画像及びマップデータを用いて、サンプルマッチングデータを構築することであって、前記サンプルマッチングデータは、いくつかのグループの点ペア及び各グループの点ペアの実際の一致値を含み、各グループの点ペアの2つの点はそれぞれ前記サンプル画像及び前記マップデータから取得されたものである、ことと、
マッチング予測モデルを用いて前記いくつかのグループの点ペアに対して予測処理を行い、前記点ペアの予測一致値を取得することと、
前記実際の一致値及び前記予測一致値を用いて、前記マッチング予測モデルの損失値を決定することと、
前記損失値を用いて、前記マッチング予測モデルのパラメータを調整することと、を含む、マッチング予測モデルの訓練方法。
(項目2)
前記サンプル画像及びマップデータを用いて、サンプルマッチングデータを構築することは、
前記サンプル画像からいくつかの画像点を取得し、前記マップデータからいくつかのマップ点を取得して、いくつかのグループの点ペアを構成することであって、前記いくつかのグループの点ペアは、含まれた画像点とマップ点との間に一致する少なくとも1つのグループの一致点ペアを含む、ことと、
前記一致点ペアのそれぞれについて、前記サンプル画像の姿勢パラメータを用いて前記マップ点を前記サンプル画像が属する次元に投影して、前記マップ点の投影点を取得し、前記画像点と前記投影点との差に基づいて、前記一致点ペアの実際の一致値を決定することと、を含む、
項目1に記載の訓練方法。
(項目3)
前記いくつかのグループの点ペアは、含まれた画像点とマップ点との間に一致しない少なくとも1つのグループの不一致点ペアを含み、前記サンプル画像及びマップデータを用いて、サンプルマッチングデータを構築することは、
前記不一致点ペアの実際の一致値を、事前設定された値に設定することを更に含む、
項目2に記載の訓練方法。
(項目4)
前記サンプル画像からいくつかの画像点を取得し、前記マップデータからいくつかのマップ点を取得し、これらによって、いくつかのグループの点ペアを構成することは、
前記サンプル画像内の画像点を第1画像点及び第2画像点に分割することであって、前記マップデータには前記第1画像点に一致する前記マップ点があり、前記マップデータには前記第2画像点に一致する前記マップ点がない、ことと、
前記第1画像点のそれぞれについて、前記マップデータからいくつかの第1マップ点を割り当てて、前記第1画像点及び前記第1マップ点のそれぞれを第1点ペアとして使用することであって、前記第1マップ点は、前記第1画像点に一致する前記マップ点を含む、ことと、
前記第2画像点のそれぞれについて、前記マップデータからいくつかの第2マップ点を割り当てて、前記第2画像点及び前記第2マップ点のそれぞれを第2点ペアとして使用することと、
前記第1点ペア及び前記第2点ペアから、いくつかのグループの点ペアを抽出することと、を含む、
項目2又は3に記載の訓練方法。
(項目5)
前記サンプル画像の姿勢パラメータを用いて前記マップ点を前記サンプル画像が属する次元に投影して、前記マップ点の投影点を取得することは、
前記一致点ペアに基づいて、前記サンプル画像の姿勢パラメータを計算することと、
前記姿勢パラメータを用いて前記マップ点を前記サンプル画像が属する次元に投影して、前記マップ点の投影点を取得することと、を含み、
及び/又は、前記画像点と前記投影点との間の差に基づいて、前記一致点ペアの実際の一致値を決定することは、
事前設定された確率分布関数を用いて前記差を確率密度値に変換して、前記一致点ペアの実際の一致値として使用することを含む、
項目2ないし4のいずれか一項に記載の訓練方法。
(項目6)
前記サンプルマッチングデータは2部グラフであり、前記2部グラフは、いくつかのグループの点ペアと各グループの点ペアを連結する連結辺を含み、前記連結辺には、前記点ペアに対応する実際の一致値が注釈され、前記マッチング予測モデルは、前記サンプル画像が属する次元に対応する第1点特徴抽出サブモデル、前記マップデータが属する次元に対応する第2点特徴抽出サブモデル及び辺特徴抽出サブモデルを含み、
前記マッチング予測モデルを用いて前記いくつかのグループの点ペアに対して予測処理を行い、前記点ペアの予測一致値を取得することは、
それぞれ、前記第1点特徴抽出サブモデル及び前記第2点特徴抽出サブモデルを用いて前記2部グラフに対して特徴抽出を行い、第1特徴及び第2特徴を取得することと、
前記辺特徴抽出サブモデルを用いて前記第1特徴及び前記第2特徴に対して特徴抽出を行い、第3特徴を取得することと、
前記第3特徴を用いて、前記連結辺に対応する点ペアの予測一致値を取得することと、を含む、
項目1ないし5のいずれか一項に記載の訓練方法。
(項目7)
前記第1点特徴抽出サブモデル及び前記第2点特徴抽出サブモデルの構造は、少なくとも1つの残差ブロックを含むか、少なくとも1つの残差ブロック及び少なくとも1つの空間変換ネットワークを含み、
及び/又は、前記辺特徴抽出サブモデルは、少なくとも1つの残差ブロックを含む、
項目6に記載の訓練方法。
(項目8)
前記いくつかのグループの点ペアは、含まれた画像点とマップ点との間に一致する少なくとも1つのグループの一致点ペアと、含まれた画像点とマップ点との間に一致しない少なくとも1つのグループの不一致点ペアとを含み、
前記実際の一致値及び前記予測一致値を用いて、前記マッチング予測モデルの損失値を決定することは、
前記一致点ペアの前記予測一致値及び前記実際の一致値を用いて、前記マッチング予測モデルの第1損失値を決定することと、
前記不一致点ペアの前記予測一致値及び前記実際の一致値を用いて、前記マッチング予測モデルの第2損失値を決定することと、
前記第1損失値及び前記第2損失値に対して加重処理を行い、前記マッチング予測モデルの損失値を取得することと、を含む、
項目1ないし7のいずれか一項に記載の訓練方法。
(項目9)
前記一致点ペアの前記予測一致値及び前記実際の一致値を用いて、前記マッチング予測モデルの第1損失値を決定する前に、前記訓練方法は、
前記一致点ペアの第1数量及び前記不一致点ペアの第2数量をそれぞれ統計することを更に含み、
前記一致点ペアの前記予測一致値及び前記実際の一致値を用いて、前記マッチング予測モデルの第1損失値を決定することは、
前記一致点ペアの前記予測一致値と前記実際の一致値との間の差値、及び前記第1数量を用いて、前記第1損失値を決定することを含み、
前記不一致点ペアの前記予測一致値及び前記実際の一致値を用いて、前記マッチング予測モデルの第2損失値を決定することは、
前記不一致点ペアの前記予測一致値と前記実際の一致値との間の差値、及び前記第2数量を用いて、前記第2損失値を決定することを含む、
項目8に記載の訓練方法。
(項目10)
前記サンプル画像が属する次元は2次元又は3次元であり、前記マップデータが属する次元は2次元又は3次元である、
項目1ないし9のいずれか一項に記載の訓練方法。
(項目11)
視覚位置決め方法であって、
位置決め対象となる画像とマップデータとを用いて、認識対象となるマッチングデータを構築することであって、前記認識対象となるマッチングデータは、いくつかのグループの点ペアを含み、各グループの点ペアの2つの点は、前記位置決め対象となる画像及び前記マップデータから取得されたものである、ことと、
マッチング予測モデルを用いて前記いくつかのグループの点ペアに対して予測処理を行い、前記点ペアの予測一致値を取得することと、
前記点ペアの予測一致値に基づいて、前記位置決め対象となる画像のカメラデバイスの姿勢パラメータを決定することと、を含む、視覚位置決め方法。
(項目12)
前記点ペアの予測一致値に基づいて、前記位置決め対象となる画像のカメラデバイスの姿勢パラメータを決定することは、
前記予測一致値に従って前記いくつかのグループの点ペアを降順に配列することと、
前前の予め設定された数量のグループの前記点ペアを用いて、前記位置決め対象となる画像のカメラデバイスの姿勢パラメータを決定することと、を含む、
項目11に記載の視覚位置決め方法。
(項目13)
前記マッチング予測モデルは、項目1ないし10のいずれか一項に記載のマッチング予測モデルの訓練方法によって取得されたものである、
項目11又は12に記載の視覚位置決め方法。
(項目14)
マッチング予測モデルの訓練装置であって、
サンプル画像及びマップデータを用いて、サンプルマッチングデータを構築するように構成されるサンプル構築部であって、前記サンプルマッチングデータは、いくつかのグループの点ペア及び各グループの点ペアの実際の一致値を含み、各グループの点ペアの2つの点はそれぞれ前記サンプル画像及び前記マップデータから取得されたものである、サンプル構築部と、
マッチング予測モデルを用いて前記いくつかのグループの点ペアに対して予測処理を行い、前記点ペアの予測一致値を取得するように構成される予測処理部と、
前記実際の一致値及び前記予測一致値を用いて、前記マッチング予測モデルの損失値を決定するように構成される損失決定部と、
前記損失値を用いて、前記マッチング予測モデルのパラメータを調整するように構成されるパラメータ調整部と、を備える、マッチング予測モデルの訓練装置。
(項目15)
視覚位置決め装置であって、
位置決め対象となる画像とマップデータとを用いて、認識対象となるマッチングデータを構築するデータ構築部であって、前記認識対象となるマッチングデータは、いくつかのグループの点ペアを含み、各グループの点ペアの2つの点は、前記位置決め対象となる画像及び前記マップデータから取得されたものである、データ構築部と、
マッチング予測モデルを用いて前記いくつかのグループの点ペアに対して予測処理を行い、前記点ペアの予測一致値を取得するように構成される予測処理部と、
前記点ペアの予測一致値に基づいて、前記位置決め対象となる画像のカメラデバイスの姿勢パラメータを決定するように構成されるパラメータ決定部と、を備える、視覚位置決め装置。
(項目16)
電子機器であって、
互に結合されているメモリとプロセッサとを備え、前記プロセッサは、前記メモリに記憶されているプログラム命令を実行して、項目1ないし10のいずれか一項に記載のマッチング予測モデルの訓練方法、又は項目11ないし13のいずれか一項に記載の視覚位置決め方法を実行する、電子機器。
(項目17)
プロセッサによって実行されるときに、前記プロセッサに項目1ないし10のいずれか一項に記載のマッチング予測モデルの訓練方法、又は項目11ないし13のいずれか一項に記載の視覚位置決め方法を実行させるためのプログラム命令を記憶した、コンピュータ可読記憶媒体。
(項目18)
電子機器のプロセッサによって実行されるときに、前記プロセッサに項目1ないし10のいずれか一項に記載のマッチング予測モデルの訓練方法、又は項目11ないし13のいずれか一項に記載の視覚位置決め方法を実行させるためのコンピュータ可読コードを含む、コンピュータプログラム。
本開示に係るマッチング予測モデルの訓練方法の一実施例の例示的なフローチャートである。 本開示に係るマッチング予測モデルの訓練方法の一実施例の状態の概略図である。 図1のステップS11の一実施例の例示的なフローチャートである。 図3のステップS111の一実施例の例示的なフローチャートである。 本開示に係る視覚位置決め方法の一実施例の例示的なフローチャートである。 本開示に係るマッチング予測モデルの訓練装置の一実施例のフレームワークの概略図である。 本開示に係る視覚位置決め装置の一実施例のフレームワークの概略図である。 本開示に係る電子機器の一実施例のフレームワークの概略図である。 本開示に係るコンピュータ可読記憶媒体の一実施例のフレームワークの概略図である。
以下では、図面を参照して、本開示の実施例の技術的解決策を詳細に説明する。
以下の記載は、限定するためではなく説明するためのものであり、本開示を明白に理解させるために、特定のシステム構造、インターフェース、技術などに関する具体的な詳細を提供している。
本明細書における「システム」および「ネットワーク」という用語は、本明細書で常に互換的に使用される。本明細書における「及び/又は」という用語は、単に関連対象の関連関係を表し、3種類の関係が存在し得ることを示し、例えば、A及び/又はBは、Aが独立で存在する場合、AとBが同時に存在する場合、Bが独立で存在する場合のような3つの場合を表す。さらに、本明細書における記号「/」は、一般的に、コンテキストオブジェクトが「または」の関係であることを示す。また、本明細書における「複数」という記載は、2つ又は2つ以上を表す。
図1を参照すると、図1は、本開示のマッチング予測モデルの訓練方法の一実施例の例示的なフローチャートである。マッチング予測モデルの訓練方法は、次のステップを含み得る。
ステップS11において、サンプル画像及びマップデータを用いて、サンプルマッチングデータを構築する。
本開示の実施例において、サンプルマッチングデータは、いくつかのグループの点ペア及び各グループの点ペアの実際の一致値を含み、各グループの点ペアの2つの点はそれぞれサンプル画像及びマップデータから取得されたものである。
一実施形態において、マップデータは、サンプル画像によって構築されたものであってもよい。ここで、サンプル画像が属する次元可以は2次元又は3次元である可能性があり、マップデータが属する次元は、2次元又は3次元である可能性があり、ここでは特に限定しない。例えば、サンプル画像が2次元画像である場合、SFM(Structure From Motion)などの3次元再構築方式により2次元画像を処理して、疎らな点群モデルのマップデータなどを取得することができ、加えて、サンプル画像は、3次元情報を含んでもよく、例えば、サンプル画像は、RGB-D画像(つまり、カラー画像と深層画像)であってもよく、ここでは特に限定しない。マップデータは、単純な2次元画像で構成されてもよく、3次元点群マップで構成されてもよく、2次元画像と3次元点群との組み合わせによって構成されてもよく、ここでは特に限定しない。
本開示の実施例において、マッチング予測モデルの訓練方法の実行主体は、マッチング予測モデルの訓練装置であってもよく、以下では訓練装置として記載する。例えば、マッチング予測モデルの訓練方法は、端末機器又はサーバ又は他の処理機器によって実行されることができ、ここで、端末機器は、ユーザ機器(UE:User Equipment)、モバイル機器、ユーザ端末、端末、セルラー電話、コードレス電話、携帯情報端末(PDA:Personal Digital Assistant)、ハンドヘルド機器、コンピューティング機器、車載機器、ウェアラブル機器などであってもよい。いくつかの可能な実施形態において、当該マッチング予測モデルの訓練方法は、プロセッサがメモリに記憶されているコンピュータ可読命令を呼び出す方式により実現することができる。
一実施形態において、サンプルマッチングデータは、2部グラフであってもよく、当該2部グラフは、点集合及び辺集合で構成された無向グラフであり、点集合は、互いに交差しない2つの部分集合に分けることができ、辺集合の各辺に関連する2つの点は、それぞれ、当該互いに交差しない2つの部分集合に属する。ここで、サンプルマッチングデータが2部グラフである場合、サンプルマッチングデータは、いくつかのグループの点ペアと各グループの点ペアを連結する連結辺を含み、連結辺には、対応する点ペアの実際の一致値が注釈されており、対応する点ペアの一致度を表すために用いられ、例えば、実際の一致値は、0~1間の値であってもよく、ここで、実際の一致値が0.1である場合、対応する点ペア間の一致度が低く、点ペアにおけるサンプル画像からの点とマップデータからの点とが空間内の同じ点に対応する確率が低いことを表し、実際の一致値が0.98である場合、対応する点ペア間の一致度が高く、点ペアにおけるサンプル画像からの点とマップデータからの点とが空間内の同じ点に対応する確率が高いことを表す。図2を参照すると、図2は、本開示のマッチング予測モデルの訓練方法の一実施例の状態の概略図を示し、図2に示されたように、左側は、2部グラフで表されたサンプルマッチングデータであり、2部グラフの上側と下側は、互に交差しない2つの点集合であり、2つの点集合の点を連結するのは連結辺であり、連結辺には実際の一致値(未図示)が注釈されている。
一実施形態において、サンプルマッチングデータの多様性を向上させるために、訓練装置は、サンプルマッチングデータに対してデータ拡張を実行してもよい。例えば、訓練装置は、3つの軸に基づきサンプルマッチングデータ内の3次元点の座標をランダムに回転させてもよく、又は、サンプルマッチングデータの3次元点に対して正規化処理を実行してもよく、ここでは特に限定しない。
ステップS12において、マッチング予測モデルを用いていくつかのグループの点ペアに対して予測処理を行い、点ペアの予測一致値を取得する。
図2を続いて参照すると、依然として、サンプルマッチングデータを2部グラフで表すことを例として、マッチング予測モデルは、サンプル画像が属する次元に対応する第1点特徴抽出サブモデルと、マップデータが属する次元に対応する第2点特徴抽出サブモデルと、辺特徴抽出サブモデルとを備えることができる。例えば、サンプル画像が2次元画像であり、マップデータが2次元画像を含む場合、第1点特徴抽出サブモデル及び第2点特徴抽出サブモデルは2次元点特徴抽出サブモデルであり、訓練されたマッチング予測モデルは、2次元-3次元のマッチング予測に用いられることができ、又は、サンプル画像が3次元画像であり、マップデータが3次元点群を含む場合、第1点特徴抽出サブモデル及び第2点特徴抽出サブモデルは3次元点特徴抽出サブモデルであり、訓練されたマッチング予測モデルは、3次元-3次元のマッチング予測に用いられることができ、又は、サンプル画像が2次元画像であり、マップデータが3次元点群である場合、第1点特徴抽出サブモデルは2次元点特徴抽出サブモデルであり、第2点特徴抽出サブモデルは3次元点特徴抽出サブモデルであり、訓練されたマッチング予測モデルは、2次元-3次元のマッチング予測に用いられルことができ、ここで、実際の応用に従ってマッチング予測モデルを設定でき、ここでは特に限定しない。
一実施形態において、訓練装置は、第1点特徴抽出サブモデル及び第2点特徴抽出サブモデルを用いて2部グラフに対して特徴抽出を実行して、第1特徴及び第2特徴を取得した後、辺特徴抽出サブモデルを用いて第1特徴及び第2特徴に対して特徴抽出を実行して、第3特徴を取得し、第3特徴を用いて、連結辺に対応する点の予測一致値(例えば、図2に示された2部グラフの各連結辺に対応する予測一致値)を取得することができる。
一実施形態において、第1点特徴抽出サブモデル及び第2点特徴抽出サブモデルが2次元点特徴抽出サブモデルである場合、1つの残差ブロック、2つの残差ブロック、3つの残差ブロックなど、少なくとも1つの残差ブロック(resblock)を含み得、各残差ブロック(resblock)は、複数の基本ブロック(base block)で構成され、各基本ブロック(base block)は、1つの1*1の畳み込み層、バッチ標準化層(batch normalization)、コンテキスト標準化層(context normalization)で構成される。第1点特徴抽出サブモデル及び第2点特徴抽出サブモデルが3次元点特徴抽出サブモデルである場合、1つの残差ブロック、2つの残差ブロック、3つの残差ブロックなどの少なくとも1つの残差ブロック(resblock)と、少なくとも1つの空間変換ネットワーク(例えば、t-net)とを含み得、例えば、等等、ここでは特に限定しない。空間変換ネットワークは、1つであってもよく、2つであってもよい。ここで、空間変換ネットワークは、モデルの最初と最後に配置でき、ここでは特に限定しない。残差ブロック(resblock)の構造は、上記の実施形態の構造を参照してもよく、ここでは繰り返して記載しない。辺特徴抽出サブモデルは、1つの残差ブロック、2つの残差ブロック、3つの残差ブロックなど、少なくとも1つの残差ブロックを含み得、ここでは特に限定しない。残差ブロック(resblock)の構造は、上記の実施形態の構造を参照することができ、ここでは繰り返して記載しない。
ステップS13において、実際の一致値及び前記予測一致値を用いて、マッチング予測モデルの損失値を決定する。
一実施形態において、訓練装置は、実際の一致値と予測一致値との差を統計し、それによって、マッチング予測モデルの損失値を決定することができる。ここで、訓練装置は、全ての点ペアの予測一致値とそれらの実際の一致値との差の合計を統計した後、当該合計値と全ての点ペアの数を使用して、全ての点ペアの予測一致値の平均値を得て、マッチング予測モデルの損失値として使用することができる。
別の実施形態において、いくつかのグループの一致点ペアは、含まれた画像点とマップ点との間に一致する少なくとも1つのグループの一致点ペアを含んでもよく、つまり、一致点ペアに含まれた画像点とマップ点は、空間において同一点であり、いくつかのグループの一致点ペアは、含まれた画像点とマップ点との間に一致しない少なくとも1つのグループの不一致点ペアを含んでもよく、つまり、不一致点ペアに含まれた画像点とマップ点は、空間において異なる点であり、式(1)を参照すると、訓練装置は、一致点ペアの予測一致値
Figure 0007280393000001
及び実際の一致値
Figure 0007280393000002
を用いて、マッチング予測モデルの第1損失値
Figure 0007280393000003
を決定し、不一致点ペアの予測一致値
Figure 0007280393000004
及び実際の一致値
Figure 0007280393000005
を用いて、マッチング予測モデルの第2損失値
Figure 0007280393000006
を決定することができ、それによって、第1損失値
Figure 0007280393000007
及び第2損失値
Figure 0007280393000008
に対して加重処理を行い、マッチング予測モデルの損失値
Figure 0007280393000009
を取得することができる。
Figure 0007280393000010
上記の式(1)では、
Figure 0007280393000011
は、マッチング予測モデルの損失値を表し、
Figure 0007280393000012
は、一致点ペアに対応する第1損失値を表し、
Figure 0007280393000013
は、不一致点ペアに対応する第2損失値を表し、
Figure 0007280393000014
は、それぞれ、第1損失値
Figure 0007280393000015
の重み、第2損失値
Figure 0007280393000016
の重みを表す。
一実施形態において、式(2)を参照すると、訓練装置は、一致点ペアの第1数量
Figure 0007280393000017
及び不一致点ペアの第2数量
Figure 0007280393000018
Figure 0007280393000019
をそれぞれ統計してもよく、それによって、一致点ペアの予測一致値と実際の一致値との間の差値、及び第1数量を用いて、第1損失値を決定することもできる。
Figure 0007280393000020
上記の式(2)では、
Figure 0007280393000021
は第1損失値を表し、
Figure 0007280393000022
は第1数量を表し、
Figure 0007280393000023
は、それぞれ、一致点ペアの実際の一致値及び予測一致値を表す。
式(3)を参照すると、訓練装置は、不一致点ペアの予測一致値と実際の一致値との間の差値、及び第2数量を用いて、第2損失値を決定することもできる。
Figure 0007280393000024
上記の式(3)では、
Figure 0007280393000025
は第2損失値を表し、
Figure 0007280393000026
は第2数量を表し、
Figure 0007280393000027
は、それぞれ、不一致点ペアの実際の一致値及び予測一致値を表し、加えて、不一致点ペアの実際の一致値
Figure 0007280393000028
は、事前設定された値(例えば、0)に統一に設定されてもよい。
ステップS14において、損失値を用いて、マッチング予測モデルのパラメータを調整する。
本開示の実施例において、訓練装置は、確率的勾配降下法(SGD:Stochastic Gradient Descent)、バッチ勾配降下法(BGD:Batch Gradient Descent)、ミニバッチ勾配降下法(Mini-Batch Gradient Descent、MBGD)などにより、損失値を用いてマッチング予測モデルのパラメータを調整し、ここで、バッチ勾配降下法は、反復するたびに、全てのサンプルを用いてパラメータ更新を行うことを指し、確率的勾配降下法は、反復するたびに、1つのサンプルを用いてパラメータ更新を行うことを指し、ミニバッチ勾配降下法は、反復するたびに、1バッチのサンプルを用いてパラメータ更新を行うことを指し、ここでは繰り返して説明しない。
一実施形態において、訓練終了条件を設定することもでき、訓練終了条件を満たす場合、訓練装置は、マッチング予測モデルへの訓練を終了することができる。ここで、訓練終了条件は、損失値が事前設定された損失閾値より小さく、且つ損失値はこれ以上低下しないこと、現在の訓練回数が事前設定された回数閾値(例えば、500回、1000回など)に達することであってもよく、ここでは特に限定しない。
上記の法案によれば、サンプル画像及びマップデータを用いてサンプルマッチングデータを構築し、サンプルマッチングデータは、いくつかのグループの点ペア及び各グループの点ペアの実際の一致値を含み、各グループの点ペアの2つの点はそれぞれサンプル画像及びマップデータから取得されたものであり、マッチング予測モデルを用いていくつかのグループの点ペアに対して予測処理を行い、点ペアの予測一致値を取得し、実際の一致値及び前記予測一致値を用いて、マッチング予測モデルの損失値を決定し、損失値を用いてマッチング予測モデルのパラメータを調整することにより、マッチング予測モデルを用いて一致関係を確立することができる。それによって、視覚位置決めの実行中、マッチング予測モデルを用いて点ペア間の一致値を予測することができ、したがって、予測された一致値に基づいて、一致値の高い点ペアを優先的にサンプリングし、位置決め対象となる画像の姿勢パラメータを決定することができ、これによって、視覚位置決めの精度と即時性を向上させるのに役に立つことができる。
図3を参照すると、図3は、図1のステップS11の一実施例の例示的なフローチャートである。ここで、訓練装置は、次のステップによって、サンプルマッチングデータを取得することができる。
ステップS111において、サンプル画像からいくつかの画像点を取得し、マップデータからいくつかのマップ点を取得し、これらによって、いくつかのグループの点ペアを構成する。
いくつかのグループの点ペアは、含まれた画像点とマップ点との間に一致する少なくとも1つのグループの一致点ペアを含み、つまり、いくつかのグループの点ペアは、少なくとも、含まれた画像点及びマップ点が空間内の同一点に対応する一致点ペアを含む。サンプル画像が2次元画像であり、マップデータがSFM再構築方式によって取得された疎らな点群モデルであることを例とし、いくつかのグループの点ペアは、少なくとも、1つの三角測量された点及び当該三角測量された点に対応する疎らな点群モデルの3次元点を含む。
一実施形態において、いくつかのグループの点ペアは、含まれた画像点とマップ点との間に一致しない少なくとも1つのグループの不一致点ペアを含み、つまり、いくつかのグループの点ペアは、含まれた画像点及びマップ点が空間内の異なる点に対応する不一致点ペアを含んでもよい。依然として、サンプル画像が2次元画像であり、マップデータがSFM再構築方式によって取得された疎らな点群モデルであることを例として、いくつかのグループの点ペアは、三角測量されていない点及び疎らな点群モデルの任意の点を含んでもよく、これによって、不グループの一致点ペアを構成する。これにより、サンプルマッチングデータにノイズを追加することができるため、マッチング予測モデルのロバスト性を向上させることができる。
一実施形態において、図4を参照すると、図4は、図3のステップS111の一実施例の例示的なフローチャートである。ここで、訓練装置は、次のステップによって、いくつかのグループの点ペアを取得することができる。
ステップS41において、サンプル画像内の画像点を第1画像点及び第2画像点に分割する。
本開示の実施例において、マップデータには第1画像点に一致するマップ点があり、マップデータには第2画像点に一致するマップ点がない。依然として、サンプル画像が2次元画像であり、マップデータがSFM再構築方式によって取得された疎らな点群モデルであることを例として、第1画像点は、サンプル画像内の三角測量された特徴点であってもよく、第2画像点は、サンプル画像内の三角測量されていない特徴点であってもよく、他の適用シナリオでは、これによって類推でき、ここでは特に限定しない。
一実施場面において、サンプル画像内の画像点はサンプル画像の特徴点である。別の実施形態において、特徴点の座標を正規化平面に変換してもよい。
ステップS42において、第1画像点のそれぞれについて、マップデータからいくつかの第1マップ点を割り当てて、第1画像点及び第1マップ点のそれぞれを第1点ペアとして使用し、ここで、第1マップ点は、第1画像点に一致するマップ点を含む。
第1画像点のそれぞれについて、マップデータからいくつかの第1マップ点を割り当てて、第1画像点及び第1マップ点のそれぞれを第1点ペアとして使用し、第1マップ点は、第1画像点に一致するマップ点を含む。一実施形態において、各第1画像点に割り当てられた第1マップ点の数は、同じでも異なってもよい。別の実施形態において、第1マップ点を割り当てる前に、分割された第1画像点からいくつかの第1画像点をランダムに抽出し、抽出された第1画像点に対して、マップデータからいくつかの第1マップ点を割り当て、第1画像点及び第1マップ点のそれぞれを第1点ペアとして使用するステップを実行してもよく、ここでは特に限定しない。一実施形態において、分割された第1画像点からN個の点をランダムに抽出し、抽出されたN個の第1画像点のそれぞれに対して、マップデータからK個の第1マップ点を割り当て、ランダムに割り当てられたK個の第1マップ点は、第1画像点に一致するマップ点を含む。
ステップS43において、第2画像点のそれぞれについて、マップデータからいくつかの第2マップ点を割り当てて、第2画像点及び第2マップ点のそれぞれを第2点ペアとして使用する。
第2画像点のそれぞれについて、マップデータからいくつかの第2マップ点を割り当てて、第2画像点及び第2マップ点のそれぞれを第2点ペアとして使用する。一実施形態において、各第2画像点に割り当てられた第2マップ点の数は、同じでも異なってもよい。別の実施形態において、第2マップ点を割り当てる前に、分割された第2画像点からいくつかの第2画像点をランダムに抽出し、抽出された第2画像点に対して、マップデータからいくつかの第2マップ点を割り当て、第2画像点及び第2マップ点のそれぞれを第2点ペアとして使用するステップを実行してもよく、ここでは特に限定しない。一実施形態において、可分割された第2画像点からM個の点をランダムに抽出し、抽出されたM個の第2画像点のそれぞれに対して、マップデータからK個の第2マップ点を割り当てることができる。
一実施形態において、各第1点ペアと各第2点ペアが一致点ペアであるかどうかを明確にするために、各第1点ペア及び各第2点ペアをトラバースし、第1識別子(例えば、1)を用いて一致点ペアを標識し、第2識別子(例えば、0)を用いて不一致点ペアを標識してもよい。
上記のステップS42及びステップS43は、前後順番に従って実行でき、例えば、ステップS42を実行してから、ステップS43を実行し、又は、ステップS43を実行してから、ステップS42を実行してもよく、更に、上記のステップS42及びステップS43は同時に実行されてもよく、ここでは特に限定しない。
ステップS44において、第1点ペア及び第2点ペアからいくつかのグループの点ペアを抽出する。
本開示の実施例において、第1点ペア及び第2点ペアからランダムに抽出して、いくつかのグループの点ペアをサンプルマッチングデータとして取得する。一実施形態において、第1点ペア及び第2点ペアをランダムに数回抽出することにより、いくつかのサンプルマッチングデータを取得してもよい。別の実施形態において、複数のサンプル画像及びマップデータを取得し、各サンプル画像及びマップデータに対して上記のステップを繰り返し実行して、複数のサンプルマッチングデータを取得してもよく、それによって、サンプルの数量を向上させ、マッチング予測モデルの精度を向上させるのに役に立つことができる。
ステップS112において、各グループの一致点ペアについて、姿勢パラメータを用いてマップ点をサンプル画像が属する次元に投影して、マップ点の投影点を取得し、画像点と投影点との間の差に基づいて、一致点ペアの実際の一致値を決定する。
各グループの一致点ペアについて、それらに対応するサンプル画像の姿勢パラメータを用いてマップ点をサンプル画像が属する次元に投影して、マップ点の投影点を取得することができる。依然として、サンプル画像が2次元画像であり、マップデータがSFM再構築方式によって取得された疎らな点群モデルであることを例として、訓練装置は、姿勢パラメータを用いて3次元点を再度投影して、その投影点を取得することができる。
一実施形態において、事前設定された確率分布関数を用いて、画像点とその投影点との間の差を確率密度値に変換して、一致点ペアの実際の一致値として使用することができる。一実施形態において、事前設定された確率分布関数は、標準ガウス分布関数であってもよく、これにより、値の範囲を負の無限大と正の無限大との間の差から対応する確率密度値に変換させ、差の絶対値が大きいほど、対応する確率密度値が小さく、これに対応して、点ペアの一致度が低いほど、差の絶対値が小さく、対応する確率密度値も小さいことを表し、相対的に、点ペアの一致度が高いほど、差の絶対値が0である場合、それに対応する確率密度値が最大であることを表す。
一実施形態において、姿勢パラメータを用いてマップ点をサンプル画像が属する次元に投影する前に、訓練装置は、一致点ペアに基づいて、サンプル画像の姿勢パラメータを計算してもよく、ここで、BA(Bundle Adjustment)を使用して姿勢パラメータを計算し、姿勢パラメータを用いてマップ点をサンプル画像が属する次元に投影して、マップ点の投影点を取得することができる。
一実施形態において、不一致点ペアの実際の一致値を0に設定するなど、不一致点ペアの実際の一致値を、事前設定された値に設定してもよい。
上記の実施例との違いとして、サンプル画像からいくつかの画像点を取得し、マップデータからいくつかのマップ点を取得し、これらによって、いくつかのグループの点ペアを構成し、いくつかのグループの点ペアは、含まれた画像点とマップ点との間に一致する少なくとも1つのグループの一致点ペアを含み、これによって、マッチング予測モデルを訓練するためのサンプルを生成することができ、各グループの一致点ペアについて、姿勢パラメータを用いてマップ点をサンプル画像が属する次元に投影して、マップ点の投影点を取得し、画像点と投影点との間の差に基づいて、一致点ペアの実際の一致値を決定することにより、訓練過程中マッチング予測モデルに一致点ペアの幾何学的特徴を学習させることができ、これによって、マッチング予測モデルの精度を向上させるのに役に立つ。
図5を参照すると、図5は、本開示に係る視覚位置決め方法の一実施例の例示的なフローチャートである。視覚位置決め方法は、次のステップを含み得る。
ステップS51において、位置決め対象となる画像とマップデータとを用いて、認識対象となるマッチングデータを構築する。
本開示の実施例において、認識対象となるマッチングデータは、いくつかのグループの点ペアを含み、各グループの点ペアの2つの点はそれぞれ位置決め対象となる画像及びマップデータから取得されたものである。ここで、位置決め対象となる画像及びマップデータが属する次元は2次元又は3次元であってもよく、ここでは特に限定しない。例えば、位置決め対象となる画像は2次元画像であってもよく、又は、位置決め対象となる画像はRGB-D画像であってもよく、ここでは特に限定しない。マップデータは、単純な2次元画像で構成されてもよく、3次元点群マップで構成されてもよく、2次元画像と3次元点群との組み合わせによって構成されてもよく、ここでは特に限定しない。
ステップS52において、マッチング予測モデルを用いていくつかのグループの点ペアに対して予測処理を行い、点ペアの予測一致値を取得する。
マッチング予測モデルは、サンプルマッチングデータによって事前に訓練されたニューラルネットワークモデルである。一実施形態において、マッチング予測モデルは、上記の任意のマッチング予測モデルの訓練方法の実施例におけるステップによって訓練されたものであってもよく、ここで、訓練ステップは、上記の実施例におけるステップを参照することができ、ここでは繰り返して説明しない。
マッチング予測モデルを用いていくつかのグループの点ペアに対して予測処理を行うことにより、認識対象となるマッチングデータの点ペアの予測一致値を取得することができる。一実施形態において、認識対象となるマッチングデータは2部グラフであり、2部グラフは、いくつかのグループの点ペアと各グループの点ペアを連結する連結辺を含み、マッチング予測モデルは、位置決め対象となる画像が属する次元に対応する第1点特徴抽出サブモデル、マップデータが属する次元に対応する第2点特徴抽出サブモデル、及び辺特徴抽出サブモデルを含み、それによって、第1点特徴抽出サブモデル及び第2点特徴抽出サブモデルを用いて2部グラフに対して特徴抽出を行い、第1特徴及び第2特徴を取得し、辺特徴抽出サブモデルを用いて第1特徴及び第2特徴に対して特徴抽出を実行して、第3特徴を取得し、更に、第3特徴を用いて、連結辺に対応する点ペアの予測一致値を取得することができる。ここで、上記の実施例におけるステップを参照することができ、ここでは繰り返して説明しない
ステップS53において、点ペアの予測一致値に基づいて、位置決め対象となる画像のカメラデバイスの姿勢パラメータを決定する。
認識対象となるマッチングデータの点ペアの予測一致値によって、優先的に、比較的高い予測一致値を有する点ペアを用いて、位置決め対象となる画像のカメラデバイスの姿勢パラメータを決定することができる。一実施形態において、比較的高い予測一致値を有するn個の点ペアを用いて、PnP(Perspective-n-Point)問題を構築し、それによって、EPnP(Efficient PnP)などの方式によりPnP問題を解き、位置決め対象となる画像のカメラデバイスの姿勢パラメータを取得することができる。別の実施形態において、予測一致値に従っていくつかのグループの点ペアを降順に配列し、前の予め設定された数量のグループの点ペアを用いて、位置決め対象となる画像のカメラデバイスの姿勢パラメータを決定してもよい。ここで、前の予め設定された数量は、実際の状況に応じて設定でき、例えば、配列された後のいくつかのグループの点ペアのうち、予測一致値が0ではない点ペアを前の予め設定された数量のグループの点ペアとして使用し、又は、配列された後のいくつかのグループの点ペアのうち、予測一致値が下限値より大きい点ペアを前の予め設定された数量のグループの点ペアとして使用してもよく、前の予め設定された数量は、実際の応用に応じて設定でき、ここでは特に限定しない。ここでは、プログレッシブ均一サンプリング(PROSAC:PROgressive SAmple Consensus)などにより、配列された後の点ペアを処理して、位置決め対象となる画像のカメラデバイスの姿勢パラメータを取得することもできる。一実施形態において、位置決め対象となる画像のカメラデバイスの姿勢パラメータは、マップデータが属するマップ座標系におけるカメラデバイスの6つの自由度(DoF:Degree of freedom)を含み得、前記6つの自由度は、姿勢(pose)、つまり座標、及びx軸の周りの偏向ヨー(yaw角)、y軸の周りの偏向ピッチ(pitch角)、z軸の周りの偏向ロール(roll角)を含む。
上記の方案により、位置決め対象となる画像とマップデータとを用いて、認識対象となるマッチングデータを構築し、認識対象となるマッチングデータは、いくつかのグループの点ペアを含み、各グループの点ペアの2つの点は、位置決め対象となる画像及びマップデータから取得されたものであり、マッチング予測モデルを用いていくつかのグループの点ペアに対して予測処理を行い、点ペアの予測一致値を取得し、点ペアの予測一致値に基づいて、位置決め対象となる画像のカメラデバイスの姿勢パラメータを決定し、これによって、視覚位置決めの実行中、マッチング予測モデルを用いて点ペア間の一致値を予測して一致関係を確立することができ、これによって、視覚位置決めの精度と即時性を向上させるのに役に立つことができる。
図6を参照すると、図6は、本開示のマッチング予測モデルの訓練装置60の一実施例の框フレームワークの概略図である。マッチング予測モデルの訓練装置60は、サンプル構築部61、予測処理部62、損失決定部63及びパラメータ調整部64を備え、サンプル構築部61は、サンプル画像及びマップデータを用いて、サンプルマッチングデータを構築するように構成され、ここで、サンプルマッチングデータは、いくつかのグループの点ペア及び各グループの点ペアの実際の一致値を含み、各グループの点ペアの2つの点はそれぞれサンプル画像及びマップデータから取得されたものであり、予測処理部62は、マッチング予測モデルを用いていくつかのグループの点ペアに対して予測処理を行い、点ペアの予測一致値を取得するように構成され、損失決定部63は、実際の一致値及び前記予測一致値を用いて、マッチング予測モデルの損失値を決定するように構成され、パラメータ調整部64は、損失値を用いて、マッチング予測モデルのパラメータを調整するように構成される。
上記の方案により、マッチング予測モデルを用いて一致関係を確立することができ、それによって、視覚位置決め中、マッチング予測モデルを用いて点ペア間の一致値を予測することができ、したがって、予測された一致値に基づいて、一致値の高い点ペアを優先的にサンプリングすることができ、よって、視覚位置決めの精度と即時性を向上させるのに役に立つことができる。
いくつかの実施例において、サンプル構築部61は、サンプル画像からいくつかの画像点を取得し、マップデータからいくつかのマップ点を取得し、これらによって、いくつかのグループの点ペアを構成するように構成される点ペア取得サブ部を備え、いくつかのグループの点ペアは、含まれた画像点とマップ点との間に一致する少なくとも1つのグループの一致点ペアを含み、サンプル構築部61は、各グループの一致点ペアについて、姿勢パラメータを用いてマップ点をサンプル画像が属する次元に投影して、マップ点の投影点を取得し、画像点と投影点との間の差に基づいて、一致点ペアの実際の一致値を決定するように構成される第1一致値の決定サブ部を備える。
上記の実施例との違いとして、サンプル画像からいくつかの画像点を取得し、マップデータからいくつかのマップ点を取得し、これらによって、いくつかのグループの点ペアを構成し、いくつかのグループの点ペアは、含まれた画像点とマップ点との間に一致する少なくとも1つのグループの一致点ペアを含み、これによって、マッチング予測モデルを訓練するためのサンプルを生成することができ、各グループの一致点ペアについて、姿勢パラメータを用いてマップ点をサンプル画像が属する次元に投影して、マップ点の投影点を取得し、画像点と投影点との間の差に基づいて、一致点ペアの実際の一致値を決定することにより、訓練過程中マッチング予測モデルに一致点ペアの幾何学的特徴を学習させることができ、これによって、マッチング予測モデルの精度を向上させるのに役に立つ。
いくつかの実施例において、いくつかのグループの点ペアは、含まれた画像点とマップ点との間に一致しない少なくとも1つのグループの不一致点ペアを含み、サンプル構築部61は、不一致点ペアの実際の一致値を、事前設定された値に設定するように構成される第2一致値の決定サブ部を備える。
上記の実施例との違いとして、いくつかのグループの点ペアは、含まれた画像点とマップ点との間に一致しない少なくとも1つのグループの不一致点ペアを含み、一致点ペアと区別させるために、不一致点ペアの実際の一致値を、事前設定された値に設定し、それによって、マッチング予測モデルのロバスト性を向上させるのに役に立つ。
いくつかの実施例において、点ペア取得サブ部は、サンプル画像内の画像点を第1画像点及び第2画像点に分割するように構成される画像点分割部分を備え、マップデータには第1画像点に一致するマップ点があり、マップデータには第2画像点に一致するマップ点がなく、点ペア取得サブ部は、第1画像点のそれぞれについて、マップデータからいくつかの第1マップ点を割り当てて、第1画像点及び第1マップ点のそれぞれを第1点ペアとして使用するように構成される第1点ペア取得部を備え、ここで、第1マップ点は、第1画像点に一致するマップ点を含み、点ペア取得サブ部は、第2画像点のそれぞれについて、マップデータからいくつかの第2マップ点を割り当てて、第2画像点及び第2マップ点のそれぞれを第2点ペアとして使用するように構成される第2点ペア取得部を備え、点ペア取得サブ部は、第1点ペア及び第2点ペアからいくつかのグループの点ペアを抽出するように構成される点ペア抽出部分を備える。
上記の実施例との違いとして、サンプル画像内の画像を第1画像点及び第2画像点に分割し、マップには第1画像点に一致するマップ点があり、画像データには第2画像点に一致する画像点がなく、第1画像点について、マップデータからいくつかの第1マップ点を割り当てて、第1画像点及び第1マップ点のそれぞれを第1点ペアとして使用し、第1マップ点は、第1画像点に一致するマップ点を含み、第2画像点のそれぞれについて、マップデータからいくつかの第2マップ点を割り当てて、第2画像点及び第2マップ点のそれぞれを第2点ペアとして使用し、第1点ペア及び第2点ペアからいくつかのグループの点ペアを抽出することにより、数が多くて不一致点ペア及び一致点ペアを含む、マッチング予測モデルを訓練するためのいくつかのグループの点ペアを構築することができ、これによって、マッチング予測モデルの精度を向上させるのに役に立つ。
いくつかの実施例において、第1一致値の決定サブ部は、一致点ペアに基づいて、サンプル画像の姿勢パラメータを計算するように構成される姿勢計算部を備え、第1一致値の決定サブ部は、姿勢パラメータを用いてマップ点をサンプル画像が属する次元に投影して、マップ点の投影点を取得するように構成される投影部を備える。
上記の実施例との違いとして、一致点ペアを用いて、サンプル画像の姿勢パラメータを計算し、姿勢パラメータを用いてマップ点をサンプル画像が属する次元に投影して、マップ点の投影点を取得することにより、投影点と画像点との間の差の精度を向上させるのに役に立つことができ、よって、マッチング予測モデルの精度を向上させるのに役に立つことができる。
いくつかの実施例において、第1一致値の決定サブ部は、事前設定された確率分布関数を用いて差を確率密度値に変換して、一致点ペアの実際の一致値として使用するように構成される確率密度変換部を備える。
上記の実施例との違いとして、事前設定された確率分布関数を用いて差を確率密度値に変換して、一致点ペアの実際の一致値として使用することによって、投影点と画像点との間の差を正確に表すのに役に立つことができ、よって、マッチング予測モデルの精度を向上させるのに役に立つことができる。
いくつかの実施例において、サンプルマッチングデータは2部グラフであり、2部グラフは、いくつかのグループの点ペアと各グループの点ペアを連結する連結辺を含み、連結辺には、点ペアに対応する実際の一致値が注釈され、マッチング予測モデルは、サンプル画像が属する次元に対応する第1点特徴抽出サブモデル、マップデータが属する次元に対応する第2点特徴抽出サブモデル及び辺特徴抽出サブモデルを含み、予測処理部62は、第1点特徴抽出サブモデル及び第2点特徴抽出サブモデルを用いて2部グラフに対して特徴抽出を行い、第1特徴及び第2特徴を取得するように構成される点特徴抽出サブ部を備え、予測処理部62は、辺特徴抽出サブモデルを用いて第1特徴及び第2特徴に対して特徴抽出を実行して、第3特徴を取得するように構成される辺特徴抽出サブ部を備え、予測処理部62は、第3特徴を用いて、連結辺に対応する点ペアの予測一致値を取得するように構成される予測サブ部を備える。
上記の実施例との違いとして、2部グラフに対して点特徴抽出及び辺特徴抽出を行い、それによって、マッチング予測モデルに、配的空間幾何学的構造を効果的に感知させることができ、よって、マッチング予測モデルの精度を向上させるのに役に立つことができる。
いくつかの実施例において、第1点特徴抽出サブモデル及び第2点特徴抽出サブモデルの構造は、少なくとも1つの残差ブロックを含むか、少なくとも1つの残差ブロック及び少なくとも1つの空間変換ネットワークを含み、及び/又は、辺特徴抽出サブモデルは、少なくとも1つの残差ブロックを含む。
上記の実施例との違いとして、第1点特徴抽出サブモデル及び第2点特徴抽出サブモデルの構造を、少なくとも1つの残差ブロックを含むか、少なくとも1つの残差ブロック及び少なくとも1つの空間変換ネットワークを含むように設定し、辺特徴抽出サブモデルを少なくとも1つの残差ブロックを含むように設定し、これによって、マッチング予測モデルを最適化するのに役に立ち、マッチング予測モデルの精度を向上させることができる。
いくつかの実施例において、いくつかのグループの点ペアは、含まれた画像点とマップ点との間に一致する少なくとも1つのグループの一致点ペア及び含まれた画像点とマップ点との間に一致しない少なくとも1つのグループの不一致点ペアを含み、損失決定部63は、一致点ペアの予測一致値及び実際の一致値を用いて、マッチング予測モデルの第1損失値を決定するように構成される第1損失決定サブ部を備え、損失決定部63は、不一致点ペアの予測一致値及び実際の一致値を用いて、マッチング予測モデルの第2損失値を決定するように構成される第2損失決定サブ部を備え、損失決定部63は、第1損失値及び第2損失値に対して加重処理を行い、マッチング予測モデルの損失値を取得するように構成される損失加重サブ部を備える。
上記の実施例との違いとして、一致点ペアの予測一致値及び実際の一致値を用いて、マッチング予測モデルの第1損失値を決定し、不一致点ペアの予測一致値及び実際の損失値を用いて、マッチング予測モデルの第2損失値を決定することにより、第1損失値及び第2損失値に対して加重処理を行い、マッチング予測モデルの損失値を取得し、これによって、マッチング予測モデルに、一致する空間幾何学的構造を効果的に感知させるのに役たつことができ、よって、マッチング予測モデルの精度を向上させる。
いくつかの実施例において、損失決定部63は更に、一致点ペアの第1数量、及び不一致点ペアの第2数量をそれぞれ統計するように構成される数量統計サブ部と、一致点ペアの予測一致値と実際の一致値との間の差値、及び第1数量を用いて、第1損失値を決定するように構成される第1損失決定サブ部と、不一致点ペアの予測一致値と実際の一致値との間の差値、及び第2数量を用いて、第2損失値を決定するように構成される第2損失決定サブ部と、を備える。
上記の実施例との違いとして、一致点ペアの第1数量、及び不一致点ペアの第2数量を統計することにより、一致点ペアの予測一致値と実際の一致値との間の差値、及び第1数量を用いて、第1損失値を決定し、不一致点ペアの予測一致値と実際の一致値との間の差、及び第2数量を用いて、第2損失値を決定し、これによって、マッチング予測モデルの損失値の精度を向上させるのに役に立ち、マッチング予測モデルの精度を向上させるのに役に立つことができる。
いくつかの実施例において、サンプル画像が属する次元は2次元又は3次元であり、マップデータが属する次元は2次元又は3次元である。
上記の実施例との違いとして、サンプル画像及びマップデータが属する次元を設定することにより、2次元-2次元のマッチング予測モデルを訓練することができ、又は2次元-3次元のマッチング予測モデルを訓練することができ、又は3次元-3次元のマッチング予測モデルを訓練することができ、それによって、マッチング予測モデルの適用範囲を向上させることができる。
図7を参照すると、図7は、本開示に係る視覚位置決め装置70の一実施例のフレームワークの概略図である。視覚位置決め装置70は、データ構築部71、予測処理部72及びパラメータ決定部73を備え、データ構築部71は、位置決め対象となる画像とマップデータとを用いて、認識対象となるマッチングデータを構築するように構成され、ここで、認識対象となるマッチングデータは、いくつかのグループの点ペアを含み、各グループの点ペアの2つ点は、位置決め対象となる画像及びマップデータから取得されたものであり、予測処理部72は、マッチング予測モデルを用いていくつかのグループの点ペアに対して予測処理を行い、点ペアの予測一致値を取得するように構成され、パラメータ決定部73は、点ペアの予測一致値に基づいて、位置決め対象となる画像のカメラデバイスの姿勢パラメータを決定するように構成される。
上記の方案により、マッチング予測モデルを用いて一致関係を確立することができ、それによって、視覚位置決め中、マッチング予測モデルを用いて点ペア間の一致値を予測して一致関係を確立することができ、よって、視覚位置決めの精度と即時性を向上させるのに役に立つことができる。
いくつかの実施例において、パラメータ決定部73は、予測一致値に従っていくつかのグループの点ペアを降順に配列するように構成される点ペア配列サブ部を備え、パラメータ決定部73は更に、前の予め設定された数量のグループの点ペアを用いて、位置決め対象となる画像のカメラデバイスの姿勢パラメータを決定するように構成されるパラメータ決定サブ部を備える。
本開示の実施例および他の実施例において、「部分」は、部分回路、部分プロセッサ、部分プログラムまたはソフトウェア等であってもよく、もちろん、ユニットであってもよく、モジュールまたは非モジュール化であってもよいことを理解することができる。
上記の実施例との違いとして、予測一致値に従っていくつかのグループの点ペアを降順に配列し、前の予め設定された数量のグループの点ペアを用いて、位置決め対象となる画像のカメラデバイスの姿勢パラメータを決定することにより、配列された後の点ペアでインクリメンタルサンプリングを実行するのに役に立つことができ、一致値が高い点ペアを優先的にサンプリングするため、幾何学的演繹により姿勢パラメータを解くように導くことができ、それによって、視覚位置決めの精度と即時性を向上させることができる。
いくつかの実施例において、マッチング予測モデルは、上記の任意のマッチング予測モデルの訓練装置の実施例におけるマッチング予測モデルの訓練装置によって訓練されたものである。
上記の実施例との違いとして、上記の任意のマッチング予測モデルの訓練装置の実施例におけるマッチング予測モデルの訓練装置によって取得されたマッチング予測モデルに対して視覚位置決めを行うことにより、視覚位置決めの精度と即時性を向上させることができる。
図8を参照すると、本開示に係る電子機器80の一実施例のフレームワークの概略図である。電子機器80は、互に結合されているメモリ81とプロセッサ82とを備え、プロセッサ82は、メモリ81に記憶されているプログラム命令を実行することにより、上記の任意のマッチング予測モデルの訓練方法の実施例におけるステップ、又は上記の任意の視覚位置決め方法の実施例におけるステップを実現するように構成される。一実施形態において、電子機器80は、携帯電話、タブレットコンピュータなどのモバイル機器を含んでもよいが、これらに限定されず、ここでは特に限定しない。
ここで、プロセッサ82は、それ自身とメモリ81を制御することにより、上記の任意のマッチング予測モデルの訓練方法の実施例におけるステップ、又は上記の任意の視覚位置決め方法の実施例におけるステップを実現するように構成される。プロセッサ82は、中央処理装置(CPU:Central Processing Unit)とも呼ばれる。プロセッサ82は、信号処理機能を備えた集積回路チップであり得る。上述のプロセッサ82は、汎用プロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、特定用途向け集積回路(ASIC:Application Specific Integrated Circuit)、フィールドプログラマブルゲートアレイ(FPGA:Field Programmable Gate Array)または他のプログラマブルロジックデバイス、ディスクリートゲートまたはトランジスタロジックデバイス、ディスクリートハードウェアコンポーネントなどであってもよい。汎用プロセッサは、マイクロプロセッサであってもよく、任意の従来のプロセッサなどであってもよい。さらに、プロセッサ82は、集積回路チップによって共同で実現されることができる。
上記の方案により、マッチング予測モデルを用いて一致関係を確立することができ、それによって、視覚位置決め中、マッチング予測モデルを用いて点ペア間の一致値を予測することができ、したがって、予測された一致値に基づいて、一致値の高い点ペアを優先的にサンプリングすることができ、よって、視覚位置決めの精度と即時性を向上させるのに役に立つことができる。
図9を参照ると、図9は、本開示に係るコンピュータ可読記憶媒体90の一実施例のフレームワークの概略図である。コンピュータ可読記憶媒体90には、プロセッサによって実行可能なプログラム命令901が記憶され、プログラム命令901は、上記の任意のマッチング予測モデルの訓練方法の実施例におけるステップ、又は上記の任意の視覚位置決め方法の実施例におけるステップを実現するように構成される。
上記の方案により、マッチング予測モデルを用いて一致関係を確立することができ、それによって、視覚位置決め中、マッチング予測モデルを用いて点ペア間の一致値を予測することができ、したがって、予測された一致値に基づいて、一致値の高い点ペアを優先的にサンプリングすることができ、よって、視覚位置決めの精度と即時性を向上させるのに役に立つことができる。
本開示に係るいくつかの実施例において、開示された方法及び装置は、他の方式で実現できることを理解されたい。例えば、上記の装置の実施形態は例示的なものに過ぎず、例えば、モジュール又はユニットの分割は、論理機能の分割に過ぎず、実際の実現では、他の分割方式が存在でき、例えば、ユニット又はコンポーネントを組み合わせたり、別のシステムに統合したり、又は一部の特徴を無視したり、又は実行しないことができる。さらに、表示又は議論される相互結合又は直接結合又は通信接続は、いくつかのインターフェースを介して実現でき、装置又はユニット間の間接的な結合又は通信接続は、電気的又は機械的な形であってもよく、他の形であってもよい。
分離部材として説明されたユニットは、物理的に分離されている場合とされていない場合があり、ユニットとして表示された部材は、物理ユニットである場合もそうでない場合もあり、1箇所に配置される場合もあれば、ネットワークユニットに分散される場合もある。実際の必要に応じて、上記のユニットの一部又は全部を選択して、本実形態の技術案の目的を達成することができる。
また、本開示の各実施例における各機能ユニットを1つの処理ユニットに統合してもよく、各ユニットを別々に1つのユニットとして使用してもよく、2つ以上のユニットを1つのユニットに統合してもよい。前記統合されたユニットは、ハードウェアの形で実装されてもよく、ソフトウェア機能ユニットの形で実装されてもよい。
統合されたユニットがソフトウェア機能ユニットの形で実現され、スタンドアロン製品として販売または使用される場合、1つのコンピュータ可読記憶媒体に記憶されることができる。このような理解に基づいて、本開示の技術的解決策の本質的な部分、すなわち、先行技術に貢献のある部分、又は前記技術的解決策の全部又は一部は、ソフトウェア製品の形で具現されることができ、当該コンピュータソフトウェア製品は、1つの記憶媒体に記憶され、コンピュータ機器(パーソナルコンピュータ、サーバ、又はネットワーク機器等であり得る)又はプロセッサ(processor))に、本開示の各実施形態の方法のステップの全部又は一部を実行させるためのいくつかの命令を含む。上記の記憶媒体は、Uディスク、モバイルハードディスク、読み取り専用メモリ(ROM:Read-Only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)、磁気ディスクまたは光ディスクなどのプログラムコードを記憶することができる様々な媒体を含む。
本開示の実施例では、マッチング予測モデルを用いて一致関係を確立することができ、それによって、視覚位置決め中、マッチング予測モデルを用いて点ペア間の一致値を予測することができ、したがって、予測された一致値に基づいて、一致値の高い点ペアを優先的にサンプリングし、一致関係を確立することができ、よって、視覚位置決めの精度と即時性を向上させるのに役に立つことができる。

Claims (12)

  1. マッチング予測モデルの訓練方法であって、
    サンプル画像及びマップデータを用いて、サンプルマッチングデータを構築することであって、前記サンプルマッチングデータは、いくつかのグループの点ペア及び各グループの点ペアの実際の一致値を含み、各グループの点ペアの2つの点はそれぞれ前記サンプル画像及び前記マップデータから取得されたものである、ことと、
    マッチング予測モデルを用いて前記いくつかのグループの点ペアに対して予測処理を行い、前記点ペアの予測一致値を取得することと、
    前記実際の一致値及び前記予測一致値を用いて、前記マッチング予測モデルの損失値を決定することと、
    前記損失値を用いて、前記マッチング予測モデルのパラメータを調整することと、を含み、前記サンプル画像及びマップデータを用いて、サンプルマッチングデータを構築することは、
    前記サンプル画像からいくつかの画像点を取得し、前記マップデータからいくつかのマップ点を取得して、いくつかのグループの点ペアを構成することであって、前記いくつかのグループの点ペアは、含まれた画像点とマップ点との間に一致する少なくとも1つのグループの一致点ペアを含む、ことと、
    前記一致点ペアのそれぞれについて、前記サンプル画像の姿勢パラメータを用いて前記マップ点を前記サンプル画像が属する次元に投影して、前記マップ点の投影点を取得し、前記画像点と前記投影点との差に基づいて、前記一致点ペアの実際の一致値を決定することと、を含み、
    前記いくつかのグループの点ペアは、含まれた画像点とマップ点との間に一致しない少なくとも1つのグループの不一致点ペアを含み、前記サンプル画像及びマップデータを用いて、サンプルマッチングデータを構築することは、
    前記不一致点ペアの実際の一致値を、事前設定された値に設定することを更に含む、マッチング予測モデルの訓練方法。
  2. 前記サンプル画像からいくつかの画像点を取得し、前記マップデータからいくつかのマップ点を取得し、これらによって、いくつかのグループの点ペアを構成することは、
    前記サンプル画像内の画像点を第1画像点及び第2画像点に分割することであって、前記マップデータには前記第1画像点に一致する前記マップ点があり、前記マップデータには前記第2画像点に一致する前記マップ点がない、ことと、
    前記第1画像点のそれぞれについて、前記マップデータからいくつかの第1マップ点を割り当てて、前記第1画像点及び前記第1マップ点のそれぞれを第1点ペアとして使用することであって、前記第1マップ点は、前記第1画像点に一致する前記マップ点を含む、ことと、
    前記第2画像点のそれぞれについて、前記マップデータからいくつかの第2マップ点を割り当てて、前記第2画像点及び前記第2マップ点のそれぞれを第2点ペアとして使用することと、
    前記第1点ペア及び前記第2点ペアから、いくつかのグループの点ペアを抽出することと、を含む、
    請求項に記載の訓練方法。
  3. 前記サンプル画像の姿勢パラメータを用いて前記マップ点を前記サンプル画像が属する次元に投影して、前記マップ点の投影点を取得することは、
    前記一致点ペアに基づいて、前記サンプル画像の姿勢パラメータを計算することと、
    前記姿勢パラメータを用いて前記マップ点を前記サンプル画像が属する次元に投影して、前記マップ点の投影点を取得することと、を含み、
    及び/又は、前記画像点と前記投影点との間の差に基づいて、前記一致点ペアの実際の一致値を決定することは、
    事前設定された確率分布関数を用いて前記差を確率密度値に変換して、前記一致点ペアの実際の一致値として使用することを含む、
    請求項1又は2に記載の訓練方法。
  4. 前記サンプルマッチングデータは2部グラフであり、前記2部グラフは、いくつかのグループの点ペアと各グループの点ペアを連結する連結辺を含み、前記連結辺には、前記点ペアに対応する実際の一致値が注釈され、前記マッチング予測モデルは、前記サンプル画像が属する次元に対応する第1点特徴抽出サブモデル、前記マップデータが属する次元に対応する第2点特徴抽出サブモデル及び辺特徴抽出サブモデルを含み、
    前記マッチング予測モデルを用いて前記いくつかのグループの点ペアに対して予測処理を行い、前記点ペアの予測一致値を取得することは、
    それぞれ、前記第1点特徴抽出サブモデル及び前記第2点特徴抽出サブモデルを用いて前記2部グラフに対して特徴抽出を行い、第1特徴及び第2特徴を取得することと、
    前記辺特徴抽出サブモデルを用いて前記第1特徴及び前記第2特徴に対して特徴抽出を行い、第3特徴を取得することと、
    前記第3特徴を用いて、前記連結辺に対応する点ペアの予測一致値を取得することと、を含み、
    前記第1点特徴抽出サブモデル及び前記第2点特徴抽出サブモデルの構造は、少なくとも1つの残差ブロックを含むか、少なくとも1つの残差ブロック及び少なくとも1つの空間変換ネットワークを含み、
    及び/又は、前記辺特徴抽出サブモデルは、少なくとも1つの残差ブロックを含む、
    請求項1ないしのいずれか一項に記載の訓練方法。
  5. 前記いくつかのグループの点ペアは、含まれた画像点とマップ点との間に一致する少なくとも1つのグループの一致点ペアと、含まれた画像点とマップ点との間に一致しない少なくとも1つのグループの不一致点ペアとを含み、
    前記実際の一致値及び前記予測一致値を用いて、前記マッチング予測モデルの損失値を決定することは、
    前記一致点ペアの前記予測一致値及び前記実際の一致値を用いて、前記マッチング予測モデルの第1損失値を決定することと、
    前記不一致点ペアの前記予測一致値及び前記実際の一致値を用いて、前記マッチング予測モデルの第2損失値を決定することと、
    前記第1損失値及び前記第2損失値に対して加重処理を行い、前記マッチング予測モデルの損失値を取得することと、を含む、
    請求項1ないしのいずれか一項に記載の訓練方法。
  6. 前記一致点ペアの前記予測一致値及び前記実際の一致値を用いて、前記マッチング予測モデルの第1損失値を決定する前に、前記訓練方法は、
    前記一致点ペアの第1数量及び前記不一致点ペアの第2数量をそれぞれ統計することを更に含み、
    前記一致点ペアの前記予測一致値及び前記実際の一致値を用いて、前記マッチング予測モデルの第1損失値を決定することは、
    前記一致点ペアの前記予測一致値と前記実際の一致値との間の差値、及び前記第1数量を用いて、前記第1損失値を決定することを含み、
    前記不一致点ペアの前記予測一致値及び前記実際の一致値を用いて、前記マッチング予測モデルの第2損失値を決定することは、
    前記不一致点ペアの前記予測一致値と前記実際の一致値との間の差値、及び前記第2数量を用いて、前記第2損失値を決定することを含む、
    請求項に記載の訓練方法。
  7. 視覚位置決め方法であって、
    位置決め対象となる画像とマップデータとを用いて、認識対象となるマッチングデータを構築することであって、前記認識対象となるマッチングデータは、いくつかのグループの点ペアを含み、各グループの点ペアの2つの点は、前記位置決め対象となる画像及び前記マップデータから取得されたものである、ことと、
    マッチング予測モデルを用いて前記いくつかのグループの点ペアに対して予測処理を行い、前記点ペアの予測一致値を取得することと、
    前記点ペアの予測一致値に基づいて、前記位置決め対象となる画像のカメラデバイスの姿勢パラメータを決定することと、を含み、前記点ペアの予測一致値に基づいて、前記位置決め対象となる画像のカメラデバイスの姿勢パラメータを決定することは、
    前記予測一致値に従って前記いくつかのグループの点ペアを降順に配列することと、
    予め設定された数量のグループの前記点ペアを用いて、前記位置決め対象となる画像のカメラデバイスの姿勢パラメータを決定することと、を含み、
    前記マッチング予測モデルは、請求項1ないし6のいずれか一項に記載のマッチング予測モデルの訓練方法によって取得されたものである、視覚位置決め方法。
  8. マッチング予測モデルの訓練装置であって、
    サンプル画像及びマップデータを用いて、サンプルマッチングデータを構築するように構成されるサンプル構築部であって、前記サンプルマッチングデータは、いくつかのグループの点ペア及び各グループの点ペアの実際の一致値を含み、各グループの点ペアの2つの点はそれぞれ前記サンプル画像及び前記マップデータから取得されたものである、サンプル構築部と、
    マッチング予測モデルを用いて前記いくつかのグループの点ペアに対して予測処理を行い、前記点ペアの予測一致値を取得するように構成される予測処理部と、
    前記実際の一致値及び前記予測一致値を用いて、前記マッチング予測モデルの損失値を決定するように構成される損失決定部と、
    前記損失値を用いて、前記マッチング予測モデルのパラメータを調整するように構成されるパラメータ調整部と、を備え
    前記サンプル構築部は、
    前記サンプル画像からいくつかの画像点を取得し、前記マップデータからいくつかのマップ点を取得して、いくつかのグループの点ペアを構成するように構成される点ペア取得サブ部であって、前記いくつかのグループの点ペアは、含まれた画像点とマップ点との間に一致する少なくとも1つのグループの一致点ペアを含む、点ペア取得サブ部と、
    前記一致点ペアのそれぞれについて、前記サンプル画像の姿勢パラメータを用いて前記マップ点を前記サンプル画像が属する次元に投影して、前記マップ点の投影点を取得し、前記画像点と前記投影点との差に基づいて、前記一致点ペアの実際の一致値を決定するように構成される第1一致値の決定サブ部と、を備え、
    前記いくつかのグループの点ペアは、含まれた画像点とマップ点との間に一致しない少なくとも1つのグループの不一致点ペアを含み、前記サンプル構築部は、前記不一致点ペアの実際の一致値を、事前設定された値に設定するように構成される第2一致値の決定サブ部をさらに備える、マッチング予測モデルの訓練装置。
  9. 視覚位置決め装置であって、
    位置決め対象となる画像とマップデータとを用いて、認識対象となるマッチングデータを構築するデータ構築部であって、前記認識対象となるマッチングデータは、いくつかのグループの点ペアを含み、各グループの点ペアの2つの点は、前記位置決め対象となる画像及び前記マップデータから取得されたものである、データ構築部と、
    マッチング予測モデルを用いて前記いくつかのグループの点ペアに対して予測処理を行い、前記点ペアの予測一致値を取得するように構成される予測処理部と、
    前記点ペアの予測一致値に基づいて、前記位置決め対象となる画像のカメラデバイスの姿勢パラメータを決定するように構成されるパラメータ決定部と、を備え
    前記パラメータ決定部は、
    前記予測一致値に従って前記いくつかのグループの点ペアを降順に配列するように構成される点ペア配列サブ部と、
    前記の予め設定された数量のグループの前記点ペアを用いて、前記位置決め対象となる画像のカメラデバイスの姿勢パラメータを決定するように構成されるパラメータ決定サブ部と、を備え、
    前記マッチング予測モデルは、請求項8に記載のマッチング予測モデルの訓練装置によって訓練されたものである、視覚位置決め装置。
  10. 電子機器であって、
    互に結合されているメモリとプロセッサとを備え、前記プロセッサは、前記メモリに記憶されているプログラム命令を実行して、請求項1ないしのいずれか一項に記載のマッチング予測モデルの訓練方法、又は請求項に記載の視覚位置決め方法を実行する、電子機器。
  11. コンピュータに請求項1ないし6のいずれか一項に記載のマッチング予測モデルの訓練方法、又は請求項に記載の視覚位置決め方法を実行させるためのプログラムを記憶した、コンピュータ可読記憶媒体。
  12. コンピュータに請求項1ないしのいずれか一項に記載のマッチング予測モデルの訓練方法、又は請求項に記載の視覚位置決め方法を実行させる、コンピュータプログラム。
JP2021578181A 2020-10-16 2021-03-22 視覚位置決め方法、関連モデルの訓練方法及び関連装置並びに機器 Active JP7280393B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202011110569.5 2020-10-16
CN202011110569.5A CN112328715B (zh) 2020-10-16 2020-10-16 视觉定位方法及相关模型的训练方法及相关装置、设备
PCT/CN2021/082198 WO2022077863A1 (zh) 2020-10-16 2021-03-22 视觉定位方法及相关模型的训练方法及相关装置、设备

Publications (2)

Publication Number Publication Date
JP2023502819A JP2023502819A (ja) 2023-01-26
JP7280393B2 true JP7280393B2 (ja) 2023-05-23

Family

ID=74313967

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021578181A Active JP7280393B2 (ja) 2020-10-16 2021-03-22 視覚位置決め方法、関連モデルの訓練方法及び関連装置並びに機器

Country Status (5)

Country Link
JP (1) JP7280393B2 (ja)
KR (1) KR20220051162A (ja)
CN (1) CN112328715B (ja)
TW (1) TW202217662A (ja)
WO (1) WO2022077863A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112328715B (zh) * 2020-10-16 2022-06-03 浙江商汤科技开发有限公司 视觉定位方法及相关模型的训练方法及相关装置、设备
CN113240656B (zh) * 2021-05-24 2023-04-07 浙江商汤科技开发有限公司 视觉定位方法及相关装置、设备
CN113822916B (zh) * 2021-08-17 2023-09-15 北京大学 图像匹配方法、装置、设备及可读存储介质
KR20240018627A (ko) * 2021-11-30 2024-02-13 컨템포러리 엠퍼렉스 테크놀로지 씨오., 리미티드 기계 비전 검측방법, 이의 검측장치 및 이의 검측시스템
CN114998600B (zh) * 2022-06-17 2023-07-25 北京百度网讯科技有限公司 图像处理方法、模型的训练方法、装置、设备及介质
CN117351306B (zh) * 2023-12-04 2024-03-22 齐鲁空天信息研究院 三维点云投影位姿求解器训练方法、确定方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110009722A (zh) 2019-04-16 2019-07-12 成都四方伟业软件股份有限公司 三维重建方法及装置
CN111260726A (zh) 2020-02-07 2020-06-09 北京三快在线科技有限公司 一种视觉定位方法及装置
CN111414968A (zh) 2020-03-26 2020-07-14 西南交通大学 一种基于卷积神经网络特征图的多模态遥感影像匹配方法
CN111476251A (zh) 2020-03-26 2020-07-31 中国人民解放军战略支援部队信息工程大学 一种遥感影像匹配方法及装置
CN111627065A (zh) 2020-05-15 2020-09-04 Oppo广东移动通信有限公司 一种视觉定位方法及装置、存储介质
CN111627050A (zh) 2020-07-27 2020-09-04 杭州雄迈集成电路技术股份有限公司 一种目标跟踪模型的训练方法和装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI356355B (en) * 2007-12-03 2012-01-11 Inst Information Industry Motion transition method and system for dynamic im
CN102236798B (zh) * 2011-08-01 2012-12-05 清华大学 一种图像匹配方法及其装置
EP3248029A4 (en) * 2015-01-19 2018-10-03 The Regents of the University of Michigan Visual localization within lidar maps
US9934587B2 (en) * 2016-06-30 2018-04-03 Daqri, Llc Deep image localization
CN107967457B (zh) * 2017-11-27 2024-03-19 全球能源互联网研究院有限公司 一种适应视觉特征变化的地点识别与相对定位方法及系统
CN109658445A (zh) * 2018-12-14 2019-04-19 北京旷视科技有限公司 网络训练方法、增量建图方法、定位方法、装置及设备
CN110095752B (zh) * 2019-05-07 2021-08-10 百度在线网络技术(北京)有限公司 定位方法、装置、设备和介质
CN110274598B (zh) * 2019-06-24 2023-03-24 西安工业大学 一种机器人单目视觉鲁棒定位估计方法
CN110473259A (zh) * 2019-07-31 2019-11-19 深圳市商汤科技有限公司 位姿确定方法及装置、电子设备和存储介质
CN111508019A (zh) * 2020-03-11 2020-08-07 上海商汤智能科技有限公司 目标检测方法及其模型的训练方法及相关装置、设备
CN111538855B (zh) * 2020-04-29 2024-03-08 浙江商汤科技开发有限公司 视觉定位方法及装置、电子设备和存储介质
CN111652929A (zh) * 2020-06-03 2020-09-11 全球能源互联网研究院有限公司 一种视觉特征的识别定位方法及系统
CN112328715B (zh) * 2020-10-16 2022-06-03 浙江商汤科技开发有限公司 视觉定位方法及相关模型的训练方法及相关装置、设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110009722A (zh) 2019-04-16 2019-07-12 成都四方伟业软件股份有限公司 三维重建方法及装置
CN111260726A (zh) 2020-02-07 2020-06-09 北京三快在线科技有限公司 一种视觉定位方法及装置
CN111414968A (zh) 2020-03-26 2020-07-14 西南交通大学 一种基于卷积神经网络特征图的多模态遥感影像匹配方法
CN111476251A (zh) 2020-03-26 2020-07-31 中国人民解放军战略支援部队信息工程大学 一种遥感影像匹配方法及装置
CN111627065A (zh) 2020-05-15 2020-09-04 Oppo广东移动通信有限公司 一种视觉定位方法及装置、存储介质
CN111627050A (zh) 2020-07-27 2020-09-04 杭州雄迈集成电路技术股份有限公司 一种目标跟踪模型的训练方法和装置

Also Published As

Publication number Publication date
KR20220051162A (ko) 2022-04-26
CN112328715B (zh) 2022-06-03
CN112328715A (zh) 2021-02-05
JP2023502819A (ja) 2023-01-26
WO2022077863A1 (zh) 2022-04-21
TW202217662A (zh) 2022-05-01

Similar Documents

Publication Publication Date Title
JP7280393B2 (ja) 視覚位置決め方法、関連モデルの訓練方法及び関連装置並びに機器
JP6745328B2 (ja) 点群データを復旧するための方法及び装置
CN110246163B (zh) 图像处理方法及其装置、设备、计算机存储介质
CN108509848A (zh) 三维物体的实时检测方法及系统
CN114186632B (zh) 关键点检测模型的训练方法、装置、设备、存储介质
EP3905194A1 (en) Pose estimation method and apparatus
CN111027140B (zh) 基于多视角点云数据的飞机标准件模型快速重构方法
EP4167194A1 (en) Key point detection method and apparatus, model training method and apparatus, device and storage medium
CN113298870B (zh) 一种物体的姿态跟踪方法、装置、终端设备和存储介质
CN113361365B (zh) 定位方法和装置、设备及存储介质
WO2024103890A1 (zh) 模型构建方法、重建方法、装置、电子设备及非易失性可读存储介质
US20230401799A1 (en) Augmented reality method and related device
CN113902856A (zh) 一种语义标注的方法、装置、电子设备及存储介质
CN112197708B (zh) 测量方法及装置、电子设备及存储介质
CN112258647A (zh) 地图重建方法及装置、计算机可读介质和电子设备
CN113344890B (zh) 医学图像识别方法、识别模型训练方法及装置
CN114820755A (zh) 一种深度图估计方法及系统
CN114565723A (zh) 一种基于稀疏样本的单目3d重建方法
CN114723973A (zh) 大尺度变化鲁棒的图像特征匹配方法及装置
CN111932628A (zh) 一种位姿确定方法及装置、电子设备、存储介质
CN113643328A (zh) 标定物的重建方法、装置、电子设备及计算机可读介质
CN115344113A (zh) 多视角人体运动捕捉方法、装置、系统、介质及终端
CN113128292A (zh) 一种图像识别方法、存储介质及终端设备
CN118212491B (zh) 模型训练方法、三维姿态估计方法、装置及电子设备
CN117671732B (zh) 一种检测体态的方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211229

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211229

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230511

R150 Certificate of patent or registration of utility model

Ref document number: 7280393

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150