JP6468328B2 - ビジュアルオドメトリ方法及び装置 - Google Patents

ビジュアルオドメトリ方法及び装置 Download PDF

Info

Publication number
JP6468328B2
JP6468328B2 JP2017172816A JP2017172816A JP6468328B2 JP 6468328 B2 JP6468328 B2 JP 6468328B2 JP 2017172816 A JP2017172816 A JP 2017172816A JP 2017172816 A JP2017172816 A JP 2017172816A JP 6468328 B2 JP6468328 B2 JP 6468328B2
Authority
JP
Japan
Prior art keywords
feature point
correlation parameter
point match
feature
match pair
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2017172816A
Other languages
English (en)
Other versions
JP2018067305A (ja
Inventor
ジンウエヌ リ
ジンウエヌ リ
トン リィウ
トン リィウ
リィウ ディエヌチャオ
リィウ ディエヌチャオ
ジョォンチャオ シ
ジョォンチャオ シ
ガン ワン
ガン ワン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2018067305A publication Critical patent/JP2018067305A/ja
Application granted granted Critical
Publication of JP6468328B2 publication Critical patent/JP6468328B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本願は画像処理分野に関し、具体的にビジュアルオドメトリ方法及び装置に関する。
ビジュアルオドメトリ方法は、例えばインテリジェントカー、無人航空機などのロボットおよびカーナビゲーション分野にすでに広く応用されている。当該方法は視覚情報によって移動の距離と方法を計算できるから、伝統的なホイールオドメトリ方法のホイールスリップによる計測ミスを回避できるほか、センサーの精度低下などの原因による計測誤差も回避でき、計測の精度を向上する。
既存のビジュアルオドメトリ方法では、異なる応用シーンにおいても共に相対的に固定するパラメータ値を用いて特徴点の検知とマッチングを行うのが一般的である。これによって、取得した特徴点と特徴点マッチ対の数およびマッチング正確度を精確に把握できず、システムの稼動時間を大幅増加、システムの計算の実用性が低い。
したがって、リアルタイムかつ正確に視覚距離を計算できる方法が必要になる。
本発明は、ビジュアルオドメトリ方法及び装置を提供することを目的とする。
本発明の1つの態様は、ビジュアルオドメトリ方法であって、ビデオ画像内のフレーム画像の特徴点を検知するステップと、前記ビデオ画像内に隣接する二つのフレームの特徴点に対してマッチングを行い、物体の移動を計算するための特徴点マッチ対を取得するステップと、を含み、前記マッチングの前に、トレーニングした第一相関パラメータによって前記特徴点を調整して、調整後の特徴点によりマッチングを行うことで前記特徴点マッチ対を取得し、且つ/或いは、前記マッチングの後、トレーニングした第二相関パラメータによって前記特徴点マッチ対を調整して、調整後の特徴点マッチ対を取得することを特徴とする方法を提供する。
本発明のもう1つの態様は、ビジュアルオドメトリ装置であって、ビデオ画像内のフレーム画像の特徴点を検知する検知手段と、前記ビデオ画像内に隣接する二つのフレームの特徴点に対してマッチングを行い、物体の移動を計算するための特徴点マッチ対を取得するマッチング手段と、を含み、前記マッチング手段は、前記マッチングの前に、トレーニングした第一相関パラメータによって前記特徴点を調整して、調整後の特徴点によりマッチングを行うことで前記特徴点マッチ対を取得し、且つ/或いは、前記マッチング手段は、前記マッチングの後、トレーニングした第二相関パラメータによって前記特徴点マッチ対を調整して、調整後の特徴点マッチ対を取得することを特徴とする装置を提供する。
本発明の上記ビジュアルオドメトリ方法及び装置によれば、特徴点と特徴点マッチ対と関係する相関パラメータのトレーニング結果によりビデオ画像内のフレーム画像の特徴点と特徴点マッチ対の数を自己適応的に調整することで、システムの稼動時間を縮短、計算の精確度を上げ、リアルタイムの正確な視覚距離計算を実施できる。
図示とあわせて本願の実施例をより詳しく説明することによって、本願の上記内容および目的、特徴、そして長所がより明白になる。
本発明の実施例に係わるビジュアルオドメトリ方法のフローチャートである。 本発明の実施例における特徴点の確率密度図である。 本発明の実施例における特徴点マッチ対の確率密度図である。 本発明の1つの実施例におけるビジュアルオドメトリ装置のブロック図である。 本発明のもう1つの実施例におけるビジュアルオドメトリ装置のブロック図である。
以下、図面を参照して本発明の実施例に係わるビジュアルオドメトリ方法と装置を説明する。図面には、同じ番号は同じ要素を終始に示す。ここで記述された実施例は説明のみに用いられて、本発明の範囲を制限するものではないことが自明である。
本発明では、従来技術のビジュアルオドメトリ方法において固定パラメータ値が用いられて特徴点の検知とマッチによる計算効率低下、正確性低い問題を解決するために、発明者らが異なる応用シーンにおいて自己適応のパラメータによって視覚距離計算における特徴点と特徴点マッチ対の数を調節することにした。このため、本発明では、ニューラルネットワーク法を用いて特徴点に相関する第一相関パラメータと特徴点マッチ対に相関する第二相関パラメータに対してニューラルネットワークトレーニングを行った。
具体的には、まず、ニューラルネットワークに一連のトレーニングデータを入力することができ、これらのトレーニングデータは複数のフレームのビデオ画像であることが可能である。つぎに、指定されたシステム稼動時間において実験によって特徴点、特徴点マッチ対、第一相関パラメータおよび第二相関パラメータの間の各種の関係を取得できる。ニューラルネットワークトレーニングによって上記トレーニング結果を得た後、これらのトレーニング結果に基づいて視覚距離計算における特徴点と/或いは特徴点マッチ対を最適化するように調整することで、ターゲットの移動推定の正確度を上げ、システムの稼動時間を減らす。
ここで、図1を参照して本発明の実施例に係わるビジュアルオドメトリ方法を説明する。図1は当該ビジュアルオドメトリ方法100のフローチャートを示す。
図1に示すように、ステップS101では、ビデオ画像内のフレーム画像の特徴点を検知する。好ましいのは、まずビデオ画像を取得して、ビデオ画像内の各フレーム画像の特徴点を検知することが可能である。ここで、ビデオ画像はターゲットに配備された撮像モジュールにより得たものでもよく、当該ビデオ画像はそのうちから物体の運動または移動距離を得るために用いられる。具体的には、各フレーム画像の特徴点をともに
Figure 0006468328
に示すことが可能であり、ここで、Kはこのフレーム画像における特徴点の数を意味する。ビデオ画像を取得するためのカメラがステレオカメラである場合、前記フレーム画像はそれぞれ左右両フレームの画像を含むことができる。
また、本発明の実施例に係わるビジュアルオドメトリ方法はビデオ画像内において隣接する二つのフレームの画像の特徴点に対してマッチを行うことができるので、好ましいのが、ステップS101における特徴点の具体的な検知方式を以下に示す。ビデオ画像を得て、所定の方法によって得たビデオ画像内における隣接する二つのフレーム画像の特徴点を検知する。本実施例では、特徴点を検知する所定方法は例えばSIFT特徴量、SURF特徴量、Harrisコーナーなどの各種の特徴点検知方法を含む。特徴点を検知後、例えばグレースケール特徴量、グラデーション特徴量、視差情報などの各種特徴記述方法に用いられる方法によって、前記の検知された特徴点を記述することができる。
本実施例のステップS102では、前記ビデオ画像内に隣接する二つのフレームの特徴点に対してマッチを行って、特徴点マッチ対を得ることによって、物体の運動を計算する。そこで、前記マッチングの前に、トレーニングした第一相関パラメータによって前記特徴点を調整し、かつ調整後の特徴点を用いてマッチを行うことで前記特徴点マッチ対を取得すること、と/或いは、前記マッチングの後、トレーニングした第二相関パラメータによって前記特徴点マッチ対を調整、かつ調整後の特徴点マッチ対を取得する。
具体的には、まず指定された稼動時間に基づき、トレーニングデータによって前記特徴点と前記特徴点マッチ対との間、前記特徴点と各第一相関パラメータとの間、および前記特徴点マッチ対と各第二相関パラメータとの間の関係をトレーニングかつ取得する。なお、トレーニングプロセスはステップS101の特徴点検知ステップの前でも良く、このステップの後でも良い。本実施例のシステムの稼動時間と検知された特徴点とマッチする特徴点マッチ対の数と直接な相関があるため、予めに設定したシステム稼動時間によってニューラルネットワークのトレーニング法を用いてシステム稼動時間、特徴点、特徴点マッチ対、第一相関パラメータおよび第二相関パラメータの間の関係に対してトレーニングを行うことで、システムの稼動時間を減らし、計算効率を向上することが可能である。詳細な実施過程では、まず、ニューラルネットワークにトレーニングデータとして、事前取得した複数のフレームのビデオ画像を入力する。次に、指定されたシステム稼動時間において、実験によってシステム稼動時間Tと特徴点数Npoint、特徴点マッチ対数Ncorresとの間の関係T=g(Npoint,Ncorres)を取得する。指定されたシステム稼動時間の場合、特徴点数および対応する特徴点マッチ対数がともに既知である。特徴点数Npointと特徴点マッチ対数Ncorresとの間の関係はNcorres=g’(Npoint)に示すことが可能である。この他、特徴点をマッチする前に、実験によって特徴点数Npointとそれと相関する第一相関パラメータ
(外1)
Figure 0006468328
との間の関係
Figure 0006468328
を取得できる。ここで、m=1,2,…,Mで、Mは特徴点数と関係する第一相関パラメータの数であり、第一相関パラメータはフィルタ窓口サイズ、非最大抑制窓口サイズなどであり、例えばlibvisoビジュアルオドメトリ方法において、第一相関パラメータはmargin(余白)、nms_n(非最大抑制窓口)などのパラメータを含むことが可能である。第一相関パラメータと特徴点との対応関係を定めることによって、距離を精確に計算すると共に所要の特徴点の数もなるべく少なくすることができる。例えば、特徴点が多い場合、フィルタ窓口サイズと非最大抑制窓口サイズを縮小させることによって特徴点の数を適当に減少でき、かつ所要の距離を精確に計算できるもっとも少ない点によって距離を計算する。さらに、トレーニングプロセスにおいて特徴点を検知かつマッチした後、実験によって特徴点マッチ対の数Ncorresとそれと相関する第二相関パラメータ
(外2)
Figure 0006468328
との間の関係
Figure 0006468328
も取得できる。ここで、k=1,2,…,K,Kで、Kは特徴点マッチ対数と関係する第二相関パラメータの数であり、第二相関パラメータは例えば物体の速度、回転角、路面高さまたは傾斜度などのパラメータであることが可能である。この他、第二相関パラメータは特徴点マッチング時に二つのフレームのビデオ画像の重畳面積を影響する任意のパラメータであっても良い。
トレーニングプロセスによって上記パラメータの間の関係を取得した後、検知された第一の数を有する特徴点および前記特徴点と各第一相関パラメータとの間の関係に基づいて前記特徴点の数を第二の数に最適化することが可能である。そして、前記第二の数は前記第一の数よりも小さい。即ち、トレーニング結果によりステップS101で検知された特徴点の数に対して最適化をすることで、特徴点の数をまばらにしてシステムの稼動時間を制御する。
最適化プロセスでは、前記特徴点の分布を表す特徴点確率密度図に基づいて前記特徴点を最適化することができる。図2には、特徴点に基づく確率密度図を示す。図2に示すように、ステップS101で検知された特徴点は画像においてi行j列を有する複数のエリアに区分けでき、そこで、エリアRi,j内の特徴点確率密度pi,jがエリアRi,j内の特徴点の数N(px)を画像におけるすべての特徴点の数N(all)で割った値にすることが可能である。
Figure 0006468328
上記特徴点の確率密度図の制限条件map(point)を考慮して、トレーニングプロセスにおいて取得した特徴点数と第一相関パラメータとの間の関係を
Figure 0006468328
に表すことができる。そこで、特徴点確率密度図に対する制限条件は以下のことを回避できる。即ち、もっともと特徴点の分布が疎である画像位置において特徴点の数をさらに過剰に減らすことで、システムの計算正確度を低減させる。全部でM個の特徴点と相関する第一相関パラメータを有し、各第一相関パラメータの特徴点最適化における重みが異なるため、各第一相関パラメータの間の重みを調整して、重み付けされた各第一相関パラメータにより前記特徴点を最適化することが好ましい。具体的には、まず、逆関数関係で第一相関パラメータによって推定した特徴点数
Figure 0006468328
を表して、つぎに、下記最適化問題を解決することで各第一相関パラメータが占める重み
(外3)
Figure 0006468328
を取得し、かつ最適化結果を求める。つまり、前記関係によって推定した特徴点数をなるべく指定されたシステム稼動時間により求めたターゲットの特徴点数に近づくようにする。そこで、
Figure 0006468328

(外4)
Figure 0006468328
はパラメータ
(外5)
Figure 0006468328
の重みであり、
Figure 0006468328
となり、
(外6)
Figure 0006468328

(外7)
Figure 0006468328
はパラメータ
(外8)
Figure 0006468328
の制限条件であり、制限条件は第一相関パラメータの合理的な値の範囲を制限する。第一相関パラメータが等間隔抽出のサンプリングレートである場合、サンプリングレートの最大値は画像のサイズに制限され、その最小値は画素間隔と画像フィルタリング条件に制限される。上記の最適化プロセス後、ステップS101で検知した特徴点の数を検知された第一の数から第一の数より小さい第二の数に最適化でき、かつ前記第二の数の特徴点を用いて後継の計算を行うことで、システムの計算効率を上げることが可能である。
特徴点の数を最適化後、調整後の特徴点を用いて特徴点のマッチを行うことができる。なお、ステップS101により検知した特徴点を直接的に特徴点マッチングを行うこともできる。特徴点マッチングの対象は隣接する二つのフレームのフレーム画像の特徴点である。具体的には、まず前のフレームのビデオ画像内のm個の特徴点の集合を
Figure 0006468328
に表し、そこで、
Figure 0006468328
、現在のビデオ画像内のn個の特徴点の集合を
Figure 0006468328
に表し、そこで、
Figure 0006468328
。よって、前のフレーム画像と現在のフレーム画像内の特徴点対の差異を
(外9)
Figure 0006468328
に表し、その内、
(外10)
Figure 0006468328
が特徴点対であり、特徴点対の差異は特徴点対の間の特徴ベクトルを用いて表すことが一般的である。特徴点マッチングの方法では、特徴点対の間の総差異が最小である特徴点対のマッチ結果を選択する。即ち
(外11)
Figure 0006468328
であり、そこで、N<min(m,n)。
特徴点マッチ対を取得した後、マッチされた第三の数を有する特徴点マッチ対および前記特徴点マッチ対と各第二相関パラメータとの間の関係に基づき、前記特徴点マッチ対の数を第四の数に最適化することができる。ここで、前記第四の数は前記第三の数よりも小さい。即ち、トレーニング結果により特徴点マッチ対の数に対して最適化をすることで、特徴点マッチ対の数をまばらにしてシステムの稼動時間を制御する。
最適化プロセスでは、前記特徴点マッチ対の分布を表すマッチ対確率密度図に基づいて前記特徴点マッチ対を最適化することができる。図3には、特徴点マッチ対に基づく確率密度図を示す。図3に示すように、マッチして得た特徴点マッチ対は図2と類似して、画像においてi行j列を有する複数のエリアに区分けでき、そこで、エリアRi,j内のマッチ対確率密度p’i,jがエリアRi,j内のマッチ対の数を画像におけるすべての特徴点マッチ対N(all)の数で割った値にすることが可能である。
ここで、マッチ対確率密度分布を考慮する場合、さらにマッチ対の重みに対する影響を考慮することで、計算の正確度を上げることが可能である。マッチ対の重み
(外12)
Figure 0006468328
を下記に表すことができる。
Figure 0006468328
その内、前のフレームの歴史情報と比べて、目前のフレームのエリアRi,j内ある特徴点マッチ対pxがinlierに属する場合、マッチ対の重み
(外13)
Figure 0006468328
が最大となり、1+Cになる。目前のフレームのエリアRi,j内にある特徴点マッチ対pxがoutlierに属する場合、マッチ対の重み
(外14)
Figure 0006468328
が最小となり、1-C’になり、0<C、C’<1。ほかの場合、例えば、ある特徴点マッチ対が初めて出た場合は、その重みを1にすることが可能である。
本実施例における特徴点マッチ対
(外15)
Figure 0006468328
がinlierかoutlierかに属する判断方法は以下である。
Figure 0006468328
そこで、thrが予めに設定した閾値であり、
(外16)
Figure 0006468328
が目前のフレーム画像内の予想位置で、
Figure 0006468328
式によって求められ、R、Tはそれぞれ前のフレームと目前のフレームとがマッチして得た歴史情報により求めた回転マトリクスと変位マトリクスである。
特徴点マッチ対の重みを定めた後、エリアRi,j内のマッチ対確率密度p’i,jをエリアRi,j内に異なる重み
(外17)
Figure 0006468328
を有するマッチ対の数Ni,jの合計を総マッチ対の数N(all)で割ることに表すことができる。
Figure 0006468328
上記特徴点マッチ対の確率密度図の制限条件map(corres)を考慮して、トレーニングプロセスで取得した特徴点マッチ対数と第二相関パラメータとの間の関係を
Figure 0006468328
に表すことができる。そこで、特徴点マッチ対確率密度図に対する制限条件は以下のことを回避できる。即ち、もっともと特徴点マッチ対の分布が疎である画像位置において特徴点マッチ対の数をさらに過剰に減らすことで、システムの計算正確度を低減させる。全部でK個の特徴点マッチ対と相関する第二相関パラメータを有し、各第二相関パラメータの最適化における重みが異なるため、各第二相関パラメータの間の重みを調整して、重み付けされた各第二相関パラメータにより前記特徴点マッチ対を最適化することが好ましい。具体的には、まず、逆関数関係で第二相関パラメータによって推定した特徴点マッチ対数
Figure 0006468328
を表して、つぎに、下記の最適化問題を解決することで各第二相関パラメータが占める重み
(外18)
Figure 0006468328
を取得し、かつ最適化結果を求める。つまり、前記関係によって推定した特徴点マッチ対数をなるべく指定されたシステム稼動時間により求めたターゲットの特徴点マッチ対数に近づく。そこで、
Figure 0006468328

(外19)
Figure 0006468328
はパラメータ
(外20)
Figure 0006468328
の重みであり、
Figure 0006468328
となり、
(外21)
Figure 0006468328

(外22)
Figure 0006468328
はパラメータ
(外23)
Figure 0006468328
の制限条件であり、第二相関パラメータが車両速度である場合、車両速度の最大値はアルゴリズムの許容に制限される。上記の最適化プロセス後、特徴点マッチ対の数を第三の数から第三の数より小さい第四の数に最適化でき、かつ前記第四の数の特徴点マッチ対を用いて後継の計算を行うことで、システムの計算効率を上げることが可能である。
本発明の実施例では、前記特徴点と特徴点マッチ対との一方しか最適化ができないが、特徴点と特徴点マッチ対とをともに最適化することも可能である。
隣接する二つのフレームのフレーム画像の特徴点マッチ対を取得した後、特徴点マッチ対によって移動推定マトリクスを計算できる。前記移動推定マトリクスは前記物体の回転と変位を計算するように、回転マトリクスR(3×3)と変位マトリクスT(3×1)とを含む。ここで用いた移動推定方法は四次元数、RANSACに基づいても良く、常用のほかの各種移動推定方法でも良い。
本発明の実施例によるビジュアルオドメトリ方法は特徴点と特徴点マッチ対と関係する相関パラメータのトレーニング結果によりビデオ画像内のフレーム画像の特徴点と特徴点マッチ対の数を自己適応的に調整することで、システムの稼動時間を縮短、計算の精確度を上げ、リアルタイムの正確な視覚距離計算を実施できる。
以下、図4を参照して本発明の実施例に係わるビジュアルオドメトリ装置を説明する。図4には本発明の実施例におけるビジュアルオドメトリ装置400のブロック図を示す。図4に示すように、ビジュアルオドメトリ装置400は検知ユニット410とマッチングユニット420とを含む。そのほか、当該装置400はさらにほかの部材も含むが、これらの部材が本発明の実施例の内容と関係がないため、ここでその図示および記述を省略する。この他、本発明の実施例に係わるビジュアルオドメトリ装置400によって行う下記操作の具体的な細部が上記図1−3を参照して記載された細部と同じであるため、重複を回避するために、同じ細部に対する重複した記述を省略する。
図4内のビジュアルオドメトリ装置400の検知ユニット410はビデオ画像内のフレーム画像の特徴点を検知する。検知ユニット410はまずビデオ画像を取得して、ビデオ画像内の各フレーム画像の特徴点を検知することが可能である。ここで、ビデオ画像はターゲットに配備された撮像モジュールにより得たものでもよく、当該ビデオ画像はそのうちから物体の運動または移動距離を得るために用いられる。具体的には、各フレーム画像の特徴点をともに
Figure 0006468328
に示すことが可能であり、ここで、Kはこのフレーム画像における特徴点の数を意味する。検知ユニット410においてビデオ画像を取得するためのカメラがステレオカメラである場合、前記フレーム画像はそれぞれ左右両フレームの画像を含むことができる。
また、検知ユニット410はビデオ画像を得て、かつ所定の方法によって得たビデオ画像内における隣接する二つのフレーム画像の特徴点を検知する。本実施例では、検知ユニット410による特徴点を検知する所定方法は例えばSIFT特徴量、SURF特徴量、Harrisコーナーなどの各種の特徴点検知方法を含む。検知ユニット410によって特徴点を検知後、例えばグレースケール特徴量、グラデーション特徴量、視差情報などの各種特徴記述方法に用いられる方法によって、前記の検知された特徴点を記述することができる。
ビジュアルオドメトリ装置400のマッチングユニット420は前記ビデオ画像内の隣接する二つのフレームの特徴点をマッチして特徴点マッチ対を取得することで物体の運動を計算する。そこで、マッチングユニット420は前記マッチングの前に、トレーニングした第一相関パラメータによって前記特徴点を調整、かつ調整後の特徴点を用いてマッチを行うことで前記特徴点マッチ対を取得し、且つ/或いは、マッチングユニット420は前記マッチングの後、トレーニングした第二相関パラメータによって前記特徴点マッチ対を調整、かつ調整後の特徴点マッチ対を取得する。
具体的に、ビジュアルオドメトリ装置400はさらにトレーニングユニット(未図示)を含み、指定された稼動時間に基づき、トレーニングデータによって前記特徴点と前記特徴点マッチ対との間、前記特徴点と各第一相関パラメータとの間、および前記特徴点マッチ対と各第二相関パラメータとの間の関係をトレーニングかつ取得する。なお、トレーニングユニットのトレーニングプロセスは検知ユニット410による特徴点を検知する前でも良く、後でも良い。本実施例のシステムの稼動時間と検知された特徴点とマッチする特徴点マッチ対の数と直接な相関があるため、トレーニングユニットは予めに設定したシステム稼動時間によってニューラルネットワークのトレーニング法を用いてシステム稼動時間、特徴点、特徴点マッチ対、第一相関パラメータおよび第二相関パラメータの間の関係に対してトレーニングを行うことで、システムの稼動時間を減らし、計算効率を向上することが可能である。具体的に、トレーニングユニットはまずニューラルネットワークにトレーニングデータとして、事前取得した複数のフレームのビデオ画像を入力する。次ぎに、指定されたシステム稼動時間において、実験によってシステム稼動時間Tと特徴点数Npoint、特徴点マッチ対数Ncorresとの間の関係T=g(Npoint,Ncorres)を取得する。指定されたシステム稼動時間の場合、特徴点数および対応する特徴点マッチ対数がともに既知である。特徴点数Npointと特徴点マッチ対数Ncorresとの間の関係はNcorres=g’(Npoint)に示すことが可能である。この他、特徴点をマッチする前に、トレーニングユニットは実験によって特徴点数Npointとそれと相関する第一相関パラメータ
(外24)
Figure 0006468328
との間の関係
Figure 0006468328
を取得できる。ここで、m=1,2,…,Mで、Mは特徴点数と関係する第一相関パラメータの数であり、第一相関パラメータはフィルタ窓口サイズ、非最大抑制窓口サイズなどであり、例えばlibvisoビジュアルオドメトリ方法において、第一相関パラメータはmargin(余白)、nms_n(非最大抑制窓口)などのパラメータを含むことが可能である。第一相関パラメータと特徴点との対応関係を定めることによって、距離を精確に計算すると共に所要の特徴点の数もなるべく少なくすることができる。例えば、特徴点が多い場合、フィルタ窓口サイズと非最大抑制窓口サイズを縮小させることによって特徴点の数を適当に減少でき、かつ所要の距離を精確に計算できるもっとも少ない点によって距離を計算する。さらに、トレーニングプロセスにおいて特徴点を検知かつマッチした後、トレーニングユニットは実験によって特徴点マッチ対の数Ncorresとそれと相関する第二相関パラメータ
(外25)
Figure 0006468328
との間の関係
Figure 0006468328
も取得できる。ここで、k=1,2,…,K,Kで、Kは特徴点マッチ対数と関係する第二相関パラメータの数であり、第二相関パラメータは例えば物体の速度、回転角、路面高さまたは傾斜度などのパラメータであることが可能である。この他、第二相関パラメータは特徴点マッチング時に二つのフレームのビデオ画像の重畳面積を影響する任意のパラメータであっても良い。
トレーニングユニットによって上記パラメータの間の関係を取得した後、マッチングユニット420は検知された第一の数を有する特徴点および前記特徴点と各第一相関パラメータとの間の関係に基づいて前記特徴点の数を第二の数に最適化することが可能である。そして、前記第二の数は前記第一の数よりも小さい。即ち、トレーニングユニットのトレーニング結果により検知ユニット410で検知された特徴点の数に対して最適化をすることで、特徴点の数をまばらにしてシステムの稼動時間を制御する。
最適化プロセスでは、マッチングユニット420は前記特徴点の分布を表す特徴点確率密度図に基づいて前記特徴点を最適化することができる。図2には、特徴点に基づく確率密度図を示す。図2に示すように、検知ユニット410で検知された特徴点は画像においてi行j列を有する複数のエリアに区分けでき、そこで、エリアRi,j内の特徴点確率密度pi,jがエリアRi,j内の特徴点の数N(px)を画像におけるすべての特徴点の数N(all)で割った値にすることが可能である。
Figure 0006468328
マッチングユニット420は上記特徴点の確率密度図の制限条件map(point)を考慮して、トレーニングプロセスで取得した特徴点数と第一相関パラメータとの間の関係を
Figure 0006468328
に表すことができる。そこで、特徴点確率密度図に対する制限条件は以下のことを回避できる。即ち、もっともと特徴点の分布が疎である画像位置において特徴点の数をさらに過剰に減らすことで、システムの計算正確度を低減させる。全部でM個の特徴点と相関する第一相関パラメータを有し、各第一相関パラメータの特徴点最適化における重みが異なるため、マッチングユニット420は各第一相関パラメータの間の重みを調整して、重み付けされた各第一相関パラメータにより前記特徴点を最適化することが好ましい。具体的に、マッチングユニット420は、まず、逆関数関係で第一相関パラメータによって推定した特徴点数
Figure 0006468328
を表して、つぎに、下記最適化問題を解決して各第一相関パラメータが占める重み
(外26)
Figure 0006468328
を取得し、かつ最適化結果を求める。つまり、マッチングユニット420は前記関係によって推定した特徴点数をなるべく指定されたシステム稼動時間により求めたターゲットの特徴点数に近づく。そこで、
Figure 0006468328

(外27)
Figure 0006468328
はパラメータ
(外28)
Figure 0006468328
の重みであり、
Figure 0006468328
となり、
(外29)
Figure 0006468328

(外30)
Figure 0006468328
はパラメータ
(外31)
Figure 0006468328
の制限条件であり、制限条件は第一相関パラメータの合理的な値の範囲を制限する。第一相関パラメータが等間隔抽出のサンプリングレートである場合、サンプリングレートの最大値は画像のサイズに制限され、その最小値は画素間隔と画像フィルタリング条件に制限される。上記の最適化プロセス後、マッチングユニット420は検知ユニット410で検知した特徴点の数を検知された第一の数から第一の数より小さい第二の数に最適化でき、かつ前記第二の数の特徴点を用いて後継の計算を行うことで、システムの計算効率を上げることが可能である。
特徴点の数を最適化後、マッチングユニット420は調整後の特徴点を用いて特徴点のマッチを行うことができる。なお、マッチングユニット420は検知ユニット410により検知した特徴点を直接的に特徴点マッチングを行うこともできる。マッチングユニット420による特徴点マッチングの対象は隣接する二つのフレームのフレーム画像の特徴点である。具体的に、マッチングユニット420はまず前のフレームのビデオ画像内のm個の特徴点の集合を
Figure 0006468328
に表し、そこで、
Figure 0006468328
、現在のビデオ画像内のn個の特徴点の集合を
Figure 0006468328
に表し、そこで、
Figure 0006468328
。よって、前のフレーム画像と現在のフレーム画像内の特徴点対の差異を
(外32)
Figure 0006468328
に表し、その内、
(外33)
Figure 0006468328
が特徴点対であり、特徴点対の差異は特徴点対の間の特徴ベクトルを用いて表すことが一般的である。マッチングユニット420により特徴点マッチを行う場合、特徴点対の間の総差異が最小である特徴点対のマッチ結果を選択する必要がある。即ち
(外34)
Figure 0006468328
であり、そこで、N<min(m,n)。
マッチングユニット420によって特徴点マッチ対を取得した後、マッチされた第三の数を有する特徴点マッチ対および前記特徴点マッチ対と各第二相関パラメータとの間の関係に基づき、前記特徴点マッチ対の数を第四の数に最適化することができる。ここで、前記第四の数は前記第三の数よりも小さい。即ち、マッチングユニット420はトレーニングユニットのトレーニング結果により特徴点マッチ対の数に対して最適化をすることで、特徴点マッチ対の数をまばらにしてシステムの稼動時間を制御する。
最適化プロセスにおいて、マッチングユニット420は前記特徴点マッチ対の分布を表すマッチ対確率密度図に基づいて前記特徴点マッチ対を最適化することができる。図3には、特徴点マッチ対に基づく確率密度図を示す。図3に示すように、マッチングユニット420がマッチして得た特徴点マッチ対は図2と類似して、画像においてi行j列を有する複数のエリアに区分けでき、そこで、エリアRi,j内のマッチ対確率密度p’i,jがエリアRi,j内のマッチ対の数を画像におけるすべての特徴点マッチ対N(all)の数で割った値にすることが可能である。
ここで、マッチ対確率密度分布を考慮する場合、マッチングユニット420はさらにマッチ対の重みに対する影響を考慮することで、計算の正確度を上げることが可能である。マッチングユニット420によりマッチ対の重み
(外35)
Figure 0006468328
を下記に表すことができる。
Figure 0006468328
その内、前のフレームの歴史情報と比べて、目前のフレームのエリアRi,j内ある特徴点マッチ対pxがinlierに属する場合、マッチ対の重み
(外36)
Figure 0006468328
が最大となり、1+Cになる。目前のフレームのエリアRi,j内にある特徴点マッチ対pxがoutlierに属する場合、マッチ対の重み
(外37)
Figure 0006468328
が最小となり、1-C’になり、0<C,C’<1。ほかの場合、例えば、ある特徴点マッチ対が初めて出た場合は、その重みを1にすることが可能である。
本実施例のマッチングユニット420は特徴点マッチ対
(外38)
Figure 0006468328
がinlierかoutlierかに属するかを下式によって判断する。
Figure 0006468328
そこで、thrが予めに設定した閾値であり、
(外39)
Figure 0006468328
が目前のフレーム画像内の予想位置で、
Figure 0006468328
式によって求められ、R、Tはそれぞれ前のフレームと目前のフレームとがマッチして得た歴史情報により求めた回転マトリクスと変位マトリクスである。
マッチングユニット420により特徴点マッチ対の重みを定めた後、エリアRi,j内のマッチ対確率密度p’i,jをエリアRi,j内に異なる重み
(外40)
Figure 0006468328
を有するマッチ対の数Ni,jの合計を総マッチ対の数N(all)で割ることに表すことができる。
Figure 0006468328
上記特徴点マッチ対の確率密度図の制限条件map(corres)を考慮して、マッチングユニット420はトレーニングプロセスで取得した特徴点マッチ対数と第二相関パラメータとの間の関係を
Figure 0006468328
に表すことができる。そこで、特徴点マッチ対確率密度図に対する制限条件は以下のことを回避できる。即ち、もっともと特徴点マッチ対の分布が疎である画像位置において特徴点マッチ対の数をさらに過剰に減らすことで、システムの計算正確度を低減させる。全部でK個の特徴点マッチ対と相関する第二相関パラメータを有し、各第二相関パラメータの最適化における重みが異なるため、マッチングユニット420は各第二相関パラメータの間の重みを調整して、重み付けされた各第二相関パラメータにより前記特徴点マッチ対を最適化することが好ましい。具体的に、マッチングユニット420はまず、逆関数関係で第二相関パラメータによって推定した特徴点マッチ対数
Figure 0006468328
を表して、つぎに、下記の最適化問題を解決することで各第二相関パラメータが占める重み
(外41)
Figure 0006468328
を取得し、かつ最適化結果を求める。つまり、マッチングユニット420は前記関係によって推定した特徴点マッチ対数をなるべく指定されたシステム稼動時間により求めたターゲットの特徴点マッチ対数に近づく。そこで、
Figure 0006468328
となり、
(外42)
Figure 0006468328
はパラメータ
(外43)
Figure 0006468328
の重みであり、
Figure 0006468328
となり、
(外44)
Figure 0006468328

(外45)
Figure 0006468328
はパラメータ
(外46)
Figure 0006468328
の制限条件であり、第二相関パラメータが車両速度である場合、車両速度の最大値はアルゴリズムの許容に制限される。上記の最適化プロセス後、マッチングユニット420は特徴点マッチ対の数を第三の数から第三の数より小さい第四の数に最適化でき、かつ前記第四の数の特徴点マッチ対を用いて後継の計算を行うことで、システムの計算効率を上げることが可能である。
本発明の実施例において、マッチングユニット420は前記特徴点と特徴点マッチ対との一方しか最適化ができないが、特徴点と特徴点マッチ対とをともに最適化することも可能である。
本発明の実施例に係わるビジュアルオドメトリ装置400はさらに推定ユニット(未図示)を含み、隣接する二つのフレームのフレーム画像の特徴点マッチ対を取得した後、特徴点マッチ対によって移動推定マトリクスを計算できる。前記移動推定マトリクスは前記物体の回転と変位を計算するように、回転マトリクスR(3×3)と変位マトリクスT(3×1)とを含む。ここで推定ユニットが用いた移動推定方法は四次元数、RANSACに基づいても良く、常用のほかの各種移動推定方法でも良い。
本発明の実施例によるビジュアルオドメトリ装置は特徴点と特徴点マッチ対と関係する相関パラメータのトレーニング結果によりビデオ画像内のフレーム画像の特徴点と特徴点マッチ対の数を自己適応的に調整することで、システムの稼動時間を縮短、計算の精確度を上げ、リアルタイムの正確な視覚距離計算を実施できる。
以下、図5を参照して本発明の実施例に係わるビジュアルオドメトリ装置を説明する。図5には本発明の実施例におけるビジュアルオドメトリ装置500のブロック図を示す。図5に示すように、当該装置500はカメラを具備するコンピュータまたはサーバでも良い。
図5に示すように、ビジュアルオドメトリ装置500は一つまたは複数のプロセッサー510およびメモリ520とを含む。なお、これらのほか、ビジュアルオドメトリ装置500はさらにカメラおよび出力装置(未図示)を含むことも可能で、これらのユニットはバスシステムと/またはほかの形式の接続装置によって互いに接続される。なお、図5に示したビジュアルオドメトリ装置500のユニットと構造は例示的のみであり、制限されたものではない。必要に応じて、ビジュアルオドメトリ装置500はほこのユニットと構造を有することも可能である。
プロセッサー510は中央プロセスユニット(CPU)またはデータ処理能力と/またはコマンド執行能力を有するほかの形式のプロセスユニットであってもよく、かつメモリ内に記憶されたコンピュータプログラムコマンドを用いて所望の機能を実行できるが、以下のステップを含む。ビデオ画像内のフレーム画像の特徴点を検知する。前記ビデオ画像内に隣接する二つのフレームの特徴点に対してマッチを行って、特徴点マッチ対を得ることによって、物体の運動を計算する。そこで、前記マッチングの前に、トレーニングした第一相関パラメータによって前記特徴点を調整、かつ調整後の特徴点を用いてマッチを行うことで前記特徴点マッチ対を取得し、且つ/或いは、前記マッチングの後、トレーニングした第二相関パラメータによって前記特徴点マッチ対を調整、かつ調整後の特徴点マッチ対を取得する。
メモリ520は一つまたは複数のコンピュータプログラムプロダクトを含むことができる。前期コンピュータプログラムプロダクトは例えば揮発性メモリと/または不揮発性メモリなどの各種の形式のコンピュータ読み出し可能な記録媒体を含むことが可能である。前記揮発性メモリは例えばランダムアクセスメモリ(RAM)と/またはキャッシュメモリ(cache)などを含むことが可能である。前記不揮発性メモリは例えば読み出し専用メモリ(ROM)、ハードディスク、フラッシュメモリなどを含むことが可能である。前記コンピュータ読み出し可能な記録媒体において一つまたは複数のコンピュータプログラムコマンドを記憶でき、プロセッサー510は前記プログラムコマンドを実行することで、上記本願の実施例のビジュアルオドメトリ装置の機能及び/又ほかの所望の機能、かつ/または、本発明の実施例のビジュアルオドメトリ方法を実行できる。前記コンピュータ読み出し可能な記録媒体において各種アプリケーションプログラムと各種データを格納することも可能である。
そのため、上記実施例を用いて本発明を詳細に説明したが、当業者にとって、本発明が上記説明した実施例に限らないことを自明である。本発明は請求項に限定された本発明の範囲を逸脱しない場合、校正、補正されたモードに実施することが可能である。このため、明細書の記述は例示を説明するのみに用いられ、かつ本発明にいかなる制限をかけることではない。

Claims (11)

  1. ビジュアルオドメトリ方法であって、
    ビデオ画像内のフレーム画像の特徴点を検知するステップと、
    前記ビデオ画像内隣接する二つのフレームのフレーム画像の特徴点に対してマッチングを行い、物体の移動を計算するための特徴点マッチ対を取得するステップと、
    指定された稼動時間に基づき、トレーニングデータによって前記特徴点と前記特徴点マッチ対との関係、前記特徴点と各第一相関パラメータとの関係、および前記特徴点マッチ対と各第二相関パラメータとの関係をトレーニングして取得するステップと、を含み、
    前記マッチングの前に、トレーニングした第一相関パラメータによって前記特徴点を調整して、調整後の特徴点によりマッチングを行うことで前記特徴点マッチ対を取得し、且つ/或いは、
    前記マッチングの後、トレーニングした第二相関パラメータによって前記特徴点マッチ対を調整して、調整後の特徴点マッチ対を取得することを特徴とする方法。
  2. 前記ビデオ画像内のフレーム画像の特徴点を検知するステップは、
    ビデオ画像を得ることと、
    所定の方法によって、取得した前記ビデオ画像内の隣接する二つのフレーム画像の特徴点を検知することと、を含むことを特徴とする請求項1に記載の方法。
  3. 前記トレーニングした第一相関パラメータによって前記特徴点を調整することは、
    検知された第一の数の特徴点および前記特徴点と各第一相関パラメータとの関係に基づいて、前記特徴点の数を前記第一の数よりも小さい第二の数に最適化すること、を含み、
    前記トレーニングした第二相関パラメータによって前記特徴点マッチ対を調整することは、
    マッチした第三の数の特徴点マッチ対および前記特徴点マッチ対と各第二相関パラメータとの関係に基づいて、前記特徴点マッチ対の数を前記第三の数よりも小さい第四の数に最適化すること、を含むことを特徴とする請求項に記載の方法。
  4. 前記トレーニングした第一相関パラメータによって前記特徴点を調整することは、
    各第一相関パラメータの重みを調整して、重み付けされた各第一相関パラメータにより前記特徴点を最適化すること、を含み、
    前記トレーニングした第二相関パラメータによって前記特徴点マッチ対を調整することは、
    各第二相関パラメータの重みを調整して、重み付けされた各第二相関パラメータにより前記特徴点マッチ対を最適化すること、を含むことを特徴とする請求項に記載の方法。
  5. 前記トレーニングした第一相関パラメータによって前記特徴点を調整することは、
    前記特徴点の分布を表す特徴点確率密度図に基づいて前記特徴点を最適化すること、を含み、
    前記トレーニングした第二相関パラメータによって前記特徴点マッチ対を調整することは、
    前記特徴点マッチ対の分布を表すマッチ対確率密度図に基づいて前記特徴点マッチ対を最適化すること、を含むことを特徴とする請求項1に記載の方法。
  6. 前記トレーニングした第二相関パラメータによって前記特徴点マッチ対を調整することは、
    前記特徴点マッチ対の重みにより前記特徴点マッチ対を最適化すること、をさらに含むことを特徴とする請求項に記載の方法。
  7. 取得した前記特徴点マッチ対によって移動推定マトリクスを計算し、前記移動推定マトリクスは、前記物体の回転と変位を計算するための回転マトリクスと変位マトリクスを含むことを特徴とする請求項1乃至のいずれかに記載の方法。
  8. ビジュアルオドメトリ装置であって、
    ビデオ画像内のフレーム画像の特徴点を検知する検知手段と、
    前記ビデオ画像内隣接する二つのフレームのフレーム画像の特徴点に対してマッチングを行い、物体の移動を計算するための特徴点マッチ対を取得するマッチング手段と、
    指定された稼動時間に基づき、トレーニングデータによって前記特徴点と前記特徴点マッチ対との関係、前記特徴点と各第一相関パラメータとの関係、および前記特徴点マッチ対と各第二相関パラメータとの関係をトレーニングして取得するトレーニング手段と、を含み、
    前記マッチング手段は、前記マッチングの前に、トレーニングした第一相関パラメータによって前記特徴点を調整して、調整後の特徴点によりマッチングを行うことで前記特徴点マッチ対を取得し、且つ/或いは、
    前記マッチング手段は、前記マッチングの後、トレーニングした第二相関パラメータによって前記特徴点マッチ対を調整して、調整後の特徴点マッチ対を取得することを特徴とする装置。
  9. 記マッチング手段は、
    検知された第一の数の特徴点および前記特徴点と各第一相関パラメータとの関係に基づいて、前記特徴点の数を前記第一の数よりも小さい第二の数に最適化し、
    マッチした第三の数の特徴点マッチ対および前記特徴点マッチ対と各第二相関パラメータとの関係に基づいて、前記特徴点マッチ対の数を前記第三の数よりも小さい第四の数に最適化することを特徴とする請求項に記載の装置。
  10. ビデオ画像内のフレーム画像の特徴点を検知するステップと、
    前記ビデオ画像内隣接する二つのフレームのフレーム画像の特徴点に対してマッチングを行い、物体の移動を計算するための特徴点マッチ対を取得するステップと、
    指定された稼動時間に基づき、トレーニングデータによって前記特徴点と前記特徴点マッチ対との関係、前記特徴点と各第一相関パラメータとの関係、および前記特徴点マッチ対と各第二相関パラメータとの関係をトレーニングして取得するステップと、をコンピュータに実行させるためのビジュアルオドメトリプログラムであって、
    前記マッチングの前に、トレーニングした第一相関パラメータによって前記特徴点を調整して、調整後の特徴点によりマッチングを行うことで前記特徴点マッチ対を取得し、且つ/或いは、
    前記マッチングの後、トレーニングした第二相関パラメータによって前記特徴点マッチ対を調整して、調整後の特徴点マッチ対を取得することを特徴とするビジュアルオドメトリプログラム。
  11. ビデオ画像内のフレーム画像の特徴点を検知するステップと、
    前記ビデオ画像内隣接する二つのフレームのフレーム画像の特徴点に対してマッチングを行い、物体の移動を計算するための特徴点マッチ対を取得するステップと、
    指定された稼動時間に基づき、トレーニングデータによって前記特徴点と前記特徴点マッチ対との関係、前記特徴点と各第一相関パラメータとの関係、および前記特徴点マッチ対と各第二相関パラメータとの関係をトレーニングして取得するステップと、をコンピュータに実行させるためのビジュアルオドメトリプログラムを記録した記録媒体であって、
    前記マッチングの前に、トレーニングした第一相関パラメータによって前記特徴点を調整して、調整後の特徴点によりマッチングを行うことで前記特徴点マッチ対を取得し、且つ/或いは、
    前記マッチングの後、トレーニングした第二相関パラメータによって前記特徴点マッチ対を調整して、調整後の特徴点マッチ対を取得することを特徴とする記録媒体。
JP2017172816A 2016-10-20 2017-09-08 ビジュアルオドメトリ方法及び装置 Expired - Fee Related JP6468328B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201610916485.8 2016-10-20
CN201610916485.8A CN107967691B (zh) 2016-10-20 2016-10-20 一种视觉里程计算方法和装置

Publications (2)

Publication Number Publication Date
JP2018067305A JP2018067305A (ja) 2018-04-26
JP6468328B2 true JP6468328B2 (ja) 2019-02-13

Family

ID=61996397

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017172816A Expired - Fee Related JP6468328B2 (ja) 2016-10-20 2017-09-08 ビジュアルオドメトリ方法及び装置

Country Status (2)

Country Link
JP (1) JP6468328B2 (ja)
CN (1) CN107967691B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110766024B (zh) * 2019-10-08 2023-05-23 湖北工业大学 基于深度学习的视觉里程计特征点提取方法及视觉里程计
CN113223007A (zh) * 2021-06-28 2021-08-06 浙江华睿科技股份有限公司 视觉里程计的实现方法、装置及电子设备

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3226641B2 (ja) * 1992-02-04 2001-11-05 富士写真フイルム株式会社 パターン学習方法
JP4613617B2 (ja) * 2005-01-07 2011-01-19 ソニー株式会社 画像処理システム、学習装置および方法、並びにプログラム
JP2010073138A (ja) * 2008-09-22 2010-04-02 Toshiba Corp 特徴点検出装置、特徴点検出方法及び特徴点検出プログラム
JP2011118694A (ja) * 2009-12-03 2011-06-16 Sony Corp 学習装置および方法、認識装置および方法、並びにプログラム
US8791996B2 (en) * 2010-03-31 2014-07-29 Aisin Aw Co., Ltd. Image processing system and position measurement system
CN102692236A (zh) * 2012-05-16 2012-09-26 浙江大学 基于rgb-d相机的视觉里程计方法
CN103150728A (zh) * 2013-03-04 2013-06-12 北京邮电大学 一种动态环境中的视觉定位方法
CN103345751A (zh) * 2013-07-02 2013-10-09 北京邮电大学 一种基于鲁棒特征跟踪的视觉定位方法
CN103745449B (zh) * 2013-12-24 2017-01-18 南京理工大学 一种搜跟系统中航拍视频的快速自动拼接技术
CN103954283B (zh) * 2014-04-01 2016-08-31 西北工业大学 基于景象匹配/视觉里程的惯性组合导航方法
US9280832B2 (en) * 2014-05-08 2016-03-08 The Trustees Of The University Of Pennsylvania Methods, systems, and computer readable media for visual odometry using rigid structures identified by antipodal transform
CN105872370B (zh) * 2016-03-31 2019-01-15 深圳力维智联技术有限公司 视频去抖动方法和装置
CN105938619A (zh) * 2016-04-11 2016-09-14 中国矿业大学 一种融合RGB和Depth信息的视觉里程计实现方法
CN105976402A (zh) * 2016-05-26 2016-09-28 同济大学 一种单目视觉里程计的真实尺度获取方法

Also Published As

Publication number Publication date
JP2018067305A (ja) 2018-04-26
CN107967691A (zh) 2018-04-27
CN107967691B (zh) 2021-11-23

Similar Documents

Publication Publication Date Title
WO2020098708A1 (zh) 车道线的检测及驾驶控制方法、装置和电子设备
US11315266B2 (en) Self-supervised depth estimation method and system
US10963676B2 (en) Image processing method and apparatus
TWI721510B (zh) 雙目圖像的深度估計方法、設備及儲存介質
US8755630B2 (en) Object pose recognition apparatus and object pose recognition method using the same
US20180157920A1 (en) Method and apparatus for recognizing obstacle of vehicle
KR102459853B1 (ko) 디스패리티 추정 장치 및 방법
JP7078139B2 (ja) ビデオ安定化方法及び装置、並びに非一時的コンピュータ可読媒体
EP3132418B1 (en) Non local image denoising
US20150279021A1 (en) Video object tracking in traffic monitoring
KR20180087994A (ko) 스테레오 매칭 방법 및 영상 처리 장치
KR102476022B1 (ko) 얼굴검출 방법 및 그 장치
KR20190071079A (ko) 영상 인식 방법 및 그 장치
JP2016194925A (ja) 道路境界物の検出方法及び装置
CN112651274B (zh) 路上障碍物检测装置、路上障碍物检测方法及记录介质
CN110176024B (zh) 在视频中对目标进行检测的方法、装置、设备和存储介质
JP6946255B2 (ja) 学習装置、推定装置、学習方法およびプログラム
CN112348116B (zh) 利用空间上下文的目标检测方法、装置和计算机设备
JP6468328B2 (ja) ビジュアルオドメトリ方法及び装置
AU2014216000A1 (en) A non-uniform curve sampling method for object tracking
US12002218B2 (en) Method and apparatus with object tracking
CN111612827B (zh) 基于多摄像头的目标位置确定方法、装置和计算机设备
CN112634141B (zh) 一种车牌矫正方法、装置、设备及介质
JP6601893B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CN112241967B (zh) 目标跟踪方法、装置、介质和设备

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181231

R151 Written notification of patent or utility model registration

Ref document number: 6468328

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees