JP2017522669A - シーンのキーポイントを追跡する方法 - Google Patents

シーンのキーポイントを追跡する方法 Download PDF

Info

Publication number
JP2017522669A
JP2017522669A JP2017503013A JP2017503013A JP2017522669A JP 2017522669 A JP2017522669 A JP 2017522669A JP 2017503013 A JP2017503013 A JP 2017503013A JP 2017503013 A JP2017503013 A JP 2017503013A JP 2017522669 A JP2017522669 A JP 2017522669A
Authority
JP
Japan
Prior art keywords
image
patch
event
pixel
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017503013A
Other languages
English (en)
Inventor
トビアス デルブリュック
トビアス デルブリュック
クリスティアン ブランドリ
クリスティアン ブランドリ
マルク オスヴァルト
マルク オスヴァルト
Original Assignee
ユニヴァーシテト チューリッヒ
ユニヴァーシテト チューリッヒ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ユニヴァーシテト チューリッヒ, ユニヴァーシテト チューリッヒ filed Critical ユニヴァーシテト チューリッヒ
Publication of JP2017522669A publication Critical patent/JP2017522669A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)

Abstract

本発明は、光センサに対して移動する物体の画像の少なくとも1つのキーポイントの位置を追跡する方法であって、物体(12)から反射される光が、その物体の画像を生成するように検出され、前記画像の少なくとも1つのキーポイント(Kj)の位置が、光センサの時間コントラストイベント(Ev)を用いて検出および更新される、方法に関する。本発明は、対応するコンピュータプログラムおよびデバイスにも関する。【選択図】図1

Description

本発明は、時間コントラストイベントを用いて視覚的キーポイントを追跡する方法、コンピュータプログラムおよびデバイスに関する。
特に、世界とリアルタイムの対話を行う、移動ロボット、モバイルデバイス(スマートフォンおよびタブレット)またはウェアラブルコンピュータ(例えば、スマートグラスまたはスマートウォッチ)などのモバイルプラットフォーム/モバイルデバイスにとって、低遅延および低電力消費が重要である。これらプラットフォームは、自己位置推定および地図作成(SLAM:localization and mapping)アプリケーション、モバイル拡張現実(AR:augmented reality)または深度推定のための、コンピュータビジョンシステムを備えることができる。現行のコンピュータビジョン技術は画像に基づき、そうすることで、高フレームレートによる低遅延または低フレームレートによる低電力消費のいずれかを有している。低遅延かつ低電力消費を実現するためには、処理が効率的でなければならない。イベントベースの時間コントラストセンサ(例えば、[7](角括弧内の数字は以下の参考文献を表す)は、画素レベルで既に冗長情報を消去するので、より効率的な視覚情報処理を可能にする。こうしたセンサに関する主な課題の一つは、それらの出力が現行のフレームベースのマシンビジョンのアルゴリズムおよびシステムに対応していないことである。これらアルゴリズムの多くが、フレームの特定のキーポイントを位置特定し、識別し、マッチングすることに基づく(例えば、[8]、[5])。キーポイントとは、エッジ、コーナーもしくはブロブなど特定の領域もしくは特徴、またはシーンに特徴的な他の特徴を表す、画像の点(例えば、x,y座標)である。キーポイントは、エッジ検出器、コーナー検出器またはブロブ検出器などの方法を用いて、同じシーンの異なる画像の同じスポットで確実に検出される。これらの点がそのシーンにとって特徴的なので、それらの環境を、キーポイントディスクリプタ(記述子)を用いて記述することができ、そうすることで、異なる画像の異なる組のキーポイントを比較できるようになる。このようにして、2つの画像を比較でき、特徴的な点の対応を確立することができる。ほとんどのキーポイントが2つの画像(フレームとも表される(denotes))間で位置だけを変更し、したがって、画像全体を再評価することなくそれらの位置だけを追跡することが望ましいことになる。
この課題は請求項1の特性を有する方法によって解決される。各実施形態は下位クレームに提示するかまたは以下に記載する。
請求項1によれば、物体に対して(relative)移動する光センサ(または光センサ手段)(本明細書で「relative(対して)」とは、物体が静止している間に光センサが移動するか、もしくはその逆であるか、または光センサも物体も移動することを意味する)によって見られる物体の画像の少なくとも1つのキーポイントの位置を追跡する方法であって、
a)画像画素を備える物体の画像を生成するように、物体から反射される光を検出するステップであって、各画像画素に画素値が割り当てられ、各画素値は、それぞれの画像画素ごとに、検出された光の強度に単調に関係付けられる(物体は、光源によって供給される、好ましくは強度が一定の光によって照明することができ、その光には光源としての太陽から供給される自然光が含まれてもよい)、ステップと、
b)前記画像の少なくとも1つのキーポイント(K)の位置を検出するステップと、
c)物体によって反射される光を、複数のセンサ画素を備える光センサによって検出するステップであって、各センサ画素に画素座標(u,v)が関連付けられ(それら座標は、具体的には、前記画像の前記画像画素の座標と位置合わせされ、例えば、対応する座標マッピングが知られているかまたは予め決められている)、各センサ画素は、それぞれのセンサ画素に当たる光の強度に比例する光電流および前記光電流に関係付けられる信号を生成し、各センサ画素は、それぞれのセンサ画素からの最後の時間コントラストイベント(Ev)以降に、それぞれのセンサ画素に当たる光によるそれぞれの信号が、第1のしきい値(ΘON)よりも大きい量だけ増加するかまたは第2のしきい値(ΘOFF)よりも大きい量だけ減少するときにのみ、時間コントラストイベント(Ev)を出力し、各時間コントラストイベント(Ev(u,v,t))は、その関連付けられたセンサ画素の座標(u,v)、それぞれの時間コントラストイベント(Ev)が起こった時刻(t)、ならびに、それぞれの時間コントラストイベント(Ev)が、前記信号が前記第1のしきい値(ΘON)よりも大きい量だけ増加したONイベント(例えば、正の定数の極性値(例えば、+1))であるかまたは前記信号が前記第2のしきい値(ΘOFF)よりも大きい量だけ減少したOFFイベント(例えば、負の定数の極性値(例えば、−1))であるかを示す極性値を保持する、ステップと、
d)前記時間コントラストイベント(Ev)を用いて少なくとも1つのキーポイント(K)の位置を更新するステップと、
e)新規画像が生成されるまでは、好ましくはステップc)からd)を繰り返すステップであって、新規画像が生成された場合は、ステップa)からe)が行われ、ここでステップa)の前記画像が前記新規画像になる、ステップと
を含む、方法。
もちろん、キーポイントKを複数検出することもできる。さらに、1つまたは複数の基準に従う様々な異なるキーポイントを追跡/検出することができる。本発明は、具体的には、追跡することに関する。よく知られたキーポイントの主な例は、本発明で使用してもよいFASTコーナー検出器アルゴリズム[10]を用いて検出できるコーナーである。キーポイントは、SIFT[8]もしくはSURF[5]で用いられるようなブロブ検出器、AGAST[9]アルゴリズムもしくはBRISK[6]アルゴリズムで用いられるような他のコーナー検出器、またはキャニーエッジ検出器[4]などのエッジ検出器を用いて検出することもできる。
言い換えると、本発明は、非同期時間コントラストイベントを用いてキーポイントを追跡できるようにする方法(ならびにコンピュータプログラムおよびデバイス、以下を参照)に関する。時間コントラストイベントは、低遅延、低電力、高時間分解能で、高ダイナミックレンジにわたって発生させることができる。本発明は、キーポイントベースのマシンビジョンアプリケーションの分野でこれら特徴を活用できるようにする。本発明は、(例えば、強度)画像(非同期にサンプル抽出されるコントラストイベントから前記画像を区別するために画像フレームとも表される)のキーポイントを検出し、時間コントラストイベントを用いてそれらの位置を更新するというアイデアに基づく。読み出しモードを2つ有する光センサを用いて、または別々の2つの較正済みセンサ、すなわち、時間コントラストイベントを供給する光センサおよび全体画像を一度に供給するさらなる光センサを使用することによって、前記画像と時間コントラストイベントを位置合わせすることができる。読み出しモードを2つ有するこのようなセンサの一つは、ダイナミック・アンド・アクティブ・ピクセル・ビジョン・センサ(DAVIS:dynamic and active pixel vision sensor、詳細については、例えば、本明細書に援用される国際出願PCT/EP2012/076093号参照)であり、そのセンサは、非同期に伝達される時間コントラストイベントを検出する画素から構成され、強度画像フレーム全体の読み出しも可能にする。このようなデュアル読み出しは、光の強度に比例する電流が時間コントラストイベントを算定するために消費されず、したがって、絶対強度を算定するためにも使用できるので可能になる(例えば、[1]、[2])。
本発明による方法の実施形態によれば、ステップb)はさらに、
‐具体的には、少なくとも1つのキーポイント(K)にディスクリプタベクトル(descriptor vector)を割り当てるステップ(具体的には、このようなディスクリプタベクトルは、少なくとも1つのキーポイントの周囲画像画素をベクトルの形態で記述し、ディスクリプタ法(descriptor method)は、具体的には、変換された別の画像の同じキーポイントに関して同様のベクトルを送る。ディスクリプタベクトルは、具体的には、異なるキーポイントに関しては(例えば可能な限り)異なる。ある一定のタスクには、キーポイントに関してディスクリプタ(記述子)を有することが必要とされない場合があり、識別子で十分である。例えば、単眼ストラクチャ・フロム・モーション)と、
‐画像パッチを生成するステップであって、画像パッチは、少なくとも1つのキーポイントKの周りに配置された規定数の画像画素に、画像パッチのそれぞれの画像画素の画素値を割り当てる、ステップと、さらに、具体的には
‐画像パッチの自由度に沿った少なくとも1つの勾配パッチを算定するステップであって、前記少なくとも1つの勾配パッチは、画像パッチの各画像画素に、前記自由度に沿ったそれぞれの画像画素における画像パッチの画素値の勾配を割り当てる、ステップ(自由度とは、例えば、平行移動の自由度、つまり、x、y、もしくはz方向の自由度、または回転の自由度のうちの一つとすることができる。例えば以下を参照。このことは本発明によるコンピュータプログラムおよびデバイスにも当てはまる)と
を含む。
本発明による方法のさらなる実施形態によれば、ステップc)はさらに、
‐少なくとも1つのキーポイントの最新位置の周りの少なくとも1つの勾配パッチの範囲内の、N個の直近の時間コントラストイベントBを格納するステップと、
‐具体的には、時間コントラストパッチ内の位置(x,y)に従って、格納された時間コントラストイベントの重みづけされた極性値を合計することによって、時間コントラストパッチSを算定するステップと、
‐具体的には、少なくとも1つの勾配パッチと時間コントラストパッチとの間の比較を算定するステップと、
‐具体的には、例えば、前記算定された比較を用いて類似性を最大化することによって、前記比較を用いて前記自由度に沿った画像の少なくとも1つのキーポイントの動きを算定するステップと
を含む。
本発明による方法のさらなる実施形態によれば、ステップd)はさらに、前記自由度に沿った前記動きを用いて少なくとも1つのキーポイントに関連付けられる少なくとも1つの勾配パッチの位置を更新するステップを含む。
さらに、本発明による方法の実施形態によれば、以下の時間コントラストイベントはステップc)で格納される。
Figure 2017522669
すなわち、添え字jを有するキーポイントKに関するバッファBは、メトリックd()を用いるキーポイントKからある一定の距離θ内にある最新のN個のイベントEv(x,y,t)を含む。
このメトリックd()は空間成分および時間成分を含むことができ、したがって、キーポイント近傍の最も関係性のあるイベントだけがバッファに入れられることを保証する。
上記で既に示したように、本発明による方法の変形形態によれば、前記画像も前記光センサによってサンプル抽出され、すなわち、光センサは、前記時間コントラストイベントを生成し、かつ同時に全体画像/シーンをサンプル抽出するように設計される。あるいは、前記画像はさらなる(フレームベースの)光センサによってサンプル抽出することができ、その光センサは他方の光センサ/時間コントラストイベントと位置合わせされる。すなわち、2つのセンサ間の座標マッピングが知られているかまたは較正によって確立することができる。
さらに、本発明による方法の実施形態によれば、キーポイントKに関する時間コントラストパッチ(S)は、
Figure 2017522669
に従って算定され、ここで、全イベントおよびそれに従うバッファは重み関数w()を用いて画素pごとに合計される。
Figure 2017522669
さらに、本方法の実施形態によれば、重み関数w()は、極性がONの全イベントで+1であり、極性がOFFの全イベントで−1である。本方法の他の実施形態は、一定値または何らかの空間または時間の基準に従って重みを割り当てる(例えば、古いイベントはより小さく計上する)関数を用いることができる。最良のマッチングの代わりに最大の空間コントラストにおいて相互相関がピークに達するのを避けるために、具体的には、時間コントラストパッチの全画素から平均値が減算される(ゼロ平均相互相関)。
Figure 2017522669
さらに、本発明による方法の実施形態によれば、前記動き(Δx)は、時間コントラストパッチと空間勾配パッチとの類似性を比較および最大化することによって算定される。本方法の実施形態によれば、前記比較は相互相関でよく、動きは、
Figure 2017522669
に従って算定され、式中、*は、少なくとも1つの勾配パッチdI/dxと時間コントラストパッチSとの間の相互相関を表す。
もちろん、画像パッチのいくつかの自由度(例えば、画像平面に広がるxおよびyなど)に対応する複数の勾配パッチ(dI/dx、dI/dy、dI/dz、dI/dα、dI/dβ、dI/dγ、図4も参照)も算定することができ、それぞれの勾配パッチは、画像パッチIの各画像画素に、それぞれの自由度に沿ったそれぞれの画像画素における画像パッチIの画素値の勾配を割り当てる。
本発明による方法のさらなる実施形態によれば、前記比較は、固定量の前記動き(例えば、Δx)に関する最大スコアの時間コントラストパッチを事前算定することによって演算が単純化される。最も可能性の高い前記固定量の動きを判定するために、前記最大スコアの時間コントラストパッチに前記イベントバッファ(B)を乗算する。
具体的には、前記2つの平面の平行移動の自由度x、yに沿った勾配は、畳み込み手法を用いて、例えば、(強度)画像の2次元に関するゾーベル畳み込みカーネルの形態で、近似することができる。畳み込みカーネルは3×3の範囲を有し、以下の形態を有することができる。
Figure 2017522669
zおよび回転自由度に沿った強度勾配は、キーポイント(座標xおよびyを有するキーポイントK)に特定的に算定することができる。
Figure 2017522669
zの微分の場合、キーポイントのすぐ周りの値は無視することができるかまたは異なるように算定することができる。というのは、キーポイントのすぐ周りでは回転されるゾーベルカーネルが無意味だからである。
Figure 2017522669
zの微分については、キーポイントの周りの値は無視することができる。αの微分では、同様のy座標に対する値、βの微分では、同様のx座標に対する値である。
Figure 2017522669
γの微分でも、キーポイントの周りの値は無視することができる。
さらに、本発明の根底にある課題が請求項13に記載のコンピュータプログラムによって解決される。
請求項13によれば、光センサまたは光センサ手段に対して移動する物体の画像の少なくとも1つのキーポイントの位置を追跡するためのコンピュータプログラムは、コンピュータプログラムがコンピュータ(または本発明によるデバイスの処理ユニット)上で実行されるときに、
a)前記画像の少なくとも1つのキーポイントKの位置を検出するステップと、
b)それぞれのセンサ画素からの最後の時間コントラストイベント以降に、光センサのセンサ画素に当たる光による、光電流に関係付けられる光センサの信号が、第1のしきい値(ΘON)よりも大きい量だけ増加するかまたは第2のしきい値(ΘOFF)よりも大きい量だけ減少するときにのみ光センサによって出力される時間コントラストイベントEvを用いて、少なくとも1つのキーポイントKの位置を更新するステップであって、各時間コントラストイベントEv(u,v,t)は、その関連付けられたセンサ画素の座標(u,v)、それぞれの時間コントラストイベント(Ev)が起こった時刻(t)、ならびに、それぞれの時間コントラストイベントEvが、前記信号が前記第1のしきい値よりも大きい量だけ増加したONイベントであるかまたは前記信号が前記第2のしきい値よりも大きい量だけ減少したOFFイベントであるかを示す極性値を保持する、ステップと、
c)新規画像が供給されるまで、具体的には、ステップa)からb)を繰り返すステップであって、新規画像が供給された場合は、ステップa)からc)が行われ、ここでステップa)の前記画像が前記新規画像になる、ステップと
を行うためのプログラムコードを備える。
本発明によるコンピュータプログラムの実施形態によれば、ステップa)はさらに、
‐具体的には、少なくとも1つのキーポイント(K)にディスクリプタベクトルを割り当てるステップと(上記も参照)、
‐画像パッチIを生成するステップであって、画像パッチは、少なくとも1つのキーポイント画像画素(K)の周りに配置された規定数の画像画素に、画像パッチのそれぞれの画像画素の画素値を割り当てる、ステップと、
‐具体的には、画像パッチの自由度に沿った少なくとも1つの勾配パッチを算定するステップであって、前記少なくとも1つの勾配パッチは、画像パッチの各画像画素に、前記自由度に沿ったそれぞれの画像画素における画像パッチの画素値の勾配を割り当てる、ステップと
を含む。
本発明によるコンピュータプログラムの実施形態によれば、ステップb)はさらに、
‐少なくとも1つのキーポイントKの最新位置の周りの少なくとも1つの勾配パッチの範囲内の、N個の直近の時間コントラストイベントBを格納するステップと、
‐時間コントラストパッチ内の位置に従って、格納された時間コントラストイベントBの重みづけされた極性値を合計することによって、時間コントラストパッチSを算定するステップと、
‐少なくとも1つの勾配パッチと時間コントラストパッチとの間の比較を算定するステップと、
‐前記算定された比較を用いて前記自由度に沿った画像の少なくとも1つのキーポイントKの動きを算定するステップと
を含む。
本発明によるコンピュータプログラムの実施形態によれば、ステップb)はさらに、前記自由度に沿った前記動きを用いてキーポイントに関連付けられる勾配パッチの位置を更新するステップを含む。
さらに、本発明によるコンピュータプログラムの実施形態によれば、ステップb)はさらに、以下の直近の時間コントラストイベント(B)を格納するステップを含む。
Figure 2017522669
さらに、本発明によるコンピュータプログラムの実施形態によれば、時間コントラストパッチSは、具体的には、
Figure 2017522669
に従って算定され、式中、
Figure 2017522669
である。
さらに、本発明によるコンピュータプログラムの実施形態によれば、前記動きは、
Figure 2017522669
に従って算定され、式中、*は、少なくとも1つの勾配パッチと時間コントラストパッチSとの間のゼロ平均相互相関を表す。
さらに、本発明によるコンピュータプログラムの実施形態によれば、画像パッチのいくつかの自由度に対応する複数の勾配パッチ(dI/dx、dI/dy、dI/dz、dI/dα、dI/dβ、dI/dγ)が算定され、それぞれの勾配パッチは、画像パッチの各画像画素に、それぞれの自由度に沿ったそれぞれの画像画素における画像パッチの画素値の勾配を割り当てる。
さらに、本発明によるコンピュータプログラムの実施形態によれば、前記比較はゼロ平均相互相関である。
さらに、本発明による課題は、請求項14に記載のデバイスによって解決される。具体的には、本発明の実施形態によれば、このようなデバイスは、
‐モバイルデバイス、
‐ウェアラブルコンピュータ、
‐スマートフォン、
‐タブレットコンピュータ、
‐(例えば、スマート)グラス、
‐(例えば、スマート)ウォッチ、
‐移動ロボット、
‐(例えば、マイクロ)飛行体(例えば、ドローン)
のうちの一つとすることができる。
請求項14によれば、光センサ手段(または光センサ)に対して移動する物体の画像の少なくとも1つのキーポイントの位置を追跡するためのデバイスは、
‐物体から反射される光を検出し画像画素を備える物体の画像を生成するように設計される、光センサ手段であって、各画像画素に画素値が割り当てられ、各画素値は、それぞれの画像画素ごとに検出された光の強度に単調に関係付けられる、光センサ手段
を備え、
‐デバイス(または、例えば、本発明によるコンピュータプログラムのようにコンピュータプログラムが実行されるデバイスの処理ユニット)は、前記画像の少なくとも1つのキーポイント(K)の位置を検出するように設計され、
‐前記光センサ手段はさらに、物体によって反射される光を、複数のセンサ画素によって検出するように設計され、各センサ画素に画素座標(u,v)が関連付けられ、各センサ画素は、それぞれのセンサ画素に当たる光の強度に比例する光電流を生成し、前記光電流に関係付けられる信号を生成するように設計され、各センサ画素は、それぞれのセンサ画素からの最後の時間コントラストイベント(Ev)以降に、それぞれのセンサ画素に当たる光によるそれぞれの信号が、第1のしきい値(ΘON)よりも大きい量だけ増加するかまたは第2のしきい値(ΘOFF)よりも大きい量だけ減少するときにのみ、時間コントラストイベント(Ev)を出力するように設計され、各時間コントラストイベント(Ev(u,v,t))は、その関連付けられたセンサ画素の座標(u,v)、それぞれの時間コントラストイベント(Ev)が起こった時刻(t)、ならびに、それぞれの時間コントラストイベント(Ev)が、前記信号が前記第1のしきい値(ΘON)よりも大きい量だけ増加したONイベントであるかまたは前記信号が前記第2のしきい値(ΘOFF)よりも大きい量だけ減少したOFFイベントであるかを示す極性値を保持する。
本発明の別の態様によれば、デバイスは、本発明による方法を行うように設計される。
さらに、本発明によるデバイスの実施形態によれば、デバイス(例えば、前記コンピュータプログラムを実行する処理ユニットなど)は、前記時間コントラストイベントを用いて少なくとも1つのキーポイントKの位置を更新するように設計される。
さらに、本発明によるデバイスの実施形態によれば、デバイスは、少なくとも1つのキーポイント(K)にディスクリプタベクトルまたは識別子(上記も参照)を割り当てるように設計される。
さらに、本発明によるデバイスの実施形態によれば、デバイス(例えば、前記コンピュータプログラムを実行する処理ユニットなど)は、少なくとも1つのキーポイントの周りに配置された規定数の画像画素に画像パッチのそれぞれの画像画素の画素値を割り当てる、画像パッチを生成するように設計される。
さらに、本発明によるデバイスの実施形態によれば、デバイス(例えば、前記コンピュータプログラムを実行する処理ユニットなど)は、画像パッチの自由度に沿った少なくとも1つの勾配パッチを算定するように設計され、前記少なくとも1つの勾配パッチは、画像パッチの各画像画素に、前記自由度に沿ったそれぞれの画像画素における画像パッチの画素値の勾配を割り当てる。
さらに、本発明によるデバイスの実施形態によれば、デバイス(例えば、前記コンピュータプログラムを実行する処理ユニットなど)は、少なくとも1つのキーポイントの最新位置の周りの少なくとも1つの勾配パッチの範囲内の、N個の直近の時間コントラストイベントBを格納するように設計される。
さらに、本発明によるデバイスの実施形態によれば、デバイス(例えば、前記コンピュータプログラムを実行する処理ユニットなど)は、時間コントラストパッチ内の位置(x,y)に従って、格納された時間コントラストイベントBの重みづけされた極性値を合計することによって、時間コントラストパッチSを算定するように設計される。
さらに、本発明によるデバイスの実施形態によれば、デバイス(例えば、前記コンピュータプログラムを実行する処理ユニットなど)は、少なくとも1つの勾配パッチと時間コントラストパッチとの間の比較(例えば、相互相関)を算定し、前記算定された比較を用いて前記自由度に沿った画像の少なくとも1つのキーポイントの動きを算定するように設計される。
さらに、本発明によるデバイスの実施形態によれば、デバイス(例えば、前記コンピュータプログラムを実行する処理ユニットなど)はさらに、前記自由度に沿った前記動きを用いて少なくとも1つのキーポイントに関連付けられた勾配パッチの位置を更新するように設計される。
さらに、本発明によるデバイスの実施形態によれば、デバイス(例えば、前記コンピュータプログラムを実行する処理ユニットなど)は、キーポイントごとに以下の直近の時間コントラストイベント(B)を格納するように設計される(上記も参照)。
Figure 2017522669
さらに、本発明によるデバイスの実施形態によれば、光センサ手段は、時間コントラストイベントが前記画像と位置合わせされるように前記画像をサンプル抽出または生成しかつ前記時間コントラストイベントをサンプル抽出または生成するように設計される、単一の光センサとして形成される。
さらに、本発明によるデバイスの代替の実施形態によれば、センサ手段は、時間コントラストイベントが前記画像と位置合わせされるように、前記時間コントラストイベントを生成するように設計された光センサと、前記画像をサンプル抽出/生成するように設計された別個のさらなる光センサとを備え、そのさらなる光センサは光センサと位置合わせされる。
さらに、本発明によるデバイスの実施形態によれば、デバイス(例えば、前記コンピュータプログラムを実行する処理ユニットなど)は、
Figure 2017522669
に従って時間コントラストパッチ(S)を算定するように設計され(上記も参照)、式中、
Figure 2017522669
である。
さらに、本発明によるデバイスの実施形態によれば、デバイス(例えば、前記コンピュータプログラムを実行する処理ユニットなど)は、
Figure 2017522669
に従って前記動きを算定するように設計され、式中、*は、少なくとも1つの勾配パッチdI/dxと時間コントラストパッチSとの間のゼロ平均相互相関を表す。
さらに、本発明によるデバイスの実施形態によれば、デバイス(例えば、前記コンピュータプログラムを実行する処理ユニットなど)は、画像パッチのいくつかの自由度に対応する複数の勾配パッチ(dI/dx、dI/dy、dI/dz、dI/dα、dI/dβ、dI/dγ)を算定するように設計され、それぞれの勾配パッチは、画像パッチの各画像画素に、それぞれの自由度に沿ったそれぞれの画像画素における画像パッチの画素値の勾配を割り当てる。
本発明のキーポイントを追跡する手法は低遅延かつ低電力消費であり、したがって、モバイルコンピュータ(タブレット、ラップトップなど)、モバイルフォン(スマートフォンなど)、ウェアラブルコンピュータ(スマートウォッチまたはスマートグラスなど)、自律または遠隔操作のロボット(超小型飛行体または歩行ロボットなど)を含む、環境と対話するかまたはそれらを表示するモバイルプラットフォームに非常に有用である。
以下に、図面を参照しながら本発明のさらなる利点および特性ならびに本発明の実施形態を説明する。
時間コントラストイベントに基づいてキーポイントを追跡するプロセスのフローチャートを示す。 時間コントラストイベントに基づくキーポイント追跡のためのデバイス/装置の実施形態の概略的な図形描写を示す。 キーポイントの1次元の動きの例示的な演算の図である。 使用される座標系を示す。
本発明は、非同期時間コントラストイベントを用いて物体12の画像のキーポイントを自動的に追跡できるようにする方法/アルゴリズム、コンピュータプログラムおよびデバイスに関する。時間コントラストイベントは、低遅延、低電力、高時間分解能で、高ダイナミックレンジにわたって発生させることができる。本発明は、キーポイントベースのマシンビジョンアプリケーションの分野でこれら特徴を活用できるようにする。具体的には、本発明は、(例えば、強度)画像フレームのキーポイントKを検出し、時間コントラストイベントを用いてそれらの位置を更新するというアイデアに基づく。ダイナミック・アンド・アクティブ・ピクセル・ビジョン・センサ(DAVIS)[1、2]など読み出しモードを2つ有する光センサを用いて、または図2に示すような別々の2つの較正済み光センサ13、14を使用することによって、画像フレームと時間コントラストイベントとを位置合わせすることができる。
具体的には、本発明の背後にある主な仮定は、シーンの照明が一様のままである場合、どの時間コントラストイベントも(1つまたは複数の)光センサ13、14に対して移動する空間コントラストによって引き起こされることである。そうなると、キーポイントの環境において時間コントラストを空間コントラストにマッチングさせると、キーポイントの動きを推測することが可能になる。
図2に示すように、本発明の第1の実施形態が、本発明によるデバイスに統合できる、分析手段、例えば、コンピュータ15を備える。その分析手段、例えば、コンピュータ15は、画像(強度画像または画像フレームまたは強度画像フレームとも表される)のキーポイントを追跡できるものとする。その画像は、例えば、光センサ(時間コントラストセンサとも表される)14(または2つの光センサ13、14)を介して同じデバイスによってサンプル抽出され、その光センサは、分析されるシーンまたは図1および図4に示す木12など1つもしくは複数の物体に向けられる。(時間コントラスト)センサ14が1つだけ用いられる場合は、画像フレーム全体に関して、そのシーンの(強度)画像を取得できる可能性を有する必要がある(例えば[1])。そうでない場合は、第2のフレームベースの光センサ(例えば、カメラ)13を追加して使用することができる(上記を参照)。こうしたフレームベースの光センサ13は、具体的には、2つのセンサ13と14との間の座標マッピングを確立できるようにして較正される。センサ13、14は様々な位置からシーンを観測することができる。シーンが観測される間は、太陽でよい光源16がその強度を変えないかまたはゆっくりと(数秒よりも長いタイムスケールで)しか変えない。本発明の方法およびコンピュータプログラムは、本発明によるデバイスに統合できるコンピュータまたは前記処理ユニット15上で実行される。前記コンピュータまたは処理ユニット15は、具体的には、入ってくる画像およびイベントを格納および処理する手段を備える。前記処理は本発明の実行に必要な基本的な動作を含む。前記コンピュータまたは処理ユニット15は同期して動作しても非同期に動作してもよい。前記格納手段はアナログでもデジタルでもよい。前記処理は順番に実行しても並行して実行してもよい。
図1によれば、第1のステップで(例えば、強度)画像フレームIが取得され(ステップ1)、コンピュータ15に送信され、そこで、必要な場合はグレースケールに変換され、正規化される。強度画像Iは対数圧縮でき、したがって、I=log(I)になる。これらステップは、例えばUSBケーブルを通して前記コンピュータまたは処理ユニット15に接続されたDAVISセンサ14の形態の光センサを用いて行うことができる。前記コンピュータまたは処理デバイス15は、本発明の例ではラップトップ(すなわち、Intel Core i7‐3740QM CPUおよび16GB RAMを有する、HP EliteBook 8570p)である。このステップは、強度フレーム(すなわち画像)が格納および伝達されるフォーマットの変更を伴う。
画像の特徴的な部分をマークするキーポイントKは、キーポイントまたは特徴量の検出方法を用いて検出される(ステップ2)。キーポイントとは、シーンに特徴的なエッジ、コーナーまたはブロブなど特定の領域を表す、画像の点(例えば、x,y座標)である。それらは、エッジ検出器、コーナー検出器またはブロブ検出器などの方法を用いて、同じシーンの異なる画像の同じスポットで確実に検出される。これら点がそのシーンに特徴的なので、それらの環境をキーポイントディスクリプタを用いて記述することができ、そうすることで、異なる画像の異なる組のキーポイントを比較できるようになる。このようにして、2つの画像を比較することができ、特徴的な点の対応を確立することができる。このステップは、FASTコーナー検出器アルゴリズム[10]を用いて行うことができる。SIFT[8]もしくはSURF[5]で用いられるようなブロブ検出器、AGAST[9]もしくはBRISK[6]アルゴリズムで用いられるような他のコーナー検出器、またはキャニーエッジ検出器[4]などのエッジ検出器を用いて、キーポイントを検出することもできる。各画像IはキーポイントKに関する1組のk座標タプルを含む。
Figure 2017522669
キーポイントKはキーポイントまたは特徴量のディスクリプタ(記述子)を用いて記述される(ステップ3)。
各キーポイントには、空間位置、ディスクリプタベクトル(または短いディスクリプタ)(ステップ3)、および勾配パッチ(ステップ4)(以下を参照)が割り当てられ、これらタプル(tupels)はメモリに格納される。前記ディスクリプタベクトルはディスクリプタ法を用いて算定され、その方法は、可能な限り多くの変換(平行移動、回転、スケール、スキュー、明るさ)の下で、同じキーポイントに関して同じであるが極めて独特なディスクリプタベクトルを確実に生み出すべきである。良いキーポイントディスクリプタは、異なるキーポイントに関しては異なるディスクリプタベクトルを生み出すが、異なる画像(異なるカメラ、異なる視点など)の同じキーポイントに関しては同じディスクリプタベクトルを生み出す。前記ディスクリプタは、キーポイントの周りの空間勾配または2値画素比較を算定し、それらを回転不変法で処理し、結果を収集してベクトルにすることができる。空間位置およびディスクリプタベクトルは、他のプロセスに伝達することができ、そこで、キーポイントベースのコンピュータビジョンおよびマシンビジョンのために使用することができる。
キーポイントディスクリプタを用いたキーポイントの記述は、多くのメモリを必要とせず少ない演算量でマッチングできるBRISKキーポイントディスクリプタ[6]を用いて行うことができる。キーポイントを記述する他のディスクリプタには、SIFT[8]ディスクリプタ、SURF[5]ディスクリプタおよびBRIEF[3]ディスクリプタが含まれる。
さらに、キーポイントKの周りの既定サイズの画像パッチが格納される(ステップ4)。これらパッチは、コーナー検出器カーネルのサイズを有することができる。具体的には、(例えば、FASTコーナー検出器の場合は)このようなパッチはそのキーポイントを中央にして7×7画素の範囲を有することができる。
(強度)画像パッチ上の強度勾配が算定される(ステップ5)。強度勾配は、パッチの全ての自由度24に沿って独立に算定することができる(図4参照)。自由度は、画像の平面内のx,y平行移動に限定することができ、そうすると、これらの軸に沿った勾配dI/dxおよびdI/dyだけが算定される。前記2つの平面平行移動に沿った勾配は畳み込み手法を用いることによって近似することができる。このステップは、強度画像の2次元に関して2つのゾーベル畳み込みカーネルを用いて行うことができる。畳み込みカーネルは3×3の範囲を有し、以下の形態を有することができる。
Figure 2017522669
zおよび回転自由度に沿った強度勾配の演算を同様に算定することができる。
キーポイント1つに画像パッチが複数算定される場合は、具体的にはそれら画像パッチはいずれもそのキーポイントに割り当てられる。
具体的には、それぞれのディスクリプタベクトル3はその関連付けられるキーポイントの位置にリンクされる。具体的には、これは、同じソフトウェアオブジェクト内に維持することによって、またはメモリ内(例えば、ハードウェアソリューション内)で近接して配置することによって行われる。このようなリンクは、キーポイントおよびディスクリプタに共有されるIDまたはインデックスによって確立することもできる。
イベントベースのセンサが時間コントラストイベントのストリームを発生させる(ステップ7)。こうしたストリームは、光センサ14(例えば、DAVIS)によって発生し、例えば、USBを通して、コンピュータ15に伝達することができる。本発明によるこの光センサ14の出力は、1組の時間コントラストイベントとして記述され、各イベントEvは、uアドレスおよびvアドレス、タイムスタンプ、ならびに極性値(例えば、ONイベントの場合は+1の値、OFFイベントの場合は−1の値として)を保持する。
Figure 2017522669
式中、Δln(Iu,v)は最後のイベント以降の座標u,vを有する画素における照明の変化を表す。ΘONおよびΘOFFは、イベントを引き起こすために超えなければならないイベントしきい値を表す。これらしきい値は独立に設定でき、そうすることで、ONイベントおよびOFFイベントの数のバランスをとることができる。
直近のイベントは、キーポイント動き分析のためにそれらを格納することによってバッファに入れられる(ステップ8)。キーポイントの周囲にないイベントはいずれもフィルタによって除去することができる。バッファ基準は、キーポイントの最新位置の周りの勾配パッチの範囲内の、N個の最後のイベントとすることができる。Nは勾配パッチのコントラストの大きさに応じて変わることがある。キーポイントjに関してバッファに入れられるイベントBは、
Figure 2017522669
と記述することができる。この式は時間的に順序づけられたリストを1組として記述する。言い換えると、Bだけが最新のイベントを維持すると述べることもできる。
バッファに入れられるイベントは時間コントラストパッチSを算定するためにマッピングされる(ステップ9)。時間コントラストパッチは、どの領域がより明るくなり、どの領域がより暗くなったかを表す時間コントラストイベントの空間の累計である。時間コントラストパッチは、重み関数w()を用いてパッチ内の空間位置、極性および到着時刻に従ってバッファに入れられる時間コントラストイベントを合計することによって算定することができる。
Figure 2017522669
式中、
Figure 2017522669
時間コントラストを用いて、時間コントラストパッチを引き起こした可能性のある空間コントラストパッチの最も可能性の高い動きを推測する(ステップ10)。パッチ22、23の動きは6の自由度24に制限される。パッチは、3次元の空間に沿って平行移動しかつその周りを回転することができる。パッチは、z軸に沿って移動する場合、観測者に近づくように移動し、そうなることでより大きくなる。x軸およびy軸に沿った動きの場合、パッチは歪まない。z軸の周りを回転してもパッチの歪みは起きないが、他の軸に沿って回転するとパッチは押しつぶされるかまたは引き伸ばされる。
最も可能性の高い動きは、勾配パッチと時間コントラストパッチとのゼロ平均相互相関または別の適切な比較を使用し、最大スコアの平行移動を判定することによって算定される。全ての自由度に沿った動きが独立に算定される。x方向の動きΔxおよびy方向の動きΔyに関して、これは以下のようにして行うことができる。
Figure 2017522669
同じようにして、z方向の動きおよび回転方向の動きを推定することができる。本発明の性能を改善するために、キーポイントの変換およびそれに従う動きは離散化および事前算定することができる。前記事前演算を行うために、それぞれの画像パッチは、自由度xに沿って固定の量mだけ移動され、画像パッチと移動された画像パッチとの差が算定される。この差は、所与の固定量mに関する最高スコアの時間コントラストパッチに対応し、変換マップMとして使用することができる。変換マップMは、演算の効率のために、整数またはブール値として格納することができる。x軸およびy軸に沿った平行移動については、両方の方向において1つの画素をそれぞれmまたはmとして選択することができる。次に、バッファの各新規イベントにイベント座標における変換マップの値を乗算する。変換マップごとにこれら乗算が合計され、ある変換マップがしきい値よりも良いスコアになるとすぐに、キーポイントはマップを算定するのに使用された離散量mx、だけ移動され、それに従う変換マップがリセットされる。しきい値は、画像パッチのコントラストまたは変換マップの絶対値の合計に応じて変わることがある。最後の変換マップの減衰値またはパッチが移動しなかった可能性の程度を示す他の任意の測定法によって、しきい値を算定することもできる。微分を離散形に事前算定するこうした手法により、時間コントラストイベントの到着時に実行される演算を数回の乗算、加算、および比較に減らすことが可能になる。
x軸に沿った例示的な強度分布17から、x軸に沿った強度勾配を算定することができる18。任意の適切な比較測定法(例えば、ゼロ平均相互相関、SSD(差の二乗和、sum of squared differences)、畳み込み、ユークリッド距離、またはPCA(主成分分析、principle component analysis)、DFT(離散フーリエ変換、discrete Fourier transform)またはDWT(離散ウェーブレット変換、discrete wavelet transform)など、圧縮空間の他の距離)によって、強度勾配パッチを可能な時間コントラストパッチと比較すること19、具体的には、相互相関によって、測定Cの最大値を判定でき20、それに従うΔxは、自由度xに沿ったパッチおよびそれに従うキーポイントの動きを明らかにする。これは他の自由度について行うこともできる。
算定された空間コントラストパッチの動きを用いてキーポイント位置を更新し、次いで、キーポイントベースのプロセスに伝達することができる(ステップ11)。
本発明は、視覚的シーンのキーポイントを低遅延で追跡することができる。
参考文献
[1]Berner, R.、Brandli, C.、Yang, M.、Liu, S.−C.、Delbruck, T.、2013年。「A 240×180 10mW 12us Latency Sparse‐Output Vision Sensor for Mobile Applications」、2013 Symposium on VLSI Circuits(VLSIC)。2013 Symposium on VLSI Circuits(VLSIC)で発表、p.C186‐C187。
[2]Berner, R.、Delbrueck, T.、2012年。「Photoarray, particularly for combining sampled brightness sensing with asynchronous detection of time‐dependent image data」。国際出願PCT/EP2012/076093号。
[3]Calonder, M.、Lepetit, V.、Strecha, C.、Fua, P.、2010年。「BRIEF:Binary Robust Independent Elementary Features」、Daniilidis, K.、Maragos, P.、Paragios, N.(編)、Computer Vision‐ECCV 2010年、Lecture Notes in Computer Science。Springer Berlin Heidelberg、p.778‐792。
[4]Canny, J.、1986年。「A Computational Approach to Edge Detection」、IEEE Transactions on Pattern Analysis and Machine Intelligence、PAMI‐8、p.679‐698。doi:10.1109/TPAMI.1986.4767851
[5]Funayama, R.、Yanagihara, H.、Van, G.L.、Tuytelaars, T.、Bay, H.、2009年。「Robust Interest Point Detector and Descriptor」。米国特許出願公開第2009/238460(A1)号。
[6]Leutenegger, S.、Chli, M.、Siegwart, R.Y.、2011年。「BRISK:Binary Robust invariant scalable keypoints」、2011 IEEE International Conference on Computer Vision(ICCV)。2011 IEEE International Conference on Computer Vision(ICCV)で発表、p.2548‐2555。doi:10.1109/ICCV.2011.6126542
[7]Lichtsteiner, P.、Delbruck, T.、2008年。「Photoarray for detecting Time‐Dependent Image Data」。米国特許出願公開第2008/135731(A1)号。
[8]Lowe, D.G.、2004年。「Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image」。米国特許第6711293(B1)号。
[9]Mair, E.、Hager, G.D.、Burschka, D.、Suppa, M.、Hirzinger, G.、2010年。「Adaptive and Generic Corner Detection Based on the Accelerated Segment Test」、Daniilidis, K.、Maragos, P.、Paragios, N.(編)、Computer Vision‐ECCV2010年、Lecture Notes in Computer Science。Springer Berlin Heidelberg、p.183‐196。
[10]Rosten, E.、Drummond, T.、2006年。Machine Learning for High−Speed Corner Detection:Leonardis, A.、Bischof, H.、Pinz, A.(編)、Computer Vision‐ECCV2006、Lecture Notes in Computer Science。Springer Berlin Heidelberg、p.430‐443

Claims (15)

  1. 光センサに対して移動する物体の画像の少なくとも1つのキーポイントの位置を追跡する方法であって、
    a)前記物体(12)から反射される光を検出し、画像画素を備える前記物体(12)の画像を生成するステップであって、各画像画素に画素値が割り当てられ、各画素値は、それぞれの画像画素ごとに、前記検出された光の強度に単調に関係付けられる、ステップと、
    b)前記画像の少なくとも1つのキーポイント(K)の位置を検出するステップと、
    c)前記物体によって反射される光を、複数のセンサ画素を備える前記光センサ(14)によって検出するステップであって、各センサ画素は、それぞれのセンサ画素に当たる光の強度に比例する光電流を生成し、前記光電流に関係付けられる信号を生成し、各センサ画素は、前記それぞれのセンサ画素からの最後の時間コントラストイベント(Ev)以降に、前記それぞれのセンサ画素に当たる前記光によるそれぞれの信号が、第1のしきい値(ΘON)よりも大きい量だけ増加するかまたは第2のしきい値(ΘOFF)よりも大きい量だけ減少するときにのみ、時間コントラストイベント(Ev)を出力し、各時間コントラストイベント(Ev(u,v,t))は、その関連付けられたセンサ画素の座標(u,v)、それぞれの時間コントラストイベント(Ev)が起こった時刻(t)、ならびに、前記それぞれの時間コントラストイベント(Ev)が、前記信号が前記第1のしきい値(ΘON)よりも大きい量だけ増加したONイベントであるかまたは前記信号が前記第2のしきい値(ΘOFF)よりも大きい量だけ減少したOFFイベントであるかを示す極性値を保持する、ステップと、
    d)前記時間コントラストイベント(Ev)を用いて前記少なくとも1つのキーポイント(K)の位置を更新するステップと、
    e)新規画像が生成されるまでは、具体的にはステップc)からd)を繰り返すステップであって、新規画像が生成された場合は、ステップa)からe)が行われる、ステップと
    を含む、方法。
  2. ステップb)はさらに、
    ‐具体的には、前記少なくとも1つのキーポイント(K)にディスクリプタベクトルを割り当てるステップと、
    ‐画像パッチ(I)を生成するステップであって、前記画像パッチ(I)は、前記少なくとも1つのキーポイント(K)の周りに配置された規定数の画像画素に、前記画像パッチ(I)の前記それぞれの画像画素の前記画素値を割り当てる、ステップと、
    ‐前記画像パッチ(I)の自由度(x)に沿った少なくとも1つの勾配パッチ(dI/dx)を算定するステップであって、前記少なくとも1つの勾配パッチ(dI/dx)は、前記画像パッチ(I)の各画像画素に、前記自由度に沿った前記それぞれの画像画素における前記画像パッチ(I)の前記画素値の勾配を割り当てる、ステップと
    を含むことを特徴とする、請求項1に記載の方法。
  3. ステップc)はさらに、
    ‐前記少なくとも1つのキーポイント(K)の最新位置の周りの前記少なくとも1つの勾配パッチ(dI/dx)の範囲内の、ある数(N)の直近の時間コントラストイベント(B)を格納するステップと、
    ‐時間コントラストパッチ(S)内の位置(x,y)に従って、前記格納された時間コントラストイベント(B)の重みづけされた極性値を合計することによって、前記時間コントラストパッチ(S)を算定するステップと、
    ‐前記少なくとも1つの勾配パッチ(dI/dx)と前記時間コントラストパッチ(S)との間の比較(C)を算定するステップと、
    ‐前記算定された比較(C)を用いて前記自由度に沿った前記画像の前記少なくとも1つのキーポイント(K)の動き(Δx)を算定するステップと
    を含むことを特徴とする、請求項2に記載の方法。
  4. ステップd)はさらに、前記自由度に沿った前記動き(Δx)を用いて、前記少なくとも1つのキーポイント(K)に関連付けられる前記少なくとも1つの勾配パッチ(dI/dx)の前記位置を更新するステップを含むことを特徴とする、請求項3に記載の方法。
  5. 以下の直近の時間コントラストイベント(B)がキーポイントごとに格納されることを特徴とする、請求項3に記載の方法。
    Figure 2017522669
  6. 前記画像も前記光センサ(14)を用いてサンプル抽出され、前記時間コントラストイベント(Ev)は前記画像と位置合わせされることを特徴とする、請求項1〜5のいずれか一項に記載の方法。
  7. 前記画像は、前記光センサ(14)と位置合わせされるさらなる光センサ(13)によってサンプル抽出されることを特徴とする、請求項1〜5のいずれか一項に記載の方法。
  8. 前記時間コントラストパッチ(S)は
    Figure 2017522669
    式中、
    Figure 2017522669
    に従って算定されることを特徴とする、請求項3に記載の方法。
  9. 前記動き(Δx)は、
    Figure 2017522669
    式中、*は、前記少なくとも1つの勾配パッチ(dI/dx)と前記時間コントラストパッチ(S)との間の相互相関を表す、
    に従って算定されることを特徴とする、請求項3または8に記載の方法。
  10. 前記画像パッチのいくつかの自由度に対応する複数の勾配パッチ(dI/dx、dI/dy、dI/dz、dI/dα、dI/dβ、dI/dγ)が算定され、前記それぞれの勾配パッチは、前記画像パッチ(I)の各画像画素に、前記それぞれの自由度に沿った前記それぞれの画像画素における前記画像パッチ(I)の前記画素値の勾配を割り当てることを特徴とする、請求項2〜9のいずれか一項に記載の方法。
  11. 前記比較(C)は相互相関、具体的には、ゼロ平均相互相関であることを特徴とする、請求項3に記載の方法。
  12. 前記比較(C)および前記少なくとも1つのキーポイントの前記位置は、単一のまたは固定数の時間コントラストイベント(Ev)の取得の際に更新されることを特徴とする、請求項3に記載の方法。
  13. 光センサに対して移動する物体の画像の少なくとも1つのキーポイントの位置を追跡するためのコンピュータプログラムであって、前記コンピュータプログラムは、前記コンピュータプログラムがコンピュータ上で実行されるときに、
    a)前記画像の少なくとも1つのキーポイント(K)の位置を検出するステップと、
    b)それぞれのセンサ画素からの最後の時間コントラストイベント(Ev)以降に、光センサ(14)の前記センサ画素に当たる光による、光電流に関係付けられる前記光センサ(14)の信号が、第1のしきい値(ΘON)よりも大きい量だけ増加するかまたは第2のしきい値(ΘOFF)よりも大きい量だけ減少するときにのみ前記光センサ(14)によって出力される時間コントラストイベント(Ev)を用いて、前記少なくとも1つのキーポイント(K)の前記位置を更新するステップであって、各時間コントラストイベント(Ev(u,v,t))は、その関連付けられたセンサ画素の座標(u,v)、それぞれの時間コントラストイベント(Ev)が起こった時刻(t)、ならびに、前記それぞれの時間コントラストイベント(Ev)が、前記信号が前記第1のしきい値(ΘON)よりも大きい量だけ増加したONイベントであるかまたは前記信号が前記第2のしきい値(ΘOFF)よりも大きい量だけ減少したOFFイベントであるかを示す極性値を保持する、ステップと、
    c)新規画像が供給されるまで、具体的には、ステップa)からb)を繰り返すステップであって、新規画像が供給された場合はステップa)からc)が行われる、ステップと
    を行うためのプログラムコードを備える、コンピュータプログラム。
  14. 光センサ手段に対して移動する物体の画像の少なくとも1つのキーポイントの位置を追跡するためのデバイスであって、
    ‐物体(12)から反射される光を検出し、画像画素を備える前記物体(12)の画像を生成するように設計される、光センサ手段(14、13)
    を備え、
    ‐前記デバイスは、前記画像の少なくとも1つのキーポイント(K)の位置を検出するように設計され、
    ‐前記光センサ手段(14、13)はさらに、前記物体(12)によって反射される光を、複数のセンサ画素によって検出するように設計され、各センサ画素は、それぞれのセンサ画素に当たる前記光の強度に比例する光電流を生成し、前記光電流に関係付けられる信号を生成するように設計され、各センサ画素は、前記それぞれのセンサ画素からの最後の時間コントラストイベント(Ev)以降に、前記それぞれのセンサ画素に当たる前記光による前記それぞれの信号が、第1のしきい値(ΘON)よりも大きい量だけ増加するかまたは第2のしきい値(ΘOFF)よりも大きい量だけ減少するときにのみ、時間コントラストイベント(Ev)を出力するように設計され、各時間コントラストイベント(Ev(u,v,t))は、その関連付けられたセンサ画素の座標(u,v)、それぞれの時間コントラストイベント(Ev)が起こった時刻(t)、ならびに、前記それぞれの時間コントラストイベント(Ev)が、前記信号が前記第1のしきい値(ΘON)よりも大きい量だけ増加したONイベントであるかまたは前記信号が前記第2のしきい値(ΘOFF)よりも大きい量だけ減少したOFFイベントであるかを示す極性値を保持する、
    デバイス。
  15. 前記光センサ手段は、前記時間コントラストイベント(Ev)が前記画像と位置合わせされるように前記画像をサンプル抽出すると共に前記時間コントラストイベント(Ev)を生成するように設計された、単一の光センサ(14)として形成されるか、または前記光センサ手段は、前記時間コントラストイベント(Ev)が前記画像と位置合わせされるように、前記時間コントラストイベント(Ev)を生成するように設計された光センサ(14)と、前記画像をサンプル抽出するように設計された別個のさらなる光センサ(13)とを備え、前記さらなる光センサ(13)が前記光センサ(14)と位置合わせされることを特徴とする、請求項14に記載のデバイス。
JP2017503013A 2014-07-24 2015-07-24 シーンのキーポイントを追跡する方法 Pending JP2017522669A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP14178447.0 2014-07-24
EP14178447.0A EP2977931A1 (en) 2014-07-24 2014-07-24 Method for tracking keypoints in a scene
PCT/EP2015/067091 WO2016012624A1 (en) 2014-07-24 2015-07-24 Method for tracking keypoints in a scene

Publications (1)

Publication Number Publication Date
JP2017522669A true JP2017522669A (ja) 2017-08-10

Family

ID=51229812

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017503013A Pending JP2017522669A (ja) 2014-07-24 2015-07-24 シーンのキーポイントを追跡する方法

Country Status (6)

Country Link
US (1) US10262207B2 (ja)
EP (2) EP2977931A1 (ja)
JP (1) JP2017522669A (ja)
KR (1) KR20170036747A (ja)
CN (1) CN106575363A (ja)
WO (1) WO2016012624A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022130555A1 (ja) * 2020-12-17 2022-06-23 日本電信電話株式会社 3次元情報推定方法、3次元情報推定装置およびプログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10489677B2 (en) * 2017-09-07 2019-11-26 Symbol Technologies, Llc Method and apparatus for shelf edge detection
CN112534816B (zh) * 2018-08-14 2024-04-26 华为技术有限公司 用于视频图像编码的编码参数的基于事件自适应
CN109522910B (zh) * 2018-12-25 2020-12-11 浙江商汤科技开发有限公司 关键点检测方法及装置、电子设备和存储介质
EP3693698A1 (de) * 2019-02-05 2020-08-12 Leica Geosystems AG Vermessungsgerät mit ereignisbasierter kamera
CN111739016B (zh) * 2020-07-20 2020-12-08 平安国际智慧城市科技股份有限公司 目标检测模型训练方法、装置、电子设备及存储介质
US11475242B2 (en) * 2020-07-27 2022-10-18 Seiko Epson Corporation Domain adaptation losses
CN114708478B (zh) * 2022-06-06 2022-09-02 季华实验室 事件相机与标准相机的数据融合方法、装置、设备及介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6711293B1 (en) 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image
SG162756A1 (en) 2005-06-03 2010-07-29 Universitaet Zuerich Photoarray for detecting time-dependent image data
ATE470912T1 (de) 2006-04-28 2010-06-15 Toyota Motor Europ Nv Robuster detektor und deskriptor für einen interessenspunkt
US8773430B2 (en) * 2009-12-09 2014-07-08 Thomson Licensing Method for distinguishing a 3D image from a 2D image and for identifying the presence of a 3D image format by feature correspondence determination
EP2339537B1 (en) * 2009-12-23 2016-02-24 Metaio GmbH Method of determining reference features for use in an optical object initialization tracking process and object initialization tracking method
US9094656B2 (en) * 2010-09-13 2015-07-28 Thomson Licensing Method for sequentially displaying a colour image
WO2012035538A1 (en) * 2010-09-16 2012-03-22 Mor Research Applications Ltd. Method and system for analyzing images
US9129277B2 (en) * 2011-08-30 2015-09-08 Digimarc Corporation Methods and arrangements for identifying objects
EP2795894B1 (en) 2011-12-19 2020-06-17 Universität Zürich Photoarray, particularly for combining sampled brightness sensing with asynchronous detection of time-dependent image data
CN103679180B (zh) * 2012-09-19 2017-06-16 武汉元宝创意科技有限公司 一种基于单摄像头单光源的视线追踪方法
FR2997572B1 (fr) * 2012-10-31 2014-12-12 Thales Sa Dispositif d'amplification d'un laser impulsionnel a contraste temporel ameliore

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022130555A1 (ja) * 2020-12-17 2022-06-23 日本電信電話株式会社 3次元情報推定方法、3次元情報推定装置およびプログラム
JP7376839B2 (ja) 2020-12-17 2023-11-09 日本電信電話株式会社 3次元情報推定方法、3次元情報推定装置およびプログラム

Also Published As

Publication number Publication date
EP2977931A1 (en) 2016-01-27
WO2016012624A1 (en) 2016-01-28
KR20170036747A (ko) 2017-04-03
EP3172699A1 (en) 2017-05-31
US20170206422A1 (en) 2017-07-20
US10262207B2 (en) 2019-04-16
CN106575363A (zh) 2017-04-19

Similar Documents

Publication Publication Date Title
JP2017522669A (ja) シーンのキーポイントを追跡する方法
KR101791590B1 (ko) 물체 자세 인식장치 및 이를 이용한 물체 자세 인식방법
US9560273B2 (en) Wearable information system having at least one camera
CN109325456B (zh) 目标识别方法、装置、目标识别设备及存储介质
EP2770783A2 (en) A wearable information system having at least one camera
CN103514432A (zh) 人脸特征提取方法、设备和计算机程序产品
WO2011061709A1 (en) Method and apparatus for tracking and recognition with rotation invariant feature descriptors
EP2579184B1 (en) Mobile apparatus and method of controlling the same
US11921291B2 (en) Systems and methods for performing self-improving visual odometry
JP6609640B2 (ja) 電子デバイス上における環境マッピング用のフィーチャ・データの管理
CN108734654A (zh) 绘图与定位方法、系统及计算机可读存储介质
CN110555908B (zh) 基于室内移动目标背景修复的三维重建方法
CN110349212B (zh) 即时定位与地图构建的优化方法及装置、介质和电子设备
US9280209B2 (en) Method for generating 3D coordinates and mobile terminal for generating 3D coordinates
Luo et al. Robot detection and localization based on deep learning
CN112541424A (zh) 复杂环境下行人跌倒的实时检测方法
US20160066150A1 (en) Dynamic Configuration of a Positioning System
Benito-Picazo et al. Motion detection with low cost hardware for PTZ cameras
US20190096073A1 (en) Histogram and entropy-based texture detection
US11341736B2 (en) Methods and apparatus to match images using semantic features
Tang et al. Online action recognition based on incremental learning of weighted covariance descriptors
Friedel Event-based visual-inertial odometry using smart features
KR20150141021A (ko) 크기 불변 특징 벡터를 이용한 고속 객체 검출 장치 및 방법
JP7262689B1 (ja) 情報処理装置、生成方法、及び生成プログラム
EP4292777A1 (en) Assistance system, image processing device, assistance method and program