JP6226876B2 - 非同期光センサに基づいてオプティカルフローを推定する方法 - Google Patents

非同期光センサに基づいてオプティカルフローを推定する方法 Download PDF

Info

Publication number
JP6226876B2
JP6226876B2 JP2014548165A JP2014548165A JP6226876B2 JP 6226876 B2 JP6226876 B2 JP 6226876B2 JP 2014548165 A JP2014548165 A JP 2014548165A JP 2014548165 A JP2014548165 A JP 2014548165A JP 6226876 B2 JP6226876 B2 JP 6226876B2
Authority
JP
Japan
Prior art keywords
pixel
time
events
event
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014548165A
Other languages
English (en)
Other versions
JP2015507261A (ja
Inventor
リャド・ブノマン
シオホイ・イエン
Original Assignee
ユニヴェルシテ・ピエール・エ・マリ・キュリ・(パリ・6)
サントル・ナショナル・ドゥ・ラ・レシェルシュ・サイエンティフィーク−セ・エン・エール・エス−
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ユニヴェルシテ・ピエール・エ・マリ・キュリ・(パリ・6), サントル・ナショナル・ドゥ・ラ・レシェルシュ・サイエンティフィーク−セ・エン・エール・エス− filed Critical ユニヴェルシテ・ピエール・エ・マリ・キュリ・(パリ・6)
Publication of JP2015507261A publication Critical patent/JP2015507261A/ja
Application granted granted Critical
Publication of JP6226876B2 publication Critical patent/JP6226876B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)

Description

本発明は、撮像技法におけるオプティカルフローを推定する方法に関する。
オプティカルフローは、時間の経過に伴って変動する一連の画像における動きの近似である。オプティカルフローに関する最初の研究は、テレビジョンの分野の技術者、および、生物学的視覚のモデル化に関心のある人々によって行われた。それ以来、これらの技法は、コンピュータビジョンおよびロボットナビゲーションを含めた幅広い学問分野で、その位置を見出してきた。特に、これらの技法を使用して、動き検出、オブジェクトセグメンテーション、衝突時間の計算、動き補償符号化などが実施される。
オプティカルフローは、雑音の影響を受けてしまうことで有名な視覚的測定である。オプティカルフローは現在、画像シーケンス内の速度マップとして表現される。しかし、そのようなマップを推定することは、不明確な問題、すなわち、等式の数に関係して過多な未知数を含むこと、を解決することを前提とする。結果として、フローベクトルを推定するには、追加の仮定および制約を適用しなければならない。しかし、これらの仮定および制約は、常に有効であるとは限らない。さらに、フィルタリングされていない自然画像シーケンス中に確率的雑音が存在するのが不可避であることにより、モバイルロボットの制御ループにおいてオプティカルフローを使用することに関係する様々な困難が生じる。
オプティカルフロー技法は、次のような4つのカテゴリに分けることができる(参考:非特許文献1)。
- エネルギーベースの方法は、フーリエドメインで定義される速度適応フィルタの出力に従ってオプティカルフローを表現する。
- 位相ベースの方法は、帯域通過フィルタ出力に関して画像速度を推定する。
- 相関ベースの方法は、時間的に隣接する画像中の小さい空間的近傍間で最良マッチを探す。
- 差分または勾配ベースの方法は、画像光度の時空的導関数、および一定照度の仮定を使用する。
オプティカルフロー技法の設計、比較、および適用に関して行われる研究の大部分は、相関ベースまたは勾配ベースの手法に集中する。しかし、これらの方法は全て、実行の遅さを本質的に被り、したがってこれらの方法は、いくつかの適用例に存在する可能性のあるリアルタイム実行の制約にうまく適応しない。
別の動き検出解決法は、EMD(Elementary Motion Detector)と呼ばれる視覚センサに依拠する。EMDは、昆虫の想定される視覚メカニズムを再現する動き検出モデルに基づく。隣接する2つの受光素子を使用して画像信号が供給され、次いで画像信号は、一列の時間ベースのハイパスフィルタおよびローパスフィルタに供給される。ハイパスフィルタは、どんな動き情報も搬送しない、照明の連続的成分を除去する。次いで信号は2つのチャネル間で細分されるが、これらのチャネルのうちの一方のみがローパスフィルタを含む。ローパスフィルタによって適用される遅延を利用して、遅延された画像信号が供給され、次いでこの遅延された画像信号は、隣接する遅延されないチャネルの画像信号と相関される。最後に、2つのチャネル間の減算が、動きの方向に対する感度を有する応答を供給する。したがって、この応答を利用して視覚的な動きを測定することができる。EMDによる動き検出は、画像コントラストに影響されやすく、高いコントラストがあるとき、検出される動きの振幅はより大きい。このことは、視覚的な動きの測定の精度を妨げる。この精度欠如のせいで、EMDは、一般的なナビゲーション適用例には適さず、特に、精細な動き制御を必要とする作業には適さない。
事前定義済みのサンプリング瞬間で連続的な画像を記録する従来のカメラとは異なり、生物学的な網膜は、視覚化されることになる場面に関する少量の冗長情報を伝達するだけであり、これを非同期的な方式で行う。イベントベースの非同期視覚センサは、イベントの形で圧縮ディジタルデータを送達する。このようなセンサの一般的な説明については、非特許文献2を参照することができる。イベントベースの視覚センサは、従来のカメラと比較して、冗長性をなくし、レイテンシ時間を短縮し、ダイナミックレンジを増大させるという利点を有する。
このような視覚センサの出力は、各画素アドレスにつき、非同期イベントが生じる瞬間の場面反射率の変化を表す一連の非同期イベントからなるものとすることができる。センサの各画素は独立しており、各画素は、最後のイベントの射出以降の、しきい値よりも高い光度の変化を検出する(例えば、光度の対数に対する15%のコントラスト)。光度変化が固定しきい値を超えるとき、光度が増加しているか減少しているかに従って、オンまたはオフイベントが画素によって生成される。センサは従来のカメラのようにクロックでサンプリングされないので、非常に高い時間的精度(例えば約1マイクロ秒)でイベントのシーケンシングを考慮に入れることができる。このようなセンサを使用して画像シーケンスが再構築される場合、従来のカメラの場合の数十ヘルツとは対照的に、数キロヘルツの画像レートを達成することができる。
イベントベースの視覚センサに有望な見込みがあるとしても、今日に至るまで、このようなセンサによって送達される信号に基づいてオプティカルフローを決定することにうまく適合された実際的な方法は存在しない。「非特許文献3で、T.Delbruckは、検出されたイベントに追加の重要性(輪郭配向や動き方向など)を与えるための「ラベラ(labeler)」の使用を提案している。しかし、オプティカルフローの推定を構想するのを可能にするかもしれないどんな情報も供給されない。
2012年3月に非特許文献4において、R.Benosman他は、非同期センサによって検出されたイベントに基づくオプティカルフローの推定について述べている。使用されるアルゴリズムは、勾配ベースであり、連立方程式を解くことに依拠する。この連立方程式では、座標(x,y)の所与の画素における空間的勾配が、この画素(x,y)で発生したイベントと、同じ瞬間に座標(x−1,y)および(x,y−1)の画素で発生したイベントとの間の差によって、推定される。
米国特許出願公開第2008/0135731(A1)号
J.L.Barron他、「Performance of Optical Flow Techniques」、International Journal of Computer Vision、Vol.12、No.1、43〜77頁 「Activity−Driven, Event−Based Vision Sensors」、T.Delbruck他、Proceedings of 2010 IEEE International Symposium on Circuits and Systems (ISCAS)、2426〜2429頁 「Frame−free dynamic digital vision」、Proceedings of the International Conference on Secure−Life Electronics、Advanced Electronics for Quality Life and Society、University of Tokyo、2008年3月6〜7日、21〜26頁 2012年3月に「Neural Networks」periodical、Vol.27、32〜37頁に掲載された記事「Asynchronous frameless event−based optical flow」 「A 128×128 120dB 15μs Latency Asynchronous Temporal Contrast Vision Sensor」、P.Lichtsteiner他、IEEE Journal of Solid−State Circuits、Vol.43、No.2、2008年2月、566〜576頁
推定を、従来のカメラの場合の知られている慣例よりも高速化するのを可能にする、オプティカルフローを推定する方法が必要とされている。また、オプティカルフローの利用に依拠して開発された様々な技法および適用例を使用できるために、イベントベースの視覚センサによって出力された信号に基づいてオプティカルフローを推定する方法も必要とされている。
オプティカルフローを推定する方法を提案する。この方法は、
- 場面に面して配列された画素行列を有する光センサから生じる非同期情報を受け取ることであって、非同期情報が、行列の各画素につき、この画素を源とし場面中の変光に応じた連続的なイベントを含むこと、
- 画素行列中の推定場所および推定時間について、推定場所の空間的近傍にある画素を源とし、推定時間に対して定義される時間区間で発生したイベントのセットを選択することであって、セットが、空間的近傍の画素ごとに、多くても1つのイベントを有すること、および、
- 選択されたセットのイベントの発生時間の変動を、行列中での、これらのイベントが源とする画素の位置の関数として量子化することを含む。
この方法は、所与の画素位置における最新のイベントの発生時間が単調増加関数であることを利用する。この関数は、様々な画素位置についての面を定義するが、この面の局所変動は、センサが場面を見るときの場面中の速度場に関する情報を提供する。これらの変動の量子化は、非常に素早く実施することができ、遅延は、センサの画素の応答時間程度、例えばミリ秒程度またはそれ未満である。
この方法の一実施形態では、選択されたセットのイベントの発生時間の変動を、これらのイベントが源とする画素の位置の関数として量子化することは、選択されたセットのイベントが空間-時間表現において推定場所の周りで呈する傾斜を推定することを含む。選択されたイベントセットは、いくらかの雑音効果を減衰させるために、あらかじめ空間-時間表現において平滑化操作を施されていてもよい。
画素行列が2次元であるときは、選択されたセットのイベントの発生時間の変動を画素の位置の関数として量子化する方法の1つは、空間-時間表現において、選択されたセットのイベントに対する最小距離を呈する平面を決定することを含む。画素行列が1次元である場合は、空間-時間表現において決定されることになるのは、平面ではなく直線である。
行列の画素によって検出されるイベントの空間-時間分析を強化するために、可能性の1つは、選択されたセットのイベントが空間-時間表現において推定場所の周りで呈する2次導関数を推定することを、変動の量子化に含めることである。
一実施形態では、行列の各画素につき、この画素を源とする一番最近のイベントの発生時間が記憶される。この場合、推定場所および推定時間についてイベントのセットを選択することは、推定時間に対して定義された時間区間中にあり推定場所の空間的近傍の画素について記憶された発生時間を有する各イベントを、このセットに含めることを含んでよい。このタイプの方法により、単純かつ高速にこの方法を実施することができる。
一実施形態では、イベントのセットを選択するステップ、および発生時間の変動を量子化するステップは、イベントが検出される画素の位置を推定場所とし、このイベントの検出の瞬間を推定時間とすることによって、実行される。したがって、アクティビティが観察される画素行列の関連領域におけるオプティカルフローの、非常に高速な推定に到達することが可能である。
特に、イベントのセットを選択することは、行列の画素を源とするイベントの検出に応答して、検出の瞬間に実施することができる。雑音のみをおそらく表すイベントをフィルタにかけて除外するために、次いで、しきい値を超えるいくつかのイベントをイベントのセットが含むという条件で、発生時間の変動の量子化に進んで動き情報を更新することができる。
本発明の別の態様は、オプティカルフローを推定するためのデバイスに関し、このデバイスは、
− 場面に面して配列される画素行列を有し、非同期情報を送達するように適合された光センサであって、非同期情報が、行列の各画素につき、この画素を源とし場面中の変光に応じた連続的なイベントを含む、光センサと、
− コンピュータと、を備え、コンピュータは、画素行列中の推定場所および推定時間について、
* 推定場所の空間的近傍に含まれる画素を源とし、推定時間に対して定義される時間区間で発生したイベントのセットを選択するステップであって、セットが、空間的近傍の画素ごとに、多くても1つのイベントを有するステップと、
* 選択されたセットのイベントの発生時間の変動を、行列中での、これらのイベントが源とする画素の位置の関数として量子化するステップとを実行する。
本発明の他の特徴および利点は、添付の図面に関連して、非限定的な例示的実施形態に関する以下の記述において明らかになるであろう。
本発明の実装形態に適合された、オプティカルフローを推定するためのデバイスのブロック図である。 非同期センサの画素のレベルにおける光度プロファイルの例を示す図である。 図2Aの光度プロファイルに応答して非同期センサによって出力される信号の例を示す図である。 図2Bの信号から光度プロファイルを再構築することを示す図である。 本方法の別の例示的な実施形態で使用できる集光モードを示す、図2A〜図2Bに類似する図である。 本方法の別の例示的な実施形態で使用できる集光モードを示す、図2A〜図2Bに類似する図である。 オプティカルフローを推定する方法の一実施形態を示す図である。 回転する棒を含む場面に面して配置された非同期センサによって生成されるイベントを示す図である。 オプティカルフローを推定する方法の別の一実施形態を示す図である。
図1に表す、オプティカルフローを推定するためのデバイスは、イベントベースの非同期視覚センサ10を備える。センサ10は場面に面して配置され、センサ10は、1つまたは複数のレンズを備える集光光学部品15を介して、場面から光束を受け取る。センサ10は、集光光学部品15の画像平面に配置される。センサ10は、画素行列に編成された感光性要素のアレイを備える。感光性要素に対応する各画素は、場面中の変光に応じて、連続的なイベントを生成する。
コンピュータ20は、センサ10によって出力された非同期情報f、すなわち、様々な画素から非同期的に受け取られたイベントのシーケンスを処理して、この情報から、場面中で観察されたオプティカルフローに関する情報Vを抽出する。コンピュータ20は、ディジタル信号に対して作用する。コンピュータ20は、適切なプロセッサをプログラムすることによって実現されてよい。特殊化された論理回路(ASIC、FPGAなど)を使用して、コンピュータ20をハードウェアによって実現することもまた可能である。
行列の各画素につき、センサ10は、センサの視野に現れる場面中で画素によって感知された変光に基づいて、イベントベースの非同期信号シーケンスを生成する。このような非同期の感光性センサは、場合によっては、網膜の生理反応に近づくことを可能にする。この場合、このようなセンサは、DVS(ダイナミックビジョンセンサ)という頭字語で知られる。
この非同期センサによる獲得の原理を、図2A〜図2Cによって示す。情報は、アクティブ化しきい値Qに到達する連続した時間t(k=0,1,2,...)である。図2Aには、DVSの行列の画素によって見られる光度プロファイルP1の例を示す。この光度が、時間tにおける光度からアクティブ化しきい値Qに等しい量だけ増加するたびに、新しい瞬間tk+1が識別され、正のスパイク(図2Bのレベル+1)がこの瞬間tk+1に射出される。対称的に、画素の光度が時間tk’における光度から量Qだけ減少するたびに、新しい瞬間tk’+1が識別され、負のスパイク(図2Bのレベル−1)がこの瞬間tk’+1に射出される。この場合、画素についての非同期信号シーケンスは、画素の発光プロファイルに応じた、時間における瞬間tに位置する連続した正または負のパルスまたはスパイクである。これらのスパイクは、正または負のディラックピークによって数学的に表すことができ、各スパイクは、射出の瞬間tおよび符号ビットによって特徴付けられる。したがって、DVS10の出力は、アドレスイベント表現(AER)の形である。図2Cには、図2Bの非同期信号を時間の経過に伴って積算することによってプロファイルP1の近似として再構築できる光度プロファイルP2を示す。
アクティブ化しきい値Qは、図2A〜図2Cの場合のように固定であってもよく、または、図3A〜図3Bの場合のように、光度の関数として適応的であってもよい。例えば、しきい値±Qは、±1イベントの生成のために光度の対数の変動と比較することができる。
例として、DVS10は、非特許文献5、または、特許文献1に記載されている種類のものとすることができる。このタイプのDVSを使用して、数ミリ秒程度の、網膜のダイナミック(活動電位間の最小継続時間)を、適切に再現することができる。このダイナミック性能は、どんな場合でも、従来のビデオカメラを使用して現実的なサンプリング周波数で到達できるよりも、おおかた高い。
画素についてDVS10によって送達される、コンピュータ20の入力信号を構成する非同期信号の形状は、連続したディラックピークとは異なる可能性があることに留意されたい。このイベントベースの非同期信号中では、表されるイベントは、任意の種類の時間幅または振幅または波形を有することができる。
ここで提案する方法は、他のタイプのDVSにも適用可能であり、また、網膜の挙動を必ずしも再現しようとすることなくアドレスイベント表現に従って出力信号が生成されるような光センサにも、適用可能であることに留意されたい。
図4に、1次元非同期センサ20、すなわち画素の行からなるセンサを、ごく概略的に示す。センサ20の正面で、物体25が速度vで移動する。物体25の前縁部が画素の正面に到着すると、この画素中でオンイベント(図4では「+」の印が付いている)が生成され、物体25の後縁部が画素の正面を通過すると、オフイベント(図4では「−」の印が付いている)が生成されるものとする。推定場所pおよび推定時間tでセンサ10によって見られるオプティカルフローを考える。これに関して、推定場所pの空間的近傍π、ならびに、推定時間tに対して定義される時間区間θを考えることができる。図4に表す場合では、近傍πは、π=[p−R,p+R]の形であり、時間区間θは、推定時間で終わる事前定義済み継続時間Tの期間、すなわちθ=[t−T,t]である。
図4にはまた、センサ10の画素から受け取られた、時間区間θで空間的近傍πを源とするイベントのセットSp,tを示す。図4の下部に位置するグラフの空間−時間表現において、セットSp,tのイベントが整列しているのがわかる。これらのイベントを通る直線の傾斜は、センサ10のいくつかの画素によって見られた物体25の前縁部の速度vを示す。この速度vはまた、時間区間θ中の物体25の後縁部の通過を見たセンサの他のポイントでも見出される。これは具体的には、センサ10の画素から受け取られた、時間区間θで別の推定場所p’の空間的近傍πp’を源とするセットSp’,tのイベントの傾斜である。
実際には、センサ10の画素によって送られるオンまたはオフイベントは、図4の理想化された図式に表される時間的規則性を有さない。反対に、イベントの発生時間は、比較的無秩序な挙動を有する。これは、センサの感光性要素の内部の電子状態が完全に予測可能というわけではないこと、ならびに獲得雑音のせいである。したがって、セットSp,tのイベントは通常、直線の周りに分散し、この直線の傾斜が、ポイント(p,t)におけるオプティカルフローを表す。このことは、空間−時間表現においてセットSp,tのイベントが呈する傾斜の推定を妨げない。可能性の1つは、最小自乗の意味でセットSp,tのポイントに最もよく適合する直線を決定することであり、適用可能なら、推定場所pに最も近い画素位置は、より重く重み付けされる。次いで、この直線の傾斜を決定することができ、次いで反転して、センサ10の視野における速度の推定値を供給することができる。
傾斜はまた、セットSp,tのイベントの発生時間を空間微分カーネルと畳み込むことによって、素早く推定することもできる。このような場合、畳込みカーネルの前に、空間−時間表現において平滑化操作をイベントのセットSp,tに適用することによって、雑音の影響を減衰させることが望ましい可能性がある。平滑化は、とりわけ、メジアンフィルタを適用することによって実施することができる。
撮像適用例では、センサ10の画素行列は、1次元よりも2次元であることの方が多い。この場合、画素を源とするオンまたはオフイベントを配置できる空間−時間表現は、図5に提示するような3次元の表現である。同図では、各ポイントは、ボックスA中に図式化されるような一定の角速度の回転する棒の動きによって、センサの位置
Figure 0006226876
の画素において瞬間tで非同期的に生成されたイベントを示す。これらのポイントの大半は、一般的ならせん形状の面に近接して分散する。しかし、前述の無秩序な挙動があるので、これらのポイントは、この面上に正確に整列することはない。さらに、同図は、測定されるが棒の実際の動きに対応しない、らせん面から離れたいくつかのイベントも示す。これらのイベントは、獲得雑音である。
より一般的には、センサ10の視野に1つまたは複数の物体の動きが存在する場合、イベントが3次元表現(x,y,t)において現れ、我々は、この動きに対応するオプティカルフローを探す。
場所
Figure 0006226876
に位置する画素において時間tで発生するイベントを、e(p,t)として表す。e(p,t)の値は、イベントのオン(コントラストの正変化)またはオフ(コントラストの負変化)極性に従って、+1または−1である。この場合もやはり、画素pの空間的近傍π、すなわちπ={p′/||p′−p||≦R}、および時間区間θ=[t−T,t]を定義することができ、各画素につき一番最近のイベントのみを保持する(区間θ中にイベントがある場合)ことによって、時間区間θで近傍π中の画素を源とするイベントを考えることができる。このようにして、イベントのセットSp,tが構築され、これは、イベントの空間−時間表現における、面Σの体積π×θ内にある部分と見なすことができる。
行列の各画素pにつき、最後に観察されたイベントの発生時間が記憶される。次いで、各位置pにおける一番最近のイベントの発生時間Σ(p)をこの位置に割り振る関数を定義することが可能である。面Σは、3次元空間におけるこの関数の表現である。これは、時間の関数として上昇している面である。この面Σの、画素行列の平面における射影が空間的近傍πの外にあるポイント、および時間軸上の射影が区間θの外にあるポイントは、イベントのセットSp,tを選択するときに除去される。
次いで、コンピュータ20は、2つの空間パラメータxおよびyに関して、ポイントe(p,t)における面Σの偏導関数、すなわち
Figure 0006226876
および
Figure 0006226876
を推定する。これらの偏導関数は、Sp,tのイベントが推定場所の周りで呈する傾斜を示す。e(p,t)の周りでは、すなわちSp,tが表す面部分では、Σは、以下のように書くことができる。
Σ(p+Δp)=Σ(p)+∇Σ.Δp+o(||Δp||)
上式で、
Figure 0006226876
である。
Σの偏導関数は、単一の変数xまたはyの関数である。時間は狭義増加関数なので、Σは、各ポイントにおける非ゼロ導関数の面である。次いで、逆関数定理を使用して、位置
Figure 0006226876
の周りで以下のように書くことができる。
Figure 0006226876
上式で、Σ|x=xおよびΣ|y=yは、それぞれ、xにおいてxに制限され、yにおいてyに制限されるΣである。次いで、勾配▽Σを、▽Σ=(1/v, 1/v)と書くことができ、これは、時間に応じた、イベントの画素速度v、vの逆数を与える。
前述の場合と同様にして、イベントの発生時間の変動の量子化は、空間−時間表現において、最小自乗の意味でセットSp,tのイベントに対して最小距離を有する平面を決定することを含んでよい。勾配▽Σの成分はまた、適用可能なら平滑化操作の後で、xおよびyにわたる微分カーネルとの畳込みによって推定することもできる。
オプティカルフローの情報を完全なものにするために、コンピュータ20はさらに、ポイントe(p,t)の周りで2次導関数Σの推定を行うことができる。2次導関数に関するこの情報は、センサ10の視野内で観察可能な加速を反映する。2次導関数
Figure 0006226876
および
Figure 0006226876
は、面Σの局所曲率を表し、これは、イベントの見かけ上の頻度の測定値を供給する。曲率が0である場合、イベントは、焦点面で、固定レートで発生する。曲率の増加または減少は、場面中でイベントを生成する縁部の加速に関係する。
前述の例では、所与の推定場所pおよび推定時間tについて選択されたイベントのセットSp,tは、いずれかの極性(オンまたはオフ)のイベントからなる。各画素を源とするオンまたはオフの一番最近のイベントの発生時間が、この画素の位置との関係で記憶され、これにより、行列の画素によって見られた最新のイベントのみをセットSp,tに常に含めることが可能になる。Sp,tが、異なる極性のイベントを含むケースも起こり得る。これらのケースは、推定される傾斜において、比較的まれな少数のエラーを引き起こすが、これらは測定値を著しく乱すことはない。
これらのケースの数を削減するために、可能性の1つは、同じ極性のイベントのみをイベントのセットSp,tに含めることである。特に、行列の様々な画素に関する2つのテーブルを記憶することが可能であり、一方のテーブルは、一番最近のオンイベントの発生時間を含み、他方のテーブルは、一番最近のオフイベントの発生時間を含む。このような一実施形態では、所与の極性オンまたはオフを有するイベントが時間tで位置pの画素において受け取られると、発生時間が区間θ=[t−T,t]中にあり近傍πの画素について記憶された、この極性を有する各イベントからなるセットSp,tの構築が引き起こされる。次いでコンピュータは、このように形成されたセットSp,t中で、1次および/または2次導関数の推定を行うことができる。
コンピュータ20が、所与の画素位置の周りにおけるイベントの発生時間の変動の量子化を実施する瞬間は、この画素上でのイベントの到着に応じて選択することができる。
例えば、検出の瞬間tで、行列中の位置pの画素を源とするイベントe(p,t)を受け取ると、コンピュータ20は、一番最近のイベントの発生時間が記憶されているテーブルを更新し(テーブルの、位置pにおける前の値をtで置き換えることによって)、次いで、妥当な動き推定を実施できるのに十分な最近のイベントをセットSp,tが含むかどうか判定する。こうするために、コンピュータ20は、時間区間θ内に入る空間的近傍π中の画素位置についてテーブルに記憶された発生時間を数えることができる。このように決定された発生時間の数が、事前定義済みしきい値α未満である場合は、発生時間の変動の量子化は実施されず、たった今検出されたイベントは雑音と見なされる。他方、しきい値αを超える場合は、発生時間の変動を量子化するために傾斜推定を実施できるのに十分なe(p,t)に近いポイントを面Σが含むと推定される。しきい値αは通常、センサが空間的近傍π中に含む画素の数に対する割合(例えば10〜30%)として定義される。
前述の例示的な実施形態では、オプティカルフロー推定を行うために2つのパラメータRおよびTが調整されることになる。これらのパラメータの選択は、センサの物理特性(画素間の間隔、応答時間)と、画像平面における、動きを検出したい物体の寸法および速度の大きさとに依存する。決して限定ではなく例として、空間的近傍は、行列の平面における3〜5個程度の画素の半径Rの寸法とすることができ、時間区間θの継続時間Tは、500μs〜2ms程度とすることができる。この選択は、使用されるハードウェア、および適用例に依存する。
前述の例示的な実施形態は、本発明の例証である。添付の特許請求の範囲によって定義される本発明の範囲を逸脱することなく、様々な修正をこれらの実施形態に加えることができる。
10 イベントベースの非同期視覚センサ、光センサ
15 集光光学部品
20 コンピュータ
p 画素行列中の推定場所
t 推定時間
π 推定場所の空間的近傍
θ 推定時間に対して定義される時間区間
p,t イベントのセット
T 事前定義済み継続時間

Claims (14)

  1. オプティカルフローを推定する方法であって、
    − 場面に面して配列された画素行列を有する光センサ(10)から生じる非同期情報を受け取るステップであって、前記非同期情報が、前記画素行列の各画素につき、前記画素を源とし前記場面中の変光に応じた連続的なイベントを含むステップと、
    − 前記画素行列中の推定場所(p)および推定時間(t)について、前記推定場所の空間的近傍(π)にある画素を源とし、前記推定時間に対して定義される時間区間(θ)で発生したイベントのセット(Sp,t)を選択するステップであって、前記セットが、前記空間的近傍の画素ごとに、多くても1つのイベントを有するステップと、
    − 前記選択されたセットの前記イベントの発生時間の変動を、前記画素行列中での、前記イベントが源とする前記画素の位置の関数として量子化するステップと、
    を含むことを特徴とする方法。
  2. 前記変動を量子化する前記ステップが、前記選択されたセット(Sp,t)の前記イベントが空間−時間表現において前記推定場所の周りで呈する傾斜を推定するステップを含むことを特徴とする請求項1に記載の方法。
  3. 前記傾斜を推定する前に、イベントの前記選択されたセット(Sp,t)に対して空間−時間表現において平滑化操作を実施するステップを含むことを特徴とする請求項2に記載の方法。
  4. 前記画素行列が2次元であり、前記変動を量子化する前記ステップが、前記空間−時間表現において、前記選択されたセット(Sp,t)の前記イベントに対する最小距離を呈する平面を決定するステップを含むことを特徴とする請求項2または3に記載の方法。
  5. 前記画素行列が1次元であり、前記変動を量子化する前記ステップが、前記空間−時間表現において、前記選択されたセット(Sp,t)の前記イベントに対する最小距離を呈する直線を決定するステップを含むことを特徴とする請求項2または3に記載の方法。
  6. 前記変動を量子化する前記ステップがさらに、前記選択されたセット(Sp,t)の前記イベントが前記空間−時間表現において前記推定場所の周りで呈する2次導関数を推定することを含むことを特徴とする請求項2から5のいずれか一項に記載の方法。
  7. 前記画素行列の画素を源とする前記イベントがそれぞれ、いくつかの可能な極性のうちの極性を有し、前記推定場所および前記推定時間について選択されたイベントの前記セット(Sp,t)が、いずれかの極性のイベントからなることを特徴とする請求項1から6のいずれか一項に記載の方法。
  8. 前記画素行列の各画素につき、前記画素を源とする一番最近のイベントの発生時間が記憶され、前記推定場所および前記推定時間についてイベントの前記セット(Sp,t)を選択する前記ステップが、
    − 前記推定時間に対して定義された前記時間区間中にあり前記推定場所の前記空間的近傍の画素について記憶された発生時間を有する各イベントを、前記セットに含めるステップを含むことを特徴とする請求項1から7のいずれか一項に記載の方法。
  9. 前記画素行列の前記画素を源とする前記イベントがそれぞれ、2つの可能な極性のうちの極性を有し、前記推定場所および前記推定時間について選択されたイベントの前記セット(Sp,t)が、同じ極性のイベントからなることを特徴とする請求項1から7のいずれか一項に記載の方法。
  10. 前記画素行列の各画素および可能な各極性につき、前記画素を源とし前記極性を有する一番最近のイベントの発生時間が記憶され、前記推定場所および前記推定時間についてイベントの前記セット(Sp,t)を選択する前記ステップが、所与の極性を有するイベントを前記推定場所で受け取るのに続いて、
    − 前記所与の極性を有する各イベントであって、前記推定時間に対して定義された前記時間区間中にあり前記推定場所の前記空間的近傍の画素について記憶された発生時間を有する各イベントを、前記セットに含めるステップを含むことを特徴とする請求項9に記載の方法。
  11. 前記時間区間(θ)が、前記推定時間で終わる事前定義済み継続時間(T)の期間であることを特徴とする請求項1から10のいずれか一項に記載の方法。
  12. イベントのセット(Sp,t)を選択する前記ステップ、および前記発生時間の前記変動を量子化する前記ステップが、イベントが検出される画素の位置を推定場所とし、前記イベントの検出の瞬間を推定時間とすることによって、実行されることを特徴とする請求項1から11のいずれか一項に記載の方法。
  13. イベントの前記セット(Sp,t)を選択する前記ステップが、前記画素行列の画素を源とするイベントの検出に応答して検出の瞬間に実施され、しきい値を超えるいくつかのイベントをイベントの前記セットが含むという条件で、前記発生時間の前記変動を量子化する前記ステップが実施されて動き情報が更新されることを特徴とする請求項12に記載の方法。
  14. オプティカルフローを推定するためのデバイスであって、
    − 場面に面して配列される画素行列を有し、非同期情報を出力するように適合された光センサであって、前記非同期情報が、前記画素行列の各画素につき、前記画素を源とし前記場面中の変光に応じた連続的なイベントを含む、光センサと、
    − コンピュータと、
    を備え、前記コンピュータが、前記画素行列中の推定場所および推定時間について、
    * 前記推定場所の空間的近傍に含まれる画素を源とし、前記推定時間に対して定義される時間区間で発生したイベントのセットを選択するステップであって、前記セットが、前記空間的近傍の画素ごとに、多くても1つのイベントを有するステップと、
    * 前記選択されたセットの前記イベントの発生時間の変動を、前記画素行列中での、前記イベントが源とする前記画素の位置の関数として量子化するステップとを実行することを特徴とするデバイス。
JP2014548165A 2011-12-21 2012-12-21 非同期光センサに基づいてオプティカルフローを推定する方法 Active JP6226876B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1162137A FR2985065B1 (fr) 2011-12-21 2011-12-21 Procede d'estimation de flot optique a partir d'un capteur asynchrone de lumiere
FR1162137 2011-12-21
PCT/FR2012/053066 WO2013093378A1 (fr) 2011-12-21 2012-12-21 Procede d'estimation de flot optique a partir d'un capteur asynchrone de lumiere

Publications (2)

Publication Number Publication Date
JP2015507261A JP2015507261A (ja) 2015-03-05
JP6226876B2 true JP6226876B2 (ja) 2017-11-08

Family

ID=47628322

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014548165A Active JP6226876B2 (ja) 2011-12-21 2012-12-21 非同期光センサに基づいてオプティカルフローを推定する方法

Country Status (10)

Country Link
US (1) US9213902B2 (ja)
EP (1) EP2795580B1 (ja)
JP (1) JP6226876B2 (ja)
KR (1) KR101991343B1 (ja)
CN (1) CN104205169B (ja)
AU (1) AU2012356462A1 (ja)
CA (1) CA2859900C (ja)
ES (1) ES2767295T3 (ja)
FR (1) FR2985065B1 (ja)
WO (1) WO2013093378A1 (ja)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2985065B1 (fr) * 2011-12-21 2014-01-10 Univ Paris Curie Procede d'estimation de flot optique a partir d'un capteur asynchrone de lumiere
EP2677500B1 (en) * 2012-06-19 2021-06-23 Samsung Electronics Co., Ltd. Event-based image processing apparatus and method
KR102091473B1 (ko) * 2014-01-07 2020-04-14 삼성전자주식회사 이벤트 기반 센서를 이용한 피사체의 움직임 분석 방법
FR3020699A1 (fr) * 2014-04-30 2015-11-06 Centre Nat Rech Scient Procede de suivi de forme dans une scene observee par un capteur asynchrone de lumiere
US10147024B2 (en) * 2014-09-16 2018-12-04 Qualcomm Incorporated Interfacing an event based system with a frame based processing system
US9967500B2 (en) * 2014-09-29 2018-05-08 Samsung Electronics Co., Ltd. Systems and methods of selective output for reducing power
US9923004B2 (en) 2014-09-30 2018-03-20 Qualcomm Incorporated Hardware acceleration of computer vision feature detection
US10515284B2 (en) 2014-09-30 2019-12-24 Qualcomm Incorporated Single-processor computer vision hardware control and application execution
US9762834B2 (en) 2014-09-30 2017-09-12 Qualcomm Incorporated Configurable hardware for computing computer vision features
US9986179B2 (en) 2014-09-30 2018-05-29 Qualcomm Incorporated Sensor architecture using frame-based and event-based hybrid scheme
US9940533B2 (en) 2014-09-30 2018-04-10 Qualcomm Incorporated Scanning window for isolating pixel values in hardware for computer vision operations
US9838635B2 (en) 2014-09-30 2017-12-05 Qualcomm Incorporated Feature computation in a sensor element array
US10728450B2 (en) 2014-09-30 2020-07-28 Qualcomm Incorporated Event based computer vision computation
US20170132466A1 (en) 2014-09-30 2017-05-11 Qualcomm Incorporated Low-power iris scan initialization
US9554100B2 (en) 2014-09-30 2017-01-24 Qualcomm Incorporated Low-power always-on face detection, tracking, recognition and/or analysis using events-based vision sensor
JP6346547B2 (ja) * 2014-11-26 2018-06-20 公立大学法人広島市立大学 方向指示装置及び方向指示方法
FR3033973A1 (fr) * 2015-03-16 2016-09-23 Univ Pierre Et Marie Curie Paris 6 Procede de reconstruction 3d d'une scene
FR3033914A1 (fr) * 2015-03-16 2016-09-23 Univ Pierre Et Marie Curie (Paris 6) Procede de traitement d'un signal asynchrone
US9704056B2 (en) 2015-04-02 2017-07-11 Qualcomm Incorporated Computing hierarchical computations for computer vision calculations
KR102307055B1 (ko) * 2015-04-28 2021-10-01 삼성전자주식회사 이벤트 기반 센서의 출력에 기초하여 정적 패턴을 추출하는 방법 및 장치
CN105203045B (zh) * 2015-07-02 2018-07-06 天津师范大学 一种基于异步时域视觉传感器的产品形状完整性检测系统及检查方法
EP3120897A1 (en) 2015-07-22 2017-01-25 Université Pierre et Marie Curie (Paris 6) Method for downsampling a signal outputted by an asynchronous sensor
CN105160703B (zh) * 2015-08-25 2018-10-19 天津师范大学 一种使用时域视觉传感器的光流计算方法
US10260862B2 (en) 2015-11-02 2019-04-16 Mitsubishi Electric Research Laboratories, Inc. Pose estimation using sensors
CN105957060B (zh) * 2016-04-22 2019-01-11 天津师范大学 一种基于光流分析的tvs事件分簇方法
JP6759785B2 (ja) * 2016-07-12 2020-09-23 日本製鉄株式会社 液面形状の抽出方法、装置及びプログラム
KR20180014992A (ko) 2016-08-02 2018-02-12 삼성전자주식회사 이벤트 신호 처리 방법 및 장치
US10110913B2 (en) * 2016-09-30 2018-10-23 Intel Corporation Motion estimation using hybrid video imaging system
FR3057428A1 (fr) * 2016-10-11 2018-04-13 Commissariat A L'energie Atomique Et Aux Energies Alternatives Dispositif electronique d'analyse d'une scene
US10984235B2 (en) 2016-12-16 2021-04-20 Qualcomm Incorporated Low power data generation for iris-related detection and authentication
US10614332B2 (en) 2016-12-16 2020-04-07 Qualcomm Incorportaed Light source modulation for iris size adjustment
EP3393122A1 (en) * 2017-04-18 2018-10-24 Oculus VR, LLC Event camera
US10237481B2 (en) * 2017-04-18 2019-03-19 Facebook Technologies, Llc Event camera for generation of event-based images
CN110692083B (zh) * 2017-05-29 2024-01-05 苏黎世大学 用于动态视觉传感器的块匹配光流和立体视觉
US10447920B2 (en) 2017-07-05 2019-10-15 Intel Corporation Micro-saccadic actuation for an event camera
US10466779B1 (en) * 2017-07-24 2019-11-05 Facebook Technologies, Llc Event camera for eye tracking
US11875545B2 (en) * 2018-01-11 2024-01-16 Gensight Biologics Method and device for processing asynchronous signals generated by an event-based light sensor
EP3543898A1 (en) * 2018-03-21 2019-09-25 Robert Bosch Gmbh Fast detection of secondary objects that may intersect the trajectory of a moving primary object
CN108449557B (zh) * 2018-03-23 2019-02-15 上海芯仑光电科技有限公司 像素采集电路、光流传感器和光流及图像信息采集系统
CN108961318B (zh) * 2018-05-04 2020-05-15 上海芯仑光电科技有限公司 一种数据处理方法及计算设备
CN109190581B (zh) * 2018-09-17 2023-05-30 金陵科技学院 图像序列目标检测识别方法
EP3690736A1 (en) 2019-01-30 2020-08-05 Prophesee Method of processing information from an event-based sensor
EP3694202A1 (en) 2019-02-11 2020-08-12 Prophesee Method of processing a series of events received asynchronously from an array of pixels of an event-based light sensor
CN113412413A (zh) * 2019-04-25 2021-09-17 普罗费塞公司 用于对振动进行成像和感测的系统和方法
CN112399032B (zh) * 2019-08-13 2022-05-31 天津大学青岛海洋技术研究院 一种基于检测器的脉冲式图像传感器的光流获取方法
EP3879816B1 (en) * 2020-03-11 2024-02-28 Prophesee Event filtering method for operating an event-based image sensor
US11871156B2 (en) * 2020-04-02 2024-01-09 Samsung Electronics Co., Ltd. Dynamic vision filtering for event detection
US11843879B2 (en) * 2020-12-15 2023-12-12 Raytheon BBN Technologies, Corp. Systems, devices, and methods for pixel frequency filtering for an event camera
CN113038040B (zh) * 2021-03-03 2023-03-24 深圳市丛矽微电子科技有限公司 一种事件相机、阈值调整方法及系统
WO2024069805A1 (ja) * 2022-09-28 2024-04-04 株式会社ソニー・インタラクティブエンタテインメント 信号処理回路、信号処理方法およびプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3932782B2 (ja) * 2000-08-03 2007-06-20 株式会社ノーリツ 部屋監視装置
KR100421740B1 (ko) * 2000-11-14 2004-03-10 삼성전자주식회사 객체 활동 모델링 방법
EP1376471A1 (en) * 2002-06-19 2004-01-02 STMicroelectronics S.r.l. Motion estimation for stabilization of an image sequence
US7379563B2 (en) * 2004-04-15 2008-05-27 Gesturetek, Inc. Tracking bimanual movements
EP1958433B1 (en) 2005-06-03 2018-06-27 Universität Zürich Photoarray for detecting time-dependent image data
AT502551B1 (de) * 2005-06-15 2010-11-15 Arc Seibersdorf Res Gmbh Verfahren und bildauswertungseinheit zur szenenanalyse
US20070280507A1 (en) * 2006-06-01 2007-12-06 Beddhu Murali Apparatus and Upwind Methods for Optical Flow Velocity Estimation
US8665333B1 (en) * 2007-01-30 2014-03-04 Videomining Corporation Method and system for optimizing the observation and annotation of complex human behavior from video sources
JP4341705B2 (ja) * 2007-07-17 2009-10-07 トヨタ自動車株式会社 車載画像処理装置
CN101216941B (zh) * 2008-01-17 2010-04-21 上海交通大学 剧烈光照变化下基于角点匹配与光流法的运动估计方法
US8509489B2 (en) * 2009-10-05 2013-08-13 The United States Of America, As Represented By The Secretary Of The Navy System and method for estimating velocity from image sequence with first order continuity
FR2985065B1 (fr) * 2011-12-21 2014-01-10 Univ Paris Curie Procede d'estimation de flot optique a partir d'un capteur asynchrone de lumiere
EP2677500B1 (en) * 2012-06-19 2021-06-23 Samsung Electronics Co., Ltd. Event-based image processing apparatus and method
KR101978967B1 (ko) * 2012-08-01 2019-05-17 삼성전자주식회사 제스처의 방향에 기초하여 상기 제스처를 인식하는 제스처 인식 장치와 제스처 인식 방법
JP2014186004A (ja) * 2013-03-25 2014-10-02 Toshiba Corp 計測装置、方法及びプログラム

Also Published As

Publication number Publication date
CA2859900C (fr) 2019-08-13
KR20140130106A (ko) 2014-11-07
EP2795580B1 (fr) 2019-12-18
ES2767295T3 (es) 2020-06-17
US9213902B2 (en) 2015-12-15
US20140363049A1 (en) 2014-12-11
FR2985065B1 (fr) 2014-01-10
FR2985065A1 (fr) 2013-06-28
CA2859900A1 (fr) 2013-06-27
JP2015507261A (ja) 2015-03-05
AU2012356462A1 (en) 2014-07-10
KR101991343B1 (ko) 2019-06-20
WO2013093378A1 (fr) 2013-06-27
CN104205169B (zh) 2018-07-31
EP2795580A1 (fr) 2014-10-29
CN104205169A (zh) 2014-12-10

Similar Documents

Publication Publication Date Title
JP6226876B2 (ja) 非同期光センサに基づいてオプティカルフローを推定する方法
KR102326789B1 (ko) 비동기식 광센서로 관찰한 장면에서 모양을 추적하는 방법
Pan et al. Bringing a blurry frame alive at high frame-rate with an event camera
Baldwin et al. Time-ordered recent event (TORE) volumes for event cameras
KR102627794B1 (ko) 이벤트 기반 센서로부터 신호를 출력하는 방법 및 이러한 방법을 사용하는 이벤트 기반 센서
CN113034634B (zh) 基于脉冲信号的自适应成像方法、系统及计算机介质
CN107750372B (zh) 一种场景三维重建的方法、装置及计算机可读介质
US11871125B2 (en) Method of processing a series of events received asynchronously from an array of pixels of an event-based light sensor
Sellent et al. Motion field estimation from alternate exposure images
Zhao et al. Super resolve dynamic scene from continuous spike streams
CN112084826A (zh) 图像处理方法、图像处理设备以及监控系统
CN104182940B (zh) 一种模糊图像恢复方法及系统
Xu et al. Denoising for dynamic vision sensor based on augmented spatiotemporal correlation
Rajakaruna et al. Image deblurring for navigation systems of vision impaired people using sensor fusion data
Low et al. Superevents: Towards native semantic segmentation for event-based cameras
Scheerlinck How to see with an event camera
KR102372988B1 (ko) 시계열 이벤트를 이용하여 카메라의 자세 변화 결과를 추정하기 위한 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치
CN115099262A (zh) 时空脉冲信号的上采样方法、装置、设备及存储介质
Cui et al. Multi-width Activation and Multiple Receptive Field Networks for Dynamic Scene Deblurring.
Han et al. Motion-Aware Video Frame Interpolation
CN117647263A (zh) 基于非线性优化的单光子相机视觉惯性里程计方法及系统
Hutchison Signed coded exposure sequences for velocity and shape estimation from a single photo

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161121

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171010

R150 Certificate of patent or registration of utility model

Ref document number: 6226876

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250