JP2022159253A - フレームカメラへのイベントカメラの画素ごとの登録の方法 - Google Patents

フレームカメラへのイベントカメラの画素ごとの登録の方法 Download PDF

Info

Publication number
JP2022159253A
JP2022159253A JP2022061595A JP2022061595A JP2022159253A JP 2022159253 A JP2022159253 A JP 2022159253A JP 2022061595 A JP2022061595 A JP 2022061595A JP 2022061595 A JP2022061595 A JP 2022061595A JP 2022159253 A JP2022159253 A JP 2022159253A
Authority
JP
Japan
Prior art keywords
point matrix
image
point
frame
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022061595A
Other languages
English (en)
Inventor
ペローネ,ダニエル
Perrone Daniele
マンダーシャイト,ジャック
Manderschied Jacques
ヴァレンテ,ステファン
Valente Stephane
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Prophesee SA
Original Assignee
Prophesee SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Prophesee SA filed Critical Prophesee SA
Publication of JP2022159253A publication Critical patent/JP2022159253A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/42Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by switching between different modes of operation using different resolutions or aspect ratios, e.g. switching between interlaced and non-interlaced mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/705Pixels for depth measurement, e.g. RGBZ
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】イベントベースカメラによって画素イベントストリームに提供された画素をフレームベースカメラによって提供された画像内の画素に登録する方法、ステレオカメラ装置及びプログラムを提供する。【解決手段】ステレオカメラ装置は、フレームベースカメラFMCから取得した各画像フレームを、画像フレームの1つ以上から第1の点行列を画像フレームの取得期間と関連付けて生成することと、取得期間中に生成された画素イベントストリームを取得することと、第1の点行列の取得期間中に生じる画素イベントストリームの画素イベントから第2の点行列を生成することと、第1の点行列及び第2の点行列の点の少なくとも一部に適用される相関スコアリング関数を計算することと、相関スコアリング関数を最大化することで、第2の点行列に関連する第1の点行列の点の深度により、第1の点行列における第2の点行列の点のそれぞれの位置を推定することと、を含む。【選択図】図2

Description

本開示は、ステレオ対応付けを使用した、カメラから異なる距離にある物体を示すシーンの存在下での、フレームベースカメラへのイベントベースカメラの画素ごとの登録のための方法および装置に関する。
イベントベースカメラは、従来のフレームベースカメラの画像センサのようにシャッターを使用して画像またはフレームを取り込まないが、視覚センサの各画素が独立して非同期的に動作するように輝度の局所的な変化に応答し、輝度の相対的な変化が生じるとそれらを報告し、そうでなければ沈黙している視覚センサを含む。
画像登録は、同じシーンを見ている2つのカメラによって撮像された物体間の画素ごとのマッピングまたはリンクを確立するプロセスである。そのような登録は、センサが2つの別個のカメラに組み込まれる場合に必要とされる。したがって、2つのカメラは、必然的に異なるそれぞれの視点を有する。カメラが異なる視点から見る物体のシーン深度(単数または複数)は視差(parallax)をもたらし、これは、カメラセンサの焦点面に投影される画像物体における視差(disparity)をもたらす。
そのような登録は、イベントを使用した画像および動画の改善、またはイベントノイズ除去などのイベント強調のために行われる。そのような登録はまた、シーンの3D情報を必要とする任意の用途に使用される深度または視差マップを生成するために行われる。同じタイプのフレームベースまたはイベントベースの2つ以上のカメラを含む3D推定のための解決策が存在する。
伝統的なステレオビジョンでは、互いに離隔しかつ水平に整列した2つのカメラが使用されて、人間の両眼視と同様に、シーンの2つの異なる視界の画像を得る。これらの2つの画像において撮像された物体を相関させることによって、相対的な深度情報を、対応する画像点の水平座標の差を符号化する視差マップの形態で得ることができる。視差マップの値は、対応する画素位置でのシーン深度に反比例する。
人間が2つの画像を比較するためには、画像を立体視装置で重ね合わせ、右のカメラからの画像を観察者の右目に、左のカメラからの画像を左目に見せなければならない。コンピュータビジョンシステムでは、いくつかの前処理ステップが行われ得る:
1.樽型歪みおよび接線歪みが除去されるように、各画像の歪みが取り除かれる。これにより、観察された画像は理想的なピンホールカメラの投影と確実に一致する。
2.各画像は、画像対の比較を可能とするために共通の平面に投影され、これは画像の平行化として知られている。
3.2つの画像を比較する情報測度が最小化される。これは、2つの画像内の特徴の位置の最良の推定を与え、視差マップを作成する。
4.任意選択で、視差マップが3D点群に投影されて深度マップを形成する。カメラの投影パラメータを使用することによって、既知のスケールでの測定値を提供するように点群を計算することができる。
2つのフレームベースカメラ間の登録を行うための多くの解決策がすでに存在する。これらの解決策は、両眼視の原理を使用してデュアルカメラシステムから深度情報を取り出すために開発されてきた([1]、[2]、[3]、[4]、[5])。これらの解決策はしばしば、以下のステップを必要とする:
カメラの較正:このプロセスは、オフラインで行われ、カメラシステムを熟知している必要がある。
カメラの平行化:このプロセスは、対応する画素の検索がセンサの画素行に沿って行われるようにカメラの視点を修正する。カメラの平行化が行われない場合、検索を、画素当たりのエピポーラ曲線を計算することによって依然として行うことができ、これはセンサの画素行に沿わない。したがって、平行化アルゴリズムは、効率が低下する。
マッチング:マッチングはしばしば、画素間の測光距離の最小化を試みる最適化アルゴリズムを含み、シフト(視差とも呼ばれる)を画素間で滑らかに変化させる正規化項をさらに有する。
2つのイベントベースカメラ間の登録をおこなうために、測光的マッチングの代わりに時間的マッチングを使用することが可能であることが、[6、14]に示されている。
カメラから来る信号の異なる性質のため、ステレオ法として一般に知られているこれらの方法を、1つのフレームベースカメラと1つのイベントベースカメラとを組み合わせるカメラ対に容易に一般化することはできない。フレームベースカメラの画素の2Dアレイは、定期的にサンプリングされる時間間隔で入射光の強度(または色強度)を測定して2D画像を生成する一方で、イベントベースカメラは、2D画像を生成しないが、離散イベントのストリームを生成し、イベントは、入射光の相対的な輝度変化が検出されるとすぐに非同期的に生成される。
加えて、イベントベースカメラは、フレームベースカメラと異なる(典型的には低い)空間分解能を有し得る。したがって、イベントベースカメラの1つの画素が、例えば、フレームベースカメラの多くの画素に対応し得るため、2つのカメラ間のマッピングは全単射になることができない。
いくつかのフレームベースカメラは、グローバルシャッターを使用する場合のように単一の瞬間にシーン全体のスナップショットを取得するのではなく、むしろシーンにわたって素早く垂直または水平に走査することによって各フレームを取り込むローリングシャッターセンサを有する。一般に、ローリングシャッターセンサの1つの画素行またはいくつかの画素行の1つの群が、単一の瞬間に走査され、センサの複数の画素行または画素行の複数の群は、異なる瞬間に走査される。明示的に処理されない場合、ローリングシャッターは、[5]に示されるように、ステレオシステムで推定される深度を偏らせ得る。
したがって、イベントベースセンサからの画素イベントとフレームベースセンサからの画像との間の画素ごとの登録を確立することが望ましい場合がある。また、フレームベースカメラがローリングシャッターセンサを有する場合にも対処することが望ましい場合がある。
イベントベースカメラによって画素イベントストリームに提供された画素を、フレームベースカメラによって提供された画像内の画素に登録するための方法が記載される。方法は、フレームベースカメラから画像フレームを取得することであって、各画像フレームは、露光期間を使用して生成される、取得することと、画像フレームの1つ以上から第1の点行列を生成することであって、第1の点行列は、画像フレームの取得期間と関連付けられる、生成することと、取得期間中に生成された画素イベントストリームを取得することと、第1の点行列の取得期間中に生じる画素イベントストリームの画素イベントから第2の点行列を生成することと、第1および第2の点行列の点の少なくとも一部に適用される相関スコアリング関数を計算することと、相関スコアリング関数を最大化することによって、第2の点行列に関連する第1の点行列の点の深度により、第1の点行列における第2の点行列の点のそれぞれの位置を推定することとを含み得る。
実施形態によれば、方法は、第1の画像分解能で第1の点行列を共通の画像平面に投影することによって得られる、平行化された第1の点行列を生成することと、第1の画像分解能で第2の点行列を共通の画像平面に投影することによって得られる、平行化された第2の点行列を生成することであって、第2の点行列の点のそれぞれの位置の推定は、平行化された第1および第2の点行列から行われる、生成することとをさらに含む。
実施形態によれば、第1の点行列における第2の点行列の点の位置は、隣接する点の少なくとも1つのパッチの視差マップもしくは深度マップによって表されるか、または画像フレームの1つに基づいて修正された画像を生成するのに使用される。
実施形態によれば、方法は、視差もしくは深度マップを生成および非平行化すること、または修正された画像をフレームベースもしくはイベントベースカメラの画像平面に非平行化することをさらに含む。
実施形態によれば、相関スコアリング関数は、第1および第2の点行列の結合から生じる結合された点行列の隣接する点の少なくとも1つのパッチの滑らかさを評価する。
実施形態によれば、相関スコアリング関数は、以下の関数:結合された点行列の2D勾配のノルム、結合された点行列の局所パッチの分散、ならびに第1および第2の点行列に適用される相互相関関数の1つである。
実施形態によれば、方法は、第1の点行列の露光期間中に生じる画素イベントストリームからの画素イベントを積分することによって第3の点行列を生成することと、第3の点行列を平行化して、画像フレームの分解能で第3の点行列の点を共通の画像平面に投影することと、視差マップで規定される点変換を適用して平行化された第3の点行列の点を変換することによって、変換された点行列を生成することと、変換された点行列を非平行化して、変換された画像をフレームベースカメラの画像平面に投影することと、第1の点行列を生成するのに使用された画像フレームの1つを非平行化された変換された点行列と結合して、ぶれ除去された画像を得ることとをさらに含む。
実施形態によれば、第1の点行列は、フレームベースカメラから取得された画像フレームの1つであり、第2の点行列は、第1の点行列の露光期間中に生じる画素イベントストリームからの画素イベントを積分することによって生成される。
実施形態によれば、第2または第3の点行列は、ぶれ除去された画像を得るために画像フレームの1つに乗じられる補正点行列であり、ぶれ除去された画像は、画像フレームのフレームレートで生成されるか、または画像フレームの2つの連続する画像フレームの間の間隔で生成されて、画像フレームのフレームレートより高いフレームレートでスローモーション動画ストリームを提供する。
実施形態によれば、第1の点行列は、フレームベースカメラから取得された2つの連続する画像フレームの比を計算することによって生成され、第2の点行列は、2つの連続する画像フレームに対応する瞬間によって区切られた期間中に生じる画素イベントストリームからの画素イベントを積分することによって生成される。
実施形態によれば、相関スコアリング関数は、以下の関数:第1および第2の点行列の隣接する点の少なくとも1つのパッチに適用される相互相関関数、第1および第2の点行列の隣接する点の少なくとも1つのパッチに適用される点ごとの絶対差の和、ならびに第1および第2の点行列の隣接する点の少なくとも1つのパッチに適用される点ごとの平方差の和の1つである。
実施形態によれば、第1の点行列の点は、フレームベースカメラから取得された2つの連続する画像フレーム内の対応する画素間で行われる比較に基づいて決定される二進値を有し、第2の点行列の点は、2つの連続する画像フレームに対応する瞬間によって区切られた期間中のイベントストリームの対応する画素での少なくとも1つのイベントの存在に応じて、0または1に設定される二進値を有する。
実施形態によれば、スコアリング関数は、第1および第2の点行列の隣接する点のパッチに適用される論理演算を使用して、第1の点行列と第2の点行列との間の類似度を評価する。
実施形態はまた、フレームベースカメラ、イベントベースカメラ、ならびにフレームベースカメラおよびイベントベースカメラによって提供される信号を受信および処理するプロセッサを含むステレオカメラ装置に関し得、プロセッサは、上に定義されたような方法のステップを実装するように構成される。
実施形態はまた、コンピュータの内部メモリに直接ロード可能であり、コンピュータによって実行されると、上に定義されたような方法のステップを実装するようにコンピュータを構成するコード部分を含む、コンピュータプログラム製品に関し得る。
本開示の方法および/または装置は、以下の図面および記載を参照しながらより良く理解され得る。非限定的かつ非網羅的な記載が、以下の図面とともに提供される。図中、同様の符号は、特に指定のない限り異なる図を通して同様の部分を指し得る。
実施形態に係るステレオカメラシステムのブロック図である。 実施形態に係る、フレームベースカメラへのイベントベースカメラの画素ごとの登録のための方法のステップを示すブロック図である。 理想および現実の画素信号、補正信号、ならびに現実の信号および補正信号の合成の時変曲線をそれぞれ示す。 理想および現実の画素信号、補正信号、ならびに現実の信号および補正信号の合成の時変曲線をそれぞれ示す。 理想および現実の画素信号、補正信号、ならびに現実の信号および補正信号の合成の時変曲線をそれぞれ示す。 ローリングシャッターカメラおよびグローバルシャッターカメラでの積分または露光期間を示すブロック図である。 他の実施形態に係る、フレームベースカメラへのイベントベースカメラの画素ごとの登録のための方法のステップを示すブロック図である。 他の実施形態に係る、フレームベースカメラへのイベントベースカメラの画素ごとの登録のための方法のステップを示すブロック図である。
図1は、フレームベースカメラFMC、イベントベースカメラEVC、およびカメラFMC、EVCによって提供される信号を受信および処理するプロセッサPRCを含むステレオカメラ装置SVSを示す。フレームベースカメラFMCおよびイベントベースカメラEVCは、カメラFMC、EVCから異なる距離にある物体を含む同じシーンを観察する。フレームベースカメラFMCは、シーンの画像フレームを取り込みかつ生成する。カメラFMCによって生成された画像フレームは、グレースケールであってもよく、またはRGB画像などのカラー画像であってもよい。イベントベースカメラEVCは、シーンの中で検出され、画像フレームの取得中に取り込まれた動いている物体に関連する非同期イベントのストリームを生成する。フレームベースカメラFMCおよびイベントベースカメラEVCの各々は、それぞれの指示方向z1、z2、およびそれぞれの画像平面(O1,x1,y1)、(O2,x2,y2)を有するようにカメラシステムSVSに組み込まれる。点O1、O2は、カメラFMC、EVCのセンサのそれぞれの中心(または左上隅)に位置してよい。点O1、O2は、互いから距離dxで離隔している。指示方向z1、z2は、必ずしも同じではない。同じことが、画像平面(O1,x1,y1)、(O2,x2,y2)の軸x1、x2および軸y1、y2にも当てはまる。加えて、イベントベース視覚センサは、典型的にはフレームベースセンサより低い分解能を有し、カメラFMCおよびEVCのそれぞれの画像平面にシーンの焦点を合わせるレンズは、それら自体の歪みを有し得る。
以下では、フレームベースカメラFMCによって提供されたフレームの画素とイベントベースカメラEVCによって提供された画素イベントとの間の画素ごとの登録のための異なる方法が開示される。そのような登録は、特に、カメラFMC、EVCの各々がそれ自体の視点を有し、観察されたシーンにおける物体の深度がいくらかの視差(parallax)をもたらし、これがカメラFMC、EVCのセンサにそれぞれ結像される画像物体間の視差(disparity)またはシフトをもたらすため、必要とされる。
登録の第1の重要な要素は、カメラEVCからのイベントとカメラFMCからのフレームとの間の正確な同期であり、カメラFMCは1つの画像フレームを33msのフレーム期間で生成し得るが、カメラEVCは1秒当たり1.2・10のイベント、すなわち、フレーム期間中に4・10のイベントを提供し得ることが分かっている。
実施形態によれば、カメラFMC、EVCのクロックは、カメラFMC、EVCの一方から他方のカメラに送信される同期信号を使用して同期される。そのような同期信号は、典型的にはカメラFMCによって提供される、フラッシュをトリガして露光時間の開始を記録するフラッシュ信号であってよい。カメラFMCがグローバルシャッターセンサを有する場合、カメラFMCからの各画像フレームの露光時間も、プロセッサPRCに送信される。カメラFMCがローリングシャッターセンサを有する場合、第1の行の露光時間、および第1の行の露光の開始時間に対する画像センサの最終行の露光の開始時間が、プロセッサPRCに送信される。
登録の第2の重要な要素は、画像フレームおよびイベントの画素間のステレオマッチング距離を決定することである。実施形態によれば、マッチングは、画像フレームIと、画像フレームIの露光期間中に生じるイベントのセットEとの間で決定される。フレームIの露光期間内では、観察されたシーンにおける著しい深度変化は存在しないと想定され、その結果、画像フレームIとイベントのセットEとの間のマッピングは一定である。
図2は、プロセッサPRCによって実装することができる、画素ごとの登録のための方法の実施形態のステップS01~S08を示す。登録は、フレームベースカメラFMCによって提供されたフレームの画素とイベントベースカメラEVCによって提供された画素イベントとの間で行われる。カメラFMCは、瞬間fで画像フレームIを生成し、ここでI(x1,y1)は、露光時間Tに係る、カメラFMCの画像平面(O1,x1,y1)の画素の画素座標である(図1を参照)。カメラEVCは、[x2,y2,t0,σ]で示される画素イベントを生成し、ここで(x2,y2)は、カメラEVCの画像平面(O2,x2,y2)の画素の画素座標であり、t0は、イベントの時間であり、σは、輝度変化が対数輝度変化閾値cに対して正である場合は+1に等しく、負の場合は-1に等しい極性である。輝度閾値cは、正および負の極性について異なる値を有し得るが、この可能性は、明確にするために省略されることに留意されたい。
ステップS01で、画像フレームIが平行化されて、W×H画素の所与のサイズを有する平行化された画像RIを生成し、フレームIの画素は、共通の画像平面(O,x,y)に投影される。平行化計算は、線形変換、軸x1、y1、およびz1の周りの回転、画像サイズW×Hを得るためのスケーリング変換、ならびに画像の歪みを補正するための他の変換を含み得る。これらの変換を規定するパラメータのいくつかを、較正によって得ることができる。
ステップS01と並行して、ステップS02で、点行列JがカメラFMCの画像平面(O2,x2,y2)に構築される。ステップS02は、瞬間fおよび露光期間の持続時間Tを使用して行われる。
潜在的にぶれた画像Iと対応するイベントとの間の関係は、以下の方程式:
Figure 2022159253000002
によって表され得、式中、
Figure 2022159253000003
であり、
I(x1,y1,[f-T/2,f+T/2])は、f-T/2に開始し、f+T/2に終了する露光期間で、画像平面(O1,x1,y1)にカメラFMCによって生成された画像Iの座標(x1,y1)での画素値であり、
は、時間hで取られた仮想の瞬間露光期間での画像フレームであり、
hは、時間間隔[f-T/2,f+T/2]の中にあるように制約されない任意の時間であり、
ev(x2,y2,s)は、時間sの連続関数であり、カメラEVCの画像平面(O2,x2,y2)の画素(x,y)から受信され、時間t0にトリガされ、対数輝度閾値cを有し、輝度変化が正の場合は極性σ=+1であり、負の場合はσ=-1である、イベント[x2,y2,t0,σ]が存在する場合に受信されるイベントストリームev(x2,y2,s)=σ δt0(x2,y2,s)を表し、δt0は、画素座標(x2,y2)および時間sの関数として変化するインパルスまたはディラック関数であり、ev(x2,y2,t0)=σである時間s=t0を除いてゼロに等しく、
m(x1,y1,p)=(x2,y2)は、フレームベースカメラFMCによって提供されたフレーム内の画像平面(O1,x1,y1)の座標(x1,y1)の各画素を、イベントベースカメラEVCの画像平面(O2,x2,y2)にマッピングする変換であり、
pは、1つの画素について規定され、決定されるpの1つの値について達成されるようなマッピングを行うのに必要なパラメータである。
輝度閾値cは、正および負の極性について異なる値を有し得るが、この可能性は、明確にするために省略される。
マッピング関数mは、理論上、フレームベースカメラFMCの座標平面(O1,x1,y1)からイベントベースカメラEVCの座標平面(O2,x2,y2)への任意のマッピングであり得る。しかしながら、広く使用されているピンホールカメラモデル([10]の6章を参照)および薄レンズ仮定([11]の3章を参照)の下で制約される。実際には、マッピング関数mは、([12]のようなモデルを使用して)レンズ歪みを考慮および除去する。[13]に開示されたアルゴリズムによれば、画像の平行化は、カメラの点が他のカメラに同じ垂直座標yで見出され得ることを確実にすることができる。平行化は、ホモグラフィRおよびRを、それぞれカメラFMCおよびカメラEVCからの各カメラ画像に適用する。変換mを、以下の方程式:
m(x,y,p)=dist(R -1(Rdist -1([x,y])+([p,0])))
によって、座標(x,y)の画素について規定することができ、式中、distおよびdist -1はそれぞれ、完全なピンホール投影モデルから逸脱するカメラレンズ歪みをモデル化する、カメラEVCの順歪み関数およびカメラFMCの逆歪み関数であり、[x,y]は、ベクトル[x,y]の転置を表し、pは、座標をイベントに合わせるのに必要なパラメータである。文献では、p=d(x,y)は、「視差マップ」と呼ばれ、平行化されたカメラシステムにおける水平シフトに対応する。そのような関数を、典型的にはカメラの較正手順から得ることができる。
方程式(1)を、以下のように書くことができる:
Figure 2022159253000004
hは任意の時間であるため、方程式(3)および(4)は、画像Iおよび点行列Jを結合することによって、時間fで取られた露光期間Tでの画像I(x1,y1,[f-T/2,f+T/2])から任意の時間hにおける瞬間露光期間での画像I(x1,y1,h)を生成するのに使用され得る。
方程式(3)および(4)により、各ぶれたフレームIについて単一のぶれ除去された画像Isを提供して、フレームベースカメラからの初期の動画ストリームと同じフレームレートを有するぶれ除去された動画ストリームを提供することが可能である。実施形態によれば、方程式(3)および(4)は、hの値を変化させることによって複数回適用されて、連続する画像フレームIの各対の間の複数の画像を得て、画像フレームIのものより高いフレームレートでスローモーション動画ストリームを提供する。
画像Jは、ステップS02で、画像平面(O1,x1,y1)において上記方程式(4)を使用して計算される。
ステップS03で、点行列Jは平行化されて、W×H点の所与のサイズを有し、座標(x,y)の点が共通の画像平面(O1,x,y)内に特定される、平行化された点行列RJを提供する。ステップS01およびステップS03での画像の平行化は、平行化された画像RIおよび平行化された点行列RJが同じ焦点距離を有するように見えるように行われる。
画像Iは、フレームベースカメラFMCによって操作される露光時間中に観察されたシーンの中の動いている物体のため、ぶれている場合がある。ぶれを、方程式(3)を使用して、フレームベース露光期間T中にイベント[x2,y2,t0,σ]のストリームによって記録された輝度変化を積分することによって補正することができる。
点行列RJの点RJ(x,y,h,p)は、平行化された画像RIに適用されるぶれ除去補正信号を表す。パラメータpが正しい場合、画像RI(x,y)内の点RJ(x,y,h,p)の位置は適切に評価されて、ぶれ除去された画像Isを生成することになり、ぶれ除去された画像は、非エッジ画素の滑らかな強度勾配とともに鮮鋭なエッジを有することになる。滑らかさは、すぐ近くにある色またはグレーレベルの類似度の尺度となる。
しかしながら、フレームベースカメラFMCの露光期間の持続時間Tが十分に短い場合、画像フレームIはぶれず、点行列1/RJ(x,y,h,p)の鮮鋭なエッジと同様の鮮鋭なエッジを有することがある。空間的整合が、画像I(x,y)と点行列RJ(x,y,h,p)との間で正しい場合、不整合により二重エッジまたはゴーストエッジを有するのと対照的に、鮮鋭な構造は一致することになり、画像Isの全体の滑らかさは保存されることになる。Isの滑らかさの測定は、画像Iの画素とイベントベースカメラEVCからのイベントとの間の空間的整合を検証することができることがわかる。
図3A、3B、3Cは、実施形態に係る、空間的整合の目的を説明するための、画像IおよびIs内の画素の線の値の曲線C1~C5を示す。図3Aでは、曲線C1、C2は、得る画像Isおよびぶれた画像I内の画素の対応する線をそれぞれ示す。画素の線は、画像Is(C1)において画像I(C2)より鮮鋭であるように見える。図3Bは、画像Iの鮮鋭度を改善し、画像Isを得るように規定される点行列1/Jの点の対応する線を表す曲線C3を示す。曲線C3は、図3Bの例では、画像Iにおけるぶれた信号C2による、画像Isにおける鮮鋭な信号C1の各画素での除算の結果に対応する。図3Cは、それぞれ画像Iと画像Isとの間の空間的整合が正しい場合および正しくない場合の、推定される画像Is内の画素の対応する線の曲線C4、C5を示す。曲線C5は、空間的な不整合またはずれが二重/ゴーストエッジをもたらし、したがって再構成された信号の滑らかさを減少させることを示す。したがって、目的は、隣接する画素の少なくとも1つのパッチの各画素についてRI(x,y)/RJ(x,y,h,p)の滑らかさを最大化することによってパラメータpを推定することである。
ステップS04で、滑らかさは、以下の関数Fに適用される選択されたスコアリング関数S(x,y,p)を使用して評価される:
F(x,y,p)=RI(x,y)/RJ(x,y,h,p)
ステップS05で、パラメータpは、隣接する画素の少なくとも1つのパッチについて所与の視差範囲内でスコアリング関数Sを最大化または最小化することによって推定される。求められる推定パラメータpは、画素(x,y)ごとに変化するか、または同じ変換値を有する隣接する画素の少なくとも1つのパッチについて計算されるかのいずれかであり得る。
以下のようないくつかのスコアリング関数を、滑らかさを最大化するために使用することができる:
-最小化される、F(x,y,p)の2D勾配のL1またはL2ノルム:
Figure 2022159253000005
-最大化される、F(x,y,p)の局所パッチの分散、
-信号間の最良の類似度を見出すように最大化される、画像RI(x,y)と点行列1/RJ(x,y,p)との間の相互相関関数。
関数F、分散、または相互相関関数は、対数関数によってあらかじめ変換され得る。また、スコアリング関数Sは、例えば、変換写像の勾配のL1ノルムを重み付けすることによって、変換場を滑らかに変化させる正規化項を有し得る。
実施形態によれば、変換場の滑らかさは、セミグローバルマッチング(Semi-Global Matching)アルゴリズム[1]のコスト集約法を使用し、相互情報量基準を、関数F(x,y,p)の2D勾配のL1もしくはL2ノルム、または局所パッチの分散、または画像RI(x,y)および点行列1/RJ(x,y,h,p)のパッチ間の相互相関測定で置き換えるすることによって強化され得る。
別の実施形態によれば、例えば対数関数などの別の関数が、画像RI(x,y)および点行列RJ(x,y,p)に適用され、その結果、それらの関係はlog(I)-log(J)=log(I)になる。対数関数の使用は、1つの除算を取り除くことによって、最良の変換m(x,y,p)を求める時に、滑らかさを最大化するための計算を軽くし得る。
滑らかさを最大化するための上で開示された方法は、反復的に適用され得、そこでは、パラメータpの近似値がまず使用され、前の反復に適用されたコスト関数の結果を使用して反復的に精細化される。
別の実施形態によれば、パラメータpは、正解の多くの例またはいくつかの鮮鋭度キューから学習される関数を使用して決定される。
ステップS01、S03は、ステレオフレーム平行化機構を使用して画像Iおよび点行列Jの両方を中間分解能W×Hに導き、これは、好ましくは、パラメータpまたは変換写像m(x,y,p)の計算においてより少ない計算を有する(より小さい)イベントベースビジュアルEVSの分解能である。さらに小さい分解能が、より高速の処理のために選択され得る。
平行化ステップS01およびS03は任意選択であることに注目する。画像Iおよび点行列Jが平行化される場合、変換写像m(x,y,p)をm(x,y,d(x,y))=dist(R -1(Rdist -1([x,y])+([d(x,y),0])))のように書くことができ、パラメータp=d(x,y)は、x軸に沿った視差またはシフトを表す。
画像Iおよび点行列Jが平行化されない場合、視差は、もはや(x座標に沿って)水平ではなく、変換m(x,y,p)をm(x,y,d(x,y),d(x,y))=dist(dist -1([x,y])+([d(x,y),d(x,y)])))のように書くことができ、式中、d(x,y)およびd(x,y)は、x方向およびy方向の座標(x,y)の画素の視差の成分である。各画素位置での視差値のセットは、視差マップを形成する。
実施形態によれば、画素で結像された物体の深度は、センサ上でのその視差に反比例するため、推定された視差マップまたはパラメータpは、カメラEVCによって提供された一部またはすべての画素イベントについて深度マップを決定するのに使用される。座標(x,y)の画素の深度を、以下の方程式:
d(x,y)=dx・fl/z (5)
を使用して計算することができ、式中、dxは、カメラFMC、EVCの平行化された画像平面の原点O1、O2間の距離[O1,O2]であり、flは、平行化後のカメラの焦点距離であり、zは、座標(x,y)の画素によって撮像され物体の深度である。このようにして得られた視差または深度マップは、座標平面(O1,x,y)上に規定される。視差または深度マップは、非平行化されて座標平面(O1,x1,y1)または(O2,x2,y2)上に規定され得る。深度マップは、カメラFMCによって提供されたフレーム内の動いている物体の深度を与える。
実施形態によれば、ステップS06~S08が、ステップS05の後に行われる。ステップS06で、点行列RJは、ステップS05で推定されたパラメータpを使用して、点行列RJの各点RJ(x,y,h,p)に以下の方程式:RJ’(x,y,h)=RJ(m(x,y,p),h)を適用することによって補正される。ここで、変換m(x,y,p)が必ずしも整数を提供しないことに注目すべきである。したがって、ステップS06は、整数座標を有する画素値を得るために、m(x,y,p)によって変換された画素間の補間計算をもたらし得る。
ステップS07で、ステップS06で得られた点行列RJ’は、オーバーサンプリングされてフレームベースカメラFMCの分解能に戻り、画像平面(O1,x1,y1)上の非平行化された点行列J’を得る。したがって、点行列J’は、カメラFMCの画像平面上に規定される。ステップS08で、ぶれ除去された画像Isが、方程式(3)を画像Iのすべての画素および点行列J’の点に適用することによって計算され、J’は、ぶれ除去信号を表す。したがって、ぶれ除去された画像Isの各画素は、以下のように計算される:
Is(x1,y1,h,p)=I(x1,y1)/J’(x1,y1,h,p)
ローリングシャッターフレームベースカメラの場合、点行列Jは、ステップS02で以下の方程式:
Figure 2022159253000006
によって計算され、式中、Es(x1,y1)およびEe(x1,y1)は、フレームIの座標(x1,y1)の画素の露光期間の開始および終了をそれぞれ与える関数である。関数Esは、フレームIの第1の行または列での露光期間の開始の時間ts、およびフレームIの2つの連続する行または列の露光期間の開始の間のずれに対応するローリングシャッタースキューRsを使用して計算され得る(図4)。
図4は、垂直ローリングシャッターセンサの露光タイミングを示す。ローリングシャッターセンサの画素の各行R0,R1,…Rnは、図4に長方形REで示される、同じ持続時間Trの露光期間中ずっと露光される。各行R0~Rnの露光期間REの開始は、前の行と比較してローリングシャッタースキューRsだけずれる。対照的に、グローバルシャッターセンサの画素行の露光期間は、図4に単一の中央の長方形GEで示されるように、すべて同一である。グローバルシャッターセンサの露光期間の持続時間Tは、行露光期間の持続時間Trと同じかまたは異なっていてよい。
センサが、上から下に開始する垂直ローリングシャッターを有し、y座標が0(センサの頂部)から高さ-1(センサの底部または最終行)に変化する場合、関数Es(x,y)を、Es(x,y)=ts+y・Rsのように計算することができる。関数Es(x,y)は、同じ行にあるすべての画素で同じ値を有する。関数Ee(x,y)を、Ee(x,y)=Es(x,y)+Trのように計算することができ、式中、Trは、画像Iの1つの行の露光期間の持続時間である。あるいは、関数Eeを、Ee(x,y)=te+y・Rsのように計算することもでき、teは、フレームIの第1の行での露光期間の終了の時間である。
点行列Jは、露光期間T中に生じる画素イベントに対応する点についてのみ規定されることが注目され得る。他の点は規定されず、任意の値、例えば0または最も近い規定点の値に設定され得る。
図2の方法は、フレームの露光時間Tが、露光時間内に十分なイベント(例えば、3つ以上のイベント)が記録されるのに十分に長い場合に効率的であるように思われる。実際には、少数のイベントしか記録されない場合、フレームベースカメラFMCによって記録された画像Iとマッチングする十分なイベントが存在しないことがある。この場合、またはより一般的な場合、フレーム露光期間Tの外で生じるイベントを登録することが望ましく、イベントによって記録された輝度変化の積分は、以下の方程式:
I(x1,y1,f+F)=I(x1,y1,f)ec・INT(x1,y1,f,f+F,p) (7)
または
Figure 2022159253000007
に示されるように、2つの連続する画像フレームI(x1,y1,f)およびI(x1,y1,f+F)の間の差として近似され得、式中、I(x1,y1,f)は、時間fで生成された画像フレームI(f)の画素であり、I(x1,y1,f+F)は、連続する時間f+FでカメラFMCによって生成された別の画像フレームI(f+F)の画素であり、Fは、フレーム期間の持続時間である。方程式(7)または(8)は再び、固有の未知の変数が画素パラメータpである、フレームとイベントとの間の関係を確立する。
図5は、プロセッサPRCによって実装することができる、フレームベースカメラFMCによって提供されたフレームの画素とイベントベースカメラEVCによって提供された画素イベントとの間の画素ごとの登録のための方法の、別の実施形態のステップS11~S16を示す。ステップS11では、フレームベースカメラFMCによって提供された2つの連続する画像フレームI(f)およびI(f+F)が処理されて、以下のような各時間fについての点行列R:
Figure 2022159253000008
を計算し、式中、(x1,y1)は、カメラFMCの画像平面(O1,x1,y1)の点の座標である。次いで、ステップS12で、点行列Rは平行化されて、W×H点の所与のサイズを有し、点が共通の画像平面(O1,x,y)内に特定される、平行化された点行列RRを提供する。
ステップS13およびS14は、ステップS11およびS12と並行して行われ得る。ステップS13で、点行列Kが、カメラEVCによって生成されたイベントストリーム[x2,y2,t0,σ]から、カメラEVCの画像平面(O2,x2,y2)に構築される。ステップS13は、瞬間fおよびカメラFMCによって提供されるフレーム期間Fを使用して行われ、点行列Kは、以下の方程式:
K(x1,y1,p)=ec・INT(x1,y1,f,f+F,p) (10)
を使用して計算され、INT(x1,y1,f,f+F,p)は、方程式(2)によって規定される。点行列Kの点は、フレーム期間F中に生じる、カメラEVCによって提供されたイベントストリームからの画素イベントによって記録された輝度比の変化を表す。次いで、ステップS14で、点行列Kは平行化されて、W×H点の所与のサイズを有し、点が共通の画像平面(O1,x,y)内に特定される、平行化された点行列RKを提供する。
ステップS15で、画像RRと点行列RKとを比較するスコアリング関数S(RR(x,y),RK(x,y,p))が評価される。スコアリング関数Sは、点行列RRおよびRKの隣接する点のパッチ間の相関を、それらの値の点ごとの積を合計するか、またはそれらの点ごとの絶対差もしくは平方差を合計することによって、評価することができる。
別の例によれば、スコアリング関数を、以下の関数F’:
F’(x,y,p)=RR(x,y)/RK(x,y,p)
に適用することができ、式中、パラメータpの値は、隣接する点の少なくとも1つのパッチの各点について、F’(x,y,p)が1にできるだけ近くなるように推定される。
ステップS16で、パラメータpが、平行化された点行列RRおよびRKの隣接する点の1つ以上のパッチの各点について推定される。この操作は、点行列RRおよびRKの点の間の相関を評価する場合、スコアリング関数Sを最大化することによって行われ得る。点の間の相関は、両方の点行列の隣接する点のパッチ間の絶対差または平方差の和を計算することによって評価され得る。この場合、計算された差の和が小さい時に相関が高い。
図2の方法のように、パラメータpは、例えばカメラFMCによって提供されたフレーム内に存在する動いている物体の1つ以上の画素パッチについて、またはすべての画像画素について、視差または深度マップを計算するのに使用され得る。次いで、視差または深度マップは、イベントベースカメラEVCの画像平面(O2,x2,y2)の寸法を有する視差または深度マップに非平行化され得る。非平行化操作はまた、フレームベースカメラFMCの画像平面(O1,x1,y1)の寸法に行われてもよい。
フレームカメラFMCがローリングシャッターセンサを使用する場合、方程式(10)は、以下:
K(x1,y1,p)=ec・INT(x1,y1,Ee(x1,y1),EsF(x1,y1),p) (11)
になり、式中、Ee(x1,y1)およびEsF(x1,y1)は、第1のフレーム内の画素(x1,y1)の露光期間の終了、および第2のフレーム内の画素(x1,y1)の露光期間の開始をそれぞれ与える関数である。
図6は、プロセッサPRCによって実装することができる、フレームベースカメラFMCによって提供されたフレームの画素とイベントベースカメラEVCによって提供された画素イベントとの間の画素ごとの登録のための方法の、別の実施形態のステップS21~S26を示す。図6の方法は、図2および図5の方法に対して非常に低い計算の複雑さを有する利点を示す。ステップS21では、フレームベースカメラFMCによって提供された2つの連続する画像フレームI(x1,y1,f)およびI(x1,y1,f+F)が処理されて、以下のように規定される二値点行列BF:
Figure 2022159253000009
を計算し、式中、条件C1は、以下のように規定される:
C1:I(x1,y1,f+F)>e・I(x1,y1,f)またはI(x1,y1,f+F)<e-c・I(x1,y1,f)
したがって、画像I(f)およびI(f+f)内の同じ座標(x1,y1)の対応する画素の比較時に、対数領域で輝度変化が生じた場合、点行列BFの座標(x1,y1)の点の値は1に設定され、そうでない場合は0に設定される。二値点行列BFは、カメラFMCの画像平面(O1,x1,y1)で計算される。次いで、ステップS22で、点行列BFは平行化されて、W×H点の所与のサイズを有し、点が共通の画像平面(O,x,y)内に特定される、平行化された点行列RBFを提供する。原点Oは、点O1と一致するように選択され得る。
ステップS23およびS24は、ステップS21およびS22と並行して行われ得る。ステップS23で、二値点行列BEが、カメラEVCによって生成されたイベントストリーム[x2,y2,t0,σ]から、カメラEVCの画像平面(O2,x2,y2)に構築される。ステップS23は、瞬間fおよびカメラFMCによって提供されるフレーム期間Fを使用して行われ、点行列BEは、以下の方程式:
Figure 2022159253000010
を使用して計算され、式中、条件C2は、画素(x2,y2)のイベントが時間fと時間f+Fとの間でカメラEVCから受信される場合に真であり、パラメータpは、m(x1,y1,p)=(x2,y2)であるように決定される。したがって、時間fと時間f+Fとの間の輝度変化により、少なくとも1つのイベントがカメラEVCによって生成された場合、点行列BEの座標(x2,y2)の点の値は1に設定され、そうでない場合は0に設定される。
次いで、ステップS24で、点行列BEは平行化されて、W×H点の所与のサイズを有し、点が共通の画像平面(O,x,y)内に特定される、平行化された点行列RBEを提供する。実施形態によれば、平行化は、得られた平行化された点行列RBEの点が0または1のいずれかに留まるような方法で行われる。
ステップS25で、点行列RBFと点行列RBEとの間の相関が、選択されたスコアリング関数S(RBF(x,y),RBE(x,y,p))を使用して評価される。
一例によれば、スコアリング関数Sは、以下の関数F1:
F1(x,y,p)=RBF(x,y)-RBE(x,y,p)
に適用され、各点の値RBF(x,y)またはRBE(x,y,p)は、0または1のいずれかに等しい。その場合、スコアリング関数Sは、隣接する点の1つ以上のパッチにわたるF1の絶対値または平方値の和であり得る。したがって、スコアリング関数S(F1)は、点行列RBFと点行列RBEとの間の非相関を推定し、隣接する点の少なくとも1つのパッチについて最小化されるべきである。
別の例によれば、スコアリング関数Sは、以下の関数F2:
F2(x,y,p)=RBF(x,y)(AND)RBE(x,y,p)
に適用される。スコアリング関数Sは、点の1つ以上のパッチにわたる、1に等しいF2の値の数に等しくなり得る。この場合、スコアリング関数S(F2)は、点行列RBFと点行列RBEとの間の相関を推定し、隣接する点の少なくとも1つのパッチについて最大化されるべきである。
ステップS26で、パラメータpが、平行化された点行列RBFおよびRBEの隣接する点の1つ以上のパッチにわたって推定される。この操作は、スコアリング関数S(F1)を最小化するか、またはスコアリング関数S(F2)を最大化することによって行われ得る。
図2の方法のように、パラメータpは、例えばカメラFMCによって提供されたフレーム内に存在する動いている物体の1つ以上の画素パッチについて、またはすべての画像画素について、視差マップd(x,y)または深度マップを計算するのに使用され得る。次いで、視差または深度マップは、イベントベースカメラEVCの画像平面(O2,x2,y2)またはカメラFMCの画像フレームの寸法に対する画像平面(O1,x1,y1)における視差または深度マップに非平行化され得る。
ステップS02、S03、およびS05~S08は、ステップS16またはS26の後に行われて、画像フレームIのぶれを除去し得る。
図5および図6の方法は、対応するフレームの露光期間中に生じるイベントを考慮しないが、2つのフレーム間で生じるすべてのイベントを考慮することに注目すべきである。
本明細書に記載された説明は、様々な実施形態の構造の一般的な理解を提供することを意図する。これらの説明は、そこに記載された構造または方法を利用する装置、プロセッサ、およびシステムの要素および特徴のすべての完全な記載として機能することを意図していない。多くの他の実施形態またはそれらの組み合わせが、開示された実施形態と組み合わせて本開示を検討すると当業者には明らかになり得る。他の実施形態を利用し、本開示から導き出すことができ、その結果、本開示の範囲を逸脱することなく構造的および論理的な置き換えおよび変更を行うことができる。
これに関して、図2、図5、および図6に開示された方法は、完全な点行列RJ、RK、またはRBEについてすべての点の位置(x,y)を計算することなく行われ得る。加えて、ステップS06で点行列RJ’の点を計算するために(図2)、または深度マップを計算するために、すべての画素位置(x,y)および視差マップを保存する必要はない。
さらに、本開示および説明は、限定的ではなく例示的なものと見なされるべきであり、添付の特許請求の範囲は、記載の真の趣旨および範囲内にあるすべてのそのような修正、強化、および他の実施形態を含めることを意図する。したがって、以下の特許請求の範囲は、特許請求の範囲およびそれらの均等物の最も広い許容される解釈によって決定されるべきであり、前述の記載によって制限または限定されないものとする。
引用文献
[1] H. Hirschmuller, "Stereo processing by semiglobal matching and mutual information". IEEE Transactions on Pattern Analysis and Machine Intelligence, 30(2): 328-341 (2007)
[2] G. Van Meerbergen, M. Vergauwen, M. Pollefeys et al. "A Hierarchical Symmetric Stereo Algorithm Using Dynamic Programming", International Journal of Computer Vision, 47, 275-285 (2002).
[3] Jian Sun, Nan-Ning Zheng and Heung-Yeung Shum, "Stereo matching using belief propagation," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 25, no. 7, pp. 787-800, July 2003
[4] Y. Boykov, O. Veksler and R. Zabih, "Fast approximate energy minimization via graph cuts," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 23, no. 11, pp. 1222-1239, Nov. 2001
[5] O. Saurer, K. Koser, J. Bouguet and M. Pollefeys, "Rolling Shutter Stereo," IEEE International Conference on Computer Vision, Sydney, NSW, pp. 465-472 (2013)
[6] P. Rogister, R. Benosman, S. Ieng, P. Lichtsteiner and T. Delbruck, "Asynchronous Event-Based Binocular Stereo Matching," IEEE Transactions on Neural Networks and Learning Systems, vol. 23, no. 2, pp. 347-353, Feb. 2012
[7] L. Pan, R. Hartley, C. Scheerlinck, M. Liu, X. Yu and Y. Dai, "High Frame Rate Video Reconstruction based on an Event Camera," IEEE Transactions on Pattern Analysis and Machine Intelligence (2020)
[8] G. Gallego, M. Gehrig and D. Scaramuzza, "Focus Is All You Need: Loss Functions for Event-Based Vision," IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Long Beach, CA, USA, 2019, pp. 12272-12281 (2019)
[9] D. Perrone, P. Favaro, “A Logarithmic Image Prior for Blind Deconvolution”, Int J Comput Vis 117, 159-172 (2016)
[10] R. Hartley and A. Zisserman, "Multiple View Geometry in Computer Vision" (2nd. ed.), 2003, Cambridge University Press, USA.
[11] Y. Ma, S. Soatto, J. Koseck, and S. Shankar Sastry, "An Invitation to 3-D Vision: From Images to Geometric Models", 2010, Springer Publishing Co., Inc.
[12] J. Weng, P. Cohen, and M. Herniou, "Camera calibration with distortion models and accuracy evaluation", IEEE Transactions on Pattern Analysis and Machine Intelligence, 14(10):965-980, Oct. 1992
[13] M. Pollefeys, R. Koch, L. Van Gool, "A simple and efficient rectification method for general motion", Proc. International Conference on Computer Vision, 496-501, (1999), Retrieved 2011-01-19
[14] R. Benosman, S. Sio-Hoi Ieng, P. Rogister and C. Posch, "Asynchronous Event-Based Hebbian Epipolar Geometry", in IEEE Transactions on Neural Networks, vol. 22, no. 11, pp. 1723-1734, Nov. 2011

Claims (15)

  1. イベントベースカメラ(EVC)によって画素イベントストリーム([x2,y2,t0,σ])に提供された画素を、フレームベースカメラ(FMC)によって提供された画像内の画素に登録するための方法であって、前記方法は、
    フレームベースカメラから画像フレーム(I)を取得することであって、各画像フレームは、露光期間(T)を使用して生成される、取得することと、
    前記画像フレームの1つ以上から第1の点行列(I,R,BF)を生成することであって、前記第1の点行列は、前記画像フレームの取得期間(T,F)と関連付けられる、生成することと、
    前記取得期間中に生成された画素イベントストリームを取得することと、
    前記第1の点行列の前記取得期間中に生じる前記画素イベントストリームの画素イベントから第2の点行列(J,K,BE)を生成することと、
    前記第1および第2の点行列の点の少なくとも一部に適用される相関スコアリング関数(S)を計算することと、
    前記相関スコアリング関数を最大化することによって、前記第2の点行列に関連する前記第1の点行列の前記点の深度により、前記第1の点行列における前記第2の点行列の点のそれぞれの位置(x,y)を推定することと
    を含む、方法。
  2. 第1の画像分解能で前記第1の点行列を共通の画像平面に投影することによって得られる、平行化された第1の点行列を生成することと、
    前記第1の画像分解能で前記第2の点行列を前記共通の画像平面に投影することによって得られる、平行化された第2の点行列を生成することであって、前記第2の点行列の点のそれぞれの位置の前記推定は、前記平行化された第1および第2の点行列から行われる、生成することと
    をさらに含む、請求項1に記載の方法。
  3. 前記第1の点行列における前記第2の点行列の点の前記位置は、隣接する点の少なくとも1つのパッチの視差マップもしくは深度マップによって表されるか、または前記画像フレーム(I)の1つに基づいて修正された画像(Is)を生成するのに使用される、請求項1または請求項2に記載の方法。
  4. 前記視差もしくは深度マップ(RD)を生成および非平行化すること、または前記修正された画像(Is)を前記フレームベースもしくはイベントベースカメラ(FMC、EVC)の画像平面に非平行化することをさらに含む、請求項3に記載の方法。
  5. 前記相関スコアリング関数(S)は、前記第1および第2の点行列(RI、RJ)の結合から生じる結合された点行列の隣接する点の少なくとも1つのパッチの滑らかさを評価する、請求項1~4の1項に記載の方法。
  6. 前記相関スコアリング関数(S)は、以下の関数:
    前記結合された点行列の2D勾配のノルム、
    前記結合された点行列の局所パッチの分散、ならびに
    前記第1および第2の点行列に適用される相互相関関数
    の1つである、請求項5に記載の方法。
  7. 前記第1の点行列の前記露光期間(T)中に生じる前記画素イベントストリームからの画素イベント([x2,y2,t0,σ])を積分することによって第3の点行列(J)を生成することと、
    前記第3の点行列を平行化して、前記画像フレーム(I)の分解能で前記第3の点行列の点を前記共通の画像平面に投影することと、
    視差マップ(p)で規定される点変換を適用して前記平行化された第3の点行列(RJ)の点を変換することによって、変換された点行列(RJ’)を生成することと、
    前記変換された点行列を非平行化して、変換された画像を前記フレームベースカメラ(FMC)の画像平面(O1,x1,y1)に投影することと、
    前記第1の点行列を生成するのに使用された前記画像フレーム(I)の1つを前記非平行化された変換された点行列と結合して、ぶれ除去された画像(Is)を得ることと
    をさらに含む、請求項1~6に記載の方法。
  8. 前記第1の点行列は、前記フレームベースカメラ(FMC)から取得された前記画像フレーム(I)の1つであり、前記第2の点行列(J)は、前記第1の点行列の露光期間中に生じる前記画素イベントストリームからの画素イベントを積分することによって生成される、請求項1~7の1項に記載の方法。
  9. 前記第2または第3の点行列(J)は、ぶれ除去された画像(Is)を得るために前記画像フレーム(I)の1つに乗じられる補正点行列であり、前記ぶれ除去された画像は、前記画像フレームのフレームレートで生成されるか、または前記画像フレームの2つの連続する画像フレームの間の間隔で生成されて、前記画像フレームの前記フレームレートより高いフレームレートでスローモーション動画ストリームを提供する、請求項8に記載の方法。
  10. 前記第1の点行列(R)は、前記フレームベースカメラ(FMC)から取得された2つの連続する画像フレーム(I)の比を計算することによって生成され、前記第2の点行列(K)は、前記2つの連続する画像フレームに対応する瞬間(f,f+F)によって区切られた期間(F)中に生じる前記画素イベントストリームからの画素イベント([x2,y2,t0,σ])を積分することによって生成される、請求項1~7の1項に記載の方法。
  11. 前記相関スコアリング関数(S)は、以下の関数:
    前記第1および第2の点行列の隣接する点の少なくとも1つのパッチに適用される相互相関関数、
    前記第1および第2の点行列の隣接する点の少なくとも1つのパッチに適用される点ごとの絶対差の和、ならびに
    前記第1および第2の点行列の隣接する点の少なくとも1つのパッチに適用される点ごとの平方差の和
    の1つである、請求項10に記載の方法。
  12. 前記第1の点行列(BF)の前記点は、前記フレームベースカメラ(FMC)から取得された2つの連続する画像フレーム(I)内の対応する画素間で行われる比較に基づいて決定される二進値を有し、前記第2の点行列(BE)の前記点は、前記2つの連続する画像フレームに対応する瞬間(f,f+F)によって区切られた期間中のイベントストリームの対応する画素での少なくとも1つのイベント([x2,y2,t0,σ])の存在に応じて、0または1に設定される二進値を有する、請求項1~7の1項に記載の方法。
  13. 前記スコアリング関数(S)は、前記第1および第2の点行列の隣接する点のパッチに適用される論理演算(AND)を使用して、前記第1の点行列(BF)と前記第2の点行列(BE)との間の類似度を評価する、請求項12に記載の方法。
  14. フレームベースカメラ(FMC)、イベントベースカメラ(EVC)、ならびに前記フレームベースカメラおよび前記イベントベースカメラによって提供される信号を受信および処理するプロセッサ(PRC)を含むステレオカメラ装置であって、前記プロセッサは、請求項1~13の1項に記載の方法のステップを実装するように構成される、ステレオカメラ装置。
  15. コンピュータの内部メモリに直接ロード可能であり、コンピュータによって実行されると、請求項1~14の1項に記載の方法のステップを実装するように前記コンピュータを構成するコード部分を含む、コンピュータプログラム製品。
JP2022061595A 2021-04-02 2022-04-01 フレームカメラへのイベントカメラの画素ごとの登録の方法 Pending JP2022159253A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP21166844.7 2021-04-02
EP21166844.7A EP4068207A1 (en) 2021-04-02 2021-04-02 Method of pixel-by-pixel registration of an event camera to a frame camera

Publications (1)

Publication Number Publication Date
JP2022159253A true JP2022159253A (ja) 2022-10-17

Family

ID=75377687

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022061595A Pending JP2022159253A (ja) 2021-04-02 2022-04-01 フレームカメラへのイベントカメラの画素ごとの登録の方法

Country Status (5)

Country Link
US (1) US20220329771A1 (ja)
EP (1) EP4068207A1 (ja)
JP (1) JP2022159253A (ja)
KR (1) KR20220137558A (ja)
CN (1) CN115205346A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220327718A1 (en) * 2021-04-13 2022-10-13 Qualcomm Incorporated Techniques for enhancing slow motion recording

Also Published As

Publication number Publication date
CN115205346A (zh) 2022-10-18
KR20220137558A (ko) 2022-10-12
EP4068207A1 (en) 2022-10-05
US20220329771A1 (en) 2022-10-13

Similar Documents

Publication Publication Date Title
Johannsen et al. On the calibration of focused plenoptic cameras
US11763518B2 (en) Method and system for generating a three-dimensional image of an object
US9025862B2 (en) Range image pixel matching method
KR100938195B1 (ko) 스테레오 매칭을 이용한 거리 추정 장치 및 추정 방법
JP2019532451A (ja) 視点から距離情報を取得するための装置及び方法
WO2014044126A1 (zh) 坐标获取装置、实时三维重建系统和方法、立体交互设备
US9807372B2 (en) Focused image generation single depth information from multiple images from multiple sensors
JP2013539273A (ja) 立体カメラのためのオートフォーカス
JP6786225B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
WO2018171008A1 (zh) 一种基于光场图像的高光区域修复方法
CN107967697B (zh) 基于彩色随机二元编码结构照明的三维测量方法和系统
Schwarz et al. A weighted optimization approach to time-of-flight sensor fusion
CN102997891A (zh) 场景深度的测量装置和方法
JP7378219B2 (ja) 撮像装置、画像処理装置、制御方法、及びプログラム
Je et al. Color-phase analysis for sinusoidal structured light in rapid range imaging
JP2022159253A (ja) フレームカメラへのイベントカメラの画素ごとの登録の方法
JP6285686B2 (ja) 視差画像生成装置
Gaspar et al. Synchronization of two independently moving cameras without feature correspondences
Kwon et al. Vergence control of binocular stereoscopic camera using disparity information
JP7489253B2 (ja) デプスマップ生成装置及びそのプログラム、並びに、デプスマップ生成システム
JP2019516977A (ja) 可動画像センサおよび照明光源を使用する深度推定のためのシステムおよび方法
Balure et al. A Survey--Super Resolution Techniques for Multiple, Single, and Stereo Images
CN111080689B (zh) 确定面部深度图的方法和装置
CN112771574B (zh) 用于估计像素的深度的方法以及对应的设备
Liu et al. Fusion of depth maps based on confidence

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220602

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20231206

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20231207