JP6087947B2 - 非同期センサに依存するシーンの3d再構成の方法 - Google Patents

非同期センサに依存するシーンの3d再構成の方法 Download PDF

Info

Publication number
JP6087947B2
JP6087947B2 JP2014545307A JP2014545307A JP6087947B2 JP 6087947 B2 JP6087947 B2 JP 6087947B2 JP 2014545307 A JP2014545307 A JP 2014545307A JP 2014545307 A JP2014545307 A JP 2014545307A JP 6087947 B2 JP6087947 B2 JP 6087947B2
Authority
JP
Japan
Prior art keywords
event
events
sensor
sensors
generated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014545307A
Other languages
English (en)
Other versions
JP2015508584A (ja
Inventor
ブノスマン リャ
ブノスマン リャ
ジョアンウ カルネイロ
ジョアンウ カルネイロ
イエン シオ−ホイ
イエン シオ−ホイ
Original Assignee
ユニベルシテ ピエール エ マリー キュリー(パリ シズエム)
ユニベルシテ ピエール エ マリー キュリー(パリ シズエム)
サントル ナシオナル ドゥ ラ ルシェルシェサイアンティフィク(セエヌエールエス)
サントル ナシオナル ドゥ ラ ルシェルシェサイアンティフィク(セエヌエールエス)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ユニベルシテ ピエール エ マリー キュリー(パリ シズエム), ユニベルシテ ピエール エ マリー キュリー(パリ シズエム), サントル ナシオナル ドゥ ラ ルシェルシェサイアンティフィク(セエヌエールエス), サントル ナシオナル ドゥ ラ ルシェルシェサイアンティフィク(セエヌエールエス) filed Critical ユニベルシテ ピエール エ マリー キュリー(パリ シズエム)
Publication of JP2015508584A publication Critical patent/JP2015508584A/ja
Application granted granted Critical
Publication of JP6087947B2 publication Critical patent/JP6087947B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/211Image signal generators using stereoscopic image cameras using a single 2D image sensor using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Description

本発明は、非同期センサに依存するシーンの3D再構成の方法に関する。
同一シーンの画像を撮像する少なくとも二つの同期したカメラによって撮像された画像に基づく3次元再構成を行うことが知られている。最初の立体視アルゴリズムは1970年代に出現した。重大なプロセスがここ数年行われてきた。このプロセスは、効果的な整合アルゴリズムにとってますます重要になっている。
用いられる光センサは、立体角のそれぞれからシーンを見るとともに規則的な間隔でシーンの画像を取得する(一般的には1秒ごとに数個の画像)ために行列に配置された基本受信器(例えば、カメラの画素)を有する。この場合、各画像は、対応する基本センサによってシーンから受信した信号の物理的な特性をそれぞれ表す値、例えば、光度のテーブルによって表される。
更に正確に言えば、そのような光センサは、それぞれの時間増分tにおいてx,yに配置された基本受信機の各々に対して、情報
Figure 0006087947
を生成する。この場合、fは、x,yに配置された受信器によって受信した光度であり、δは、クロネッカーの記号である。そのようなセンサによって戻された情報は、行列又はフレーム
Figure 0006087947
であり、この場合、N,Mは、行列の次元であり、この情報は、各時間増分で送られる。
整合アルゴリズムは、シーンの同一要素に起因し得るパターンに対するこれらの情報を探索し、対応する基本センサを互いに整合する。このように整合したこれらの基本受信器の位置がわかると、これらの二つの基本受信器によって見られたシーンのポイントを三角測量によって取得するのは容易であり、したがって、それをシーンの3D再構成に組み入れるのは容易である。
各画像は、数メガバイトのサイズを表すことができ、これは、1秒ごとに数枚の画像(典型的には、1秒ごとに24枚の画像)のレートであり、かなりの帯域幅を表す。3D再構成アルゴリズムは、シーンの同一要素に対応するパターンを互いに整合するために同一瞬時に種々のセンサによって撮像された画像のパターンの探索を行う。これらのアルゴリズムは、大量の電力及び演算時間を消費するソフトウェアパッケージを必要とし、リアルタイムアプリケーションに対して想定できない。
発明の対象は、理想的な演算手段によってリアルタイムでの実現を行うことができるシーンの3D再構成の方法である。
この目的を達成するために、
個別の立体角からのシーンを観察するために配置された一連の基本受信器をそれぞれが含む少なくとも二つのセンサの実現であって、センサの各々は、シーンから生じる基本受信器によって受信した信号の物理的な特性に応答することと、
センサによって生成された信号を用いるセンサの各々の基本受信器の整合を行うステップを含む3Dアルゴリズムの実現と、
を含むシーンの3D再構成の方法を提案する。
本発明によれば、方法は、所定の瞬時に基本受信器の一つによって受信した信号の変化をそれぞれ表すイベントの非同期ストリームを出すようにそれぞれが適合されたセンサの使用を含み、整合は、センサの各々によって生成されたイベントを時間的に近接するイベントを選択することによって互いに整合することからなる。
そのようなセンサの使用によって、センサからの情報の出力を飛躍的に減少させることができ、整合をかなり簡単にする。時間的に近接するイベントの整合は、実際には、そのように整合されたイベントを生成したセンサの各々の受信器の整合になる。整合は、適度な処理手段を用いることにより、実現するのが非常に簡単になる。
本発明の3D再構成方法を、理想的な手段、例えば、適切なデータ取得カードを備えた単純なパーソナルコンピュータによって実現することができる。
本発明は、添付図面の図を考慮して更によく理解されるであろう。
本発明による同一シーンを観察する二つの非同期センサの焦点面を示す図である。 図1のセンサによって検出したイベントのタイミング図である。 本発明による同一シーンを観察する三つの非同期センサの焦点面を示す図である。 図3のセンサによって検出したイベントのタイミング図である。
以下詳細に説明する実現の態様において、図1を参照すると、シーンは、CCD又はCMOSカメラを有する(それぞれ右及び左と称する)二つのセンサC1及びC2を用いて撮像される。各カメラは、各々が基本センサに相当するMxN画素を有する。各画素は、所定の立体角からのシーンを観察し、この立体角で受信した光度に応答する。図1は、二つのセンサC1及びC2の焦点面を示す。
しかしながら、本発明の関連においては、カメラは、通常の方法で用いられない。各々の基本情報が瞬時tで各画素によって受信した光度を表すフレーム
Figure 0006087947
を規則的な間隔で生成させるためにカメラを使用するのではなく、ここで関心があるのは情報の微分であり、この場合、画素の各々によって受信した光度の変化の向きである。したがって、関心のある量は、二つの値:画素によって受信した信号の光度が減少する場合の−1及び画素によって受信した信号の光度が増大する場合の1を取ることができる
Figure 0006087947
である。この量は、サンプリングの瞬時t
Figure 0006087947
に対してサンプリングされ、この場合、δは、クロネッカーの記号である。
したがって、このイベントは、時間tでx,yに配置された画素Pxyによって検知された光度の増大(+1)又は減少(−1)を表す。
そのような情報を、カメラの画素の各々からの受信した光度についての情報の後処理によって生成させることができ、それは、カメラに接続したデジタル処理カードに埋め込まれ、又はカメラそれ自体若しくはカメラがリンクしたコンピュータに埋め込まれる。
通常そのようなカメラによって生成されるとともに既知の方法の3D再構成で用いられる行列情報
Figure 0006087947
は、本発明によれば、行列情報
Figure 0006087947
に置き換えられる。
そのような行列情報は、行列情報のデータが簡単に1オクテットに含められるので明らかに通常の画像よりも記憶空間を消費しない。
しかしながら、本発明の特に好適な態様によれば、情報を行列形式で送信するのではなく、イベントEの非同期ストリームを送信することができ、各イベントを、
量eが変化した値を有する画素の識別を可能にするデータ、この場合、対応する画素Pxyの座標x,yと、
値の変化の瞬時と、
画素によって検知された信号の変化の指標、この場合、この変化の際に量によって到達した値(−1;1)を取り出すこと(以後、イベントの値)と、
によって識別することができる。
この非同期ストリームを以下の表記法
Figure 0006087947
によって表すことができ、この場合、E=[x,y,t,e]は、最初のイベントであり、この場合、E=[x,y,t,e]は、n番目のイベントである。
この非同期ストリームは、ここでは、カメラデータの後処理を行う電子カードによって生成される。各イベントの識別情報は、小さい記憶容量であり、連続的に送信することができる。これらの情報は、当然、イベントEが実際に生成された場合にのみ送信され、これによって、必要な出力が著しく減少する。イベントが存在しない場合(例えば、固定されたシーン又は固定されたカメラ)、何も送信されない。したがって、非同期信号が作成され、非同期信号を、単純なシリアルリンクによって送信することができるが、後に説明するように、非同期信号は、シーンの3D再構成を行うことができるのに十分な情報を有する。
このために、非常に簡単な整合方法が、二つのセンサC1,C2によって生成したイベントに基づいて本発明によって実現され、そのカメラは、同一シーンを撮像する。この整合の原理は、二つのカメラによって生成したイベントがシーンの同一のパターン又はポイントに関連する可能性が非常に高いという仮説を置くことからなる。この場合、左側センサ及び右側センサによって生成した二つの時間的に近接するイベントを整合するという試みが行われる。このようにして、空間的及び時間的な整合が行われる。
しかしながら、所定の瞬時において、例えばシーンの動きに起因する光度の変化が、両方のカメラのしかじかの画素に影響を及ぼし、適用可能である場合には、センサの各々に対するイベントを生成する場合、これらのイベントの発生の瞬時が互いに正確に一致する可能性が非常に低い。先ず、カメラは、応答及びイベントの生成に対するレイテンシータイムを示し、それも、画素の各々に対して変化する。次に、情報の生成及びその送信における遅延が生じるおそれがある。したがって、両方のカメラによって生成されたイベントの正確な時間的な一致だけに基づくイベントの整合は危険となり得る。
しかしながら、左側カメラによって生成したイベントE(左側イベント又はソースイベントと称し、それに対応する画素Pが図1で見られる。)に対して、右側カメラによって生成されたイベントのセット(ここでは、イベントE,E’,E”)(左側イベントと称し、それに対応する画素P,P’P”を見ることができる)を選択することができ、それは、図2に示すように左側イベント発生の瞬時の周辺の所定の時間窓ΔTで生じた。したがって、ソースイベントに時間的に近接する一つ以上の右側イベントが選択される。明らかに、時間窓が小さくなるに従って、そのように決定されたセットが含む右側イベントが少なくなる。
この予備選択によって、少数の右側イベントのみを保持することができ、そのうちの一つは、左側イベントに整合される。適用可能である場合、単一の右側イベントが選択される。この場合、所望される整合が実行される。そうでない場合、考慮する左側イベントに対応するもののみを保持するために右側イベントをフィルタ処理することが重要である。このために、以下の選別手順の少なくとも一つが適用される。
選択した右側イベントの各々に対して、対応する画素と右側カメラの焦点面のエピポーラ線Lとの間の距離を算出し、それは、左側イベントにリンクした画素Pに対応する。したがって、このように決定した距離が所定の制限Dより上である右側イベントの全てが除外される。好適には、考慮する距離はユークリッド距離である。
左側イベントと同一の値を有しない選択した右側イベントの全てを除外する。したがって、左側イベントが光度の増大に対応する場合、光度の増大に対応する右側イベントのみを保持する。
一意性の原理の適用に従って、既に整合が行われた選択した右側イベントの全てを除外する。
好適には、選別手順を、一つの右側イベントが保持されるまで表示した順番に適用する。これらの選択手順及び分類手順は、記憶容量及び演算時間をほとんど消費せず、したがって、選択手順及び分類手順を、理想的な手段、例えば、単純なパーソナルコンピュータによって容易に実現することができる。
したがって、二つのイベントの整合によって、二つの対応する画素の整合及びこれら二つの画素を整合する必要がある瞬時を決定することができる。この場合、通常の三角測量によって、このように整合された二つの画素によって見られたシーンのポイントの位置を決定することができる。
特に好適な実施の形態によれば、図3に示すように、同一のシーンを観察するために少なくとも三つのセンサが用いられる。以下の説明は、三つのセンサC,C,Cの使用に関連するが、四つ以上のセンサに対して容易に一般化される。
少なくとも三つのセンサを使用することによって、イベントの細かい区別を可能にする。このために、センサの各対にリンクする基本行列FAB,FAC,FBCを知る必要がある。
上述したように、時間的な選択の実現によって、センサの各々によって生成される所定の数のイベントを保持するとともにシーンの同一ポイントに対応する可能性を高くすることができる。
例えば、ここでは、Cの面の画素PのイベントEに対して、各画素P,P’,P”のイベントE,E’,E”を、Cの面において選択し、各画素P,P’,P”のイベントE,E’,E”を、Cの面において選択した。
イベントE,E’,E”及びイベントE,E’,E”のいずれがイベントEに対応するかを決定するために、基本行列を用いてCの面のこれらのイベントの各々に対応するエピポーラ線をCの面で決定すれば十分である。この場合、イベントに対応する画素Pは、二つのイベント(ここでは、画素PのイベントE及び画素PのイベントE)によって生成された二つのエピポーラ線(ここでは、ラインL12及びL13)の交点にある。
の面におけるイベントE及びイベントEによって生成したエピポーラ線L23とエピポーラ線L21との交点に画素Pがあること、及び、Cの面におけるイベントE及びイベントEによって生成したエピポーラ線L31とエピポーラ線L32との交点に画素Pがあることが、相互に観察される。この特性によって、時間的に選択したイベントのいずれを整合する必要があるかを非常に迅速に決定することができる。
当然、本発明は、上述したものに限定されるものではなく、特許請求の範囲によって規定した範囲内にある任意の変更を包含する。
整合手順を実現するために、これらの上述した選別手順を、表示した順番又は他の順番で適用することができる。当然、時間的に近接するイベントが互いに整合される限りは、他の選別を実行することができる。
当然、通常のカメラ以外のセンサを用いることができ、その信号は、画素によって受信した光度の変化に関連するイベントを供給するために処理される。例えば、文献“A 128x128 120 dB 15μs latency asynchronous temporal contrast vision sensor”, P.Lichtsteiner, C.Possh, T.Delbruck, IEEE Journal of Solid State Circuits, Vol.43, No2, Februrary 2008に記載したようなセンサを用いることができる。このタイプのセンサは、イベントを生成するために独立して連続的に光度の相対変化を定量化する受信器を有する。センサは、意図的にイベントの非同期ストリームを供給し、本発明の方法に完全に適合される。
上述した例において、センサの受信器によって検知された信号が光度であるが、当然、例えば、赤外線放射、音波強度、レーダー反射波等のようなシーンから生じる他の信号に応答するセンサを用いることができる。
基本受信器によって検知された信号の変化を、ここでは基本的な方法で定量化(信号の増加に対する第1の値及び信号の減少に対する第2の値)しているが、当然、これらの変化を、例えば、グレーレベル若しくはカラーレベルによって又は光度のレベルによって、イベントの指標の記憶容量を少し増大するだけで精巧な方法で定量化することができる。
当然、基本受信器を、センサを協働して形成するために配置された本物の受信器とすることができ、その視野は、基本受信器が存在する場合と同数の画素を含む。しかしながら、基本受信器を、受信した信号の物理的な特性の変化をそれぞれ検出する、前記信号に応答するセンサの表面の基本領域を計算的に分離するとともに、個別の領域が存在する場合と同数の信号を生成することによって、事実上作成することができる。特に、受信器のセットが同一のセンサを形成する場合、これらは、必ずしも平面でない任意の形状を仮定することができる。例えば、受信器のセットを球に配置することができる。そのような配置において、他のセンサによって検知されたイベントに関連したエピポーラ線は、一般的には測地線の形状をとる。
当然、本発明の方法は、固定センサをゆする移動シーン及び移動センサ、例えば、振動センサを有する固定シーンに適用される。
最後に、本発明の方法を、三つ以上の非同期センサの使用に対して即座に一般化することができる。

Claims (8)

  1. 個別の立体角からのシーンを観察するために配置された一連の基本受信器をそれぞれが含む少なくとも二つのセンサ(C,C )であって、前記センサは、前記シーンから生じる前記基本受信器によって受信した信号の物理的な特性に応答し、前記センサは、所定の時間に前記基本受信器の一つによって受信した信号の変化をそれぞれ表すイベント(E )の非同期ストリームを生成するようにそれぞれが適合された少なくとも二つのセンサと、
    前記センサによって生成された信号を用いる前記センサの各々の前記基本受信器の整合を行うステップであって、前記整合は、前記センサの各々の前記基本受信器によって生成されたイベントを前記シーンの所定の要素に対して関連させることからなるステップと、二つの関連したイベントを生成した二つの前記基本受信器によって見られた要素に対応するシーンのポイントを、シーンの3D再構成に含めるために三角測量によって見つけるステップと、を含む3Dアルゴリズムと
    用いるシーンの3D再構成の方法において、
    前記整合を行うステップは、
    前記センサの一方によって生成された所定のソースイベントに対する、他方のセンサによって生成されるとともに前記ソースイベントの周辺の所定の時間窓(ΔT)で生じた一つ以上のイベントを保持することによって時間的に近接するイベントの予備選択を行うことと、
    前記予備選択が、前記他方のセンサによって生成された複数のイベントを保持する場合、分類手順を適用することによって前記ソースイベントに対応するイベントのみを保持するために前記イベントをフィルタ処理することと、
    を含むことを特徴とする方法。
  2. 各イベントは、
    生成したイベントを有する前記基本受信器を識別することができるデータと、
    前記基本受信器によって検知されるとともに前記基本受信器によって受信した信号が増大した場合の第1の値及び前記基本受信器によって受信した信号が減少した場合の第2の値を少なくともとる、前記信号の変化の標識と、
    前記信号の変化の発生の瞬時と、
    を備える請求項1に記載の方法。
  3. 前記センサは焦点面を有し、前記分類手順は、
    選択したイベントの各々に対して、前記選択したイベントを有する前記基本受信器に対応する前記第2のセンサの焦点面のポイントと前記生成されたソースイベントを有する前記第1のセンサの前記基本受信器に関連する前記焦点面のエピポーラ線との間の距離を算出することと
    のように決定した距離が所定の制限(D)より上である前記選択したイベントの全てを除外することと、
    を含む請求項に記載の方法。
  4. 前記分類手順は、標識が前記ソースイベントと同一の値を有しない前記選択したイベントの全てを除外することを含む請求項に記載の方法。
  5. 前記分類手順は、整合が既に行われた前記選択したイベントの全てを除外することを含む請求項に記載の方法。
  6. 少なくとも三つの非同期センサ(C,C,C)を実現し、時間的な選択後、センサの各々によって生成されたイベントを保持し、保持されたイベントの各々が、対応する焦点面における他の保持されたイベントによって生成されたエピポーラ線の交点で見つけられる請求項1に記載の方法。
  7. 前記センサは、前記非同期ストリームを生成するように適合された後処理と組み合わせられるCCD又はCMOS型のカメラを備える請求項1に記載の方法。
  8. 前記センサは、イベントの非同期ストリームを供給するようイベントを生成するために光度の相対変化を独立して連続的に定量化する受信器を含むタイプのものとする請求項1に記載の方法。
JP2014545307A 2011-12-08 2012-12-10 非同期センサに依存するシーンの3d再構成の方法 Active JP6087947B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1161320A FR2983998B1 (fr) 2011-12-08 2011-12-08 Procede de reconstruction 3d d'une scene faisant appel a des capteurs asynchrones
FR1161320 2011-12-08
PCT/EP2012/074989 WO2013083848A1 (fr) 2011-12-08 2012-12-10 Procede de reconstruction 3d d'une scene faisant appel a des capteurs asynchrones

Publications (2)

Publication Number Publication Date
JP2015508584A JP2015508584A (ja) 2015-03-19
JP6087947B2 true JP6087947B2 (ja) 2017-03-01

Family

ID=47324168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014545307A Active JP6087947B2 (ja) 2011-12-08 2012-12-10 非同期センサに依存するシーンの3d再構成の方法

Country Status (9)

Country Link
US (1) US9628777B2 (ja)
EP (1) EP2789166B1 (ja)
JP (1) JP6087947B2 (ja)
KR (1) KR101601263B1 (ja)
CN (1) CN104205822B (ja)
AU (1) AU2012350230B2 (ja)
CA (1) CA2858278C (ja)
FR (1) FR2983998B1 (ja)
WO (1) WO2013083848A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2983998B1 (fr) * 2011-12-08 2016-02-26 Univ Pierre Et Marie Curie Paris 6 Procede de reconstruction 3d d'une scene faisant appel a des capteurs asynchrones
EP2887009A1 (en) 2013-12-23 2015-06-24 Universität Zürich Method for reconstructing a surface using spatially structured light and a dynamic vision sensor
FR3033973A1 (fr) * 2015-03-16 2016-09-23 Univ Pierre Et Marie Curie Paris 6 Procede de reconstruction 3d d'une scene
CN105203045B (zh) * 2015-07-02 2018-07-06 天津师范大学 一种基于异步时域视觉传感器的产品形状完整性检测系统及检查方法
AU2017322448B2 (en) * 2016-09-09 2021-10-21 Centre National De La Recherche Scientifique - Cnrs - Method for pattern recognition in a plurality of signals
EP3694202A1 (en) 2019-02-11 2020-08-12 Prophesee Method of processing a series of events received asynchronously from an array of pixels of an event-based light sensor
WO2020229612A1 (en) * 2019-05-16 2020-11-19 Prophesee A method for capturing motion of an object and a motion capture system
US20240019244A1 (en) * 2020-11-10 2024-01-18 Sony Semiconductor Solutions Corporation Shape measuring system

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2941412B2 (ja) * 1990-11-26 1999-08-25 株式会社東芝 3次元計測方法
JPH0719832A (ja) * 1993-06-21 1995-01-20 Canon Inc 複数画像の対応点抽出方法
JPH0749944A (ja) * 1993-08-04 1995-02-21 Canon Inc 画像処理方法およびその装置
US6269175B1 (en) * 1998-08-28 2001-07-31 Sarnoff Corporation Method and apparatus for enhancing regions of aligned images using flow estimation
JP2004234423A (ja) * 2003-01-31 2004-08-19 Seiko Epson Corp ステレオ画像処理方法およびステレオ画像処理装置、並びにステレオ画像処理プログラム
US8150100B2 (en) * 2006-11-13 2012-04-03 University Of Connecticut, Center For Science And Technology Commercialization System and method for recognition of a three-dimensional target
AT504582B1 (de) * 2006-11-23 2008-12-15 Arc Austrian Res Centers Gmbh Verfahren zur generierung eines bildes in elektronischer form, bildelement für einen bildsensor zur generierung eines bildes sowie bildsensor
FR2983998B1 (fr) * 2011-12-08 2016-02-26 Univ Pierre Et Marie Curie Paris 6 Procede de reconstruction 3d d'une scene faisant appel a des capteurs asynchrones
EP2807827A4 (en) * 2012-01-25 2015-03-04 Lumenco Llc CONVERTING A DIGITAL STEREO IMAGE IN SEVERAL VIEWS WITH PARALLAX FOR 3D VISUALIZATION WITHOUT GLASSES
US9386298B2 (en) * 2012-11-08 2016-07-05 Leap Motion, Inc. Three-dimensional image sensors

Also Published As

Publication number Publication date
KR20140109406A (ko) 2014-09-15
CN104205822A (zh) 2014-12-10
KR101601263B1 (ko) 2016-03-08
AU2012350230B2 (en) 2017-03-30
FR2983998A1 (fr) 2013-06-14
EP2789166A1 (fr) 2014-10-15
AU2012350230A1 (en) 2014-07-03
EP2789166B1 (fr) 2017-02-08
WO2013083848A1 (fr) 2013-06-13
JP2015508584A (ja) 2015-03-19
US20140333730A1 (en) 2014-11-13
CN104205822B (zh) 2016-10-19
FR2983998B1 (fr) 2016-02-26
CA2858278C (fr) 2017-08-01
US9628777B2 (en) 2017-04-18
CA2858278A1 (fr) 2013-06-13

Similar Documents

Publication Publication Date Title
JP6087947B2 (ja) 非同期センサに依存するシーンの3d再構成の方法
US11615546B2 (en) Systems and methods for depth estimation using generative models
CN107396080B (zh) 产生深度信息的方法及系统
CN111899282B (zh) 基于双目摄像机标定的行人轨迹跟踪方法及装置
JP6551743B2 (ja) 画像処理装置および画像処理方法
CN105376484A (zh) 一种图像处理方法及终端
US11398019B2 (en) Light field system occlusion removal
CN114080627A (zh) 三维模型生成方法及三维模型生成装置
TWI528783B (zh) 產生深度影像之方法及其系統及電腦程式產品
CN108805921A (zh) 图像获取系统及方法
JP6305232B2 (ja) 情報処理装置、撮像装置、撮像システム、情報処理方法およびプログラム。
JP6602412B2 (ja) 情報処理装置及び方法、情報処理システム、ならびにプログラム。
JP2006302195A (ja) 画像処理方法及び画像処理装置
CN115598744A (zh) 一种基于微透镜阵列的高维光场事件相机及提取方法
Abraham et al. Point tracking with lensless smart sensors
JP2009186369A (ja) 奥行き情報取得方法、奥行き情報取得装置、プログラムおよび記録媒体
CN112396687A (zh) 基于红外微偏振片阵列的双目立体视觉三维重建系统及方法
TWI785332B (zh) 基於光標籤的場景重建系統
CN109556574B (zh) 一种基于小凹系统的位姿检测系统
JP2011182325A (ja) 撮像装置
CN110274573B (zh) 双目测距方法、装置、设备、存储介质及计算设备
TWM600974U (zh) 基於光標籤的場景重建系統
Ho et al. Design and Implementation of a Hand-held Lensless Light Field Camera
JP2006228144A (ja) 画像処理システム、画像処理装置、コンピュータプログラム、及び画像遅延量算出方法
CN117934577A (zh) 一种基于双目dvs实现微秒级3d探测的方法、系统及装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160531

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170202

R150 Certificate of patent or registration of utility model

Ref document number: 6087947

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250