JP7376839B2 - 3D information estimation method, 3D information estimation device and program - Google Patents
3D information estimation method, 3D information estimation device and program Download PDFInfo
- Publication number
- JP7376839B2 JP7376839B2 JP2022569414A JP2022569414A JP7376839B2 JP 7376839 B2 JP7376839 B2 JP 7376839B2 JP 2022569414 A JP2022569414 A JP 2022569414A JP 2022569414 A JP2022569414 A JP 2022569414A JP 7376839 B2 JP7376839 B2 JP 7376839B2
- Authority
- JP
- Japan
- Prior art keywords
- event
- event information
- information
- pieces
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 38
- 230000007423 decrease Effects 0.000 claims description 4
- 230000000875 corresponding effect Effects 0.000 claims 2
- 230000002596 correlated effect Effects 0.000 claims 1
- 238000012545 processing Methods 0.000 description 18
- 238000003384 imaging method Methods 0.000 description 10
- 238000003860 storage Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000005286 illumination Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000013403 standard screening design Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Description
本発明は、3次元情報推定方法、3次元情報推定装置およびプログラムの技術に関する。 The present invention relates to a three-dimensional information estimation method, a three-dimensional information estimation device, and a program technique.
各画素の輝度変化を非同期で検出し、輝度値が変化した画素についてのみ、その座標、時間、及び変化量の符号をイベントデータとして出力するイベントベースビジョンセンサがある。以下では通常のイメージセンサを備えるカメラをフレームカメラ、イベントベースビジョンセンサを備えるカメラをイベントカメラと表現することがある。 There is an event-based vision sensor that asynchronously detects a change in brightness of each pixel and outputs, as event data, the coordinates, time, and sign of the amount of change only for pixels whose brightness value has changed. Below, a camera equipped with a normal image sensor may be referred to as a frame camera, and a camera equipped with an event-based vision sensor may be referred to as an event camera.
フレームカメラは、各画素に積算された輝度値をフレームごとに出力する。フレームカメラにおいて、積算時間すなわち露光時間と信号のダイナミックレンジは全ての画素で同じである。そのため、非常に明るい画素と暗い画素が混在している場合、白飛び、黒つぶれや量子化誤差等が生じる。また、照明の影響などでシーンの明度が激しく変化する場合、露光時間の調整ができずに白飛びや黒つぶれが生じることもある。 The frame camera outputs the luminance value integrated into each pixel for each frame. In a frame camera, the integration time, that is, the exposure time, and the dynamic range of the signal are the same for all pixels. Therefore, when very bright pixels and very dark pixels coexist, blown out highlights, blocked up shadows, quantization errors, etc. occur. Furthermore, if the brightness of the scene changes drastically due to the influence of lighting, the exposure time may not be able to be adjusted, resulting in blown-out highlights or blown-out shadows.
一方、イベントカメラは、各画素の輝度変化が一定のしきい値を超える度に非同期でイベントデータを出力するため、白飛び、黒つぶれ、量子化誤差等の問題が生じない。また、イベントカメラから出力されるイベントデータはフレームカメラから出力される画像に比べて非常に疎なデータである。そのためイベントデータを記憶するメモリや、イベントデータを伝送するための伝送帯域が少なく済み、非常に高い時間分解能を達成することができる。同様の理由により、撮影やデータ処理に要する演算量や消費電力量は、フレームカメラと比較して非常に低く抑えることができる。 On the other hand, an event camera outputs event data asynchronously every time the luminance change of each pixel exceeds a certain threshold, so problems such as blown-out highlights, blocked-up shadows, and quantization errors do not occur. Furthermore, the event data output from the event camera is much sparser than the image output from the frame camera. Therefore, the memory for storing event data and the transmission band for transmitting event data can be reduced, and extremely high time resolution can be achieved. For the same reason, the amount of calculation and power consumption required for photographing and data processing can be kept very low compared to frame cameras.
以上より、イベントカメラを用いることで、光量が少ない状況や照明の変化が激しい状況において安定的に、低電力で、また非常に高い時間分解能でマシンビジョンを行うことができる。 As described above, by using an event camera, machine vision can be performed stably, with low power, and with extremely high temporal resolution even in situations where the amount of light is low or where the lighting changes rapidly.
イベントカメラを用いた3次元位置推定方法として、SLAM(Simultaneous Localization and Mapping)法がある(非特許文献1参照)。SLAM法では、カメラを動かしながら静止した被写体を撮影し、各フレームで求めた局所特徴点についてフレーム間での対応関係を求めることで、カメラの移動量と特徴点の3次元位置を推定する。 As a three-dimensional position estimation method using an event camera, there is a SLAM (Simultaneous Localization and Mapping) method (see Non-Patent Document 1). In the SLAM method, a stationary subject is photographed while moving a camera, and the correspondence between frames is determined for the local feature points found in each frame, thereby estimating the amount of camera movement and the three-dimensional position of the feature points.
フレームカメラを用いてSLAM法を行う場合、画像の各画素について特徴量を抽出し、全ての特徴量についてフレーム間対応の推定をするため、非常に高い演算コストがかかる。また、対応関係の誤推定が多く生じることから、これを考慮して3次元位置の推定を行うために、多くの演算が必要となる。 When performing the SLAM method using a frame camera, a feature amount is extracted for each pixel of an image and correspondence between frames is estimated for all feature amounts, which requires very high calculation cost. Further, since many erroneous estimates of correspondence occur, many calculations are required to estimate the three-dimensional position taking this into consideration.
イベントカメラを用いてSLAM法を行う場合、処理対象のデータ数を少なく、また時間分解能が高いことで対応点探索を行う範囲を非常に狭くできる。よって、イベントカメラを用いてSLAM法を行う場合には、フレームカメラを用いてSLAM法を行う場合と比較して、高速で安定した3次元情報を推定できる。 When performing the SLAM method using an event camera, the number of data to be processed is small and the time resolution is high, so the range in which matching points are searched can be extremely narrowed. Therefore, when performing the SLAM method using an event camera, three-dimensional information can be estimated more quickly and stably than when performing the SLAM method using a frame camera.
しかしながら、SLAM法では動物体に対して3次元情報を推定できない。動物体に対して3次元情報を推定する場合は、ステレオ法を用いることが考えられる。イベントカメラはシャッター機能を持たないため、異なるイベントカメラ同士で同期を行うことは難しい。またイベントビジョンセンサにはイベント出力後一定期間その画素での測定を行うことができない休眠期間が設けられている。そのため、異なるイベントカメラ同士で測定開始タイミングが同時でない場合は、イベントデータのパターンが異なる。この場合、パターンの対応関係を求めることは難しい。 However, the SLAM method cannot estimate three-dimensional information for a moving object. When estimating three-dimensional information for a moving object, a stereo method may be used. Since event cameras do not have a shutter function, it is difficult to synchronize different event cameras. Furthermore, the event vision sensor is provided with a dormant period during which measurement cannot be performed at that pixel for a certain period of time after an event is output. Therefore, if different event cameras do not start measurement at the same time, the event data patterns will be different. In this case, it is difficult to find correspondence between patterns.
このように、イベントカメラを用いて動物体の3次元情報を推定することは困難であるという課題があった。 As described above, there has been a problem in that it is difficult to estimate three-dimensional information of a moving object using an event camera.
上記事情に鑑み、本発明は、動物体の3次元情報を推定する技術の提供を目的としている。 In view of the above circumstances, the present invention aims to provide a technique for estimating three-dimensional information of a moving object.
本発明の一態様は、被写体表面上の1点から発せられた光線をイベントベースビジョンセンサ上の複数の位置に集光させる3次元情報推定装置における3次元情報推定方法であって、前記イベントベースビジョンセンサの画素のうち、輝度値の変化量が一定値を超えた場合に、輝度値の変化量が一定値を超えた画素の位置と、輝度値の変化量が一定値を超えた時刻とを含むイベント情報を取得するイベント情報取得ステップと、前記イベント情報取得ステップにより取得された複数の前記イベント情報のうち、前記イベント情報に含まれる時刻に基づいて2つの前記イベント情報を対応付ける対応ステップと、前記対応ステップにより対応付けられた2つの前記イベント情報のそれぞれに含まれる画素の位置に基づき、被写体までの距離を推定する推定ステップと、を備えた3次元情報推定方法である。 One aspect of the present invention is a three-dimensional information estimation method in a three-dimensional information estimation device that focuses light rays emitted from one point on a subject surface onto a plurality of positions on an event-based vision sensor, the method comprising: Among the pixels of the vision sensor, when the amount of change in brightness value exceeds a certain value, the position of the pixel where the amount of change in brightness value exceeds the certain value, the time when the amount of change in brightness value exceeds the certain value, and and a corresponding step of associating two of the event information based on the time included in the event information among the plurality of event information acquired in the event information acquisition step. and an estimating step of estimating a distance to a subject based on the position of a pixel included in each of the two pieces of event information associated in the corresponding step.
本発明の一態様は、被写体表面上の1点から発せられた光線をイベントベースビジョンセンサ上の複数の位置に集光させる3次元情報推定装置であって、前記イベントベースビジョンセンサの画素のうち、輝度値の変化量が一定値を超えた場合に、輝度値の変化量が一定値を超えた画素の位置と、輝度値の変化量が一定値を超えた時刻とを含むイベント情報を取得するイベント情報取得部と、前記イベント情報取得部により取得された複数の前記イベント情報のうち、前記イベント情報に含まれる時刻に基づいて2つの前記イベント情報を対応付ける対応部と、前記対応部により対応付けられた2つの前記イベント情報のそれぞれに含まれる画素の位置に基づき、被写体までの距離を推定する推定部と、を備えた3次元情報推定装置である。 One aspect of the present invention is a three-dimensional information estimation device that focuses light rays emitted from one point on the surface of a subject onto a plurality of positions on an event-based vision sensor, the device comprising: , when the amount of change in brightness value exceeds a certain value, obtain event information including the position of the pixel where the amount of change in brightness value exceeds the certain value and the time when the amount of change in brightness value exceeds the certain value. an event information acquisition unit that associates two pieces of event information based on the time included in the event information among the plurality of event information acquired by the event information acquisition unit; The three-dimensional information estimating device includes an estimating unit that estimates a distance to a subject based on the position of a pixel included in each of the two attached event information.
本発明の一態様は、3次元情報推定方法をコンピュータに実行させるためのプログラムである。 One aspect of the present invention is a program for causing a computer to execute a three-dimensional information estimation method.
本発明により、動物体の3次元情報を推定することが可能となる。 According to the present invention, it becomes possible to estimate three-dimensional information of a moving object.
本発明の実施形態について、図面を参照して詳細に説明する。 Embodiments of the present invention will be described in detail with reference to the drawings.
図1は、実施形態における3次元情報推定装置100の構成を示すブロック図である。3次元情報推定装置100は、撮像部110、およびイベント処理部120で構成される。撮像部110は、イベントが発生した時に、イベントデータをイベント処理部120に出力する。ここで、イベントとは、イベントベースビジョンセンサ(以下、「イベントセンサ」という)の画素の輝度値の変化量が一定値を超えたことを示す。本実施形態では、変化量として、所定時間当たりの変化量を用いている。
FIG. 1 is a block diagram showing the configuration of a three-dimensional
またイベントデータは、イベントが発生した画素の位置、輝度値の変化量が一定値を超えた時刻(以下、「タイムスタンプ」ともいう)、および輝度値の増減を示す符号情報を含む。輝度値の増減を示す符号情報は、輝度値が増加した場合にはプラスを示し、減少した場合にマイナスを示す。一般的な被写体では、イベントは各画素で同期することなく発生するため、イベントデータもその都度出力される。 The event data also includes the position of the pixel where the event occurred, the time when the amount of change in the brightness value exceeds a certain value (hereinafter also referred to as a "time stamp"), and code information indicating an increase or decrease in the brightness value. The code information indicating an increase/decrease in the brightness value indicates a positive value when the brightness value increases, and a negative value when the brightness value decreases. In a typical subject, events occur without synchronization at each pixel, so event data is also output each time.
イベント処理部120は、イベント情報取得部121、対応部122、推定部123、およびイベント情報記憶部124で構成される。イベント情報取得部121は、撮像部110から出力されたイベント情報を取得する。イベント情報取得部121は、取得したイベント情報をイベント情報記憶部124に記憶する。なお、イベント情報取得部121は、任意のフィルタ処理を行ってノイズ除去を行ってもよい。
The
対応部122は、イベント情報取得部121によりイベント情報記憶部124に記憶されたイベント情報のうち、タイムスタンプに基づいて2つのイベント情報を対応付ける。対応付けられたイベント情報をイベントセットとも表現する。対応付けの方法については後述する。
The
推定部123は、対応付けられた2つのイベント情報のそれぞれに含まれる画素の位置に基づき、3次元情報推定装置100から被写体までの距離を推定する。この推定された距離により、被写体の3次元情報を推定できる。3次元情報推定装置100は、推定した距離を、例えばPC(Personal Computer)などの上位装置に出力してもよい。
The estimating
図2は、撮像部110の概略構成を示す図である。撮像部110は、レンズ111、マスク部112、およびイベントセンサ113で構成される。また、図2には、被写体115、および合焦面116が示されている。なお、図2では、説明を分かりやすくするためにレンズ111とマスク部112とが離して描かれているが、実際のレンズ111とマスク部112との距離は、ほぼ零である。また、図2に記載されているD、D'、C、L、L'、Rについては、後の説明で用いられる。
FIG. 2 is a diagram showing a schematic configuration of the
マスク部112には、複数(図2では2つ)の開口部112A、112Bが設けられている。図3は、マスク部112を光軸方向から見た図である。図3には、マスク部112と、開口部112A、112Bが示されている。なお、開口部112A、112Bは実際の大きさよりも大きく描かれている。すなわち、実際には、マスク部112の直径に対する開口部112A、112Bの直径は、図3に示されている場合よりもはるかに小さい。
The
図2において、被写体115の表面における反射光は、レンズ111、開口部112A、112Bを通過してイベントセンサ113に集光される。このように、開口部112A、112Bにより、撮像部110は、被写体表面上の1点から発せられた光線をイベントセンサ113上の複数の位置に集光させる。なお、被写体表面上の1点から発せられた光線とは、被写体自らが発する光線の他に、被写体表面に反射した光線も含む。イベント情報に含まれる画素の位置は、イベントセンサ113を2次元座標とみなしたXY座標で表現される。例えば、原点に対応する画素から右方向に5画素、上方向に3画素に位置する画素の座標は(5、3)となる。画素のピッチpが与えられると、原点(0、0)から例えば(7、0)の距離は、7pとなる。
In FIG. 2, reflected light from the surface of a subject 115 passes through a
ここで、対応部122の対応付けの方法について説明する。図2に示されるように、被写体のある1点から出た光線は、開口部112A、112Bのいずれかを通過してイベントセンサ113上の2点に到達する。このとき到達したイベントセンサ113上の2点に対応する画素において、輝度値の変化量が一定値を超えた場合、同時刻またはほぼ同時刻にイベントが発生することとなる。対応部122は、このような2つのイベント情報を対応付ける。イベント情報を対応付けるタイミングは、イベント情報記憶部124に新たなイベント情報が記憶されたタイミングでもよいし、一定時間ごとに到来するタイミングであっても良い。
Here, a method of association by the
対応部122は、イベント情報から、ある時刻tに発生したイベント情報のうち、同一の符号情報を含むイベント情報をグループ化し、これらからイベント情報を対応付けるマッチングを行う。符号情報は2つあるので、プラスとマイナスの2つにグループ化されることもある。このグループを候補イベント群とも表現する。
The
なお、時刻tに発生したイベント情報として、タイムスタンプが時刻tと完全一致するイベント情報だけとしてもよいし、タイムスタンプの差が所定範囲内のイベント情報だけとしてもよい。なお、タイムスタンプの差が所定範囲内として、例えば時刻t周辺の適当な時間しきい値の範囲に収まることが挙げられる。この場合、時間しきい値を例えばTの場合、時刻t周辺は、時刻t-Tから時刻t+Tまでであることから、タイムスタンプの差は2T以内となる。 Note that the event information that occurred at time t may be only event information whose timestamp completely matches time t, or only event information whose timestamps have a difference within a predetermined range. Note that the difference between the timestamps is considered to be within a predetermined range, for example, when it falls within an appropriate time threshold range around time t. In this case, if the time threshold is T, for example, the time around time t is from time t-T to time t+T, so the difference in time stamps is within 2T.
イベントセンサ113の仕様によっては、センサ上の水平またや垂直のラインごとにイベント情報を出力する。そのため、異なるラインで発生したイベントの間でタイムスタンプにずれが生じることがある。これらのずれを考慮して時間しきい値を設けてもよいし、開口部を水平または垂直のライン上に配置することで、対応するイベントのイベント情報が同じタイミングで出力されるようにしてもよい。
Depending on the specifications of the
このように、イベント情報は、当該イベント情報に含まれる時刻に関する条件(以下、「時刻条件」ともいう)を満たし、さらに符号情報に関する条件(以下、「符号条件」ともいう)によりグループ化される。したがって、時刻条件を満たすイベント情報が複数存在し、かつ符号条件によるグループ化によって同じグループに属するイベント情報が複数存在した場合に候補イベント群が得られる。 In this way, event information satisfies the time-related conditions included in the event information (hereinafter also referred to as "time conditions"), and is further grouped according to code information-related conditions (hereinafter also referred to as "code conditions"). . Therefore, when there is a plurality of event information that satisfies the time condition and there is a plurality of event information that belongs to the same group by grouping based on the sign condition, a candidate event group is obtained.
次に、対応部122は、候補イベント群の中でイベントセットを決定するために、マッチングを行う。各候補イベント群に対し、逐次イベントセットを決定しても良いし、全てのイベントセットを同時に決定するような最適化を行ってもよい。
Next, the
マッチングの方法はどのような方法でも良い。最も単純なマッチングの方法は、候補イベント群の中から任意に2つのイベント情報を選択し、それらイベントセットとする方法である。また、例えば、候補イベント群を更に別の方法で絞り込んでもよい。絞り込む例として、あるイベント情報についてマッチングを行う際に開口部の配置に基づいてエピポーラ線を定義し、エピポーラ線上で発生したイベント情報のみを候補とする方法が上がられる。この場合、エピポーラ線上で発生したイベント情報のみに対して処理を行えばよいので、処理量を削減することができる。その他のマッチングの方法として、一般的な画像処理で行われるテンプレートマッチングや、相互相関法、ニューラルネットワークを使う方法などが考えられる。 Any matching method may be used. The simplest matching method is to arbitrarily select two pieces of event information from a group of candidate events and create an event set. Furthermore, for example, the candidate event group may be further narrowed down by another method. As an example of narrowing down, when performing matching on certain event information, an epipolar line is defined based on the arrangement of openings, and only event information that occurs on the epipolar line is selected as candidates. In this case, since it is only necessary to process event information that occurs on the epipolar line, the amount of processing can be reduced. Other matching methods include template matching performed in general image processing, cross-correlation methods, and methods using neural networks.
なお、候補イベント群に属するイベント情報に含まれる位置と同じ位置またはその近傍の位置で、イベント情報に含まれるタイプスタンプの前後の時刻で発生したイベント情報をマッチングで使用してもよい。前後の時刻で発生したイベント情報を用いて決定されたイベントセットや既に推定された3次元情報に基づいて、マッチングに用いるイベント情報に拘束条件を与えてもよい。また、符号情報がプラスのイベントセットとマイナスのイベントセットの間に対応関係があるとして、プラスの候補イベント群とマイナスのイベント候補群の2つでマッチングを行ってもよい。例えば、タイムスタンプが一致する符号情報がプラスのイベント情報と符号情報がマイナスのイベント情報とを用いてマッチングを行ってもよい。 Note that event information that occurs at a time before or after the timestamp included in the event information at the same location as the location included in the event information belonging to the candidate event group or a location near the location may be used for matching. Constraint conditions may be given to event information used for matching based on an event set determined using event information that occurred at previous and subsequent times or already estimated three-dimensional information. Further, assuming that there is a correspondence between an event set whose sign information is positive and an event set whose sign information is negative, matching may be performed using two event sets, a positive event candidate group and a negative event candidate group. For example, matching may be performed using event information with positive code information and event information with negative code information with matching time stamps.
なお、被写体上の点Aと点Bから出た光がイベントセンサ113に到達した際に、到達点のどちらかが重なる場合を考慮したマッチングを行うこともできる。重なった点をX、重なっていない方の点をX_A、X_Bとする。Xでは2つの光の光量の合計に応じて輝度値が変化する。このため、X_A、X_Bからイベント情報が出力するとは異なるタイミングでXからイベント情報が出力されることもある。このとき、Xからイベント情報が出力されるタイミングから一定時間内に出力されるイベントデータの個数と、輝度値の変化パターンは、2つの光の変化パターンを合成したものと関係するものとみなす。これにより、前記関係が成立するX_A、X_Bを対応付けることができる。Aに対応する輝度値の変化とBに対応する輝度値の変化において、符号情報が異なることもあり得るため、プラスの候補イベント群とマイナスのイベント候補群の2つを用いてマッチングを行ってもよい。
Note that when the light emitted from points A and B on the subject reaches the
上述した図2を用いて、3次元情報推定装置100から被写体までの距離の推定方法について説明する。まず、図2おいて、レンズ111と開口部112Aとの距離を0とし、同様にレンズ111と開口部112Bとの距離を0とする。レンズ111の焦点距離をf、レンズ111とイベントセンサ113との距離をLとする。レンズ111から合焦位置までの距離をDとする。開口部112Aと開口部112Bとの間の距離をAとする。被写体115とレンズ111と距離をD'とする。
A method for estimating the distance from the three-dimensional
開口部112Aと開口部112Bのそれぞれを通過した光線が交差する面とレンズとの距離をL'とし、それぞれの光線がイベントセンサ113に到達した点同士の距離をCとする。なお、上述したように開口部112A、112Bの大きさはごく小さいことから、イベントセンサ113上に到達した点のボケはごく小さく、互いに重ならないものとする。このときレンズの結像公式に基づくと下記(1)が成り立つ。
Let L' be the distance between the lens and the plane where the light rays that have passed through the
また、R、C、L'、Lの間には下記(2)が成り立つ。 Furthermore, the following (2) holds true between R, C, L', and L.
上記(1)(2)から、下記(3)に示されるようにD'が求まる。 From (1) and (2) above, D' can be found as shown in (3) below.
よっては、画素のピッチをpとし、光線がイベントセンサ113に到達した点同士間の座標上での距離をΔxとすると、上記(3)は、下記(4)となる。
Therefore, if the pixel pitch is p and the distance on the coordinates between the points where the light rays reach the
この(4)に示した数式を用いて、3次元情報推定装置100は、3次元情報推定装置100から被写体までの距離を推定する。
Using the formula shown in (4), the three-dimensional
以上説明した3次元情報推定装置100により実行される処理の流れをフローチャートを用いて説明する。図4、図5は、3次元情報推定処理の流れを示すフローチャートである。なお、図4、図5に示されるフローチャートは、イベント情報を対応付けるタイミングを、イベント情報記憶部124に新たなイベント情報が記憶されたタイミングとした場合の処理の流れを示す。
The flow of processing executed by the three-dimensional
図4において、イベント情報取得部121は、イベントが発生すると(ステップS101:YES)、撮像部110から出力されるイベント情報を取得する(ステップS102)。イベント情報取得部121は、取得したイベント情報をイベント情報記憶部124に記憶する(ステップS103)。イベント情報取得部121は、イベントが発生したことを示すイベント発生MSG(メッセージ)を対応部122に送信し(ステップS104)、ステップS101の処理に戻る。
In FIG. 4, when an event occurs (step S101: YES), the event
次に、図5のフローチャートについて説明する。なお、図5のフローチャートでは、上述した時刻条件を満たすイベント情報が複数存在することを、時刻条件満足情報が存在する、と表現する。また、符号条件によるグループ化によって同じグループに属するイベント情報が複数存在することを、符号条件満足情報が存在する、と表現する。 Next, the flowchart of FIG. 5 will be explained. In addition, in the flowchart of FIG. 5, the presence of a plurality of pieces of event information that satisfies the above-described time condition is expressed as the presence of time condition satisfaction information. Furthermore, the existence of a plurality of pieces of event information that belong to the same group due to grouping based on code conditions is expressed as the presence of code condition satisfaction information.
図5において、対応部122は、イベント情報取得部121からイベント発生MSGを受信すると(ステップS201:YES)、対応部122は、時刻条件満足情報が存在するか否かを判定する(ステップS202)。時刻条件満足情報が存在しない場合には(ステップS202:NO)、対応部122は、処理を終了する。
In FIG. 5, when the
時刻条件満足情報が存在する場合には(ステップS202:YES)、対応部122は、符号条件満足情報が存在するか否かを判定する(ステップS203)。符号条件満足情報が存在しない場合には(ステップS203:NO)、対応部122は、処理を終了する。符号条件満足情報が存在する場合には(ステップS203:YES)、対応部122は、上述したマッチングを行う(ステップS204)。推定部123は、上記(4)を用いて3次元情報推定装置100から被写体までの距離を推定し(ステップS205)、処理を終了する。
If time condition satisfaction information exists (step S202: YES), the
以上説明した3次元情報推定処理が、イベントが発生するたびに実行されることで、3次元情報推定装置100から被写体までの距離が推定されることから、被写体の3次元情報を推定できる。
By executing the three-dimensional information estimation process described above every time an event occurs, the distance from the three-dimensional
上述した実施形態において、開口部112A、112Bを有するマスク部112は、レンズ111と被写体の間にあるものとしてもよい。また、レンズ111が複数のレンズで構成される場合、マスク部112は、レンズとレンズの間にあるものとしてもよい。さらに、被写体が合焦面より手前にあるものとしてもよい。
In the embodiment described above, the
また、被写体に照射する照明としてレーザー走査式プロジェクタを用いてもよい。レーザー走査式プロジェクタではレーザーの照射位置を高速で動かすため、肉眼では広い範囲に照明があたっているように見える場合でも、実際は常に1点にしか照明があたっていない。したがっていずれの時刻tにおいても、イベント情報は高々2つしか存在しないため、それらがそのままイベントセットとして決定される。 Furthermore, a laser scanning projector may be used as the illumination for illuminating the subject. Laser scanning projectors move the laser irradiation position at high speed, so even if it appears to the naked eye that a wide area is illuminated, in reality only one point is illuminated at any given time. Therefore, at any time t, there are only two pieces of event information at most, and these pieces of event information are determined as they are as an event set.
また、任意のプロジェクタを利用して離散的なドットパターンの照明を被写体に照射してもよい。ドットの一つから開口部を通してイベントセンサ上に到達する点のセット同士の距離が、隣り合うドットとの距離よりも十分に小さくなるように、開口部の配置とドットパターンを設計することで、到達点が重なることを考慮せずにマッチングを行うことができる。また、このような照明を高速で切り替えることによってより多くのイベント情報が得られるため、より密な3次元情報を得ることができる。 Further, an arbitrary projector may be used to irradiate the subject with discrete dot pattern illumination. By designing the arrangement of the apertures and the dot pattern so that the distance between the set of points that reach the event sensor from one of the dots through the aperture is sufficiently smaller than the distance between adjacent dots, Matching can be performed without considering the fact that the arrival points overlap. Furthermore, by switching such lighting at high speed, more event information can be obtained, so more detailed three-dimensional information can be obtained.
また、本実施形態では、マスク部112は、2つの開口部112A、112Bを有しているが、3つ以上の開口部を有するようにしてもよい。開口部の配置位置として、例えば開口部の中心が全て同一直線上となる位置が挙げられる。開口部が3つの場合には、開口部の配置位置として、三角形の頂点が挙げられる。
Further, in this embodiment, the
また、開口部に代えて、マイクロレンズアレイやその他の光学素子を使用して複数の像をイベントセンサ上に到達させるようにしてもよい。 Further, instead of the aperture, a microlens array or other optical element may be used to cause a plurality of images to reach the event sensor.
なお、通常のイメージセンサを備えるカメラ(以下、「フレームカメラ」という)に、本実施形態と同様の開口部を設ける場合、イメージセンサにおいて2つの像が重畳して観測されるため、各開口部を互いに異なるカラーチャンネルに対応させて像を分離するなどしない限り3次元情報推定は不可能である。 Note that when a camera equipped with a normal image sensor (hereinafter referred to as a "frame camera") is provided with an opening similar to this embodiment, two images are observed superimposed on the image sensor, so each opening It is impossible to estimate three-dimensional information unless the images are separated by making them correspond to different color channels.
一方、本実施形態の3次元情報推定装置100と同様に、イベントセンサを備えるカメラ(以下、「イベントカメラ」という)は被写体、照明、イベントカメラが動いた際に発生する輝度の変化量を観測するため、限られた部分でしかイベントが発生しないことから2つの像に対応するイベントが重畳する可能性が低い。
On the other hand, similarly to the three-dimensional
また、フレームカメラの出力画像でマッチングを行う場合、基本的に一画素の輝度情報でのマッチングは困難であるため、空間的に隣接した画素の輝度情報も使用するブロックマッチングを行う。イベントカメラでは一画素について輝度の変化を非常に高い分解能で観測するため、その変化パターンである時系列データを使用することで隣接画素の情報を使用せずにマッチングを行うことができる。したがって、イベントセンサでは、2つの像に対応するイベントの発生位置がごく近くに位置などの理由でブロックマッチングが不可能であっても探索が容易である。 Furthermore, when matching is performed using the output image of a frame camera, it is basically difficult to match using luminance information of one pixel, so block matching is performed that also uses luminance information of spatially adjacent pixels. Event cameras observe changes in brightness for each pixel with very high resolution, so by using time-series data that represents the change pattern, matching can be performed without using information about adjacent pixels. Therefore, with the event sensor, even if block matching is impossible due to the occurrence positions of events corresponding to two images being located very close together, the search is easy.
以上の理由により、イベントカメラに複数の開口部を設けることで、フレームカメラでの同様の構成では不可能な、単一のチャンネルで3次元情報を推定することができる。 For the above reasons, by providing a plurality of apertures in the event camera, three-dimensional information can be estimated using a single channel, which is not possible with a similar configuration of a frame camera.
イベント処理部120は、CPU(Central Processing Unit)等のプロセッサーとメモリとを用いて構成されてもよい。この場合、イベント処理部120は、プロセッサーがプログラムを実行することによって、イベント処理部120として機能する。なお、イベント処理部120の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されても良い。上記のプログラムは、コンピュータ読み取り可能な記録媒体に記録されても良い。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD-ROM、半導体記憶装置(例えばSSD:Solid State Drive)等の可搬媒体、コンピュータシステムに内蔵されるハードディスクや半導体記憶装置等の記憶装置である。上記のプログラムは、電気通信回線を介して送信されてもよい。
The
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 Although the embodiments of the present invention have been described above in detail with reference to the drawings, the specific configuration is not limited to these embodiments, and includes designs within the scope of the gist of the present invention.
本発明は、イベントベースビジョンセンサを備えた3次元情報推定装置に適用可能である。 The present invention is applicable to a three-dimensional information estimation device equipped with an event-based vision sensor.
100…3次元情報推定装置、110…撮像部、111…レンズ、112…マスク部、112A、112B…開口部、113…イベントセンサ、115…被写体、116…合焦面、120…イベント処理部、121…イベント情報取得部、122…対応部、123…推定部、124…イベント情報記憶部
DESCRIPTION OF
Claims (6)
前記イベントベースビジョンセンサの画素のうち、輝度値の変化量が一定値を超えた場合に、輝度値の変化量が一定値を超えた画素の位置と、輝度値の変化量が一定値を超えた時刻とを含むイベント情報を取得するイベント情報取得ステップと、
前記イベント情報取得ステップにより取得された複数の前記イベント情報のうち、前記イベント情報に含まれる時刻に基づいて2つの前記イベント情報を対応付ける対応ステップと、
前記対応ステップにより対応付けられた2つの前記イベント情報のそれぞれに含まれる画素の位置に基づき、被写体までの距離を推定する推定ステップと、
を備えた3次元情報推定方法。A 3D information estimation method in a 3D information estimation device that focuses light rays emitted from one point on a subject surface to multiple positions on an event-based vision sensor, the method comprising:
Among the pixels of the event-based vision sensor, when the amount of change in brightness value exceeds a certain value, the position of the pixel where the amount of change in brightness value exceeds the certain value and the amount of change in brightness value exceeds the certain value. an event information acquisition step of acquiring event information including the time when the event occurred;
a matching step of associating two pieces of event information among the plurality of pieces of event information acquired in the event information acquisition step based on the time included in the event information;
an estimating step of estimating a distance to the subject based on the position of a pixel included in each of the two pieces of event information associated in the corresponding step;
A three-dimensional information estimation method.
前記対応ステップは、同一の符号情報を含む前記イベント情報から2つの前記イベント情報を対応付ける請求項1に記載の3次元情報推定方法。The event information includes code information indicating an increase or decrease in brightness value,
2. The three-dimensional information estimation method according to claim 1, wherein the matching step matches two pieces of event information that include the same code information.
前記イベントベースビジョンセンサの画素のうち、輝度値の変化量が一定値を超えた場合に、輝度値の変化量が一定値を超えた画素の位置と、輝度値の変化量が一定値を超えた時刻とを含むイベント情報を取得するイベント情報取得部と、
前記イベント情報取得部により取得された複数の前記イベント情報のうち、前記イベント情報に含まれる時刻に基づいて2つの前記イベント情報を対応付ける対応部と、
前記対応部により対応付けられた2つの前記イベント情報のそれぞれに含まれる画素の位置に基づき、被写体までの距離を推定する推定部と、
を備えた3次元情報推定装置。A three-dimensional information estimation device that focuses light rays emitted from one point on a subject surface to multiple positions on an event-based vision sensor,
Among the pixels of the event-based vision sensor, when the amount of change in brightness value exceeds a certain value, the position of the pixel where the amount of change in brightness value exceeds the certain value and the amount of change in brightness value exceeds the certain value. an event information acquisition unit that acquires event information including the time when the event occurred;
a correspondence unit that associates two pieces of event information among the plurality of pieces of event information acquired by the event information acquisition unit based on times included in the event information;
an estimating unit that estimates a distance to the subject based on the position of a pixel included in each of the two pieces of event information correlated by the corresponding unit;
A three-dimensional information estimation device equipped with
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/047092 WO2022130555A1 (en) | 2020-12-17 | 2020-12-17 | Three-dimensional information estimation system, three-dimensional information estimation method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2022130555A1 JPWO2022130555A1 (en) | 2022-06-23 |
JP7376839B2 true JP7376839B2 (en) | 2023-11-09 |
Family
ID=82059231
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022569414A Active JP7376839B2 (en) | 2020-12-17 | 2020-12-17 | 3D information estimation method, 3D information estimation device and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7376839B2 (en) |
WO (1) | WO2022130555A1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017522669A (en) | 2014-07-24 | 2017-08-10 | ユニヴァーシテト チューリッヒ | How to track scene keypoints |
JP2018522348A (en) | 2015-11-02 | 2018-08-09 | 三菱電機株式会社 | Method and system for estimating the three-dimensional posture of a sensor |
-
2020
- 2020-12-17 WO PCT/JP2020/047092 patent/WO2022130555A1/en active Application Filing
- 2020-12-17 JP JP2022569414A patent/JP7376839B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017522669A (en) | 2014-07-24 | 2017-08-10 | ユニヴァーシテト チューリッヒ | How to track scene keypoints |
JP2018522348A (en) | 2015-11-02 | 2018-08-09 | 三菱電機株式会社 | Method and system for estimating the three-dimensional posture of a sensor |
Non-Patent Citations (2)
Title |
---|
Antoni Rosinol Vidal,Ultimate SLAM? Combining Events, Images, and IMU for Robust Visual SLAM in HDR and High-Speed Scenarios,IEEE ROBOTICS AND AUTOMATION LETTERS,米国,IEEE,2018年04月,VOL.3 NO.2 APRIL 2018,P.994-1001 |
Javier Hidalgo Carrio,Learning Monocular Dense Depth from Events,IEEE International Conference on 3D Vision,米国,IEEE,2020年10月22日,P.1-10 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2022130555A1 (en) | 2022-06-23 |
WO2022130555A1 (en) | 2022-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109155843B (en) | Image projection system and image projection method | |
US10018722B2 (en) | Measurement apparatus | |
JP2019016275A (en) | Image processing method, image processing program, storage medium, image processing device, and imaging device | |
EP3002550B1 (en) | Information processing system and information processing method for distance measurement | |
KR20180015139A (en) | Optical device for detecting internal defects of transparent substrate and method therefor | |
JP2016170122A (en) | Measurement device | |
JP7168077B2 (en) | Three-dimensional measurement system and three-dimensional measurement method | |
TWI594058B (en) | Image capturing apparatus, lens unit, and signal processing apparatus | |
JP2016075658A (en) | Information process system and information processing method | |
US10614336B2 (en) | Method, system, and computer-readable recording medium for image-based object tracking | |
CN107249089B (en) | Shooting device and method, camera and logistics snapshot system | |
JP6652047B2 (en) | Imaging device and imaging method | |
JP5857712B2 (en) | Stereo image generation apparatus, stereo image generation method, and computer program for stereo image generation | |
JP7376839B2 (en) | 3D information estimation method, 3D information estimation device and program | |
WO2020183710A1 (en) | Image processing device and three-dimensional measuring system | |
JP2015142364A (en) | Image processing device, imaging apparatus and image processing method | |
JP6395429B2 (en) | Image processing apparatus, control method thereof, and storage medium | |
JP2017101965A (en) | Device | |
JP6642998B2 (en) | Image shift amount calculating apparatus, imaging apparatus, and image shift amount calculating method | |
JP6346484B2 (en) | Image processing apparatus and control method thereof | |
CN108873302B (en) | Automatic correction and refocusing method of light field microscopic image | |
US9229211B2 (en) | Imaging apparatus, imaging control program, and imaging method | |
JP2008145121A (en) | Three-dimensional shape measuring apparatus | |
US20180040130A1 (en) | Methods and apparatus for codeword boundary detection for generating depth maps | |
JPWO2016199328A1 (en) | Illumination device, imaging system, and illumination method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230316 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230926 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231009 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7376839 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |