JP7244013B2 - Methods for epipolar time-of-flight imaging - Google Patents
Methods for epipolar time-of-flight imaging Download PDFInfo
- Publication number
- JP7244013B2 JP7244013B2 JP2019539163A JP2019539163A JP7244013B2 JP 7244013 B2 JP7244013 B2 JP 7244013B2 JP 2019539163 A JP2019539163 A JP 2019539163A JP 2019539163 A JP2019539163 A JP 2019539163A JP 7244013 B2 JP7244013 B2 JP 7244013B2
- Authority
- JP
- Japan
- Prior art keywords
- epipolar
- illuminated
- sensor
- depth
- sensed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims description 44
- 238000000034 method Methods 0.000 title claims description 21
- 238000005070 sampling Methods 0.000 claims description 13
- 230000003287 optical effect Effects 0.000 claims description 6
- 230000002123 temporal effect Effects 0.000 claims description 5
- 230000001360 synchronised effect Effects 0.000 claims description 2
- 238000005259 measurement Methods 0.000 description 20
- 230000000694 effects Effects 0.000 description 12
- 238000005286 illumination Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 5
- 238000005096 rolling process Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000035622 drinking Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 241000408659 Darpa Species 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000011031 large-scale manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 238000009304 pastoral farming Methods 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/10—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/491—Details of non-pulse systems
- G01S7/4912—Receivers
- G01S7/4913—Circuits for detection, sampling, integration or read-out
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/491—Details of non-pulse systems
- G01S7/4912—Receivers
- G01S7/4915—Time delay measurement, e.g. operational details for pixel components; Phase measurement
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Description
本出願は、2017年1月20日に出願された米国仮特許出願第62/499,193号の利益を主張する。 This application claims the benefit of US Provisional Patent Application No. 62/499,193, filed January 20, 2017.
政府の権利
本発明は、ONRによって授与されたN000141512358、NSFによって授与された11S1317749、DARPAによって授与されたHR00111620021、ならびにNASAによって授与された助成NNX16AD98GおよびNNX14AM53Hの下で政府支援により行われた。政府は本発明に特定の権利を有する。
GOVERNMENT RIGHTS This invention was made with government support under N000141512358 awarded by ONR, 11S1317749 awarded by NSF, HR00111620021 awarded by DARPA, and grants NNX16AD98G and NNX14AM53H awarded by NASA. The Government has certain rights in this invention.
飛行時間(ToF:time-of-flight)深度センサは、自動車および航空からロボット工学、ゲームおよび家庭用電化製品までの多様な用途における最適な技術となっている。これらのセンサは、大きく2つの特徴:深度を感知するのに極めて短い光のパルスに頼るLIDARベースのシステム、および、よりずっと長い持続時間にわたって変調された光信号を放射する連続波(CW:continuous-wave)システム、に分けられる。LIDARベースのシステムは、白昼に最大1キロメートル離れたところまでセンチメートル精度の深度マップを取得することができるが、低い測定レートを有する。さらに、1画素当たりの費用が、CWシステムよりも数桁高く、そのレンジ、屋外動作およびロバスト性が極めて限定される。低費用、大規模生産および高測定レートがしばしば他の検討事項にまさるので、連続波飛行時間(CW-ToF)センサは、それらの欠点にも関わらず、家庭用電化製品および低価格のロボット工学の場所を支配し続けている。さらに、KinectおよびPMDなどのコンシューマグレードの飛行時間深度カメラは、安価で、コンパクトであり、短距離の用途においてビデオ速度の深度マップを生成する。 Time-of-flight (ToF) depth sensors have become the technology of choice in applications as diverse as automotive and aviation, robotics, gaming and consumer electronics. These sensors have two main characteristics: LIDAR-based systems, which rely on extremely short pulses of light to sense depth, and continuous wave (CW) systems, which emit modulated light signals over much longer durations. - wave) system. LIDAR-based systems can acquire centimeter-accurate depth maps up to 1 kilometer away in broad daylight, but have low measurement rates. Moreover, the cost per pixel is several orders of magnitude higher than CW systems, and its range, outdoor operation and robustness are severely limited. Continuous wave time-of-flight (CW-ToF) sensors, despite their shortcomings, have found their way into consumer electronics and low-cost robotics because low cost, large-scale production, and high measurement rates often outweigh other considerations. continue to dominate the place of In addition, consumer-grade time-of-flight depth cameras such as Kinect and PMD are inexpensive, compact, and produce video-rate depth maps for short-range applications.
本発明は、エネルギー効率の良いエピポーラ撮像を用いてCW-ToFの欠点を顕著に低減する。ある実施形態において、連続的に変調されたレーザ光のシートが、集合的に視野を走査する、注意深く選択されたエピポーラ面のシーケンスに沿って、投射される。各投射されたシートでは、各エピポーラ面に対応するCW-ToF画素のストリップだけが露出される。図2に示すように、本発明のプロトタイプ実装形態は、特別に作られた投射システムを、制御可能な対象領域(region of interest)を有するCW-ToFセンサに結合する。いくつかの実装形態において、既製のCW-ToFセンサを使用することができる。既製のセンサは、320x240の3Dビデオを毎秒7.5フレームでライブで出力することができ、フレームレートは、センサのAPIによって限定されるだけである。 The present invention significantly reduces the shortcomings of CW-ToF using energy efficient epipolar imaging. In one embodiment, a continuously modulated sheet of laser light is projected along a carefully selected sequence of epipolar planes that collectively scan the field of view. On each projected sheet, only strips of CW-ToF pixels corresponding to each epipolar plane are exposed. As shown in FIG. 2, a prototype implementation of the invention couples a specially crafted projection system to a CW-ToF sensor with a controllable region of interest. In some implementations, off-the-shelf CW-ToF sensors can be used. An off-the-shelf sensor can output 320x240 3D video live at 7.5 frames per second, and the frame rate is only limited by the API of the sensor.
エピポーラ撮像は、最初は従来の(非ToF)ビデオセンサを用いて、直接のみ、または大域のみのビデオをライブで取得するために提案された。このアプローチは、ToF分野に拡大されたが、そのエネルギー効率は非常に低く、それは、単一の「直接のみ」のToF画像を計算するために500を超える画像をキャプチャすることを伴う。三角測量ベースの3D撮像の状況で、2D走査型レーザプロジェクタおよびロールシャッタカメラを用いて、エネルギー効率およびロバスト性の顕著な改善が実現される。本発明は、この考えをToF分野まで拡大する。したがって、それは、非ToFのエネルギー効率の良いエピポーラ撮像のすべての利点を継承するが、CW-ToFに特有である難題にも対処する。 Epipolar imaging was initially proposed for live acquisition of direct-only or global-only video using conventional (non-ToF) video sensors. This approach has been extended to the ToF field, but its energy efficiency is very low and it involves capturing over 500 images to compute a single 'direct-only' ToF image. Significant improvements in energy efficiency and robustness are realized with 2D scanning laser projectors and rolling shutter cameras in the context of triangulation-based 3D imaging. The present invention extends this idea to the ToF field. Thus, it inherits all the advantages of non-ToF energy-efficient epipolar imaging, but also addresses the challenges unique to CW-ToF.
主な困難は、CW-ToFセンサのレンジがパワー消費および目の安全の検討事項によって大幅に限定されることである。ほとんどのCW-ToFセンサは入射光のDC成分を電子的に減算するが、日光などの強力な周囲発生源からの光子雑音は、屋外の数メートルを超える距離において、典型的なフレームレートで、容易にCW-ToF信号を圧倒することができる。光源のエネルギーを単一のシートに集中させることによって、エピポーラToFは、このレンジを10mまで増加させ、より雑音が多いのにもかかわらず、屋外の15mを超えて有用な深度信号を取得する。 The main difficulty is that the range of CW-ToF sensors is severely limited by power consumption and eye safety considerations. Although most CW-ToF sensors electronically subtract the DC component of the incident light, photon noise from strong ambient sources such as sunlight can reduce the noise at typical frame rates outdoors at distances greater than several meters. It can easily overwhelm the CW-ToF signal. By concentrating the energy of the light source onto a single sheet, the epipolar ToF increases this range to 10m and acquires a useful depth signal beyond 15m outdoors, albeit noisier.
第2の困難は、CW-ToFセンサの深度精度が相互反射および大域照明輸送などの大域照明効果によって強く影響されることである。これらの効果は、より長い光路を生成し、構造化付加雑音の源として現れる。これらの効果は、シーンの幾何形状および反射特性に対して強い仮定を課することなしでは、事後にキャンセルすることができず、しかも屋内では極めて一般的である(例えば、壁の間の角、テーブルおよび床の光沢のある表面、ミラーなど)。本発明は、大域輸送のすべての形態に対し、およびライブのCW-ToFで処理することは決して可能でなかった大域照明輸送の形態である、特に鏡面相互反射に対し、顕著なロバスト性を実証する。 A second difficulty is that the depth accuracy of CW-ToF sensors is strongly affected by global illumination effects such as interreflection and global illumination transport. These effects produce longer optical paths and appear as sources of structured additive noise. These effects cannot be canceled after the fact without imposing strong assumptions on the scene geometry and reflection properties, and are quite common indoors (e.g., corners between walls, table and floor glossy surfaces, mirrors, etc.). The present invention demonstrates remarkable robustness to all forms of global transport and especially to specular interreflections, a form of global illumination transport that has never been possible to handle with live CW-ToF. do.
CW-ToF深度センサを装備したデバイスが屋内および屋内で次第に一般的になってきたのに伴い、それらは互いに干渉することなく動作することができなければならない。所与のメーカーとモデルのデバイス間の非干渉は、それらにわたる変調周波数を変化させることにより、実現することができるというものの、CW-ToFセンサのより広いエコシステムに対するロバスト性が望ましい。本発明は、まったく同じ変調周波数および光源波長を有するデバイスに対しても、エピポーラToFにより、干渉のないライブの3D撮像が可能になることを実証する。 As devices equipped with CW-ToF depth sensors become more common indoors and outdoors, they must be able to operate without interfering with each other. Although decoupling between devices of a given make and model can be achieved by varying the modulation frequency across them, robustness to a wider ecosystem of CW-ToF sensors is desirable. The present invention demonstrates that epipolar ToF enables interference-free live 3D imaging even for devices with exactly the same modulation frequency and source wavelength.
最後に、CW-ToFセンサは、単一の深度マップを計算するために放射光の異なる位相を用いて2つ以上のフレームを取得しなければならない。これにより、それらは、振動が単に画像をぼかす従来のカメラと異なり、カメラぶれに対して非常に敏感になり、CW-ToFにおけるカメラぶれが、静的シーンの仮定を破り、動きアーチファクトによりぼけてもおり、破損もされている深度マップとなる。エピポーラToFが、両方の問題に対処することを可能にする:各エピポーラ面に対して非常に短時間の露出に頼ることによって動きぼけが最小にされ、フレームごとにではなく、エピポーラ面ごとに複数の位相測定値を取得することによって動きアーチファクトおよび深度誤差が最小限に抑えられ、取得後の歪み補正がより容易になるようにエピポーラ面のシーケンスをスケジュールすることによって、エピポーラ面ToFの逐次性に起因するロールシャッタに似た歪みが低減される。 Finally, a CW-ToF sensor must acquire two or more frames with different phases of emitted light to compute a single depth map. This makes them very sensitive to camera shake, unlike conventional cameras where vibrations simply blur the image, and camera shake in CW-ToF violates the static scene assumption and is blurred by motion artifacts. This results in a depth map that is both distorted and corrupted. Epipolar ToF allows us to address both problems: motion blur is minimized by relying on very short exposures for each epipolar plane, and multiple Motion artifacts and depth errors are minimized by acquiring phase measurements of , and the sequentiality of the epipolar plane ToF is improved by scheduling the sequence of epipolar planes such that post-acquisition distortion correction is easier. The rolling shutter-like distortion caused by this is reduced.
マイクロコントローラという用語は、本明細書では、専用ハードウェアデバイス、回路、ASIC、FPGA、ソフトウェアを実行するマイクロプロセッサ、または当技術で知られている任意の他の手段を意味することができる。マイクロコントローラは、制御信号を送るためのおよびデータを受け取るためのセンサおよびレーザ光プロジェクタの両方に対する接続部を含むことがさらに理解される。本発明は、コントローラの機能を実装する1つの方法に限定されることは意図されていない。 The term microcontroller, as used herein, can mean a dedicated hardware device, circuit, ASIC, FPGA, microprocessor executing software, or any other means known in the art. It is further understood that the microcontroller includes connections to both the sensor and the laser light projector for sending control signals and for receiving data. The present invention is not intended to be limited to one method of implementing the functionality of the controller.
本明細書では、カメラおよびセンサという用語は、互換可能に使用される。 The terms camera and sensor are used interchangeably herein.
連続波飛行時間
CW-ToFカメラは、露出が積分中に変調もされる、時間変調された光源およびセンサを使用する。照明変調関数がfωt=cos(ωt)であり、センサ変調関数がgω,φ(t)=cos(ωt+φ)である場合、ここでωはrad/sでの変調周波数であり、φは光源とセンサ変調関数との間の位相オフセットであるが、画素xにおける測定値は:
光源とセンサ画素xとの間に間接的な光路が何もない場合、
シーンが静的であると仮定すると、経路長l(x)は、同じ周波数であるが、2つの異なる変調位相φ=0およびφ=π/2における画像のペアをキャプチャすることによって回復することができる:
エピポーラ飛行時間
図2は、エピポーラToF撮像を実施するためのシステムの概略図である。変調レーザ光の可動シートを発生させるプロジェクタが、行を一度に1つ露出させることができるToFセンサと組み合わせられる。プロジェクタおよびセンサは、光シートが常にプロジェクタとカメラとの間のエピポーラ面にあるように、平行化された(rectified)ステレオ構成で配置される。任意の所与の時点において、エピポーラ面におけるカメラ画素の行だけが光に露出される。
Epipolar Time-of-Flight FIG. 2 is a schematic diagram of a system for performing epipolar ToF imaging. A projector that produces a movable sheet of modulated laser light is combined with a ToF sensor that can expose rows one at a time. The projector and sensor are arranged in a rectified stereo configuration such that the light sheet is always in the epipolar plane between the projector and camera. At any given time, only rows of camera pixels in the epipolar plane are exposed to light.
図2の幾何形状を実現するために、図4(b)に示されるように、可動光シートをシーン上に投射する1D走査型ミラーを有するラインレーザ光源が使用される。現在のCW-ToFセンサは、2D画素配列にわたる、制御可能な露出コーディングを提供しない。利用可能な既製のハードウェアを考慮に入れて、露出をエピポーラ面上の画素に制限するには3つのやり方がある:
1. すべての他の画素をマスクするためにデジタルマイクロミラーデバイス(DMD:digital micro-mirror device)を使用する;
2. 1Dセンサおよび制御可能なミラーを使用して、撮像すべきエピポーラ面を選択する;または
3. 制御可能な対象領域(ROI:region of interest)を有する2Dセンサを使用する。
To achieve the geometry of FIG. 2, a line laser source with a 1D scanning mirror is used to project a movable light sheet onto the scene, as shown in FIG. 4(b). Current CW-ToF sensors do not provide controllable exposure coding across the 2D pixel array. Given the available off-the-shelf hardware, there are three ways to limit the exposure to pixels on the epipolar plane:
1. use a digital micro-mirror device (DMD) to mask all other pixels;
2. 2. Select the epipolar plane to be imaged using a 1D sensor and controllable mirrors; A 2D sensor with a controllable region of interest (ROI) is used.
好ましい実施形態において、三番目の選択肢が選択されるが、それはDMDマスクを使用するよりも光効率が良く、そのことが、より単純な設計をもたらすからである。ROIは、エピポーラToFの要件に合致するように、1行の高さに設定される。 In the preferred embodiment, the third option is chosen because it is more light efficient than using a DMD mask, which leads to a simpler design. The ROI is set to be one row high to meet the epipolar ToF requirements.
エピポーラ面サンプリング
CW-ToFは、深度を回復するのに少なくとも2つの画像を必要とする。エピポーラToFを使用してシーン全体をカバーするために、アクティブなエピポーラ面は、視野にわたって掃引されなければならない。このことが、エピポーラ面がサンプリングされる順序を選択する柔軟性を提供する。
Epipolar Plane Sampling CW-ToF requires at least two images to recover depth. To cover the entire scene using epipolar ToF, the active epipolar plane has to be swept over the field of view. This provides flexibility in choosing the order in which the epipolar planes are sampled.
図3は、いくつかのそのような順序付け方式を示す。図3(a)は、従来の先行技術のToFを示し、すべてのエピポーラ面は、同時に照射され、すべてのカメラ行は同時に露出される。このことは、長時間露出を必要とし、動き、周囲光、大域的な光輸送およびデバイス間の干渉に起因する深刻なアーチファクトをもたらす。図3(b)は、光の非常に短い高強度パルスをCW-ToFに送ることは周囲光に対する抵抗力を与えるが、それは依然として大域的な光輸送および動きに起因するアーチファクトを生じる傾向があることを示す。 FIG. 3 shows several such ordering schemes. FIG. 3(a) shows a conventional prior art ToF, where all epipolar planes are illuminated simultaneously and all camera rows are exposed simultaneously. This requires long exposures and introduces severe artifacts due to motion, ambient light, global light transport and interference between devices. Fig. 3(b) shows that sending very short high-intensity pulses of light to CW-ToF provides resistance to ambient light, but it is still prone to artifacts due to global light transport and motion. indicates that
図3(c)は、1つの完全な画像が、各変調位相に対して取得される、ロールシャッタカメラと同様の効果を生成するエピポーラToF面の順序付けを示す。これは、結果として周囲光、大域照明および動きぼけに対するロバスト性となる。しかし、各行に対して捕捉された複数の位相測定値間の顕著な遅延のため、動きに対する感度が依然として残る。これらの画像を取得している間にシーンまたはカメラが動いた場合、取り出された深度マップは、補正が困難な誤りを含むので、この方式は望ましくない。 FIG. 3(c) shows an epipolar ToF plane ordering that produces an effect similar to a rolling shutter camera, where one complete image is acquired for each modulation phase. This results in robustness to ambient light, global illumination and motion blur. However, sensitivity to motion still remains due to the significant delay between the multiple phase measurements acquired for each row. This scheme is undesirable because if the scene or camera moves while these images are being acquired, the retrieved depth map will contain errors that are difficult to correct.
図3(d)における別の実施形態は、平面ごとに測定値をインターリービングすることが、そのようなアーチファクトを最小にすることを示す。図3(d)に示される順序付け方策は、変調位相のセットを通して、一度に1つのエピポーラ面をループする。各行の露出時間が非常に短いので、単一の行に必要なすべての位相は、カメラ/シーンの動きに起因する深度および動きぼけアーチファクトを最小限に抑えるのに十分に迅速に取得されうる。 Another embodiment in FIG. 3(d) shows that interleaving the measurements by plane minimizes such artifacts. The ordering strategy shown in FIG. 3(d) loops through the set of modulation phases one epipolar plane at a time. Since the exposure time for each row is very short, all phases required for a single row can be acquired quickly enough to minimize depth and motion blurring artifacts due to camera/scene motion.
この方策を使用すると、各行はわずかに異なる時間でキャプチャされる。これは取得された深度マップにおいてロールシャッタに似た効果を誘発するが、個々の深度値は、ぼけおよびアーチファクトがなく、後処理により、組み合わせて、一貫したモデルにすることができる。 Using this strategy, each row is captured at a slightly different time. This induces a rolling shutter-like effect in the acquired depth map, but the individual depth values are free of blurring and artifacts and can be combined into a coherent model by post-processing.
ミラーのアクチュエータの運動学的制約に従いながら、そのような後処理をさらに容易するために、エピポーラ面は、図3(e)に示されるように、鋸歯状パターンで順序付けされる。この方式において、視野全体は、同じ全露出時間内に2回走査され、シーンのより高い時間サンプリングを生じ、個々の深度マップ行の一貫したマージをより容易にする。これは、本質的に、2倍のフレームレートだが、半分の垂直解像度で、完全な視野深度マップを提供し、高速のカメラぶれおよび/またはシーンの動きに対する深度補正をより容易にする。 To further facilitate such post-processing while adhering to the kinematic constraints of the mirror's actuator, the epipolar planes are ordered in a sawtooth pattern, as shown in FIG. 3(e). In this scheme, the entire field of view is scanned twice within the same total exposure time, resulting in a higher temporal sampling of the scene and making consistent merging of individual depth map rows easier. This essentially doubles the frame rate but at half the vertical resolution to provide a full depth-of-field map, making depth correction easier for fast camera shake and/or scene motion.
より一般的に、図3(f)は、ある用途では、異なる時間サンプリングレートを用いて視野の異なる部分を走査することが有益であり得ることを示す。より低い画像行に対応するエピポーラ面がより頻繁にサンプリングされる、非均一サンプリング方式の例が示されている。このタイプのサンプリングは、例えば、視野のより低い部分が、通常、より近接し、および、より速く移動し、より高速のサンプリングレートにおける取得を必要とする、車両上で有用でありうる。 More generally, Figure 3(f) shows that in some applications it may be beneficial to scan different portions of the field of view using different temporal sampling rates. An example of a non-uniform sampling scheme is shown where epipolar planes corresponding to lower image rows are sampled more frequently. This type of sampling can be useful, for example, on vehicles, where the lower portion of the field of view typically moves closer and faster, requiring acquisition at a faster sampling rate.
動作中に、プロジェクタは、変調レーザ光のシートを発生させ、レーザプロジェクタとセンサとの間に画定されたエピポーラ面を連続して照射する。平面は、任意の順序で照射されることができるが、好ましい実施形態においては、上から下まで、次いで下から上まで照射される。平面が照射される実際の順序は、プラットフォームが使用されている特定の環境、または深度マップが作成されている用途に依存する可能性がある。また、任意の数の平面を視野内に画定することができ、レーザおよびセンサのキャパシティならびに所望のフレームレートだけによって限定される。好ましい実施形態において、視野において画定された240の平面があり、各平面は320x240画素である。 During operation, the projector generates a sheet of modulated laser light that continuously illuminates the epipolar plane defined between the laser projector and the sensor. The planes can be illuminated in any order, but in a preferred embodiment they are illuminated from top to bottom and then from bottom to top. The actual order in which the planes are illuminated may depend on the particular environment in which the platform is being used or the application for which the depth map is being created. Also, any number of planes can be defined within the field of view, limited only by the laser and sensor capacities and the desired frame rate. In the preferred embodiment, there are 240 planes defined in the field of view, each plane being 320x240 pixels.
センサの対象領域は、視野の任意の部分に設定することができ、動作中に、センサのROIが現在照射されているエピポーラ面内の画素の行を感知するように設定されるように、マイクロコントローラが、レーザプロジェクタとセンサとを同期させる。位相は2つの画像を使用して推定される。一般に、センサは、4つ、入射信号をシフトされた入力信号と相関させるために測定値を、使用する(角度0、90、180、270)。これらの画像のうちの2つまたは4つのいずれかが、位相推定に使用されることができるが、4つの画像を使用することは、より精度を与えるが、キャプチャするのにより長い時間がかかり、フレームレートを低減する。位相アンラッピングが必要な場合、位相推定プロセスは、異なる変調周波数で実施される必要があり、したがって、2つの画像の代わりに4つの画像が位相アンラッピングに必要とされる。本発明のある実施形態において、慣性計測装置(IMU)をセンサに取り付けることができ、プラットフォームの動きを補償するのに使用される。 The region of interest of the sensor can be set to any part of the field of view and, in operation, is microscopic so that the ROI of the sensor is set to sense a row of pixels in the currently illuminated epipolar plane. A controller synchronizes the laser projector and the sensor. Phase is estimated using two images. In general, the sensor uses four measurements (angles 0, 90, 180, 270) to correlate the incident signal with the shifted input signal. Either two or four of these images can be used for phase estimation, but using four images gives more accuracy but takes longer to capture and Reduce frame rate. If phase unwrapping is required, the phase estimation process needs to be performed at different modulation frequencies, so four images are required for phase unwrapping instead of two images. In some embodiments of the invention, an inertial measurement unit (IMU) can be attached to the sensor and used to compensate for platform motion.
エピポーラToFプロトタイプ
図4(a)に示される、エピポーラToF撮像のためのプロトタイプデバイスが、照射のためのガルバノミラーベースの光シートプロジェクタおよび撮像のための調整可能な対象領域を有するToFセンサを使用して構築された。図4はプロトタイプの描写である。画素の任意の行をキャプチャするための高速ROI制御を有するDME660カメラおよび光源としての特注の可動光シートプロジェクタが、プロトタイプに使用された。本明細書に説明されるプロトタイプは、本発明の1つの特定の実施形態の典型に過ぎないこと、および異なる機器および動作パラメータを利用する他の実施形態が、本発明の範囲内に含まれることが、当業者によって理解されるはずである。
Epipolar ToF Prototype A prototype device for epipolar ToF imaging, shown in FIG. built with FIG. 4 is a depiction of the prototype. A DME660 camera with fast ROI control to capture arbitrary rows of pixels and a custom-made movable light sheet projector as the light source were used in the prototype. The prototype described herein is merely representative of one particular embodiment of the invention, and that other embodiments utilizing different equipment and operating parameters are included within the scope of the invention. should be understood by those skilled in the art.
使用されるToFセンサは、320x240の解像度を有するEPC660(Espros Photonicsからの)であり、画素は、周囲飽和防止を実装する。センサには8mm、F1.6の低歪みレンズおよび光学帯域通過フィルタ(中心周波数650nm、帯域幅20nm)が装着されている。センサは、ROIがセンサ読出しごとに変更されることを可能にし、この特徴は、撮像するために異なる行を選択するのに使用される。センサからデータを読み出すために、製造業者からのセンサ開発キット(DME660)が利用される。本発明は、説明されるToFセンサの使用に限定されないが、任意のToFセンサが使用される可能性があることが理解されるはずである。 The ToF sensor used is an EPC660 (from Espros Photonics) with a resolution of 320x240 and the pixels implement ambient desaturation. The sensor is equipped with an 8 mm, F1.6 low-distortion lens and an optical bandpass filter (650 nm center frequency, 20 nm bandwidth). The sensor allows the ROI to be changed for each sensor readout and this feature is used to select different rows to image. A sensor development kit (DME660) from the manufacturer is utilized to read data from the sensor. It should be understood that any ToF sensor may be used, although the invention is not limited to the use of the ToF sensors described.
プロトタイプに利用されたラインプロジェクタは、その光源として700mWのピークパワーを有する638nmのレーザダイオードを使用する。ダイオードからの光は、コリメートされ、ビーム断面を、45度のファンアウト角度を有する、広がった、ほぼ均一に照射される直線に引き延ばすPowellレンズを通過される。レーザ光は、シートを偏向させるように回転させることができる1D走査型ガルバノミラーに向けられる。ミラーの回転レンジは、プロジェクタに40度の垂直視野を与える。プロジェクタの有効な投影中心は、ミラーが回転するにつれて移動するが、ファンアウト点とガルバノミラーとの間の距離がシーンにおける深度に比較して非常に小さいので、この影響は無視することができる。 The line projector utilized in the prototype uses a 638 nm laser diode with a peak power of 700 mW as its light source. Light from the diode is collimated and passed through a Powell lens that stretches the beam cross-section into a broad, nearly uniformly illuminated straight line with a fanout angle of 45 degrees. The laser light is directed to a 1D scanning galvo mirror that can be rotated to deflect the sheet. The rotation range of the mirror gives the projector a 40 degree vertical field of view. The effective center of projection of the projector moves as the mirror rotates, but this effect is negligible because the distance between the fanout point and the galvo mirror is very small compared to the depth in the scene.
マイクロコントローラが、センサと光源とを同期させるのに使用される。マイクロコントローラは、露出時間、変調周波数/位相、対象領域、行を設定するために、および各キャプチャをトリガするために、I2Cバスにわたってセンサと通信することができる。マイクロコントローラは、プロジェクタのガルバノミラーを作動させることもできる。さらに、マイクロコントローラは、センサに取り付けられているMEMs慣性磁気装置(IMU)を使用してカメラの回転速度を読み取ることができる。周波数発生器回路により、変調周波数(1MHzステップで11MHzから24MHzの間の)の選択が可能になる。 A microcontroller is used to synchronize the sensor and the light source. A microcontroller can communicate with the sensor over the I2C bus to set the exposure time, modulation frequency/phase, area of interest, row, and to trigger each capture. The microcontroller can also operate the galvo mirrors of the projector. Additionally, the microcontroller can read the rotational speed of the camera using MEMs inertial magnetic units (IMUs) attached to the sensor. A frequency generator circuit allows selection of the modulation frequency (between 11 MHz and 24 MHz in 1 MHz steps).
プロジェクタおよびカメラは、エピポーラ撮像に必要とされるように、平行化されたステレオ構成で隣り合って位置合せされる。正しく位置合せされたとき、投射された光シートは、カメラにおける単一の画素の行を照射し、この行は、深度から独立している。ガルバノミラー角度と照射されたカメラ行との間のマッピングを決定するためにミラー較正が実施される。 The projector and camera are aligned side-by-side in a collimated stereo configuration as required for epipolar imaging. When properly aligned, the projected light sheet illuminates a single row of pixels in the camera, which row is independent of depth. Mirror calibration is performed to determine the mapping between galvo mirror angles and illuminated camera rows.
センサ較正
実際には、センサから読み出された測定値は、観測されたとき、それらの期待値に合致しない。固定パターン雑音、不均等な感度、およびタップと各画素における実際の露出変調関数の位相の変動との間のクロストークを含めて、この不一致にはいくつかの理由がある。期待されるセンサ測定値Ιω(x)と観測された測定値
Ηω(x)を見いだすために、センサは、知られている距離のセットzk,k=1,...,Kにおける平面に、前額平行に配置される。平面の各位置に対して、センサ測定値は、変化するシーンアルベドの効果をシミュレートするために、異なる絞り設定(s=1,...,S)で収集される。各平面位置kに対して、経路長は、画素において計算することができ、lk(x)、そしてそれから、期待される位相
これらの較正パラメータは、変調周波数および露出時間の両方に依存し、したがって、プロセスがすべての周波数および露出時間に対して繰り返される。センサおよび光源ドライバに渡される変調信号は、矩形波であるが、変調周波数20MHz以上において高調波は大いに抑制され、したがって、変調関数は、正弦波によってよく近似された。 These calibration parameters are dependent on both modulation frequency and exposure time, so the process is repeated for all frequencies and exposure times. The modulation signal passed to the sensor and light source driver was a square wave, but the harmonics were greatly suppressed at modulation frequencies above 20 MHz, so the modulation function was well approximated by a sine wave.
タイミング
プロトタイプを用いて行を撮像するのに必要な時間(および、さらに言うとフレームレート)は、n、1行当たりの読出しの数と、露出時間texp、行に対する読出し時間treadと、tmirror、サンプリングシーケンスにおいてガルバノミラーが次の行位置へ移動するために要する時間との関数である。
プロトタイプに使用されたような2タップセンサの場合、単一の変調周波数を使用して深度を測定するのに少なくともn=2の読出しが必要である。図5は、行の特定のシーケンスに対するカメラの露出、読出しおよびミラー位置のタイミング図を示す。まず、走査型ミラーは、新たなアクティブな行に移動され、所定位置にセトリングするためにtmirror時間を要する。前の行読出しが完了し(treadの時間を要する)、ミラーが所定位置にあるとき、カメラがトリガされる。この例において、tmirror>treadであり、したがって、ミラーの速度が、キャプチャレートにとってボトルネックである。各露出は、時間texpにわたって持続し、各露出の終わりに、行が読み取られる。図5はタイミング例を示す。trowは175μsであり、texpは100μsに設定される。行のサンプリングシーケンスにおいて、ミラーはステップごとに2つの行を通して回転し(ほぼ0.33°)、このステップサイズのセトリング時間tmirrorは、おおよそ100μsである。合計で、trowは、n=2であるとき、550μsということになり、それにより、7.5fps(n=4であるとき3.8fps)のフレームレートが生じる。 For a two-tap sensor such as that used in the prototype, at least n=2 readings are required to measure depth using a single modulation frequency. FIG. 5 shows a timing diagram of camera exposure, readout and mirror positions for a particular sequence of rows. First, the scanning mirror is moved to the new active row and takes t_mirror time to settle into place. The camera is triggered when the previous row readout is complete (which takes t - - read time) and the mirror is in place. In this example, t mirror >t read , so the speed of the mirror is the bottleneck for the capture rate. Each exposure lasts for time t exp and at the end of each exposure a row is read. FIG. 5 shows a timing example. t_row is 175 μs and t_exp is set to 100 μs. In the row sampling sequence, the mirror rotates through two rows per step (approximately 0.33°) and the settling time t mirror for this step size is approximately 100 μs. In total, t row amounts to 550 μs when n=2, resulting in a frame rate of 7.5 fps (3.8 fps when n=4).
制限
現在、フレームレートの主なボトルネックは読出し時間である。本発明の実施形態は、読出しごとにセンサの1つの行だけからのデータを必要とするが、EPC660センサがサポートする最小対象領域は、高さが4つの行であり、現実には1つの行だけが使用されるとき、4つの行の読取りが強制される。さらに、開発キットは、センサのデータバスを20MHzに制限するが、センサ自体は、最大80MHzまでのバスレートをサポートする。texpの最小値は、光源のピークパワーおよび所望のレンジに依存する。説明される本発明のプロトタイプは、700mWのピークパワーを有する源を有するが、他のほとんどの実験的な飛行時間システムは、3Wから10Wの範囲のピーク光源パワーを有する。より明るい光源を使用する場合、レンジの損失なく、より短い露出時間を使用することができる。最後に、低費用のガルバノミラーは、より高速の1D MEMsミラーで置き換えることができる。これらの改善により、説明されるプロトタイプに基づくシステムは、ビデオフレームレートで動作するはずである。
Limitations Currently, the main bottleneck for frame rate is readout time. Although embodiments of the present invention require data from only one row of the sensor for each readout, the minimum area of interest that the EPC660 sensor supports is four rows high, and in reality only one row. is used, it forces a read of 4 rows. Additionally, the development kit limits the sensor's data bus to 20 MHz, but the sensor itself supports bus rates up to 80 MHz. The minimum value of t exp depends on the peak power of the light source and the desired range. The prototype of the invention described has a source with a peak power of 700 mW, but most other experimental time-of-flight systems have peak source powers in the range of 3W to 10W. Shorter exposure times can be used without loss of range when using brighter light sources. Finally, low cost galvo mirrors can be replaced with faster 1D MEMs mirrors. With these improvements, a system based on the described prototype should operate at video frame rates.
説明されるプロトタイプに使用されるセンサは、唯一24MHzの最大変調周波数をサポートするが、他のほとんどの飛行時間センサは、50MHzから100MHzの範囲で動くことができる。これは、より小さい対象を正確に走査するための、または過渡撮像に使用されるためのプロトタイプの能力を制限する。EPC660データシートは、センサADCは12ビット値を返すが、使用されたセンサのバージョンは、10ビットしか返さない、と明記しており、これがレンジに効いて、出力深度マップがより雑音の多いものになる。 The sensor used in the prototype described only supports a maximum modulation frequency of 24 MHz, but most other time-of-flight sensors can operate in the range of 50 MHz to 100 MHz. This limits the prototype's ability to accurately scan smaller objects or to be used for transient imaging. The EPC660 datasheet specifies that the sensor ADC returns 12-bit values, but the version of the sensor used only returns 10-bits, which works for range and makes the output depth map noisier. become.
結果
周囲光および大域照明の下で性能を比較するためにセンサを通常の撮像モードで動かすために、センサ全体が、小さなROIを使用する代わりに、一挙に露出され、センサは、シートプロジェクタが視野にわたる掃引を終了するまで露出されたままである。マルチデバイス干渉およびカメラの動きの実験における通常のToF撮像では、シートプロジェクタは、拡散源で置き換えることができる。
Results To run the sensor in normal imaging mode to compare performance under ambient and global illumination, the entire sensor was exposed at once, instead of using a small ROI, and the sensor was exposed to the sheet projector's field of view. remains exposed until the end of the sweep over . In normal ToF imaging in multi-device interference and camera motion experiments, the sheet projector can be replaced with a diffuse source.
周囲光
エピポーラ撮像を明るく照らされた環境の飛行時間に適用する利益が、シミュレートされ、結果は図7に示される。所与の光源パワーでは、通常の撮像により、周囲光レベルが0lx(完全な闇)から100klx(直射日光)に増大するにつれて、深度精度が急速に劣化する。エピポーラ撮像の場合、劣化はよりずっと緩やかである。
Ambient Light The benefit of applying epipolar imaging to time-of-flight in brightly lit environments was simulated and the results are shown in FIG. For a given source power, typical imaging degrades depth accuracy rapidly as the ambient light level increases from 0 lx (complete darkness) to 100 klx (direct sunlight). For epipolar imaging the degradation is much more gradual.
図7(a)は、周囲光レベルに応じてカメラから10mのターゲットに対して通常のおよびエピポーラToF撮像(変調周波数15MHz)を使用して得た深度測定値における標準偏差のシミュレーションの結果を示す。両方の場合に対して、ピーク光源パワーは2Wであり、総露出時間は同じ(1つの画像当たり7.2ms)であるが、エピポーラToFは、光源パワーを集中させ、各行に対して短時間露出(30μs)を使用するので、周囲光に対してよりロバストである。 FIG. 7(a) shows simulated results of the standard deviation in depth measurements obtained using normal and epipolar ToF imaging (modulation frequency 15 MHz) for a target 10 m from the camera depending on the ambient light level. . For both cases, the peak source power is 2 W and the total exposure time is the same (7.2 ms per image), but the epipolar ToF concentrates the source power and uses a short exposure for each row. (30 μs) is used, so it is more robust to ambient light.
図7(b)は、許容可能なレンジ精度の異なるレベルにおける同じシミュレートされたカメラの動作レンジを示す。シミュレートされたカメラのパラメータはプロトタイプと異なることに留意されたい。 FIG. 7(b) shows the motion range of the same simulated camera at different levels of acceptable range accuracy. Note that the simulated camera parameters are different from the prototype.
図6は、曇天および晴天条件の通常のToFおよびエピポーラToFモードにおける説明されるプロトタイプを定量的に比較する。通常のToFモードは、明るい日光の下では失敗しているが、エピポーラToFは、相当によりロバストである。図1(a)は、15mのレンジを有する、日光の下における(70klx)生の3D CW-ToF撮像を示し(人が階段上を歩いており、遠隔の建物あたりで位相がラッピングする)、図8は、強い周囲光および大域照明効果の両方を有するシーン例を示す。食器類(table service)からの反射により、通常のToFでは誤りが生じているが、エピポーラ撮像では、これらは抑制されている。 Figure 6 quantitatively compares the described prototypes in normal ToF and epipolar ToF modes in cloudy and clear weather conditions. Normal ToF mode fails in bright sunlight, but epipolar ToF is considerably more robust. FIG. 1(a) shows a raw 3D CW-ToF imaging in daylight (70 klx) with a range of 15 m (a person walking on stairs and phase wrapping around a distant building); FIG. 8 shows an example scene with both strong ambient lighting and global lighting effects. Reflections from the table service cause errors in normal ToF, but are suppressed in epipolar imaging.
図6(d)は、ターゲットまでの距離に対する深度測定値の標準偏差を示す(より緩やかな上昇曲線がより良い)。本発明のプロトタイプは、明るい日光の下において10mでおよそ3%の深度誤差を有する。 FIG. 6(d) shows the standard deviation of depth measurements versus distance to target (slower rising curve is better). Our prototype has a depth error of approximately 3% at 10m in bright sunlight.
大域照明
図9は、少数の一般的な屋内環境における大域照明の効果を抑制するエピポーラ撮像の能力を示す。これらの結果は、単一の変調周波数(24MHz)を使用して発生される。部屋の角において、壁と天井との間の拡散相互反射により、深度は過大評価され、通常の撮像では角の丸み付けが生じる。
Global Illumination FIG. 9 illustrates the ability of epipolar imaging to suppress the effects of global illumination in a few common indoor environments. These results are generated using a single modulation frequency (24 MHz). In the corners of the room, the diffuse interreflection between the walls and the ceiling overestimates the depth and causes corner rounding in normal imaging.
図1(b)にも示される、図9の二番目の行における会議用テーブルは、グレージング角で鏡面のように見える。浴室のシーンにおいて、ミラーからの反射に起因する壁のゴーストは、エピポーラ撮像によって抑制される。噴水式飲み器は、その金属面からの直接の戻りが非常に弱いが、表面は多くの間接光をセンサに反射しかえすので、特に興味深い。エピポーラ撮像では、使用可能な直接信号を回復することを試みるために3つの露出が組み合わされる。より長時間の露出は、相互反射がセンサを飽和させるので、通常の撮像には役に立たない。 The conference table in the second row of FIG. 9, also shown in FIG. 1(b), appears specular at the grazing angle. In a bathroom scene, wall ghosting due to reflections from mirrors is suppressed by epipolar imaging. Drinking fountains are of particular interest because the direct return from their metal surfaces is very weak, but the surface reflects a lot of indirect light back to the sensor. Epipolar imaging combines three exposures to attempt to recover a usable direct signal. Longer exposures are not useful for normal imaging because interreflections saturate the sensor.
エピポーラ撮像により、壁は、真っ直ぐに見え、鋭い直角で接触しあい、角の相互反射、光沢のある会議用テーブル上への映写幕からのつやのある中間投射、洗面所のミラーからのおよび壁と光沢のある噴水式飲み器との間の反射を拡散する。エピポーラToFは、大域的な光輸送のほとんどを除去し、結果として通常のToFよりも顕著により正確である深度マップとなる。 With epipolar imaging, the walls appear straight and meet at sharp right angles, corner interreflections, glossy intermediate projection from the projection screen onto the glossy conference table, from the mirror in the bathroom and with the wall. Diffuse the reflections between the drinking fountain with the Epipolar ToF removes most of the global light transport, resulting in depth maps that are significantly more accurate than regular ToF.
マルチカメラ干渉
エピポーラCW-ToF撮像により、同じ変調周波数で動く2つのカメラは、通常、各画像における画素のスパースなセットにおいてただ互いに干渉するだけであり得る。各カメラは、一度にシーンにおける単一のラインを照射し、撮像し、したがって、任意の時点において、二番目のカメラは、その照射されたラインが一番目のカメラの露出された画素の行と交差する点において一番目のカメラとただ干渉するだけであり得る。1つのカメラの光源が、平行化されたステレオペアを二番目のカメラのセンサと形成し、両方のカメラがたまたま同期されたとき、悪化した場合が起きるが、これはまれな出来事とみなすことができる。
Multi-Camera Interference With epipolar CW-ToF imaging, two cameras moving at the same modulation frequency can typically only interfere with each other in a sparse set of pixels in each image. Each camera illuminates and images a single line in the scene at a time; It can only interfere with the first camera at the point of intersection. Worse cases occur when the light source of one camera forms a collimated stereo pair with the sensors of a second camera, and both cameras happen to be synchronized, but this can be considered a rare occurrence. can.
2つよりも多くのカメラが存在する場合、カメラの各ペアは、それらが互いに干渉する点のスパースなセットを有する。エピポーラToFカメラのセットが異なる変調周波数で動いているとき、各カメラの他のカメラにおけるショット雑音への寄与は、大いに低減される。図1(c)は、2つのCW-ToFカメラを通常のおよびエピポーラ撮像により同じ周波数で同時に動作させた結果を示す。エピポーラ撮像は、同じ周波数で動作しているToFデバイス間に干渉がないことを示す。通常のToFには観測可能な誤り(すなわち、壁と椅子)がある。 If there are more than two cameras, each pair of cameras has a sparse set of points where they interfere with each other. When a set of epipolar ToF cameras are moving at different modulation frequencies, each camera's contribution to shot noise in the other camera is greatly reduced. FIG. 1(c) shows the results of operating two CW-ToF cameras simultaneously at the same frequency with normal and epipolar imaging. Epipolar imaging shows no interference between ToF devices operating at the same frequency. Regular ToF has observable errors (ie walls and chairs).
カメラの動き
知られている回転軌道(MEMSジャイロスコープから得た)を有する回転するカメラを使用する場合、通常の撮像により、各キャプチャされたToF測定値は、測定値が互いに整合しないので、動きぼけ、および深度不連続における強いアーチファクトを有する。理論的には、これらは、空間的に変化するデコンボリューションを使用して収集することができるが、これは、計算的に高価であり、高周波数成分を回復することが下手である。エピポーラToF撮像を使用する場合、動きぼけは、基本的に何も影響がなく、ロールシャッタに似た効果を有する深度マップが取得される。これは、回転から計算された単純な画像ワープを用いて補正することができる。図1(d)は、急速にパンするカメラからの例を示し、シーン露出の間に深刻なカメラぶれが存在する場合でも歪んでいない深度マップを得ることができる(通常のToFにおいて取り除くのが困難なゴーストエラーを観測することができる)ことを示す。さらに、前述したように、センサは、そして私はあなたであるを装備することができ、それはプラットフォームのプロモーション(promotion)を補償するのに使用される。
Camera Motion When using a rotating camera with a known rotational trajectory (obtained from a MEMS gyroscope), normal imaging causes each captured ToF measurement to have a motion It has strong artifacts in blurring and depth discontinuities. Theoretically, these can be collected using spatially varying deconvolution, but this is computationally expensive and poor at recovering high frequency components. When using epipolar ToF imaging, motion blur basically has no effect and a depth map is obtained with an effect similar to a rolling shutter. This can be corrected using a simple image warp computed from the rotation. Fig. 1(d) shows an example from a rapidly panning camera, where an undistorted depth map can be obtained even in the presence of severe camera shake during the scene exposure (which should be removed in normal ToF). difficult ghost errors can be observed). Additionally, as previously mentioned, sensors can be equipped with I am you, which are used to compensate for platform promotions.
飛行時間深度カメラのためのエピポーラ撮像は、明るく照らされた条件における低い性能、大域照明に起因する系統誤差、デバイス間干渉およびカメラの動きに起因する誤差など、深度カメラにより一般に出合う問題の多くを軽減する。深度カメラに比較して、一度に単一の点を照射し撮像する走査型LIDARなどのシステムは、すべてのこれらの効果に対して非常にロバストであるが、低い測定レートを有する。エピポーラ撮像は、全視野キャプチャおよび点ごとのキャプチャのこれら2つの極端の間の妥協点と考えられうる。エピポーラ撮像は一度に単一のラインを照射しキャプチャするので、それにより、深度カメラが依然として高い測定レートを有しながら点走査のロバスト性のほとんどを有することが可能になる。 Epipolar imaging for time-of-flight depth cameras overcomes many of the problems commonly encountered by depth cameras, such as poor performance in brightly lit conditions, systematic errors due to global illumination, inter-device interference and errors due to camera motion. Reduce. Compared to depth cameras, systems such as scanning LIDAR that illuminate and image a single point at a time are very robust against all these effects, but have a low measurement rate. Epipolar imaging can be considered a compromise between these two extremes of full-field capture and point-by-point capture. Since epipolar imaging illuminates and captures a single line at a time, it allows depth cameras to have most of the robustness of point scanning while still having a high measurement rate.
ここでToFに対して行われたように、行ごとにパターンを繰り返すことは、構造化光に直接適用可能でもある。それは、現在シングルショット方法だけを使用することができるダイナミックなシーンに対して、高品質深度マップを発生させるマルチ画像構造化光方法を適用することを可能にするはずである。 Repeating the pattern row-by-row, as done here for ToF, is also directly applicable to structured light. It should allow applying multi-image structured light methods to generate high-quality depth maps to dynamic scenes where currently only single-shot methods can be used.
説明されたプロトタイプにおいて、走査型ミラーは、鋸歯状パターンに従い、整然としたシーケンスで行をキャプチャする。しかし、より高速の走査型ミラーを使用した場合、疑似ランダム行サンプリング戦略を実装することができ、それは、エピポーラ撮像を圧縮センシングまたは同様の技法を併せて使用することを可能にし、速く移動するシーンの時間的に超解像された深度マップを回復する。本発明の実施形態は、具体的な識別された構成部品を使用して本明細書に説明されてきたが、本発明はそれにより限定されることが意図されていない。特許請求される本発明の範囲は、以下に提示される請求項の組によって定義される。 In the described prototype, the scanning mirror follows a sawtooth pattern and captures rows in an orderly sequence. However, when using faster scanning mirrors, a pseudo-random row sampling strategy can be implemented, which allows epipolar imaging to be used in conjunction with compressive sensing or similar techniques, allowing fast moving scenes recover the temporally super-resolved depth map of . Although embodiments of the invention have been described herein using specific identified components, the invention is not intended to be limited thereby. The scope of the claimed invention is defined by the set of claims presented below.
Claims (31)
変調された光源と、
センサであって、変調された光源によって投射された光シートがプロジェクタとセンサとの間のエピポーラ面にあるように、変調された光源およびセンサが、平行化されたステレオ構成にある、センサと、
変調された光源とセンサとを同期させ、構成するためのマイクロコントローラと
を備え、
変調された光源は、一連のエピポーラ面に沿って、変調された光のシートを投射するように構成され、一連のエピポーラ面が視野を画定しており、
前記センサは、前記一連のエピポーラ面における各エピポーラ面からの前記視野内の照射された画素の行を撮像するように構成され、前記撮像は、前記一連のエピポーラ面における次のエピポーラ面に移動する前に、各エピポーラ面に対する一組の変調位相内の全ての変調位相をキャプチャし、
視野におけるエピポーラ面が、変化する順序で照射され、感知される、システム。 a system,
a modulated light source;
a sensor, wherein the modulated light source and the sensor are in a collimated stereo configuration such that the light sheet projected by the modulated light source is in an epipolar plane between the projector and the sensor;
a microcontroller for synchronizing and configuring the modulated light source and sensor;
the modulated light source is configured to project a sheet of modulated light along a series of epipolar planes, the series of epipolar planes defining a field of view;
The sensor is configured to image a row of illuminated pixels in the field of view from each epipolar plane in the series of epipolar planes, the imaging moving to the next epipolar plane in the series of epipolar planes. Before, capture all modulation phases in the set of modulation phases for each epipolar plane,
A system in which the epipolar planes in the field of view are illuminated and sensed in varying order .
a. レーザ光源と、
b. レーザ光源のコリメートされた出力から光シートを発生させるように構成された光学素子と、
c. プロジェクタとセンサとの間の一連のエピポーラ面に沿って、レーザ光のシートを誘導するための手段と
を備える、請求項1に記載のシステム。 A modulated light source
a. a laser light source;
b. an optical element configured to generate a light sheet from the collimated output of the laser light source;
c. and means for directing the sheet of laser light along a series of epipolar planes between the projector and the sensor.
平行化されたステレオ構成で配置された変調された光源およびセンサによって画定された一連のエピポーラ面に沿って、変調された光のシートを投射するステップであって、一連のエピポーラ面が視野を画定する、ステップと、
前記一連のエピポーラ面における各エピポーラ面からの前記視野内の照射された画素の行を撮像し、前記撮像は、前記一連のエピポーラ面における次のエピポーラ面に移動する前に、各エピポーラ面に対する一組の変調位相内の全ての変調位相をキャプチャする、ステップと、
一組の変調位相における変調位相のうちの2つ以上に基づいて、照射された画素の単一の行における各画素の深度を決定するステップとを含み、
視野におけるエピポーラ面が、変化する順序で照射され、感知される、方法。 a method,
Projecting a sheet of modulated light along a series of epipolar planes defined by modulated light sources and sensors arranged in a collimated stereo configuration, the series of epipolar planes defining a field of view. do, step and
imaging rows of illuminated pixels in the field of view from each epipolar plane in the series of epipolar planes, the imaging being one for each epipolar plane before moving to the next epipolar plane in the series of epipolar planes; capturing all modulation phases in the set of modulation phases;
determining the depth of each pixel in a single row of illuminated pixels based on two or more of the modulation phases in the set of modulation phases ;
A method in which epipolar planes in the field of view are illuminated and sensed in varying order .
レーザ光源と、
レーザ光源のコリメートされた出力から光シートを発生させるように構成された光学素子と、
プロジェクタとセンサとの間の一連のエピポーラ面に沿って、レーザ光のシートを誘導するための手段と
を備える、請求項11に記載の方法。 A modulated light source
a laser light source;
an optical element configured to generate a light sheet from the collimated output of the laser light source;
12. The method of claim 11, comprising means for directing the sheet of laser light along a series of epipolar planes between the projector and the sensor.
平行化されたステレオ構成で配置された変調された光源およびセンサによって画定された一連のエピポーラ面に沿って、変調された光のシートを投射し、一連のエピポーラ面が視野を画定しており、
前記一連のエピポーラ面における各エピポーラ面からの前記視野内の照射された画素の行を撮像し、前記撮像は、前記一連のエピポーラ面における次のエピポーラ面に移動する前に、各エピポーラ面に対する一組の変調位相内の全ての変調位相をキャプチャし、
一組の変調位相における変調位相のうちの2つ以上に基づいて、照射された画素の単一の行における各画素の深度を決定し、
画定された視野内の各照射されたエピポーラ面における各画素の深度に基づいて深度マップを作成する
機能を実施するソフトウェアを含み、
視野におけるエピポーラ面が、変化する順序で照射され、感知される、非一時的コンピュータ可読媒体。 A non-transitory computer-readable medium that, when executed,
projecting a sheet of modulated light along a series of epipolar planes defined by modulated light sources and sensors arranged in a collimated stereo configuration, the series of epipolar planes defining a field of view;
imaging rows of illuminated pixels in the field of view from each epipolar plane in the series of epipolar planes, the imaging being one for each epipolar plane before moving to the next epipolar plane in the series of epipolar planes; capturing all modulation phases in the set of modulation phases;
determining the depth of each pixel in a single row of illuminated pixels based on two or more of the modulation phases in the set of modulation phases;
comprising software performing the function of creating a depth map based on the depth of each pixel in each illuminated epipolar plane within the defined field of view;
A non-transitory computer readable medium in which epipolar surfaces in a field of view are illuminated and sensed in varying order .
レーザ光源と、
レーザ光源のコリメートされた出力から光シートを発生させるように構成された光学素子と、
プロジェクタとセンサとの間の一連のエピポーラ面に沿って、レーザ光のシートを誘導するための手段と
を備える、請求項11に記載の方法。 A modulated light source
a laser light source;
an optical element configured to generate a light sheet from the collimated output of the laser light source;
12. The method of claim 11, comprising means for directing the sheet of laser light along a series of epipolar planes between the projector and the sensor.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762499193P | 2017-01-20 | 2017-01-20 | |
US62/499,193 | 2017-01-20 | ||
PCT/US2018/014369 WO2018136709A1 (en) | 2017-01-20 | 2018-01-19 | Method for epipolar time of flight imaging |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020504310A JP2020504310A (en) | 2020-02-06 |
JP7244013B2 true JP7244013B2 (en) | 2023-03-22 |
Family
ID=62909043
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019539163A Active JP7244013B2 (en) | 2017-01-20 | 2018-01-19 | Methods for epipolar time-of-flight imaging |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP3571467A4 (en) |
JP (1) | JP7244013B2 (en) |
CA (1) | CA3051102A1 (en) |
WO (1) | WO2018136709A1 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11972586B2 (en) | 2015-02-13 | 2024-04-30 | Carnegie Mellon University | Agile depth sensing using triangulation light curtains |
US11747135B2 (en) | 2015-02-13 | 2023-09-05 | Carnegie Mellon University | Energy optimized imaging system with synchronized dynamic control of directable beam light source and reconfigurably masked photo-sensor |
EP3620821A1 (en) * | 2018-09-05 | 2020-03-11 | Infineon Technologies AG | Time of flight camera and method for calibrating a time of flight camera |
US11467270B2 (en) * | 2019-03-27 | 2022-10-11 | Asmpt Singapore Pte. Ltd. | Apparatus and method for calibrating or testing an imaging device |
CA3137060A1 (en) * | 2019-04-17 | 2020-10-22 | Carnegie Mellon University | Agile depth sensing using triangulation light curtains |
US11619723B2 (en) * | 2019-09-23 | 2023-04-04 | Microsoft Technology Licensing, Llc | Multiple-mode frequency sharing for time-of-flight camera |
CN111077538A (en) * | 2019-12-29 | 2020-04-28 | 中国科学院西安光学精密机械研究所 | Dynamic high-precision optical combined imaging method and system for marine complex environment |
WO2021177045A1 (en) * | 2020-03-04 | 2021-09-10 | ソニーグループ株式会社 | Signal processing device, signal processing method, and range-finding module |
WO2022016314A1 (en) * | 2020-07-20 | 2022-01-27 | 无锡盈达聚力科技有限公司 | Scanning system and method for controlling aiming light source |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002039716A (en) | 2000-07-25 | 2002-02-06 | Olympus Optical Co Ltd | Depth map input device |
JP2012168049A (en) | 2011-02-15 | 2012-09-06 | Stanley Electric Co Ltd | Distance image generation device and method |
JP2013050310A (en) | 2011-08-30 | 2013-03-14 | Stanley Electric Co Ltd | Distance image generation device |
JP2015513825A (en) | 2012-02-15 | 2015-05-14 | メサ・イメージング・アー・ゲーMesa Imaging Ag | Time-of-flight camera with stripe lighting |
WO2016131036A1 (en) | 2015-02-13 | 2016-08-18 | Carnegie Mellon University | Imaging system with synchronized dynamic control of directable beam light source and reconfigurably masked photo-sensor |
US20160349369A1 (en) | 2014-01-29 | 2016-12-01 | Lg Innotek Co., Ltd. | Device for extracting depth information and method thereof |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1971820B1 (en) * | 2006-01-08 | 2012-10-17 | Hermann Tropf | Creation of a distance image |
US9476695B2 (en) * | 2013-07-03 | 2016-10-25 | Faro Technologies, Inc. | Laser tracker that cooperates with a remote camera bar and coordinate measurement device |
US9389069B2 (en) * | 2014-03-26 | 2016-07-12 | Alces Technology, Inc. | Compact 3D depth capture systems |
-
2018
- 2018-01-19 JP JP2019539163A patent/JP7244013B2/en active Active
- 2018-01-19 WO PCT/US2018/014369 patent/WO2018136709A1/en unknown
- 2018-01-19 CA CA3051102A patent/CA3051102A1/en active Pending
- 2018-01-19 EP EP18742111.0A patent/EP3571467A4/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002039716A (en) | 2000-07-25 | 2002-02-06 | Olympus Optical Co Ltd | Depth map input device |
JP2012168049A (en) | 2011-02-15 | 2012-09-06 | Stanley Electric Co Ltd | Distance image generation device and method |
JP2013050310A (en) | 2011-08-30 | 2013-03-14 | Stanley Electric Co Ltd | Distance image generation device |
JP2015513825A (en) | 2012-02-15 | 2015-05-14 | メサ・イメージング・アー・ゲーMesa Imaging Ag | Time-of-flight camera with stripe lighting |
US20160349369A1 (en) | 2014-01-29 | 2016-12-01 | Lg Innotek Co., Ltd. | Device for extracting depth information and method thereof |
WO2016131036A1 (en) | 2015-02-13 | 2016-08-18 | Carnegie Mellon University | Imaging system with synchronized dynamic control of directable beam light source and reconfigurably masked photo-sensor |
Non-Patent Citations (2)
Title |
---|
Matthew O'Toole et al.,"Homogeneous Codes for Energy-Efficient Illumination and Imaging",ACM Transactions on Graphics,2015年08月,Vol.34, No.4, Article 35,pp 1-13,DOI: 10.1145/2766897 |
Supreeth Achar et al.,"Epipolar Time-of-Flight Imaging",ACM Transactions on Graphics,2017年07月,Vol.36, No.4, Article 37,pp 1-8,DOI: 10.1145/3072959.3073686 |
Also Published As
Publication number | Publication date |
---|---|
EP3571467A4 (en) | 2020-08-12 |
CA3051102A1 (en) | 2018-07-26 |
EP3571467A1 (en) | 2019-11-27 |
JP2020504310A (en) | 2020-02-06 |
WO2018136709A1 (en) | 2018-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7244013B2 (en) | Methods for epipolar time-of-flight imaging | |
US11425357B2 (en) | Method for epipolar time of flight imaging | |
US10935371B2 (en) | Three-dimensional triangulational scanner with background light cancellation | |
CN106454287B (en) | Combination shot system, mobile terminal and image processing method | |
US11002856B2 (en) | Doppler time-of-flight imaging | |
JP6309459B2 (en) | Time-of-flight camera with stripe lighting | |
JP7371443B2 (en) | 3D measuring device | |
KR101854188B1 (en) | 3D image acquisition apparatus and method of acqiring depth information in the 3D image acquisition apparatus | |
JP6822230B2 (en) | Imaging device and imaging method | |
US11375165B2 (en) | Image calibration for projected images | |
JP7270702B2 (en) | Depth sensing system and method | |
JP2010113720A (en) | Method and apparatus for combining range information with optical image | |
JP2014511590A (en) | Method for recording image, method for obtaining 3D information from image, camera system | |
TWI641802B (en) | Three-dimensional measuring device | |
WO2016131036A1 (en) | Imaging system with synchronized dynamic control of directable beam light source and reconfigurably masked photo-sensor | |
Kitajima et al. | Simultaneous projection and positioning of laser projector pixels | |
US20240244330A1 (en) | Systems and methods for capturing and generating panoramic three-dimensional models and images | |
CN109100740B (en) | Three-dimensional image imaging device, imaging method and system | |
CN112019773A (en) | Image sensor, depth data measuring head, measuring device and method | |
JP3574602B2 (en) | 3D image input device | |
JP2019027894A (en) | Positional information acquisition system, and method and program for acquiring positional information | |
JP2016038287A (en) | Self position calculation device and self position calculation method | |
JP4944633B2 (en) | Three-dimensional shape measuring apparatus and three-dimensional shape measuring method | |
Maas | Close range photogrammetry sensors | |
WO2024154528A1 (en) | Three-dimensional measurement device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190920 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210316 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20210929 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20210929 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211029 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211124 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220523 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221130 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20221130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20221130 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20221219 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20221220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230301 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7244013 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |