JP7244013B2 - Methods for epipolar time-of-flight imaging - Google Patents

Methods for epipolar time-of-flight imaging Download PDF

Info

Publication number
JP7244013B2
JP7244013B2 JP2019539163A JP2019539163A JP7244013B2 JP 7244013 B2 JP7244013 B2 JP 7244013B2 JP 2019539163 A JP2019539163 A JP 2019539163A JP 2019539163 A JP2019539163 A JP 2019539163A JP 7244013 B2 JP7244013 B2 JP 7244013B2
Authority
JP
Japan
Prior art keywords
epipolar
illuminated
sensor
depth
sensed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019539163A
Other languages
Japanese (ja)
Other versions
JP2020504310A (en
Inventor
ナラシンハン,スリニバサ
アチャール,スプリート
クトゥラコス,キリアコス
バルテルス,ジョーセフ
ウィテカー,ウィリアム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Toronto
Original Assignee
University of Toronto
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Toronto filed Critical University of Toronto
Publication of JP2020504310A publication Critical patent/JP2020504310A/en
Application granted granted Critical
Publication of JP7244013B2 publication Critical patent/JP7244013B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4913Circuits for detection, sampling, integration or read-out
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4915Time delay measurement, e.g. operational details for pixel components; Phase measurement

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本出願は、2017年1月20日に出願された米国仮特許出願第62/499,193号の利益を主張する。 This application claims the benefit of US Provisional Patent Application No. 62/499,193, filed January 20, 2017.

政府の権利
本発明は、ONRによって授与されたN000141512358、NSFによって授与された11S1317749、DARPAによって授与されたHR00111620021、ならびにNASAによって授与された助成NNX16AD98GおよびNNX14AM53Hの下で政府支援により行われた。政府は本発明に特定の権利を有する。
GOVERNMENT RIGHTS This invention was made with government support under N000141512358 awarded by ONR, 11S1317749 awarded by NSF, HR00111620021 awarded by DARPA, and grants NNX16AD98G and NNX14AM53H awarded by NASA. The Government has certain rights in this invention.

飛行時間(ToF:time-of-flight)深度センサは、自動車および航空からロボット工学、ゲームおよび家庭用電化製品までの多様な用途における最適な技術となっている。これらのセンサは、大きく2つの特徴:深度を感知するのに極めて短い光のパルスに頼るLIDARベースのシステム、および、よりずっと長い持続時間にわたって変調された光信号を放射する連続波(CW:continuous-wave)システム、に分けられる。LIDARベースのシステムは、白昼に最大1キロメートル離れたところまでセンチメートル精度の深度マップを取得することができるが、低い測定レートを有する。さらに、1画素当たりの費用が、CWシステムよりも数桁高く、そのレンジ、屋外動作およびロバスト性が極めて限定される。低費用、大規模生産および高測定レートがしばしば他の検討事項にまさるので、連続波飛行時間(CW-ToF)センサは、それらの欠点にも関わらず、家庭用電化製品および低価格のロボット工学の場所を支配し続けている。さらに、KinectおよびPMDなどのコンシューマグレードの飛行時間深度カメラは、安価で、コンパクトであり、短距離の用途においてビデオ速度の深度マップを生成する。 Time-of-flight (ToF) depth sensors have become the technology of choice in applications as diverse as automotive and aviation, robotics, gaming and consumer electronics. These sensors have two main characteristics: LIDAR-based systems, which rely on extremely short pulses of light to sense depth, and continuous wave (CW) systems, which emit modulated light signals over much longer durations. - wave) system. LIDAR-based systems can acquire centimeter-accurate depth maps up to 1 kilometer away in broad daylight, but have low measurement rates. Moreover, the cost per pixel is several orders of magnitude higher than CW systems, and its range, outdoor operation and robustness are severely limited. Continuous wave time-of-flight (CW-ToF) sensors, despite their shortcomings, have found their way into consumer electronics and low-cost robotics because low cost, large-scale production, and high measurement rates often outweigh other considerations. continue to dominate the place of In addition, consumer-grade time-of-flight depth cameras such as Kinect and PMD are inexpensive, compact, and produce video-rate depth maps for short-range applications.

本発明は、エネルギー効率の良いエピポーラ撮像を用いてCW-ToFの欠点を顕著に低減する。ある実施形態において、連続的に変調されたレーザ光のシートが、集合的に視野を走査する、注意深く選択されたエピポーラ面のシーケンスに沿って、投射される。各投射されたシートでは、各エピポーラ面に対応するCW-ToF画素のストリップだけが露出される。図2に示すように、本発明のプロトタイプ実装形態は、特別に作られた投射システムを、制御可能な対象領域(region of interest)を有するCW-ToFセンサに結合する。いくつかの実装形態において、既製のCW-ToFセンサを使用することができる。既製のセンサは、320x240の3Dビデオを毎秒7.5フレームでライブで出力することができ、フレームレートは、センサのAPIによって限定されるだけである。 The present invention significantly reduces the shortcomings of CW-ToF using energy efficient epipolar imaging. In one embodiment, a continuously modulated sheet of laser light is projected along a carefully selected sequence of epipolar planes that collectively scan the field of view. On each projected sheet, only strips of CW-ToF pixels corresponding to each epipolar plane are exposed. As shown in FIG. 2, a prototype implementation of the invention couples a specially crafted projection system to a CW-ToF sensor with a controllable region of interest. In some implementations, off-the-shelf CW-ToF sensors can be used. An off-the-shelf sensor can output 320x240 3D video live at 7.5 frames per second, and the frame rate is only limited by the API of the sensor.

エピポーラ撮像は、最初は従来の(非ToF)ビデオセンサを用いて、直接のみ、または大域のみのビデオをライブで取得するために提案された。このアプローチは、ToF分野に拡大されたが、そのエネルギー効率は非常に低く、それは、単一の「直接のみ」のToF画像を計算するために500を超える画像をキャプチャすることを伴う。三角測量ベースの3D撮像の状況で、2D走査型レーザプロジェクタおよびロールシャッタカメラを用いて、エネルギー効率およびロバスト性の顕著な改善が実現される。本発明は、この考えをToF分野まで拡大する。したがって、それは、非ToFのエネルギー効率の良いエピポーラ撮像のすべての利点を継承するが、CW-ToFに特有である難題にも対処する。 Epipolar imaging was initially proposed for live acquisition of direct-only or global-only video using conventional (non-ToF) video sensors. This approach has been extended to the ToF field, but its energy efficiency is very low and it involves capturing over 500 images to compute a single 'direct-only' ToF image. Significant improvements in energy efficiency and robustness are realized with 2D scanning laser projectors and rolling shutter cameras in the context of triangulation-based 3D imaging. The present invention extends this idea to the ToF field. Thus, it inherits all the advantages of non-ToF energy-efficient epipolar imaging, but also addresses the challenges unique to CW-ToF.

主な困難は、CW-ToFセンサのレンジがパワー消費および目の安全の検討事項によって大幅に限定されることである。ほとんどのCW-ToFセンサは入射光のDC成分を電子的に減算するが、日光などの強力な周囲発生源からの光子雑音は、屋外の数メートルを超える距離において、典型的なフレームレートで、容易にCW-ToF信号を圧倒することができる。光源のエネルギーを単一のシートに集中させることによって、エピポーラToFは、このレンジを10mまで増加させ、より雑音が多いのにもかかわらず、屋外の15mを超えて有用な深度信号を取得する。 The main difficulty is that the range of CW-ToF sensors is severely limited by power consumption and eye safety considerations. Although most CW-ToF sensors electronically subtract the DC component of the incident light, photon noise from strong ambient sources such as sunlight can reduce the noise at typical frame rates outdoors at distances greater than several meters. It can easily overwhelm the CW-ToF signal. By concentrating the energy of the light source onto a single sheet, the epipolar ToF increases this range to 10m and acquires a useful depth signal beyond 15m outdoors, albeit noisier.

第2の困難は、CW-ToFセンサの深度精度が相互反射および大域照明輸送などの大域照明効果によって強く影響されることである。これらの効果は、より長い光路を生成し、構造化付加雑音の源として現れる。これらの効果は、シーンの幾何形状および反射特性に対して強い仮定を課することなしでは、事後にキャンセルすることができず、しかも屋内では極めて一般的である(例えば、壁の間の角、テーブルおよび床の光沢のある表面、ミラーなど)。本発明は、大域輸送のすべての形態に対し、およびライブのCW-ToFで処理することは決して可能でなかった大域照明輸送の形態である、特に鏡面相互反射に対し、顕著なロバスト性を実証する。 A second difficulty is that the depth accuracy of CW-ToF sensors is strongly affected by global illumination effects such as interreflection and global illumination transport. These effects produce longer optical paths and appear as sources of structured additive noise. These effects cannot be canceled after the fact without imposing strong assumptions on the scene geometry and reflection properties, and are quite common indoors (e.g., corners between walls, table and floor glossy surfaces, mirrors, etc.). The present invention demonstrates remarkable robustness to all forms of global transport and especially to specular interreflections, a form of global illumination transport that has never been possible to handle with live CW-ToF. do.

CW-ToF深度センサを装備したデバイスが屋内および屋内で次第に一般的になってきたのに伴い、それらは互いに干渉することなく動作することができなければならない。所与のメーカーとモデルのデバイス間の非干渉は、それらにわたる変調周波数を変化させることにより、実現することができるというものの、CW-ToFセンサのより広いエコシステムに対するロバスト性が望ましい。本発明は、まったく同じ変調周波数および光源波長を有するデバイスに対しても、エピポーラToFにより、干渉のないライブの3D撮像が可能になることを実証する。 As devices equipped with CW-ToF depth sensors become more common indoors and outdoors, they must be able to operate without interfering with each other. Although decoupling between devices of a given make and model can be achieved by varying the modulation frequency across them, robustness to a wider ecosystem of CW-ToF sensors is desirable. The present invention demonstrates that epipolar ToF enables interference-free live 3D imaging even for devices with exactly the same modulation frequency and source wavelength.

最後に、CW-ToFセンサは、単一の深度マップを計算するために放射光の異なる位相を用いて2つ以上のフレームを取得しなければならない。これにより、それらは、振動が単に画像をぼかす従来のカメラと異なり、カメラぶれに対して非常に敏感になり、CW-ToFにおけるカメラぶれが、静的シーンの仮定を破り、動きアーチファクトによりぼけてもおり、破損もされている深度マップとなる。エピポーラToFが、両方の問題に対処することを可能にする:各エピポーラ面に対して非常に短時間の露出に頼ることによって動きぼけが最小にされ、フレームごとにではなく、エピポーラ面ごとに複数の位相測定値を取得することによって動きアーチファクトおよび深度誤差が最小限に抑えられ、取得後の歪み補正がより容易になるようにエピポーラ面のシーケンスをスケジュールすることによって、エピポーラ面ToFの逐次性に起因するロールシャッタに似た歪みが低減される。 Finally, a CW-ToF sensor must acquire two or more frames with different phases of emitted light to compute a single depth map. This makes them very sensitive to camera shake, unlike conventional cameras where vibrations simply blur the image, and camera shake in CW-ToF violates the static scene assumption and is blurred by motion artifacts. This results in a depth map that is both distorted and corrupted. Epipolar ToF allows us to address both problems: motion blur is minimized by relying on very short exposures for each epipolar plane, and multiple Motion artifacts and depth errors are minimized by acquiring phase measurements of , and the sequentiality of the epipolar plane ToF is improved by scheduling the sequence of epipolar planes such that post-acquisition distortion correction is easier. The rolling shutter-like distortion caused by this is reduced.

(a)から(d)は通常の(ToF)システムに対して本発明のエピポーラToFシステムを使用して走査された様々なシーンの比較を示すための図である。Figures (a) to (d) are diagrams to show a comparison of various scenes scanned using the epipolar ToF system of the present invention versus a normal (ToF) system; エピポーラToF撮像を実施するためのシステムの概略図である。1 is a schematic diagram of a system for performing epipolar ToF imaging; FIG. (a)から(f)はToF撮像における、いくつかの可能なエピポーラ面のサンプリング方式および行露出を示す図である。(a) to (f) illustrate several possible epipolar plane sampling schemes and row exposures in ToF imaging. 本出願のプロトタイプの描写である。1 is a depiction of the prototype of the present application; レーザ光源構成部品を示す図である。Fig. 2 shows a laser light source component; 行の特定のシーケンスに対するカメラの露出、読出しおよびミラー位置のタイミング図である。FIG. 4 is a timing diagram of camera exposure, readout and mirror positions for a particular sequence of rows; (a)から(d)は曇りの天候および明るい日差しの下でのセンサからの距離のレンジにおける白い平面ターゲットを撮像した結果を示す図である。(a) to (d) show the results of imaging a white planar target at a range of distances from the sensor under cloudy weather and bright sunlight. (a)は、通常のおよびエピポーラToF撮像を使用して得た深度測定値における標準偏差を示すグラフである。(b)は、許容可能なレンジ精度の異なるレベルにおける同じ模擬カメラの動作範囲を示すグラフである。シミュレートされたカメラのパラメータはプロトタイプと異なることに留意されたい。(a) is a graph showing the standard deviation in depth measurements obtained using conventional and epipolar ToF imaging. (b) is a graph showing the operating range of the same simulated camera at different levels of acceptable range accuracy; Note that the simulated camera parameters are different from the prototype. エピポーラToF撮像が、電球がオンにされたときでも、それらの表面からの正確な深度の戻りを提供することを示す図である。FIG. 10 shows that epipolar ToF imaging provides accurate depth return from their surfaces even when the bulb is turned on. 大域光輸送の存在下でエピポーラおよび通常のToF撮像による深度マップを比較する図である。FIG. 5 compares depth maps from epipolar and conventional ToF imaging in the presence of global light transport.

マイクロコントローラという用語は、本明細書では、専用ハードウェアデバイス、回路、ASIC、FPGA、ソフトウェアを実行するマイクロプロセッサ、または当技術で知られている任意の他の手段を意味することができる。マイクロコントローラは、制御信号を送るためのおよびデータを受け取るためのセンサおよびレーザ光プロジェクタの両方に対する接続部を含むことがさらに理解される。本発明は、コントローラの機能を実装する1つの方法に限定されることは意図されていない。 The term microcontroller, as used herein, can mean a dedicated hardware device, circuit, ASIC, FPGA, microprocessor executing software, or any other means known in the art. It is further understood that the microcontroller includes connections to both the sensor and the laser light projector for sending control signals and for receiving data. The present invention is not intended to be limited to one method of implementing the functionality of the controller.

本明細書では、カメラおよびセンサという用語は、互換可能に使用される。 The terms camera and sensor are used interchangeably herein.

連続波飛行時間
CW-ToFカメラは、露出が積分中に変調もされる、時間変調された光源およびセンサを使用する。照明変調関数がfωt=cos(ωt)であり、センサ変調関数がgω,φ(t)=cos(ωt+φ)である場合、ここでωはrad/sでの変調周波数であり、φは光源とセンサ変調関数との間の位相オフセットであるが、画素xにおける測定値は:

Figure 0007244013000001
Figure 0007244013000002
であり、ここで、h(t)はアクティブな光源に対する画素の過渡応答を表し、Aは周囲光に起因する受け取った光、およびアクティブな光源のDC成分である。Aは積分から落ちるが、実際には、gω,φ(t)が正または負であるかどうかにより入射光を2つの異なる格納場所(タップと呼ばれる)に積分し、次いで格納された値の間の差を取ることにより、Iω,φ(x)は測定され、したがって、周囲光は依然として測定ショット雑音に加わる。 Continuous Wave Time-of-Flight CW-ToF cameras use time-modulated light sources and sensors whose exposure is also modulated during integration. If the illumination modulation function is f ω t=cos(ωt) and the sensor modulation function is g ω,φ (t)=cos(ωt+φ), where ω is the modulation frequency in rad/s and φ is the phase offset between the source and sensor modulation function, but the measurement at pixel x is:
Figure 0007244013000001
Figure 0007244013000002
where h x (t) represents the transient response of the pixel to the active light source and A x is the received light due to ambient light and the DC component of the active light source. A x falls out of the integration, but in reality it integrates the incident light into two different storage locations (called taps) depending on whether g ω,φ (t) is positive or negative, and then the stored value I ω,φ (x) is measured by taking the difference between , so ambient light still adds to the measurement shot noise.

光源とセンサ画素xとの間に間接的な光路が何もない場合、

Figure 0007244013000003
であり、ここでcは光の速度であり、l(x)は光源から、xに対応するシーン点、そして、センサに帰るまでの経路の長さである。 If there is no indirect optical path between the light source and sensor pixel x,
Figure 0007244013000003
where c is the speed of light and l(x) is the path length from the source to the scene point corresponding to x and back to the sensor.

シーンが静的であると仮定すると、経路長l(x)は、同じ周波数であるが、2つの異なる変調位相φ=0およびφ=πにおける画像のペアをキャプチャすることによって回復することができる:

Figure 0007244013000004
画素深度z(x)は、光源およびセンサの幾何学的較正パラメータを使用してl(x)から計算することができる。 Assuming the scene is static, the path length l(x) can be recovered by capturing pairs of images at the same frequency but at two different modulation phases φ = 0 and φ = π / 2 . can:
Figure 0007244013000004
Pixel depth z(x) can be calculated from l(x) using the geometric calibration parameters of the light source and sensor.

エピポーラ飛行時間
図2は、エピポーラToF撮像を実施するためのシステムの概略図である。変調レーザ光の可動シートを発生させるプロジェクタが、行を一度に1つ露出させることができるToFセンサと組み合わせられる。プロジェクタおよびセンサは、光シートが常にプロジェクタとカメラとの間のエピポーラ面にあるように、平行化された(rectified)ステレオ構成で配置される。任意の所与の時点において、エピポーラ面におけるカメラ画素の行だけが光に露出される。
Epipolar Time-of-Flight FIG. 2 is a schematic diagram of a system for performing epipolar ToF imaging. A projector that produces a movable sheet of modulated laser light is combined with a ToF sensor that can expose rows one at a time. The projector and sensor are arranged in a rectified stereo configuration such that the light sheet is always in the epipolar plane between the projector and camera. At any given time, only rows of camera pixels in the epipolar plane are exposed to light.

図2の幾何形状を実現するために、図4(b)に示されるように、可動光シートをシーン上に投射する1D走査型ミラーを有するラインレーザ光源が使用される。現在のCW-ToFセンサは、2D画素配列にわたる、制御可能な露出コーディングを提供しない。利用可能な既製のハードウェアを考慮に入れて、露出をエピポーラ面上の画素に制限するには3つのやり方がある:
1. すべての他の画素をマスクするためにデジタルマイクロミラーデバイス(DMD:digital micro-mirror device)を使用する;
2. 1Dセンサおよび制御可能なミラーを使用して、撮像すべきエピポーラ面を選択する;または
3. 制御可能な対象領域(ROI:region of interest)を有する2Dセンサを使用する。
To achieve the geometry of FIG. 2, a line laser source with a 1D scanning mirror is used to project a movable light sheet onto the scene, as shown in FIG. 4(b). Current CW-ToF sensors do not provide controllable exposure coding across the 2D pixel array. Given the available off-the-shelf hardware, there are three ways to limit the exposure to pixels on the epipolar plane:
1. use a digital micro-mirror device (DMD) to mask all other pixels;
2. 2. Select the epipolar plane to be imaged using a 1D sensor and controllable mirrors; A 2D sensor with a controllable region of interest (ROI) is used.

好ましい実施形態において、三番目の選択肢が選択されるが、それはDMDマスクを使用するよりも光効率が良く、そのことが、より単純な設計をもたらすからである。ROIは、エピポーラToFの要件に合致するように、1行の高さに設定される。 In the preferred embodiment, the third option is chosen because it is more light efficient than using a DMD mask, which leads to a simpler design. The ROI is set to be one row high to meet the epipolar ToF requirements.

エピポーラ面サンプリング
CW-ToFは、深度を回復するのに少なくとも2つの画像を必要とする。エピポーラToFを使用してシーン全体をカバーするために、アクティブなエピポーラ面は、視野にわたって掃引されなければならない。このことが、エピポーラ面がサンプリングされる順序を選択する柔軟性を提供する。
Epipolar Plane Sampling CW-ToF requires at least two images to recover depth. To cover the entire scene using epipolar ToF, the active epipolar plane has to be swept over the field of view. This provides flexibility in choosing the order in which the epipolar planes are sampled.

図3は、いくつかのそのような順序付け方式を示す。図3(a)は、従来の先行技術のToFを示し、すべてのエピポーラ面は、同時に照射され、すべてのカメラ行は同時に露出される。このことは、長時間露出を必要とし、動き、周囲光、大域的な光輸送およびデバイス間の干渉に起因する深刻なアーチファクトをもたらす。図3(b)は、光の非常に短い高強度パルスをCW-ToFに送ることは周囲光に対する抵抗力を与えるが、それは依然として大域的な光輸送および動きに起因するアーチファクトを生じる傾向があることを示す。 FIG. 3 shows several such ordering schemes. FIG. 3(a) shows a conventional prior art ToF, where all epipolar planes are illuminated simultaneously and all camera rows are exposed simultaneously. This requires long exposures and introduces severe artifacts due to motion, ambient light, global light transport and interference between devices. Fig. 3(b) shows that sending very short high-intensity pulses of light to CW-ToF provides resistance to ambient light, but it is still prone to artifacts due to global light transport and motion. indicates that

図3(c)は、1つの完全な画像が、各変調位相に対して取得される、ロールシャッタカメラと同様の効果を生成するエピポーラToF面の順序付けを示す。これは、結果として周囲光、大域照明および動きぼけに対するロバスト性となる。しかし、各行に対して捕捉された複数の位相測定値間の顕著な遅延のため、動きに対する感度が依然として残る。これらの画像を取得している間にシーンまたはカメラが動いた場合、取り出された深度マップは、補正が困難な誤りを含むので、この方式は望ましくない。 FIG. 3(c) shows an epipolar ToF plane ordering that produces an effect similar to a rolling shutter camera, where one complete image is acquired for each modulation phase. This results in robustness to ambient light, global illumination and motion blur. However, sensitivity to motion still remains due to the significant delay between the multiple phase measurements acquired for each row. This scheme is undesirable because if the scene or camera moves while these images are being acquired, the retrieved depth map will contain errors that are difficult to correct.

図3(d)における別の実施形態は、平面ごとに測定値をインターリービングすることが、そのようなアーチファクトを最小にすることを示す。図3(d)に示される順序付け方策は、変調位相のセットを通して、一度に1つのエピポーラ面をループする。各行の露出時間が非常に短いので、単一の行に必要なすべての位相は、カメラ/シーンの動きに起因する深度および動きぼけアーチファクトを最小限に抑えるのに十分に迅速に取得されうる。 Another embodiment in FIG. 3(d) shows that interleaving the measurements by plane minimizes such artifacts. The ordering strategy shown in FIG. 3(d) loops through the set of modulation phases one epipolar plane at a time. Since the exposure time for each row is very short, all phases required for a single row can be acquired quickly enough to minimize depth and motion blurring artifacts due to camera/scene motion.

この方策を使用すると、各行はわずかに異なる時間でキャプチャされる。これは取得された深度マップにおいてロールシャッタに似た効果を誘発するが、個々の深度値は、ぼけおよびアーチファクトがなく、後処理により、組み合わせて、一貫したモデルにすることができる。 Using this strategy, each row is captured at a slightly different time. This induces a rolling shutter-like effect in the acquired depth map, but the individual depth values are free of blurring and artifacts and can be combined into a coherent model by post-processing.

ミラーのアクチュエータの運動学的制約に従いながら、そのような後処理をさらに容易するために、エピポーラ面は、図3(e)に示されるように、鋸歯状パターンで順序付けされる。この方式において、視野全体は、同じ全露出時間内に2回走査され、シーンのより高い時間サンプリングを生じ、個々の深度マップ行の一貫したマージをより容易にする。これは、本質的に、2倍のフレームレートだが、半分の垂直解像度で、完全な視野深度マップを提供し、高速のカメラぶれおよび/またはシーンの動きに対する深度補正をより容易にする。 To further facilitate such post-processing while adhering to the kinematic constraints of the mirror's actuator, the epipolar planes are ordered in a sawtooth pattern, as shown in FIG. 3(e). In this scheme, the entire field of view is scanned twice within the same total exposure time, resulting in a higher temporal sampling of the scene and making consistent merging of individual depth map rows easier. This essentially doubles the frame rate but at half the vertical resolution to provide a full depth-of-field map, making depth correction easier for fast camera shake and/or scene motion.

より一般的に、図3(f)は、ある用途では、異なる時間サンプリングレートを用いて視野の異なる部分を走査することが有益であり得ることを示す。より低い画像行に対応するエピポーラ面がより頻繁にサンプリングされる、非均一サンプリング方式の例が示されている。このタイプのサンプリングは、例えば、視野のより低い部分が、通常、より近接し、および、より速く移動し、より高速のサンプリングレートにおける取得を必要とする、車両上で有用でありうる。 More generally, Figure 3(f) shows that in some applications it may be beneficial to scan different portions of the field of view using different temporal sampling rates. An example of a non-uniform sampling scheme is shown where epipolar planes corresponding to lower image rows are sampled more frequently. This type of sampling can be useful, for example, on vehicles, where the lower portion of the field of view typically moves closer and faster, requiring acquisition at a faster sampling rate.

動作中に、プロジェクタは、変調レーザ光のシートを発生させ、レーザプロジェクタとセンサとの間に画定されたエピポーラ面を連続して照射する。平面は、任意の順序で照射されることができるが、好ましい実施形態においては、上から下まで、次いで下から上まで照射される。平面が照射される実際の順序は、プラットフォームが使用されている特定の環境、または深度マップが作成されている用途に依存する可能性がある。また、任意の数の平面を視野内に画定することができ、レーザおよびセンサのキャパシティならびに所望のフレームレートだけによって限定される。好ましい実施形態において、視野において画定された240の平面があり、各平面は320x240画素である。 During operation, the projector generates a sheet of modulated laser light that continuously illuminates the epipolar plane defined between the laser projector and the sensor. The planes can be illuminated in any order, but in a preferred embodiment they are illuminated from top to bottom and then from bottom to top. The actual order in which the planes are illuminated may depend on the particular environment in which the platform is being used or the application for which the depth map is being created. Also, any number of planes can be defined within the field of view, limited only by the laser and sensor capacities and the desired frame rate. In the preferred embodiment, there are 240 planes defined in the field of view, each plane being 320x240 pixels.

センサの対象領域は、視野の任意の部分に設定することができ、動作中に、センサのROIが現在照射されているエピポーラ面内の画素の行を感知するように設定されるように、マイクロコントローラが、レーザプロジェクタとセンサとを同期させる。位相は2つの画像を使用して推定される。一般に、センサは、4つ、入射信号をシフトされた入力信号と相関させるために測定値を、使用する(角度0、90、180、270)。これらの画像のうちの2つまたは4つのいずれかが、位相推定に使用されることができるが、4つの画像を使用することは、より精度を与えるが、キャプチャするのにより長い時間がかかり、フレームレートを低減する。位相アンラッピングが必要な場合、位相推定プロセスは、異なる変調周波数で実施される必要があり、したがって、2つの画像の代わりに4つの画像が位相アンラッピングに必要とされる。本発明のある実施形態において、慣性計測装置(IMU)をセンサに取り付けることができ、プラットフォームの動きを補償するのに使用される。 The region of interest of the sensor can be set to any part of the field of view and, in operation, is microscopic so that the ROI of the sensor is set to sense a row of pixels in the currently illuminated epipolar plane. A controller synchronizes the laser projector and the sensor. Phase is estimated using two images. In general, the sensor uses four measurements (angles 0, 90, 180, 270) to correlate the incident signal with the shifted input signal. Either two or four of these images can be used for phase estimation, but using four images gives more accuracy but takes longer to capture and Reduce frame rate. If phase unwrapping is required, the phase estimation process needs to be performed at different modulation frequencies, so four images are required for phase unwrapping instead of two images. In some embodiments of the invention, an inertial measurement unit (IMU) can be attached to the sensor and used to compensate for platform motion.

エピポーラToFプロトタイプ
図4(a)に示される、エピポーラToF撮像のためのプロトタイプデバイスが、照射のためのガルバノミラーベースの光シートプロジェクタおよび撮像のための調整可能な対象領域を有するToFセンサを使用して構築された。図4はプロトタイプの描写である。画素の任意の行をキャプチャするための高速ROI制御を有するDME660カメラおよび光源としての特注の可動光シートプロジェクタが、プロトタイプに使用された。本明細書に説明されるプロトタイプは、本発明の1つの特定の実施形態の典型に過ぎないこと、および異なる機器および動作パラメータを利用する他の実施形態が、本発明の範囲内に含まれることが、当業者によって理解されるはずである。
Epipolar ToF Prototype A prototype device for epipolar ToF imaging, shown in FIG. built with FIG. 4 is a depiction of the prototype. A DME660 camera with fast ROI control to capture arbitrary rows of pixels and a custom-made movable light sheet projector as the light source were used in the prototype. The prototype described herein is merely representative of one particular embodiment of the invention, and that other embodiments utilizing different equipment and operating parameters are included within the scope of the invention. should be understood by those skilled in the art.

使用されるToFセンサは、320x240の解像度を有するEPC660(Espros Photonicsからの)であり、画素は、周囲飽和防止を実装する。センサには8mm、F1.6の低歪みレンズおよび光学帯域通過フィルタ(中心周波数650nm、帯域幅20nm)が装着されている。センサは、ROIがセンサ読出しごとに変更されることを可能にし、この特徴は、撮像するために異なる行を選択するのに使用される。センサからデータを読み出すために、製造業者からのセンサ開発キット(DME660)が利用される。本発明は、説明されるToFセンサの使用に限定されないが、任意のToFセンサが使用される可能性があることが理解されるはずである。 The ToF sensor used is an EPC660 (from Espros Photonics) with a resolution of 320x240 and the pixels implement ambient desaturation. The sensor is equipped with an 8 mm, F1.6 low-distortion lens and an optical bandpass filter (650 nm center frequency, 20 nm bandwidth). The sensor allows the ROI to be changed for each sensor readout and this feature is used to select different rows to image. A sensor development kit (DME660) from the manufacturer is utilized to read data from the sensor. It should be understood that any ToF sensor may be used, although the invention is not limited to the use of the ToF sensors described.

プロトタイプに利用されたラインプロジェクタは、その光源として700mWのピークパワーを有する638nmのレーザダイオードを使用する。ダイオードからの光は、コリメートされ、ビーム断面を、45度のファンアウト角度を有する、広がった、ほぼ均一に照射される直線に引き延ばすPowellレンズを通過される。レーザ光は、シートを偏向させるように回転させることができる1D走査型ガルバノミラーに向けられる。ミラーの回転レンジは、プロジェクタに40度の垂直視野を与える。プロジェクタの有効な投影中心は、ミラーが回転するにつれて移動するが、ファンアウト点とガルバノミラーとの間の距離がシーンにおける深度に比較して非常に小さいので、この影響は無視することができる。 The line projector utilized in the prototype uses a 638 nm laser diode with a peak power of 700 mW as its light source. Light from the diode is collimated and passed through a Powell lens that stretches the beam cross-section into a broad, nearly uniformly illuminated straight line with a fanout angle of 45 degrees. The laser light is directed to a 1D scanning galvo mirror that can be rotated to deflect the sheet. The rotation range of the mirror gives the projector a 40 degree vertical field of view. The effective center of projection of the projector moves as the mirror rotates, but this effect is negligible because the distance between the fanout point and the galvo mirror is very small compared to the depth in the scene.

マイクロコントローラが、センサと光源とを同期させるのに使用される。マイクロコントローラは、露出時間、変調周波数/位相、対象領域、行を設定するために、および各キャプチャをトリガするために、I2Cバスにわたってセンサと通信することができる。マイクロコントローラは、プロジェクタのガルバノミラーを作動させることもできる。さらに、マイクロコントローラは、センサに取り付けられているMEMs慣性磁気装置(IMU)を使用してカメラの回転速度を読み取ることができる。周波数発生器回路により、変調周波数(1MHzステップで11MHzから24MHzの間の)の選択が可能になる。 A microcontroller is used to synchronize the sensor and the light source. A microcontroller can communicate with the sensor over the I2C bus to set the exposure time, modulation frequency/phase, area of interest, row, and to trigger each capture. The microcontroller can also operate the galvo mirrors of the projector. Additionally, the microcontroller can read the rotational speed of the camera using MEMs inertial magnetic units (IMUs) attached to the sensor. A frequency generator circuit allows selection of the modulation frequency (between 11 MHz and 24 MHz in 1 MHz steps).

プロジェクタおよびカメラは、エピポーラ撮像に必要とされるように、平行化されたステレオ構成で隣り合って位置合せされる。正しく位置合せされたとき、投射された光シートは、カメラにおける単一の画素の行を照射し、この行は、深度から独立している。ガルバノミラー角度と照射されたカメラ行との間のマッピングを決定するためにミラー較正が実施される。 The projector and camera are aligned side-by-side in a collimated stereo configuration as required for epipolar imaging. When properly aligned, the projected light sheet illuminates a single row of pixels in the camera, which row is independent of depth. Mirror calibration is performed to determine the mapping between galvo mirror angles and illuminated camera rows.

センサ較正
実際には、センサから読み出された測定値は、観測されたとき、それらの期待値に合致しない。固定パターン雑音、不均等な感度、およびタップと各画素における実際の露出変調関数の位相の変動との間のクロストークを含めて、この不一致にはいくつかの理由がある。期待されるセンサ測定値Ιω(x)と観測された測定値

Figure 0007244013000005
との間の関係は、各画素における射影補正Ηω(x)を使用してモデル化される。
Figure 0007244013000006
Sensor Calibration In practice, measurements read out from sensors do not match their expected values when observed. There are several reasons for this discrepancy, including fixed pattern noise, uneven sensitivity, and crosstalk between the taps and the phase variation of the actual exposure modulation function at each pixel. Expected sensor measurements Ι ω (x) and observed measurements
Figure 0007244013000005
is modeled using the projection correction Ηω (x) at each pixel.
Figure 0007244013000006

Ηω(x)を見いだすために、センサは、知られている距離のセットz,k=1,...,Kにおける平面に、前額平行に配置される。平面の各位置に対して、センサ測定値は、変化するシーンアルベドの効果をシミュレートするために、異なる絞り設定(s=1,...,S)で収集される。各平面位置kに対して、経路長は、画素において計算することができ、l(x)、そしてそれから、期待される位相

Figure 0007244013000007
を計算することができる。センサ測定値Ιω,k,s(x)を最もよく説明するΗω(x)は、補正された測定値と期待される位相との間の最小二乗誤差を最小にする補正Ηω(x)を見いだすことによって計算することができる。 To find Ηω (x), the sensor traverses a set of known distances zk , k=1, . . . , K, parallel to the forehead. For each position in the plane, sensor measurements are collected at different aperture settings (s=1,...,S) to simulate the effect of varying scene albedo. For each planar position k, the path length can be calculated in pixels, l k (x), and then the expected phase
Figure 0007244013000007
can be calculated. The Ηω (x) that best describes the sensor measurements Ιω,k,s (x) is the correction Ηω (x ) can be calculated by finding

これらの較正パラメータは、変調周波数および露出時間の両方に依存し、したがって、プロセスがすべての周波数および露出時間に対して繰り返される。センサおよび光源ドライバに渡される変調信号は、矩形波であるが、変調周波数20MHz以上において高調波は大いに抑制され、したがって、変調関数は、正弦波によってよく近似された。 These calibration parameters are dependent on both modulation frequency and exposure time, so the process is repeated for all frequencies and exposure times. The modulation signal passed to the sensor and light source driver was a square wave, but the harmonics were greatly suppressed at modulation frequencies above 20 MHz, so the modulation function was well approximated by a sine wave.

タイミング
プロトタイプを用いて行を撮像するのに必要な時間(および、さらに言うとフレームレート)は、n、1行当たりの読出しの数と、露出時間texp、行に対する読出し時間treadと、tmirror、サンプリングシーケンスにおいてガルバノミラーが次の行位置へ移動するために要する時間との関数である。

Figure 0007244013000008
The time (and frame rate for that matter) required to image a row using the timing prototype is n, the number of readouts per row, the exposure time t exp , the readout time for the row t read , and t mirror , a function of the time it takes for the galvo mirror to move to the next row position in the sampling sequence.
Figure 0007244013000008

プロトタイプに使用されたような2タップセンサの場合、単一の変調周波数を使用して深度を測定するのに少なくともn=2の読出しが必要である。図5は、行の特定のシーケンスに対するカメラの露出、読出しおよびミラー位置のタイミング図を示す。まず、走査型ミラーは、新たなアクティブな行に移動され、所定位置にセトリングするためにtmirror時間を要する。前の行読出しが完了し(treadの時間を要する)、ミラーが所定位置にあるとき、カメラがトリガされる。この例において、tmirror>treadであり、したがって、ミラーの速度が、キャプチャレートにとってボトルネックである。各露出は、時間texpにわたって持続し、各露出の終わりに、行が読み取られる。図5はタイミング例を示す。trowは175μsであり、texpは100μsに設定される。行のサンプリングシーケンスにおいて、ミラーはステップごとに2つの行を通して回転し(ほぼ0.33°)、このステップサイズのセトリング時間tmirrorは、おおよそ100μsである。合計で、trowは、n=2であるとき、550μsということになり、それにより、7.5fps(n=4であるとき3.8fps)のフレームレートが生じる。 For a two-tap sensor such as that used in the prototype, at least n=2 readings are required to measure depth using a single modulation frequency. FIG. 5 shows a timing diagram of camera exposure, readout and mirror positions for a particular sequence of rows. First, the scanning mirror is moved to the new active row and takes t_mirror time to settle into place. The camera is triggered when the previous row readout is complete (which takes t - - read time) and the mirror is in place. In this example, t mirror >t read , so the speed of the mirror is the bottleneck for the capture rate. Each exposure lasts for time t exp and at the end of each exposure a row is read. FIG. 5 shows a timing example. t_row is 175 μs and t_exp is set to 100 μs. In the row sampling sequence, the mirror rotates through two rows per step (approximately 0.33°) and the settling time t mirror for this step size is approximately 100 μs. In total, t row amounts to 550 μs when n=2, resulting in a frame rate of 7.5 fps (3.8 fps when n=4).

制限
現在、フレームレートの主なボトルネックは読出し時間である。本発明の実施形態は、読出しごとにセンサの1つの行だけからのデータを必要とするが、EPC660センサがサポートする最小対象領域は、高さが4つの行であり、現実には1つの行だけが使用されるとき、4つの行の読取りが強制される。さらに、開発キットは、センサのデータバスを20MHzに制限するが、センサ自体は、最大80MHzまでのバスレートをサポートする。texpの最小値は、光源のピークパワーおよび所望のレンジに依存する。説明される本発明のプロトタイプは、700mWのピークパワーを有する源を有するが、他のほとんどの実験的な飛行時間システムは、3Wから10Wの範囲のピーク光源パワーを有する。より明るい光源を使用する場合、レンジの損失なく、より短い露出時間を使用することができる。最後に、低費用のガルバノミラーは、より高速の1D MEMsミラーで置き換えることができる。これらの改善により、説明されるプロトタイプに基づくシステムは、ビデオフレームレートで動作するはずである。
Limitations Currently, the main bottleneck for frame rate is readout time. Although embodiments of the present invention require data from only one row of the sensor for each readout, the minimum area of interest that the EPC660 sensor supports is four rows high, and in reality only one row. is used, it forces a read of 4 rows. Additionally, the development kit limits the sensor's data bus to 20 MHz, but the sensor itself supports bus rates up to 80 MHz. The minimum value of t exp depends on the peak power of the light source and the desired range. The prototype of the invention described has a source with a peak power of 700 mW, but most other experimental time-of-flight systems have peak source powers in the range of 3W to 10W. Shorter exposure times can be used without loss of range when using brighter light sources. Finally, low cost galvo mirrors can be replaced with faster 1D MEMs mirrors. With these improvements, a system based on the described prototype should operate at video frame rates.

説明されるプロトタイプに使用されるセンサは、唯一24MHzの最大変調周波数をサポートするが、他のほとんどの飛行時間センサは、50MHzから100MHzの範囲で動くことができる。これは、より小さい対象を正確に走査するための、または過渡撮像に使用されるためのプロトタイプの能力を制限する。EPC660データシートは、センサADCは12ビット値を返すが、使用されたセンサのバージョンは、10ビットしか返さない、と明記しており、これがレンジに効いて、出力深度マップがより雑音の多いものになる。 The sensor used in the prototype described only supports a maximum modulation frequency of 24 MHz, but most other time-of-flight sensors can operate in the range of 50 MHz to 100 MHz. This limits the prototype's ability to accurately scan smaller objects or to be used for transient imaging. The EPC660 datasheet specifies that the sensor ADC returns 12-bit values, but the version of the sensor used only returns 10-bits, which works for range and makes the output depth map noisier. become.

結果
周囲光および大域照明の下で性能を比較するためにセンサを通常の撮像モードで動かすために、センサ全体が、小さなROIを使用する代わりに、一挙に露出され、センサは、シートプロジェクタが視野にわたる掃引を終了するまで露出されたままである。マルチデバイス干渉およびカメラの動きの実験における通常のToF撮像では、シートプロジェクタは、拡散源で置き換えることができる。
Results To run the sensor in normal imaging mode to compare performance under ambient and global illumination, the entire sensor was exposed at once, instead of using a small ROI, and the sensor was exposed to the sheet projector's field of view. remains exposed until the end of the sweep over . In normal ToF imaging in multi-device interference and camera motion experiments, the sheet projector can be replaced with a diffuse source.

周囲光
エピポーラ撮像を明るく照らされた環境の飛行時間に適用する利益が、シミュレートされ、結果は図7に示される。所与の光源パワーでは、通常の撮像により、周囲光レベルが0lx(完全な闇)から100klx(直射日光)に増大するにつれて、深度精度が急速に劣化する。エピポーラ撮像の場合、劣化はよりずっと緩やかである。
Ambient Light The benefit of applying epipolar imaging to time-of-flight in brightly lit environments was simulated and the results are shown in FIG. For a given source power, typical imaging degrades depth accuracy rapidly as the ambient light level increases from 0 lx (complete darkness) to 100 klx (direct sunlight). For epipolar imaging the degradation is much more gradual.

図7(a)は、周囲光レベルに応じてカメラから10mのターゲットに対して通常のおよびエピポーラToF撮像(変調周波数15MHz)を使用して得た深度測定値における標準偏差のシミュレーションの結果を示す。両方の場合に対して、ピーク光源パワーは2Wであり、総露出時間は同じ(1つの画像当たり7.2ms)であるが、エピポーラToFは、光源パワーを集中させ、各行に対して短時間露出(30μs)を使用するので、周囲光に対してよりロバストである。 FIG. 7(a) shows simulated results of the standard deviation in depth measurements obtained using normal and epipolar ToF imaging (modulation frequency 15 MHz) for a target 10 m from the camera depending on the ambient light level. . For both cases, the peak source power is 2 W and the total exposure time is the same (7.2 ms per image), but the epipolar ToF concentrates the source power and uses a short exposure for each row. (30 μs) is used, so it is more robust to ambient light.

図7(b)は、許容可能なレンジ精度の異なるレベルにおける同じシミュレートされたカメラの動作レンジを示す。シミュレートされたカメラのパラメータはプロトタイプと異なることに留意されたい。 FIG. 7(b) shows the motion range of the same simulated camera at different levels of acceptable range accuracy. Note that the simulated camera parameters are different from the prototype.

図6は、曇天および晴天条件の通常のToFおよびエピポーラToFモードにおける説明されるプロトタイプを定量的に比較する。通常のToFモードは、明るい日光の下では失敗しているが、エピポーラToFは、相当によりロバストである。図1(a)は、15mのレンジを有する、日光の下における(70klx)生の3D CW-ToF撮像を示し(人が階段上を歩いており、遠隔の建物あたりで位相がラッピングする)、図8は、強い周囲光および大域照明効果の両方を有するシーン例を示す。食器類(table service)からの反射により、通常のToFでは誤りが生じているが、エピポーラ撮像では、これらは抑制されている。 Figure 6 quantitatively compares the described prototypes in normal ToF and epipolar ToF modes in cloudy and clear weather conditions. Normal ToF mode fails in bright sunlight, but epipolar ToF is considerably more robust. FIG. 1(a) shows a raw 3D CW-ToF imaging in daylight (70 klx) with a range of 15 m (a person walking on stairs and phase wrapping around a distant building); FIG. 8 shows an example scene with both strong ambient lighting and global lighting effects. Reflections from the table service cause errors in normal ToF, but are suppressed in epipolar imaging.

図6(d)は、ターゲットまでの距離に対する深度測定値の標準偏差を示す(より緩やかな上昇曲線がより良い)。本発明のプロトタイプは、明るい日光の下において10mでおよそ3%の深度誤差を有する。 FIG. 6(d) shows the standard deviation of depth measurements versus distance to target (slower rising curve is better). Our prototype has a depth error of approximately 3% at 10m in bright sunlight.

大域照明
図9は、少数の一般的な屋内環境における大域照明の効果を抑制するエピポーラ撮像の能力を示す。これらの結果は、単一の変調周波数(24MHz)を使用して発生される。部屋の角において、壁と天井との間の拡散相互反射により、深度は過大評価され、通常の撮像では角の丸み付けが生じる。
Global Illumination FIG. 9 illustrates the ability of epipolar imaging to suppress the effects of global illumination in a few common indoor environments. These results are generated using a single modulation frequency (24 MHz). In the corners of the room, the diffuse interreflection between the walls and the ceiling overestimates the depth and causes corner rounding in normal imaging.

図1(b)にも示される、図9の二番目の行における会議用テーブルは、グレージング角で鏡面のように見える。浴室のシーンにおいて、ミラーからの反射に起因する壁のゴーストは、エピポーラ撮像によって抑制される。噴水式飲み器は、その金属面からの直接の戻りが非常に弱いが、表面は多くの間接光をセンサに反射しかえすので、特に興味深い。エピポーラ撮像では、使用可能な直接信号を回復することを試みるために3つの露出が組み合わされる。より長時間の露出は、相互反射がセンサを飽和させるので、通常の撮像には役に立たない。 The conference table in the second row of FIG. 9, also shown in FIG. 1(b), appears specular at the grazing angle. In a bathroom scene, wall ghosting due to reflections from mirrors is suppressed by epipolar imaging. Drinking fountains are of particular interest because the direct return from their metal surfaces is very weak, but the surface reflects a lot of indirect light back to the sensor. Epipolar imaging combines three exposures to attempt to recover a usable direct signal. Longer exposures are not useful for normal imaging because interreflections saturate the sensor.

エピポーラ撮像により、壁は、真っ直ぐに見え、鋭い直角で接触しあい、角の相互反射、光沢のある会議用テーブル上への映写幕からのつやのある中間投射、洗面所のミラーからのおよび壁と光沢のある噴水式飲み器との間の反射を拡散する。エピポーラToFは、大域的な光輸送のほとんどを除去し、結果として通常のToFよりも顕著により正確である深度マップとなる。 With epipolar imaging, the walls appear straight and meet at sharp right angles, corner interreflections, glossy intermediate projection from the projection screen onto the glossy conference table, from the mirror in the bathroom and with the wall. Diffuse the reflections between the drinking fountain with the Epipolar ToF removes most of the global light transport, resulting in depth maps that are significantly more accurate than regular ToF.

マルチカメラ干渉
エピポーラCW-ToF撮像により、同じ変調周波数で動く2つのカメラは、通常、各画像における画素のスパースなセットにおいてただ互いに干渉するだけであり得る。各カメラは、一度にシーンにおける単一のラインを照射し、撮像し、したがって、任意の時点において、二番目のカメラは、その照射されたラインが一番目のカメラの露出された画素の行と交差する点において一番目のカメラとただ干渉するだけであり得る。1つのカメラの光源が、平行化されたステレオペアを二番目のカメラのセンサと形成し、両方のカメラがたまたま同期されたとき、悪化した場合が起きるが、これはまれな出来事とみなすことができる。
Multi-Camera Interference With epipolar CW-ToF imaging, two cameras moving at the same modulation frequency can typically only interfere with each other in a sparse set of pixels in each image. Each camera illuminates and images a single line in the scene at a time; It can only interfere with the first camera at the point of intersection. Worse cases occur when the light source of one camera forms a collimated stereo pair with the sensors of a second camera, and both cameras happen to be synchronized, but this can be considered a rare occurrence. can.

2つよりも多くのカメラが存在する場合、カメラの各ペアは、それらが互いに干渉する点のスパースなセットを有する。エピポーラToFカメラのセットが異なる変調周波数で動いているとき、各カメラの他のカメラにおけるショット雑音への寄与は、大いに低減される。図1(c)は、2つのCW-ToFカメラを通常のおよびエピポーラ撮像により同じ周波数で同時に動作させた結果を示す。エピポーラ撮像は、同じ周波数で動作しているToFデバイス間に干渉がないことを示す。通常のToFには観測可能な誤り(すなわち、壁と椅子)がある。 If there are more than two cameras, each pair of cameras has a sparse set of points where they interfere with each other. When a set of epipolar ToF cameras are moving at different modulation frequencies, each camera's contribution to shot noise in the other camera is greatly reduced. FIG. 1(c) shows the results of operating two CW-ToF cameras simultaneously at the same frequency with normal and epipolar imaging. Epipolar imaging shows no interference between ToF devices operating at the same frequency. Regular ToF has observable errors (ie walls and chairs).

カメラの動き
知られている回転軌道(MEMSジャイロスコープから得た)を有する回転するカメラを使用する場合、通常の撮像により、各キャプチャされたToF測定値は、測定値が互いに整合しないので、動きぼけ、および深度不連続における強いアーチファクトを有する。理論的には、これらは、空間的に変化するデコンボリューションを使用して収集することができるが、これは、計算的に高価であり、高周波数成分を回復することが下手である。エピポーラToF撮像を使用する場合、動きぼけは、基本的に何も影響がなく、ロールシャッタに似た効果を有する深度マップが取得される。これは、回転から計算された単純な画像ワープを用いて補正することができる。図1(d)は、急速にパンするカメラからの例を示し、シーン露出の間に深刻なカメラぶれが存在する場合でも歪んでいない深度マップを得ることができる(通常のToFにおいて取り除くのが困難なゴーストエラーを観測することができる)ことを示す。さらに、前述したように、センサは、そして私はあなたであるを装備することができ、それはプラットフォームのプロモーション(promotion)を補償するのに使用される。
Camera Motion When using a rotating camera with a known rotational trajectory (obtained from a MEMS gyroscope), normal imaging causes each captured ToF measurement to have a motion It has strong artifacts in blurring and depth discontinuities. Theoretically, these can be collected using spatially varying deconvolution, but this is computationally expensive and poor at recovering high frequency components. When using epipolar ToF imaging, motion blur basically has no effect and a depth map is obtained with an effect similar to a rolling shutter. This can be corrected using a simple image warp computed from the rotation. Fig. 1(d) shows an example from a rapidly panning camera, where an undistorted depth map can be obtained even in the presence of severe camera shake during the scene exposure (which should be removed in normal ToF). difficult ghost errors can be observed). Additionally, as previously mentioned, sensors can be equipped with I am you, which are used to compensate for platform promotions.

飛行時間深度カメラのためのエピポーラ撮像は、明るく照らされた条件における低い性能、大域照明に起因する系統誤差、デバイス間干渉およびカメラの動きに起因する誤差など、深度カメラにより一般に出合う問題の多くを軽減する。深度カメラに比較して、一度に単一の点を照射し撮像する走査型LIDARなどのシステムは、すべてのこれらの効果に対して非常にロバストであるが、低い測定レートを有する。エピポーラ撮像は、全視野キャプチャおよび点ごとのキャプチャのこれら2つの極端の間の妥協点と考えられうる。エピポーラ撮像は一度に単一のラインを照射しキャプチャするので、それにより、深度カメラが依然として高い測定レートを有しながら点走査のロバスト性のほとんどを有することが可能になる。 Epipolar imaging for time-of-flight depth cameras overcomes many of the problems commonly encountered by depth cameras, such as poor performance in brightly lit conditions, systematic errors due to global illumination, inter-device interference and errors due to camera motion. Reduce. Compared to depth cameras, systems such as scanning LIDAR that illuminate and image a single point at a time are very robust against all these effects, but have a low measurement rate. Epipolar imaging can be considered a compromise between these two extremes of full-field capture and point-by-point capture. Since epipolar imaging illuminates and captures a single line at a time, it allows depth cameras to have most of the robustness of point scanning while still having a high measurement rate.

ここでToFに対して行われたように、行ごとにパターンを繰り返すことは、構造化光に直接適用可能でもある。それは、現在シングルショット方法だけを使用することができるダイナミックなシーンに対して、高品質深度マップを発生させるマルチ画像構造化光方法を適用することを可能にするはずである。 Repeating the pattern row-by-row, as done here for ToF, is also directly applicable to structured light. It should allow applying multi-image structured light methods to generate high-quality depth maps to dynamic scenes where currently only single-shot methods can be used.

説明されたプロトタイプにおいて、走査型ミラーは、鋸歯状パターンに従い、整然としたシーケンスで行をキャプチャする。しかし、より高速の走査型ミラーを使用した場合、疑似ランダム行サンプリング戦略を実装することができ、それは、エピポーラ撮像を圧縮センシングまたは同様の技法を併せて使用することを可能にし、速く移動するシーンの時間的に超解像された深度マップを回復する。本発明の実施形態は、具体的な識別された構成部品を使用して本明細書に説明されてきたが、本発明はそれにより限定されることが意図されていない。特許請求される本発明の範囲は、以下に提示される請求項の組によって定義される。 In the described prototype, the scanning mirror follows a sawtooth pattern and captures rows in an orderly sequence. However, when using faster scanning mirrors, a pseudo-random row sampling strategy can be implemented, which allows epipolar imaging to be used in conjunction with compressive sensing or similar techniques, allowing fast moving scenes recover the temporally super-resolved depth map of . Although embodiments of the invention have been described herein using specific identified components, the invention is not intended to be limited thereby. The scope of the claimed invention is defined by the set of claims presented below.

Claims (31)

システムであって、
変調された光源と、
センサであって、変調された光源によって投射された光シートがプロジェクタとセンサとの間のエピポーラ面にあるように、変調された光源およびセンサが、平行化されたステレオ構成にある、センサと、
変調された光源とセンサとを同期させ、構成するためのマイクロコントローラと
を備え、
変調された光源は、一連のエピポーラ面に沿って、変調された光のシートを投射するように構成され、一連のエピポーラ面が視野を画定しており、
前記センサは、前記一連のエピポーラ面における各エピポーラ面からの前記視野内の照射された画素の行を撮像するように構成され、前記撮像は、前記一連のエピポーラ面における次のエピポーラ面に移動する前に、各エピポーラ面に対する一組の変調位相内の全ての変調位相をキャプチャし、
視野におけるエピポーラ面が、変化する順序で照射され、感知される、システム。
a system,
a modulated light source;
a sensor, wherein the modulated light source and the sensor are in a collimated stereo configuration such that the light sheet projected by the modulated light source is in an epipolar plane between the projector and the sensor;
a microcontroller for synchronizing and configuring the modulated light source and sensor;
the modulated light source is configured to project a sheet of modulated light along a series of epipolar planes, the series of epipolar planes defining a field of view;
The sensor is configured to image a row of illuminated pixels in the field of view from each epipolar plane in the series of epipolar planes, the imaging moving to the next epipolar plane in the series of epipolar planes. Before, capture all modulation phases in the set of modulation phases for each epipolar plane,
A system in which the epipolar planes in the field of view are illuminated and sensed in varying order .
変調された光源が、
a. レーザ光源と、
b. レーザ光源のコリメートされた出力から光シートを発生させるように構成された光学素子と、
c. プロジェクタとセンサとの間の一連のエピポーラ面に沿って、レーザ光のシートを誘導するための手段と
を備える、請求項1に記載のシステム。
A modulated light source
a. a laser light source;
b. an optical element configured to generate a light sheet from the collimated output of the laser light source;
c. and means for directing the sheet of laser light along a series of epipolar planes between the projector and the sensor.
レーザ光のシートを誘導するための手段が、回転可能なガルバノミラーおよびMEMSミラーを含む群から選択される、請求項2に記載のシステム。 3. The system of claim 2, wherein the means for directing the sheet of laser light is selected from the group comprising rotatable galvanomirrors and MEMS mirrors. センサが、制御可能な対象領域を有する連続波飛行時間カメラである、請求項2に記載のシステム。 3. The system of claim 2, wherein the sensor is a continuous wave time-of-flight camera with a controllable region of interest. 投射された光シートが、センサにおける画素の単一の行を照射し、さらに、センサの制御可能な対象領域が、照射された画素の単一の行を感知するようにすべて設定される、請求項4に記載のシステム。 The projected light sheet illuminates a single row of pixels on the sensor, and the controllable target areas of the sensor are all set to sense the single row of illuminated pixels. Item 5. The system according to item 4. レーザ光プロジェクタおよびセンサが、センサの対象領域が、現在照射されているエピポーラ面内の画素の行を感知するように設定されるように同期される、請求項5に記載のシステム。 6. The system of claim 5, wherein the laser light projector and sensor are synchronized such that the target area of the sensor is set to sense a row of pixels in the currently illuminated epipolar plane. センサが、各照射されたエピポーラ面から少なくとも2つの画像をキャプチャする、請求項6に記載のシステム。 7. The system of claim 6, wherein the sensor captures at least two images from each illuminated epipolar surface. 投射された光シートが、反復する波として変調され、さらに、戻された反射の位相によって、感知された深度が、各感知された画素に対して計算されることができる、請求項7に記載のシステム。 8. The method of claim 7, wherein the projected light sheet is modulated as a repeating wave and further, by the phase of the returned reflection, the sensed depth can be calculated for each sensed pixel. system. 視野全体の深度マップが、視野内の各照射されたエピポーラ面から各感知された画素に対して計算された深度に基づいて作成される、請求項8に記載のシステム。 9. The system of claim 8, wherein a depth map of the entire field of view is created based on depths calculated for each sensed pixel from each illuminated epipolar plane in the field of view. マイクロコントローラが、前に照射されたエピポーラ面に関するデータをセンサから読み取り、その一方で、ガルバノミラーが、一連のエピポーラ面における次のエピポーラを照射する位置まで回転される、請求項9に記載のシステム。 10. The system of claim 9, wherein the microcontroller reads data for a previously illuminated epipolar plane from the sensor while the galvanomirror is rotated to a position to illuminate the next epipolar plane in the series of epipolar planes. . 方法であって、
平行化されたステレオ構成で配置された変調された光源およびセンサによって画定された一連のエピポーラ面に沿って、変調された光のシートを投射するステップであって、一連のエピポーラ面が視野を画定する、ステップと、
前記一連のエピポーラ面における各エピポーラ面からの前記視野内の照射された画素の行を撮像し、前記撮像は、前記一連のエピポーラ面における次のエピポーラ面に移動する前に、各エピポーラ面に対する一組の変調位相内の全ての変調位相をキャプチャする、ステップと、
一組の変調位相における変調位相のうちの2つ以上に基づいて、照射された画素の単一の行における各画素の深度を決定するステップとを含み、
視野におけるエピポーラ面が、変化する順序で照射され、感知される、方法。
a method,
Projecting a sheet of modulated light along a series of epipolar planes defined by modulated light sources and sensors arranged in a collimated stereo configuration, the series of epipolar planes defining a field of view. do, step and
imaging rows of illuminated pixels in the field of view from each epipolar plane in the series of epipolar planes, the imaging being one for each epipolar plane before moving to the next epipolar plane in the series of epipolar planes; capturing all modulation phases in the set of modulation phases;
determining the depth of each pixel in a single row of illuminated pixels based on two or more of the modulation phases in the set of modulation phases ;
A method in which epipolar planes in the field of view are illuminated and sensed in varying order .
各画素の深度を決定するステップが、各画素からの反射光の位相に基づいて各画素の深度を計算するステップを含む、請求項11に記載の方法。 12. The method of claim 11, wherein determining the depth of each pixel comprises calculating the depth of each pixel based on the phase of reflected light from each pixel. 照射されたエピポーラ面における各画素の深度を計算するステップが、照射されたエピポーラ面の2つ以上の別々の画像に含まれる反射光の位相の差を決定するステップをさらに含む、請求項12に記載の方法。 13. The method of claim 12, wherein calculating the depth of each pixel in the illuminated epipolar surface further comprises determining a phase difference of reflected light contained in two or more separate images of the illuminated epipolar surface. described method. 画定された視野内の各照射されたエピポーラ面における各画素の深度に基づいて深度マップを作成するステップをさらに含む、請求項12に記載の方法。 13. The method of claim 12, further comprising creating a depth map based on the depth of each pixel in each illuminated epipolar plane within the defined field of view. センサの対象領域が現在照射されているエピポーラ面に対応するように、変調された光源とセンサとを同期させるステップをさらに含む、請求項11に記載の方法。 12. The method of claim 11, further comprising synchronizing the modulated light source and the sensor such that the target area of the sensor corresponds to the currently illuminated epipolar surface. 変調された光源が、
レーザ光源と、
レーザ光源のコリメートされた出力から光シートを発生させるように構成された光学素子と、
プロジェクタとセンサとの間の一連のエピポーラ面に沿って、レーザ光のシートを誘導するための手段と
を備える、請求項11に記載の方法。
A modulated light source
a laser light source;
an optical element configured to generate a light sheet from the collimated output of the laser light source;
12. The method of claim 11, comprising means for directing the sheet of laser light along a series of epipolar planes between the projector and the sensor.
非一時的コンピュータ可読媒体であって、実行されたとき、
平行化されたステレオ構成で配置された変調された光源およびセンサによって画定された一連のエピポーラ面に沿って、変調された光のシートを投射し、一連のエピポーラ面が視野を画定しており、
前記一連のエピポーラ面における各エピポーラ面からの前記視野内の照射された画素の行を撮像し、前記撮像は、前記一連のエピポーラ面における次のエピポーラ面に移動する前に、各エピポーラ面に対する一組の変調位相内の全ての変調位相をキャプチャし、
一組の変調位相における変調位相のうちの2つ以上に基づいて、照射された画素の単一の行における各画素の深度を決定し、
画定された視野内の各照射されたエピポーラ面における各画素の深度に基づいて深度マップを作成する
機能を実施するソフトウェアを含み、
視野におけるエピポーラ面が、変化する順序で照射され、感知される、非一時的コンピュータ可読媒体。
A non-transitory computer-readable medium that, when executed,
projecting a sheet of modulated light along a series of epipolar planes defined by modulated light sources and sensors arranged in a collimated stereo configuration, the series of epipolar planes defining a field of view;
imaging rows of illuminated pixels in the field of view from each epipolar plane in the series of epipolar planes, the imaging being one for each epipolar plane before moving to the next epipolar plane in the series of epipolar planes; capturing all modulation phases in the set of modulation phases;
determining the depth of each pixel in a single row of illuminated pixels based on two or more of the modulation phases in the set of modulation phases;
comprising software performing the function of creating a depth map based on the depth of each pixel in each illuminated epipolar plane within the defined field of view;
A non-transitory computer readable medium in which epipolar surfaces in a field of view are illuminated and sensed in varying order .
各画素の深度を決定することが、各画素からの反射光の位相に基づいて各画素の深度を計算することを含み、照射されたエピポーラ面における各画素の深度を計算することが、照射されたエピポーラ面の2つ以上の別々の画像に含まれる反射光の位相の差を決定することをさらに含む、請求項17に記載の非一時的コンピュータ可読媒体。 Determining the depth of each pixel includes calculating the depth of each pixel based on the phase of reflected light from each pixel, and calculating the depth of each pixel in the illuminated epipolar plane is illuminated. 18. The non-transitory computer readable medium of claim 17 , further comprising determining a phase difference of reflected light contained in two or more separate images of the epipolar surface. ソフトウェアが、センサの対象領域が現在照射されているエピポーラ面に対応するように、変調された光源とセンサとを同期させるさらなる機能を実施する、請求項17に記載の非一時的コンピュータ可読媒体。 18. The non-transitory computer readable medium of claim 17 , wherein the software performs a further function of synchronizing the modulated light source and the sensor such that the sensor's region of interest corresponds to a currently illuminated epipolar plane. 変調された光源が、
レーザ光源と、
レーザ光源のコリメートされた出力から光シートを発生させるように構成された光学素子と、
プロジェクタとセンサとの間の一連のエピポーラ面に沿って、レーザ光のシートを誘導するための手段と
を備える、請求項11に記載の方法。
A modulated light source
a laser light source;
an optical element configured to generate a light sheet from the collimated output of the laser light source;
12. The method of claim 11, comprising means for directing the sheet of laser light along a series of epipolar planes between the projector and the sensor.
エピポーラ面のサブセットだけが撮像される、請求項11に記載の方法。 12. The method of claim 11, wherein only a subset of the epipolar plane is imaged. エピポーラ面が、インターリーブされたまたは鋸歯状パターンで照射され、感知される、請求項11に記載の方法。 12. The method of claim 11, wherein the epipolar plane is illuminated and sensed in an interleaved or sawtooth pattern. 1つのエピポーラ面が、別のエピポーラ面をサンプリングする前に複数回照射され、感知される、請求項11に記載の方法。 12. The method of claim 11, wherein one epipolar surface is illuminated and sensed multiple times before sampling another epipolar surface. 視野が、複数の部分を含み、部分が、異なる時間的走査レートで照射され、感知される、請求項11に記載の方法。 12. The method of claim 11, wherein the field of view includes multiple portions, the portions being illuminated and sensed at different temporal scanning rates. エピポーラ面のサブセットだけが照射され、感知される、請求項17に記載の媒体。 18. The medium of claim 17 , wherein only a subset of the epipolar surface is illuminated and sensed. エピポーラ面が、インターリーブされたまたは鋸歯状パターンで照射され、感知される、請求項17に記載の媒体。 18. The medium of claim 17 , wherein the epipolar surface is illuminated and sensed in an interleaved or sawtooth pattern. 1つのエピポーラ面が、別のエピポーラ面をサンプリングする前に複数回照射され、感知される、請求項17に記載の媒体。 18. The medium of claim 17 , wherein one epipolar surface is illuminated and sensed multiple times before sampling another epipolar surface. 視野が、複数の部分を含み、部分が、異なる時間的走査レートで照射され、感知される、請求項17に記載の媒体。 18. The medium of claim 17 , wherein the field of view includes multiple portions, the portions being illuminated and sensed at different temporal scanning rates. エピポーラ面が、インターリーブされたまたは鋸歯状パターンで照射され、感知される、請求項1に記載のシステム。 3. The system of claim 1, wherein the epipolar plane is illuminated and sensed in an interleaved or sawtooth pattern. 1つのエピポーラ面が、別のエピポーラ面をサンプリングする前に複数回照射され、感知される、請求項1に記載のシステム。 2. The system of claim 1, wherein one epipolar surface is illuminated and sensed multiple times before sampling another epipolar surface. 視野が、複数の部分を含み、部分が、異なる時間的走査レートで照射され、感知される、請求項1に記載のシステム。 2. The system of claim 1, wherein the field of view includes multiple portions, the portions being illuminated and sensed at different temporal scanning rates.
JP2019539163A 2017-01-20 2018-01-19 Methods for epipolar time-of-flight imaging Active JP7244013B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762499193P 2017-01-20 2017-01-20
US62/499,193 2017-01-20
PCT/US2018/014369 WO2018136709A1 (en) 2017-01-20 2018-01-19 Method for epipolar time of flight imaging

Publications (2)

Publication Number Publication Date
JP2020504310A JP2020504310A (en) 2020-02-06
JP7244013B2 true JP7244013B2 (en) 2023-03-22

Family

ID=62909043

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019539163A Active JP7244013B2 (en) 2017-01-20 2018-01-19 Methods for epipolar time-of-flight imaging

Country Status (4)

Country Link
EP (1) EP3571467A4 (en)
JP (1) JP7244013B2 (en)
CA (1) CA3051102A1 (en)
WO (1) WO2018136709A1 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11972586B2 (en) 2015-02-13 2024-04-30 Carnegie Mellon University Agile depth sensing using triangulation light curtains
US11747135B2 (en) 2015-02-13 2023-09-05 Carnegie Mellon University Energy optimized imaging system with synchronized dynamic control of directable beam light source and reconfigurably masked photo-sensor
EP3620821A1 (en) * 2018-09-05 2020-03-11 Infineon Technologies AG Time of flight camera and method for calibrating a time of flight camera
US11467270B2 (en) * 2019-03-27 2022-10-11 Asmpt Singapore Pte. Ltd. Apparatus and method for calibrating or testing an imaging device
CA3137060A1 (en) * 2019-04-17 2020-10-22 Carnegie Mellon University Agile depth sensing using triangulation light curtains
US11619723B2 (en) * 2019-09-23 2023-04-04 Microsoft Technology Licensing, Llc Multiple-mode frequency sharing for time-of-flight camera
CN111077538A (en) * 2019-12-29 2020-04-28 中国科学院西安光学精密机械研究所 Dynamic high-precision optical combined imaging method and system for marine complex environment
WO2021177045A1 (en) * 2020-03-04 2021-09-10 ソニーグループ株式会社 Signal processing device, signal processing method, and range-finding module
WO2022016314A1 (en) * 2020-07-20 2022-01-27 无锡盈达聚力科技有限公司 Scanning system and method for controlling aiming light source

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002039716A (en) 2000-07-25 2002-02-06 Olympus Optical Co Ltd Depth map input device
JP2012168049A (en) 2011-02-15 2012-09-06 Stanley Electric Co Ltd Distance image generation device and method
JP2013050310A (en) 2011-08-30 2013-03-14 Stanley Electric Co Ltd Distance image generation device
JP2015513825A (en) 2012-02-15 2015-05-14 メサ・イメージング・アー・ゲーMesa Imaging Ag Time-of-flight camera with stripe lighting
WO2016131036A1 (en) 2015-02-13 2016-08-18 Carnegie Mellon University Imaging system with synchronized dynamic control of directable beam light source and reconfigurably masked photo-sensor
US20160349369A1 (en) 2014-01-29 2016-12-01 Lg Innotek Co., Ltd. Device for extracting depth information and method thereof

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1971820B1 (en) * 2006-01-08 2012-10-17 Hermann Tropf Creation of a distance image
US9476695B2 (en) * 2013-07-03 2016-10-25 Faro Technologies, Inc. Laser tracker that cooperates with a remote camera bar and coordinate measurement device
US9389069B2 (en) * 2014-03-26 2016-07-12 Alces Technology, Inc. Compact 3D depth capture systems

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002039716A (en) 2000-07-25 2002-02-06 Olympus Optical Co Ltd Depth map input device
JP2012168049A (en) 2011-02-15 2012-09-06 Stanley Electric Co Ltd Distance image generation device and method
JP2013050310A (en) 2011-08-30 2013-03-14 Stanley Electric Co Ltd Distance image generation device
JP2015513825A (en) 2012-02-15 2015-05-14 メサ・イメージング・アー・ゲーMesa Imaging Ag Time-of-flight camera with stripe lighting
US20160349369A1 (en) 2014-01-29 2016-12-01 Lg Innotek Co., Ltd. Device for extracting depth information and method thereof
WO2016131036A1 (en) 2015-02-13 2016-08-18 Carnegie Mellon University Imaging system with synchronized dynamic control of directable beam light source and reconfigurably masked photo-sensor

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Matthew O'Toole et al.,"Homogeneous Codes for Energy-Efficient Illumination and Imaging",ACM Transactions on Graphics,2015年08月,Vol.34, No.4, Article 35,pp 1-13,DOI: 10.1145/2766897
Supreeth Achar et al.,"Epipolar Time-of-Flight Imaging",ACM Transactions on Graphics,2017年07月,Vol.36, No.4, Article 37,pp 1-8,DOI: 10.1145/3072959.3073686

Also Published As

Publication number Publication date
EP3571467A4 (en) 2020-08-12
CA3051102A1 (en) 2018-07-26
EP3571467A1 (en) 2019-11-27
JP2020504310A (en) 2020-02-06
WO2018136709A1 (en) 2018-07-26

Similar Documents

Publication Publication Date Title
JP7244013B2 (en) Methods for epipolar time-of-flight imaging
US11425357B2 (en) Method for epipolar time of flight imaging
US10935371B2 (en) Three-dimensional triangulational scanner with background light cancellation
CN106454287B (en) Combination shot system, mobile terminal and image processing method
US11002856B2 (en) Doppler time-of-flight imaging
JP6309459B2 (en) Time-of-flight camera with stripe lighting
JP7371443B2 (en) 3D measuring device
KR101854188B1 (en) 3D image acquisition apparatus and method of acqiring depth information in the 3D image acquisition apparatus
JP6822230B2 (en) Imaging device and imaging method
US11375165B2 (en) Image calibration for projected images
JP7270702B2 (en) Depth sensing system and method
JP2010113720A (en) Method and apparatus for combining range information with optical image
JP2014511590A (en) Method for recording image, method for obtaining 3D information from image, camera system
TWI641802B (en) Three-dimensional measuring device
WO2016131036A1 (en) Imaging system with synchronized dynamic control of directable beam light source and reconfigurably masked photo-sensor
Kitajima et al. Simultaneous projection and positioning of laser projector pixels
US20240244330A1 (en) Systems and methods for capturing and generating panoramic three-dimensional models and images
CN109100740B (en) Three-dimensional image imaging device, imaging method and system
CN112019773A (en) Image sensor, depth data measuring head, measuring device and method
JP3574602B2 (en) 3D image input device
JP2019027894A (en) Positional information acquisition system, and method and program for acquiring positional information
JP2016038287A (en) Self position calculation device and self position calculation method
JP4944633B2 (en) Three-dimensional shape measuring apparatus and three-dimensional shape measuring method
Maas Close range photogrammetry sensors
WO2024154528A1 (en) Three-dimensional measurement device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190920

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210316

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220523

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221130

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20221130

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221219

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20221220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230301

R150 Certificate of patent or registration of utility model

Ref document number: 7244013

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150