JP7403860B2 - Agile depth sensing using triangulation light curtains - Google Patents

Agile depth sensing using triangulation light curtains Download PDF

Info

Publication number
JP7403860B2
JP7403860B2 JP2021561679A JP2021561679A JP7403860B2 JP 7403860 B2 JP7403860 B2 JP 7403860B2 JP 2021561679 A JP2021561679 A JP 2021561679A JP 2021561679 A JP2021561679 A JP 2021561679A JP 7403860 B2 JP7403860 B2 JP 7403860B2
Authority
JP
Japan
Prior art keywords
light
scene
sensed
objects
curtain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021561679A
Other languages
Japanese (ja)
Other versions
JP2022530349A (en
Inventor
ナラシンハン,スリニバサ
バルテルス,ジョーセフ
ウィテカー,ウィリアム・エル
ワン,ジーアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carnegie Mellon University
Original Assignee
Carnegie Mellon University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US16/470,885 external-priority patent/US11493634B2/en
Application filed by Carnegie Mellon University filed Critical Carnegie Mellon University
Publication of JP2022530349A publication Critical patent/JP2022530349A/en
Application granted granted Critical
Publication of JP7403860B2 publication Critical patent/JP7403860B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • G01V8/12Detecting, e.g. by using light barriers using one transmitter and one receiver
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/04Systems determining the presence of a target

Description

本出願は、米国特許法第371条に基づく国内段階出願である米国特許出願第16/470,885号の一部継続出願であり、これは、2019年3月11日に出願された国際特許出願第PCT/US2019/021569号の利益と優先権を主張し、これは2018年3月23日に出願された米国仮特許出願第62/761,479号の利益を主張する。さらに、米国特許出願第16/470,885号は、米国特許法第371条に基づく国内段階出願である米国特許出願第15/545,391号の一部継続出願であり、これは、2016年2月15日に出願された国際特許出願第PCT/US2016/017942号の利益と優先権を主張し、これは2015年2月13日に出願された米国仮特許出願第62/176,352の利益を主張する。さらに、本出願はまた、2019年4月17日に出願された米国仮特許出願第62/920,178号の利益を主張する。これらの出願の全内容は、引用によりその全体が本明細書に組み込まれる。 This application is a continuation-in-part of U.S. patent application Ser. No. 16/470,885, a national phase application under 35 U.S.C. Claims benefit and priority of Application No. PCT/US2019/021569, which claims benefit of U.S. Provisional Patent Application No. 62/761,479, filed March 23, 2018. Additionally, U.S. Patent Application No. 16/470,885 is a continuation-in-part of U.S. Patent Application No. 15/545,391, which is a national phase application under 35 U.S.C. Claims benefit and priority of International Patent Application No. PCT/US2016/017942, filed February 15, which is a patent application of U.S. Provisional Patent Application No. 62/176,352, filed February 13, 2015. claim benefits. Additionally, this application also claims the benefit of U.S. Provisional Patent Application No. 62/920,178, filed April 17, 2019. The entire contents of these applications are incorporated herein by reference in their entirety.

政府の利益
本発明は、国防高等研究計画局(DARPA)によって授与された契約HR0011-16-C-0025および国立科学財団(NSF)によって授与された契約CNS-1446601の下で政府の支援を受けてなされた。政府は、本発明における一定の権利を有する。
GOVERNMENT BENEFIT This invention was made with government support under contract HR0011-16-C-0025 awarded by the Defense Advanced Research Projects Agency (DARPA) and contract CNS-1446601 awarded by the National Science Foundation (NSF). It was done. The Government has certain rights in this invention.

3Dセンサは、フィールドロボットおよび自動運転車を含む多くの自律システムの配備において重要な役割を果たす。しかしながら、本格的な3Dスキャナーを必ずしも使用しない可能性のあるタスクは多数存在する。一例として、道路上の無人搬送車(self-guided vehicle)や現場のロボットは、潜在的な衝突を検出したり、その死角を監視したりするために、本格的な3D深度センサを必要としない。代わりに、必要なのは、衝突回避ができるように、車両の事前画定された境界内にオブジェクトが入っているかどうかを車両が検出できるようにすることである。これは、完全な深度スキャニングやオブジェクトの識別よりもはるかに簡単なタスクである。 3D sensors play a key role in the deployment of many autonomous systems, including field robots and self-driving cars. However, there are many tasks that may not necessarily use a full-fledged 3D scanner. As an example, self-guided vehicles on the road and robots in the field do not need full-fledged 3D depth sensors to detect potential collisions or monitor their blind spots. . Instead, what is needed is for the vehicle to be able to detect whether an object is within a predefined boundary of the vehicle so that collision avoidance can occur. This is a much simpler task than full depth scanning and object identification.

LIDARおよびマイクロソフトKinect(R)のような深度センサは、関心のあるシーンに依存しない固定深度取得戦略を使用する。これらのセンサの低い空間的および時間的解像度に起因して、この戦略では、シーンの重要な部分、例えば、小さいおよび/または速く動くオブジェクトをアンダーサンプリングする可能性があり、または目前のタスクに役立たないエリア、例えば、固定平面壁をオーバーサンプリングする可能性がある。 Depth sensors such as LIDAR and Microsoft Kinect(R) use a fixed depth acquisition strategy that is independent of the scene of interest. Due to the low spatial and temporal resolution of these sensors, this strategy may undersample important parts of the scene, e.g. small and/or fast moving objects, or There is a possibility of oversampling areas that are not present, e.g. fixed plane walls.

ライトカーテンは、近くの障害物(例えば、人間)を検出して機械の動作を停止する安全デバイスである。それらは、例えば、ガレージのドアおよび/またはエレベータで、伸ばした手がドアをブロックしたときにドアが閉じるのを防ぐために使用されること、または危険な機械の周りの工場の床で使用されることができる。ライトカーテンは、障害物がソースとセンサの間の見通し線を遮ると障害物が検出されるという単純な原理で動作する。ライトカーテンはシンプルであるが、ライトカーテンシステムはマシンやタスクごとに特別にカスタマイズされる必要があり、視覚やロボット工学でのそれらの幅広い使用を妨げている。 A light curtain is a safety device that detects nearby obstacles (e.g., humans) and stops machine operation. They are used, for example, in garage doors and/or elevators to prevent doors from closing when an outstretched hand blocks the door, or on factory floors around dangerous machinery. be able to. Light curtains operate on the simple principle that an obstruction is detected if it blocks the line of sight between the source and the sensor. Although light curtains are simple, light curtain systems must be specifically customized for each machine and task, hindering their widespread use in vision and robotics.

最近、この原理は、ラインセンサおよびラインソースを使用して、任意の形状のライトカーテン(すなわち、線織面)を生成するように拡張された。ここでは、障害物は、ライン光源から生成された照明平面とラインセンサによってキャプチャされたイメージ化平面の両方と交差するときに検出される。いくつかの例では、照明平面とイメージ化平面は、異なる速さで操縦可能なミラーを使用して回転して、3Dで任意の線織カーテン面をスイープアウトする。このような三角測量ライトカーテンは、柔軟性が高くあり得、障害物の検出や自律ナビゲーションのための回避に役立ち得る。このようなライトカーテンは、「Programmable Light Curtains」と題された関連する米国特許出願第16/470,885号に説明されており、本出願はこの一部継続出願である。 Recently, this principle has been extended to use line sensors and sources to generate light curtains (i.e., woven surfaces) of arbitrary shapes. Here, an obstacle is detected when it intersects both the illumination plane generated from the line light source and the imaging plane captured by the line sensor. In some examples, the illumination plane and the imaging plane are rotated using steerable mirrors at different speeds to sweep out an arbitrary line curtain surface in 3D. Such triangulation light curtains can be highly flexible and can be useful in obstacle detection and avoidance for autonomous navigation. Such light curtains are described in related US patent application Ser. No. 16/470,885, entitled "Programmable Light Curtains," of which this application is a continuation-in-part.

三角測量ライトカーテンの原理を使用してシーンの深度を動的で適応的にサンプリングするための方法およびシステムが本明細書に開示されている。この方法は、指定された3Dラインでの障害物(またはシーンポイント)の有無を直接検出する。これらの3Dラインは、指定された領域でスパースに、不均一に、または密にサンプリングされ得る。深度サンプリングはリアルタイムで変更され得て、オブジェクトのすばやい発見、または関心のあるエリアの詳細な探索を可能にする。 Disclosed herein are methods and systems for dynamically adaptively sampling the depth of a scene using triangulation light curtain principles. This method directly detects the presence or absence of obstacles (or scene points) in a specified 3D line. These 3D lines may be sparsely, non-uniformly, or densely sampled in a specified area. Depth sampling can be changed in real time, allowing quick discovery of objects or detailed exploration of areas of interest.

これらの結果は、従来技術の成果よりも高い光効率、作動範囲、およびより速い適応を備えた2Dローリングシャッタカメラに基づく新規のプロトタイプライトカーテンシステムを使用して達成され、自律ナビゲーションおよび探索に対して広く有用にする。 These results were achieved using a novel prototype light curtain system based on a 2D rolling shutter camera with higher light efficiency, working range, and faster adaptation than prior art achievements, making it suitable for autonomous navigation and exploration. and make it widely useful.

視覚およびロボット工学のためのアジャイルな深度感知のための一般的なフレームワークが本明細書で開発されている。いくつかの例では、三角測量ライトカーテンが3Dラインに沿ってシーンと交差する。したがって、(例えば、LIDARまたはKinect(R)を使用して)関心のあるボリュームを通してシーンの3Dデータをキャプチャする代わりに、このフレームワークは、シーン内の3Dラインに沿った深度の経時的な柔軟なサンプリングを可能にする。深度サンプリングは、追加の計算なしで、これらの場所でリアルタイムに障害物(またはシーンポイント)の有無を検出する。 A general framework for agile depth sensing for vision and robotics is developed herein. In some examples, the triangulation light curtain intersects the scene along 3D lines. Therefore, instead of capturing 3D data of a scene through a volume of interest (e.g., using LIDAR or Kinect), this framework provides flexibility over time of depth along 3D lines within a scene. Enables accurate sampling. Depth sampling detects the presence or absence of obstacles (or scene points) at these locations in real time without additional calculations.

深度サンプリングは、指定された3D表面において、スパースであるか、不均一である(ランダムを含む)か、または密であり得る。スパースサンプリングを使用して、アプリケーションで指定された関心領域の深度の空間密度を適応的に増加させることができる。いくつかの実施形態では、スパースサンプリングを使用して、関心領域のみの深度の空間密度を適応的に増加させることができる。あるいは、シーン内のオブジェクトは、初期ランダムサンプリングと、それに続く深度の適応的サンプリングによってすばやく発見され得る。深度サンプリングは、目前のタスクに応じて、時間の経過とともに迅速に変化されることができる。 Depth sampling can be sparse, non-uniform (including random), or dense in a given 3D surface. Sparse sampling can be used to adaptively increase the spatial density of depth in an application-specified region of interest. In some embodiments, sparse sampling may be used to adaptively increase the spatial density of depth in only the region of interest. Alternatively, objects in the scene can be quickly discovered by initial random sampling followed by adaptive sampling of depth. Depth sampling can be changed quickly over time depending on the task at hand.

この感知フレームワークは、シーンに依存しない固定取得戦略を使用する深度感知に比べていくつかの利点を有する。まず、低周波数の均一な角度分解能のLIDARや低空間分解能のKinect(R)のようなセンサでは通常検出が難しい、小さくて細くて速く動くオブジェクトをキャプチャすることができる。このようなオブジェクトの例は、細いワイヤー、メッシュ、または高速で投げられるボールを含む。 This sensing framework has several advantages over depth sensing that uses scene-independent fixed acquisition strategies. First, it can capture small, thin, and fast-moving objects that are typically difficult to detect with low frequency, uniform angular resolution sensors like LIDAR and low spatial resolution sensors like Kinect®. Examples of such objects include thin wires, meshes, or balls thrown at high speed.

センサから遠く離れたオブジェクト(例えば、歩行者)の速くて高密度の3Dキャプチャは、オブジェクトがLIDARポイントクラウドでほとんど見えないときでさえ、本発明のシステムで可能であり、そのようなオブジェクトのより良好な検出、認識および追跡を可能にする。このフレームワークは、ロボットが初期のスパースな深度推定に基づいて関心領域を探索することを可能にする。ロボットが移動するのにつれてシーンを連続的でスパースにサンプリングすることで、同時に障害物を検出し3Dシーンをマッピングすることができる。 Fast and dense 3D capture of objects far away from the sensor (e.g. pedestrians) is possible with our system even when the objects are barely visible in the LIDAR point cloud, and the Enables better detection, recognition and tracking. This framework allows the robot to explore regions of interest based on an initial sparse depth estimate. By continuously and sparsely sampling the scene as the robot moves, it is possible to simultaneously detect obstacles and map the 3D scene.

これらの結果を達成するために、2Dカメラおよびレーザラインを使用する三角測量ライトカーテンの斬新な設計が開示されている。2Dカメラのローリングシャッタと回転するレーザラインは、ライトカーテンを形成するシーン内の3Dラインのセットにおいて三角測量する。ピクセルクロックを制御し、ソースミラーを操縦することにより、米国特許第16/470,885号のように任意の線織面を生成することができる。しかしながら、迅速な2Dローリングシャッタセンサの使用は、ラインセンサの設計に比べて大きな利点を提供する。いくつかの態様において、ライトカーテンは、60fpsのリフレッシュレートを有し、従来技術の設計の10倍の改善であり、カーテンを迅速で適応的に変更することを可能にする。他の態様では、2Dセンサの前の光学系がステアリングミラーのサイズによって限定されないので、説明されているシステムは、より光効率が高く、より少ない収集光で同様の範囲を達成する。さらに他の態様では、説明されているシステムは、より少ない可動部品を有し、より信頼性が高い。説明されている三角測量ライトカーテンと深度サンプリングのシステムは、屋外では最大20-30mの範囲で、屋内では最大50mで作動する。説明されている実施形態の一態様として、周囲照明(太陽光を含む)を抑制する方法も提案されている。 To achieve these results, a novel design of a triangulation light curtain using 2D cameras and laser lines is disclosed. A rolling shutter of a 2D camera and a rotating laser line triangulate in a set of 3D lines in the scene forming a light curtain. By controlling the pixel clock and steering the source mirror, arbitrary textured surfaces can be generated as in US Pat. No. 16/470,885. However, the use of rapid 2D rolling shutter sensors offers significant advantages over line sensor designs. In some embodiments, the light curtain has a refresh rate of 60 fps, a 10x improvement over prior art designs, allowing the curtain to be quickly and adaptively changed. In other aspects, the described system is more light efficient and achieves similar range with less collected light because the optics in front of the 2D sensor is not limited by the size of the steering mirror. In yet other aspects, the described system has fewer moving parts and is more reliable. The described triangulation light curtain and depth sampling system operates at a range of up to 20-30 m outdoors and up to 50 m indoors. As an aspect of the described embodiments, a method of suppressing ambient lighting (including sunlight) is also proposed.

説明されているシステムは、人間のロボット相互作用から、ロボットの操作、経路計画、およびナビゲーションに至るまでのアジャイルな深度感知タスクのためのリアルタイムの適応を可能にする。このシステムは再構成可能であり得、ロボット工学および製造用途に大きな影響を与え得る。 The described system enables real-time adaptation for agile depth-sensing tasks ranging from human-robot interaction to robot manipulation, path planning, and navigation. This system can be reconfigurable, which can have a major impact on robotics and manufacturing applications.

2Dカメラを使用した三角測量ライトカーテンの平面平行ジオミトリを概略的に示す上面図である。FIG. 3 is a top view schematically showing the planar parallel geometry of a triangulated light curtain using a 2D camera; 2Dカメラを備えたライトカーテンの設計を示す図である。FIG. 2 shows a design of a light curtain with a 2D camera. 周囲光抑制の方法の結果を示す図である。FIG. 4 is a diagram showing the results of a method of ambient light suppression. キャプチャされたライトカーテンを1秒あたり最大60回までイメージ化し、変更して、ボリュームを通して様々なカーテンをすばやくスキャンできることを示す図である。FIG. 3 illustrates that a captured light curtain can be imaged and modified up to 60 times per second to quickly scan different curtains through a volume. 小さくて速いオブジェクトの深度をキャプチャする説明されているデバイスを示す図である。FIG. 2 shows the described device for capturing depth of small and fast objects. テーブルと椅子のシーンの適応的深度イメージ化を示す図である。FIG. 3 illustrates adaptive depth imaging of a table and chair scene. 平面カーテン、ランダムカーテン、および適応型カーテンを使用したシーンの深度イメージ化を示す図である。FIG. 3 illustrates depth imaging of a scene using flat curtains, random curtains, and adaptive curtains. 移動ロボットがハイベイシーンを通して駆動された結果を示す図である。FIG. 3 is a diagram showing the result of driving a mobile robot through a high bay scene.

ライトカーテンは、ガルボミラーを備えたラインイメージャを操縦することによってイメージ化することができるが、その設計の性質は、フレームレートを5.6fpsに限定し得、ラインセンサの視野を回転するガルボミラーに適合するために小さなレンズの使用を必要とする場合がある。これが、光の効率と範囲を低減し得る。これらの問題は両方とも、2Dカメラとより大口径のレンズを使用してライトカーテンをイメージ化することで改善され得る。 The light curtain can be imaged by steering a line imager equipped with a galvo mirror, but the nature of its design can limit the frame rate to 5.6 fps, and the galvo mirror rotates the field of view of the line sensor. may require the use of a small lens to fit. This may reduce the efficiency and range of the light. Both of these problems can be improved by using a 2D camera and a larger diameter lens to image the light curtain.

単一のラインセンサ平面の連続スキャニングの代わりに、2Dカメラは光学系およびピクセルアレイによって画定されるイメージ化平面の個別のセットを有することができる。ライトカーテンの少なくともいくつかの設計では、これらの平面上のピクセルとライトカーテン面との交差部分が見出され得る。設計の簡単さのために、いくつかの実施形態では、所与のカメラカラムのピクセル光線は同一平面上にあり、ライトシートプロジェクタは光の真の平面を放射し、その回転軸はカメラのカラムに平行であると仮定することができる。これらの仮定は、一般に、低歪みレンズを使用すること、ライトシートプロジェクタ光学系の注意深い設計、およびカメラカラムへのプロジェクタ軸の正確なアライメントによって施行され得る。これらの仮定により、ライトカーテンは、図1に示されるように、XZ平面上の光線を見ることによって2次元で設計されることができる。それにより、3DポイントXは、カメラ平面

Figure 0007403860000001
と所望のカーテン面の交差部分にある。そのポイントをイメージ化するために必要な投影された光平面
Figure 0007403860000002
と角度θp,iは、Xとカメラ平面の回転軸上にある2つのポイント(例えば、(0,0,0)および(0,1,0))から平面を作成することにより、単純なジオメトリを通して見出され得る。カメラ平面が変化すると(細い線で示されているように)、必要な光平面が新しいポイントごとに算出される。必要なレーザ平面は、最初にXをプロジェクタのフレームに投影して:
Figure 0007403860000003
を得ることによって同様の方法で見出されることができ、ここで、
Figure 0007403860000004
は、カメラフレーム内のポイントを較正を通して見出されたプロジェクタフレームに変換する変換行列である。 Instead of continuous scanning of a single line sensor plane, a 2D camera can have a discrete set of imaging planes defined by optics and pixel arrays. In at least some designs of light curtains, intersections of pixels on these planes with the light curtain surface may be found. For design simplicity, in some embodiments, the pixel rays of a given camera column are coplanar, and the light sheet projector emits a true plane of light, with its axis of rotation aligned with the camera column. can be assumed to be parallel to These assumptions can generally be enforced by using low distortion lenses, careful design of light sheet projector optics, and accurate alignment of the projector axis to the camera column. With these assumptions, the light curtain can be designed in two dimensions by looking at the light rays on the XZ plane, as shown in FIG. Thereby, the 3D point X i is the camera plane
Figure 0007403860000001
and the desired curtain surface. the projected light plane needed to image that point
Figure 0007403860000002
and the angle θ p,i can be calculated simply by creating a plane from X i and two points on the axis of rotation of the camera plane (e.g., (0,0,0) and (0,1,0)). can be found through the geometry of When the camera plane changes (as shown by the thin line), the required light plane is calculated for each new point. The required laser plane is created by first projecting X i onto the projector frame:
Figure 0007403860000003
can be found in a similar way by obtaining, where,
Figure 0007403860000004
is a transformation matrix that transforms points in the camera frame to the projector frame found through calibration.

次に、ポイント

Figure 0007403860000005
は、プロジェクタの回転軸上の2つのポイントとともに使用され、プロジェクタのフレーム内にある投影された光平面
Figure 0007403860000006
を見出す。次に、カメラフレーム内のこの平面は、式(2):
Figure 0007403860000007
によって見出される。 Then the point
Figure 0007403860000005
is used with two points on the projector's axis of rotation to define the projected light plane within the projector's frame.
Figure 0007403860000006
Find out. This plane within the camera frame is then defined by equation (2):
Figure 0007403860000007
found by.

カーテン輪郭をイメージ化するために、所望の輪郭は、最初に、カーテン輪郭に沿って均一に分布された一連のm個のポイントに離散化され、ここで、mは、ほぼカメラのカラムの数である。次に、隣接するポイント間にラインセグメントが形成される。次に、各カラムを表す光線は、ラインセグメントとの交差部分についてチェックされて、図2に示されるように、ライトカーテン輪郭上にあるカラム光線上に一連のポイントXi・・・を作り出す。カメラ光線のいくつかが所望のカーテン輪郭と交差しないか、デザインポイントがライトシートプロジェクタまたはカメラの視野の外側にあり得る。いずれかのモジュールの視野の外側にあるあらゆるポイントは、無効とマークされ、ライトカーテンのイメージ化に使用されない場合がある。設計ポイントが有効な場合、それは式(1)を使用してライトシートプロジェクタのフレームに変換され、設計ポイントを通過するライトシートを作成するために必要なガルボミラー角度は、式(3):

Figure 0007403860000008
を使用して算出される。 To image a curtain contour, the desired contour is first discretized into a series of m points uniformly distributed along the curtain contour, where m is approximately the number of camera columns. It is. Line segments are then formed between adjacent points. The rays representing each column are then checked for intersections with line segments to create a series of points X i... X n on the column rays that lie on the light curtain contour, as shown in Figure 2. produce. Some of the camera rays may not intersect the desired curtain contour, or the design points may be outside the field of view of the light sheet projector or camera. Any point outside the field of view of either module may be marked invalid and not used for light curtain imaging. If the design point is valid, it is converted to the light sheet projector frame using equation (1), and the galvo mirror angle required to create a light sheet passing through the design point is equation (3):
Figure 0007403860000008
Calculated using

照明およびイメージ化の真の平面を有する理想的なシステムの場合、表面の3Dポイントは、2つの平面の交線によって画定されることができる。しかしながら、実際のシステムでは、レンズが少量の歪みを有する場合があり、カメラとライトシートプロジェクタの間に小さなアライメント誤差がある場合がある。このように、所与のカラム内のピクセルのライトシート平面との真の交差部分のポイントは同一平面上にない場合があり、光線平面交差部分の知られている算出方法を使用して、各ピクセル光線のライトシート平面との交差部分を算出することによって見出すことができる。これは、ライトカーテンの実際の3D表面が、図2に示されるように、カメラの視野全体にわたって設計された輪郭から変化し得ることを意味する。ビュー(A)は、カメラの光線の所望のカーテン輪郭との交差部分におけるポイントを見出すことにより、2Dカメラで設計されたライトカーテンを示している。これが、カーテン面に不均一な間隔のポイントのセットを作り出す。小さな光学歪みとアライメント誤差のため、ビュー(B)の各軸に沿ったカーテンの形状の違いによって示されるように、カーテンの実際の3D輪郭は設計されたカーテンの3Dへの完全な押し出しではない。例えば、z軸のカーテンの前面の変化する深度に留意されたい。しかしながら、歪みとアライメント不良の重大度に応じて、カーテン輪郭は視野の中央に向かってはかなり一貫している場合があり、視野のエッジに向かって大きく変化するだけである。 For an ideal system with true planes of illumination and imaging, a 3D point on the surface can be defined by the intersection of the two planes. However, in real systems, the lens may have a small amount of distortion, and there may be small alignment errors between the camera and the light sheet projector. In this way, the points of true intersection of pixels in a given column with the lightsheet plane may not be coplanar, and using known calculation methods of rayplane intersection, each It can be found by calculating the intersection of the pixel ray with the light sheet plane. This means that the actual 3D surface of the light curtain can vary from the designed contour across the camera's field of view, as shown in Figure 2. View (A) shows a light curtain designed with a 2D camera by finding the points at the intersection of the camera's rays with the desired curtain contour. This creates a set of unevenly spaced points on the curtain surface. Due to small optical distortions and alignment errors, the actual 3D contour of the curtain is not a perfect extrusion into 3D of the designed curtain, as shown by the difference in the shape of the curtain along each axis in view (B) . For example, note the varying depth of the curtain front in the z-axis. However, depending on the severity of distortion and misalignment, the curtain contour may be fairly consistent towards the center of the field and only vary significantly towards the edges of the field.

ローリングシャッタカメラによる高速カーテンイメージ化
ライトカーテンイメージ化は、必要に応じて、イメージ化平面を変更し、ライトカーテン面と交差させることを必要とし得る。2Dカメラの場合、これは、フレーム全体をキャプチャし、所与のカラムのみを使用するか(低速)、またはイメージャ上の選択関心領域のみをイメージ化する(より高速ではあるが依然として低速)ことによってなされ得る。実装することは簡単であるが、これらの方法はいずれも遅すぎてアジャイルなライトカーテンイメージ化を可能にできない場合がある。
Fast Curtain Imaging with a Rolling Shutter Camera Light curtain imaging may require changing the imaging plane to intersect the light curtain plane as needed. For 2D cameras, this can be done by capturing the entire frame and using only given columns (slower) or by imaging only selected regions of interest on the imager (faster but still slow). It can be done. Although easy to implement, all of these methods may be too slow to enable agile light curtain imaging.

カーテンをイメージ化するもっとより高速な方法は、イメージ化平面を移動させるために2D CMOSイメージャのローリングシャッタを使用することを含み得る。ローリングシャッタは、イメージャのピクセルクロックで指定された均一な速度でイメージ化平面を迅速に変更できる。この特性が、ローリングシャッタカメラのフルフレームレートでのライトカーテンイメージ化を可能にする。カーテンのイメージ化は、2Dカメラのアクティブなローとライトカーテン輪郭の交差部分によって画定されるポイントでライトシートを投影するのに必要な角度になるようライトシートプロジェクタに命令するのと同じ程度に簡単であり得る。ローリングシャッタの動きをライトシートの動きと同期させることで、任意の線織面を形成するライトカーテンをイメージ化することができる。 An even faster method of imaging a curtain may involve using a rolling shutter of a 2D CMOS imager to move the imaging plane. A rolling shutter can rapidly change the imaging plane at a uniform rate specified by the imager's pixel clock. This property enables full frame rate light curtain imaging of rolling shutter cameras. Imaging the curtain is as simple as commanding the light sheet projector to the required angle to project the light sheet at the point defined by the intersection of the 2D camera's active row and the light curtain contour. It can be. By synchronizing the movement of the rolling shutter with the movement of the light sheet, it is possible to visualize a light curtain that forms an arbitrary line-woven surface.

ローリングシャッタカメラの各フレームについて、キャプチャされたカーテンの画像を作り出すことができる。ライトカーテンをイメージ化している間、カメラはレーザ光と周囲光の両方をキャプチャする。周囲光が十分に低い場合(つまり、屋内イメージ化)、カメラからの画像を直接閾値処理して、検出されたポイントを示すマスクを作り出せる。しかしながら、多くの場合、キャプチャされた周囲光はキャプチャされたレーザ光よりもはるかに大きく、カーテンを検出できない(つまり、屋外の日光の下で)。狭帯域フィルタは、キャプチャされる周囲光を大幅に低減するが、最大のパフォーマンスのためには、レーザ信号をできるだけ少ないビットで検出することが望ましい。 For each frame of the rolling shutter camera, an image of the captured curtain can be produced. While imaging the light curtain, the camera captures both laser light and ambient light. If the ambient light is low enough (ie, indoor imaging), the image from the camera can be directly thresholded to create a mask indicating the detected points. However, in many cases the captured ambient light is much louder than the captured laser light and the curtain cannot be detected (i.e. in outdoor sunlight). Narrowband filters significantly reduce captured ambient light, but for maximum performance it is desirable to detect the laser signal in as few bits as possible.

周囲減算
周囲光の存在下でのパフォーマンスを増加させるために、各ライトカーテン位置での周囲画像と結合されたレーザ+周囲画像との両方をキャプチャすることによって、周囲光を減算することができる。この例では、周囲画像が結合された画像から差し引かれて、カーテンライトだけの画像が得られる。これは、はるかに大きな周囲のパフォーマンスを可能にするが、同じカメラ平面を2回イメージ化する必要がある。これは、画像全体または選択可能な関心領域がイメージ化されている場合、2Dカメラでなされ得るが、場合によっては、単一のローリングシャッタフレームキャプチャではなされ得ないことがある。これを解決するために、本発明の方法は、いくつかの実施形態では、キャプチャされた画像の隣接するカラムを使用して、周囲減算を行う。
Ambient Subtraction To increase performance in the presence of ambient light, ambient light can be subtracted by capturing both the ambient image and the combined laser+ambient image at each light curtain position. In this example, the surrounding image is subtracted from the combined image to obtain an image of only the curtain lights. This allows for much greater peripheral performance, but requires imaging the same camera plane twice. This can be done with a 2D camera if the entire image or a selectable region of interest is imaged, but in some cases may not be done with a single rolling shutter frame capture. To solve this, the method of the present invention, in some embodiments, uses adjacent columns of the captured image to perform perimeter subtraction.

この方法は、カーテンの解像度を犠牲にする場合があり、図3に示すように、偶数カラムがレーザオンでキャプチャされ、奇数カラムがレーザオフでキャプチャされる生画像をキャプチャして、周囲のみの画像および結合された画像を得ることができる。これらのカラムを分離してアップサンプリングすることが、フル解像度の周囲のみの画像と結合された画像を形成する。結合された画像から周囲画像を差し引くことは、レーザのみの画像を作り出し、この画像は次に、閾値処理されてライトカーテンの検出を見出し、イメージ化された検出ポイントを示すマスクを提供することができる。細い水平の収縮/膨張フィルタでこのマスクをフィルタ処理することは、大きな強度勾配とアップサンプリングアーティファクトに対する改善した堅牢性を提供する。 This method may sacrifice the resolution of the curtain, and captures the raw image where even columns are captured with the laser on and odd columns are captured with the laser off, as shown in Figure 3, to capture the ambient-only image and A combined image can be obtained. Separating and upsampling these columns forms a combined image with a full resolution surround-only image. Subtracting the ambient image from the combined image produces a laser-only image, which can then be thresholded to find the light curtain detection and provide a mask indicating the imaged detection points. can. Filtering this mask with a thin horizontal contraction/expansion filter provides improved robustness to large intensity gradients and upsampling artifacts.

周囲光が高いエリアでは、この技術は、図3のレーザ画像のぼんやりしたエッジおよび閾値処理マスク画像の垂直の細いラインによって示されるように、高強度勾配の場所で依然として誤差を作り出し得る。 In areas with high ambient light, this technique can still create errors at locations of high intensity gradients, as shown by the fuzzy edges of the laser image in FIG. 3 and the vertical thin lines of the thresholded mask image.

ローリングシャッタの動きの、ライトシートプロジェクタの動きおよびタイミングとの同期精度に応じて、周囲画像に現れる可能性がある近隣のカラムへのレーザ光のわずかな滲み(bleed-through)があり得る。この光は周囲画像に現れる得るため、結合された画像から差し引かれることができ、レーザ光からの測定信号を低減され得るので、それによってデバイスのパフォーマンスを低減する。正確な同期により、この光の量を数ビットに限定したり、完全に削除したりできるため、システムのパフォーマンスに大きな影響を与えることはない。 Depending on how well the rolling shutter movement is synchronized with the light sheet projector movement and timing, there may be a slight bleed-through of the laser light into neighboring columns that may appear in the surrounding image. Since this light can appear in the ambient image, it can be subtracted from the combined image and the measurement signal from the laser light can be reduced, thereby reducing the performance of the device. With precise synchronization, this amount of light can be limited to a few bits or removed entirely without significantly impacting system performance.

限定事項
いくつかの実施形態では、ローリングシャッタカメラを使用することのイメージ化速度および増強された光効率と引き換えに、デュアルガルボミラーが従来技術の設計を提供するライトカーテン輪郭の均一なサンプリングが、カメラピクセルの離散的性質のために放棄され得る。これは、カーテン輪郭にライトカーテンデバイスがイメージ化できないギャップがあり得る状況につながり得る。
Limitations In some embodiments, the uniform sampling of the light curtain contour that dual galvo mirrors offer prior art designs trades off the imaging speed and enhanced light efficiency of using a rolling shutter camera. can be abandoned due to the discrete nature of camera pixels. This can lead to situations where there may be gaps in the curtain contour that the light curtain device cannot image.

これは、カメラの光線がカーテン面の方向において類似しているときに発生し得る。この影響は、図2のカーテン輪郭の右上部分に示されている。ローリングシャッタカメラを使用することのもう1つの欠点は、いくつかの例では、カメラの各平面を所与のフレームで1回しかイメージ化できないことであり得る。カメラ平面が多数のカーテンセグメントと(例えばジグザグに)交差する場合、セグメントの1つをイメージ化されたカーテンに選ぶことができ、順次的なカーテンをイメージ化して、所与の光線に沿ったすべてのポイントをキャプチャできる。ガルボミラーの制約の1つは、非常に高速に移動するように命令された場合(100Hzのステップ関数を超える場合)、命令された位置に遅れが生じることがあり、平面の交差部分が設計とは異なるポイントになる可能性があり、それが次に、検出されたポイントの場所での誤差を生じさせることである。これは、どのカーテンをイメージ化できるかが制約し得、実際には、イメージ化する前にランダムで適応型カーテンをスプラインで平滑化する必要がある。この誤差は、開ループ制御を信頼するのではなく、ミラーの閉ループフィードバックから測定された角度を使用して検出されたポイントの位置を算出することで対処され得る。 This can occur when the camera rays are similar in the direction of the curtain plane. This effect is shown in the upper right part of the curtain profile in FIG. Another disadvantage of using a rolling shutter camera may be that in some examples each plane of the camera can only be imaged once in a given frame. If the camera plane intersects many curtain segments (e.g. in a zigzag), one of the segments can be chosen to be the imaged curtain, and sequential curtains can be imaged to points can be captured. One of the limitations of galvo mirrors is that if they are commanded to move very fast (over a 100Hz step function), there can be a lag in the commanded position, and the intersection of the planes may be different from the design. can be different points, which in turn causes an error in the location of the detected points. This may constrain which curtains can be imaged; in practice, random adaptive curtains need to be smoothed with splines before being imaged. This error can be addressed by using the angle measured from the mirror's closed-loop feedback to calculate the position of the detected point, rather than relying on open-loop control.

ハードウェアプロトタイプ
システムのハードウェアプロトタイプは、ライトシートプロジェクタおよびローリングシャッタカメラからなる。説明されているシステムは単なる例示であり、特許請求の範囲によってカバーされるシステムの実施形態は、説明された構成要素に限定されることを意味するものではない。ライトシートプロジェクタは、1W 830nmレーザダイオードを使用したカスタム設計のラインレーザモジュールを含んでもよく、それは、次に、45°パウエルレンズでコリメートされてラインに成形される。次いでこのレーザラインがガルボミラーに投影され、ガルボミラーで操縦される。ラインレーザモジュールは、マウント内のガルボミラーに整列されてマウントされ、レーザラインのガルボミラーの回転軸との正確な同一直線上のアライメントを可能にする。ガルボミラーは14.5mm×8.5mmという寸法を有することができ、50°の光学スキャン角度を有し得る。
Hardware Prototype The hardware prototype of the system consists of a light sheet projector and a rolling shutter camera. The systems described are merely exemplary and the embodiments of the systems covered by the claims are not meant to be limited to the components described. The light sheet projector may include a custom designed line laser module using a 1W 830nm laser diode, which is then collimated with a 45° Powell lens and shaped into a line. This laser line is then projected onto and steered by the galvo mirror. The line laser module is mounted in alignment with the galvo mirror in the mount, allowing precise collinear alignment of the laser line with the rotation axis of the galvo mirror. The galvo mirror can have dimensions of 14.5 mm x 8.5 mm and can have an optical scan angle of 50°.

ローリングシャッタカメラは、70°(h)×60°(v)の視野を有する低歪みCマウントレンズに適合することができる。このカメラは10ビットの精度を提供し得、5.3μ平方mピクセルで1280×1024ピクセルのネイティブ解像度を有することができる。カメラは、受信光の信号を増加させ、ノイズを低減するために、640×512の解像度で2倍ビニングモードで動作させることができる。低歪みレンズを使用して、所与のカラム形に沿ったライトシートとカメラ光線の交差部分が可能な限りラインに近くなるように保証することができる。レンズとイメージセンサの間に、830nmを中心に12nmの帯域フィルタを配置して、収集される周囲光の量を低減することができる。カメラのローがガルボミラーの回転軸と平行になるように、カメラをガルボミラーに整列させることができる。次に、回転したカメラを、ガルボミラーの回転軸から200mmの固定ベースラインに配置できる。マイクロコントローラを使用して、カメラ、レーザ、およびガルボミラーを同期させることができる。ライトカーテンをそのビューに投影することにより、ライトカーテンを視覚化し、シーン内の結果を検出するためにカラー2Dヘルパーカメラを使用することができる。 A rolling shutter camera can be fitted with a low distortion C-mount lens with a field of view of 70° (h) x 60° (v). This camera can provide 10 bits of precision and have a native resolution of 1280 x 1024 pixels with 5.3μ square m pixels. The camera can be operated in 2x binning mode at a resolution of 640x512 to increase the signal of the received light and reduce noise. A low distortion lens can be used to ensure that the intersection of the light sheet and camera beam along a given column shape is as close to a line as possible. A 12 nm bandpass filter centered at 830 nm can be placed between the lens and the image sensor to reduce the amount of ambient light collected. The camera can be aligned with the galvo mirror so that the row of the camera is parallel to the axis of rotation of the galvo mirror. The rotated camera can then be placed at a fixed baseline 200 mm from the axis of rotation of the galvo mirror. A microcontroller can be used to synchronize the camera, laser, and galvo mirror. By projecting the light curtain onto its view, a color 2D helper camera can be used to visualize the light curtain and detect results in the scene.

代替の実施形態では、CMOS(相補的金属酸化物半導体)、InGaAs(ヒ化インジウムガリウム)、SWIR(短波赤外線)、DVS(動的ビジョンセンサ)、ToF(飛行時間)およびCW-ToF(連続波飛行時間)タイプのセンサを含むがこれらに限定されない、異なるタイプのセンサを使用することができる。 Alternative embodiments include CMOS (Complementary Metal Oxide Semiconductor), InGaAs (Indium Gallium Arsenide), SWIR (Short Wave Infrared), DVS (Dynamic Vision Sensor), ToF (Time of Flight) and CW-ToF (Continuous Wave Different types of sensors can be used, including but not limited to time-of-flight) type sensors.

較正
ライトカーテンのパフォーマンスは、カメラおよびライトシートプロジェクタの正確な較正に依存する。最初に、カメライントリンシック(intrinsic)を決定することができる。次に、ライトシートプロジェクタおよびカメラの外部較正は、ライトシートプロジェクタによって平面壁に投影された光平面のセットをイメージ化することによって決定され得る。知られている寸法のチェッカーボードターゲットを壁に取り付け、較正されたカメラでイメージ化して、イメージ化された各レーザライン上のポイントの知られている3D座標を得ることができる。これは、光の各平面を完全に画定するために、いくつかの深度で同じ平面のセットを使用して繰り返すことができる。次に、重みが正規化された強度値である重み付き最小二乗法を使用して、ポイントの各セットに対して最良適合平面方程式が見出され得る。次に、平面についての方程式が与えられると、カメラに対するガルボミラー軸の場所は、すべての平面の交差部分へのラインの最小二乗適合によって見出され得る。連続関数は、平面角度(ガルボミラー軸に対する)と命令されたライトシートプロジェクタ角度の関係に適合されることができ、次にこれを使用して、任意の所与の設計ポイントの指定された角度に必要な命令されたガルボミラー位置を決定する。
Calibration Light curtain performance depends on accurate calibration of the camera and light sheet projector. First, the camera intrinsics can be determined. The external calibration of the light sheet projector and camera can then be determined by imaging a set of light planes projected onto a flat wall by the light sheet projector. A checkerboard target of known dimensions can be mounted on a wall and imaged with a calibrated camera to obtain known 3D coordinates of points on each imaged laser line. This can be repeated using the same set of planes at several depths to completely define each plane of light. The best-fitting plane equation can then be found for each set of points using weighted least squares, where the weights are the normalized intensity values. Then, given the equations for the planes, the location of the galvo mirror axis relative to the camera can be found by a least squares fit of the line to the intersection of all planes. A continuous function can be fitted to the relationship between the plane angle (relative to the galvo mirror axis) and the commanded light sheet projector angle, which can then be used to calculate the specified angle for any given design point. Determine the commanded galvo mirror position required.

キャプチャプロセス
従来技術のライトカーテンの設計では、ライトシートおよびカメラ平面角度は、ガルボミラーの位置によって命令されていた。しかしながら、2Dカメラの場合、カメラの平面角度は、光学系とイメージャ上のピクセルのアクティブラインによって画定される。ローリングシャッタカメラの場合、ピクセルのアクティブラインは、ローリングシャッタの速度とフレームの開始からの時間とによって画定される。ローリングシャッタの速度は、ピクセルクロックとして知られているピクセルの読み出しレートによって決定される。所与のラインがアクティブである最大時間は、ライン上のピクセル数をピクセルクロックで除算することによって見出すことができる。カメラの最大60fpsキャプチャレートでは、ラインの最大アクティブ露出時間≒15マイクロ秒である。
Capture Process In prior art light curtain designs, the light sheet and camera plane angles were dictated by the position of the galvo mirror. However, for a 2D camera, the plane angle of the camera is defined by the optical system and the active line of pixels on the imager. For rolling shutter cameras, the active line of pixels is defined by the speed of the rolling shutter and the time from the start of the frame. The speed of the rolling shutter is determined by the pixel readout rate, known as the pixel clock. The maximum time a given line is active can be found by dividing the number of pixels on the line by the pixel clock. At the maximum 60 fps capture rate of the camera, the maximum active exposure time of a line is ≈15 microseconds.

ライトカーテンをイメージ化するために、ソフトウェアは、プロセッサに必要なガルボミラー位置を算出させ、それらをガルボミラーを制御するマイクロコントローラに送信させる。同時に、カメラがトリガーされてフレームキャプチャが開始される。次に、ソフトウェアは、ローリングシャッタの時間指定された進行に伴い、ロックステップでガルボミラーの位置とレーザ出力を順次命令する。次いでこのプロセスは、連続するライトカーテンごとに繰り返される。フレームごとにガルボミラーの位置を算出することは、カメラのフルフレームレートでフレームごとに異なるライトカーテンをイメージ化することを可能にする。 To image the light curtain, the software causes the processor to calculate the required galvo mirror positions and send them to the microcontroller that controls the galvo mirrors. At the same time, the camera is triggered to start capturing frames. The software then sequentially commands the galvo mirror position and laser power in lockstep with the timed progression of the rolling shutter. This process is then repeated for each successive light curtain. Calculating the position of the galvo mirror on a frame-by-frame basis allows imaging a different light curtain on a frame-by-frame basis at the camera's full frame rate.

作動範囲
いくつかのフレームレートでは、説明されているデバイスは、約50klxの周囲光においてホワイトボードをイメージ化する間、50mの作動範囲、および屋内で20mの作動範囲を有する。これは、低減した露光時間を有する。デバイスが100マイクロ秒の露出用に構成されているとき、デバイスは同様の条件で屋外で40メートル以上をイメージ化できる。
Working Range At some frame rates, the described device has a working range of 50 m while imaging a whiteboard in approximately 50 klx ambient light, and a working range of 20 m indoors. This has a reduced exposure time. When the device is configured for 100 microsecond exposures, it can image over 40 meters outdoors under similar conditions.

アジャイルでダイナミックなライトカーテン
説明されているデバイスは、毎秒60の異なるライトカーテンをイメージ化することができる。この速度と柔軟性が、シーンをインテリジェントで適応的にサンプリングするために使用できる、アジャイルでダイナミックなライトカーテンの使用を可能にする。この機能は、経路計画、高解像度の安全カーテン、深度感知を含む、多くの分野に適用できる。図4は、屋内および屋外の両方で様々なタイプのライトカーテンをイメージ化した結果を示しており、説明されているデバイスでイメージ化できる異なるタイプのカーテンの単なるサンプルである。図4に示される画像は、シーンの視覚化のためにヘルパーカメラのビューに投影されたライトカーテン面と検出である。図4に示される画像は、2Dヘルパーカメラのビューからのもので、ライトカーテン面が青でレンダリングされ、検出が緑でレンダリングされている。これらのカーテンのアジャイルな性質により、ビュー(A)に示すように、計画された経路の迅速なチェッキングや、ビュー(B)に示されている安全ゾーンの境界とその中のエリアをチェックすることを迅速に交互に行うことで、安全ゾーンに入る障害物や安全ゾーン内の障害物を検出するなど、多くの用途を可能にする。
Agile and Dynamic Light Curtains The described device is capable of imaging 60 different light curtains per second. This speed and flexibility enables the use of agile and dynamic light curtains that can be used to intelligently and adaptively sample scenes. This functionality has applications in many areas, including path planning, high-resolution safety curtains, and depth sensing. Figure 4 shows the results of imaging various types of light curtains both indoors and outdoors, and is just a sample of the different types of curtains that can be imaged with the described device. The image shown in Figure 4 is the light curtain surface and detection projected onto the helper camera's view for scene visualization. The image shown in Figure 4 is from the 2D helper camera view, with the light curtain surface rendered in blue and the detection rendered in green. The agile nature of these curtains allows for quick checking of planned routes, as shown in view (A), as well as checking the boundaries of and areas within the safety zone, as shown in view (B). This rapid alternation enables many applications, such as detecting obstacles entering or within a safe zone.

高解像度、高速ライトカーテン:
説明されているデバイスの迅速なキャプチャレートおよび解像度は、図5のビュー(AからC)に示されるように、ライトカーテンを通過するときの小さくて速いオブジェクトのイメージ化を可能にする。いくつかの合成画像は、ビュー(A)の直径70mmの小さなボールと、ビュー(B)の5m離れた平面カーテンを通して投げられた直径30mmのボールと厚さ30mm、直径265mmのフリスビーのビューと検出された場所を示している。オブジェクトの検出はビュー(C)に表示されている。ライトカーテンの解像度は、スキャニングLIDARデバイスに比べて増加した詳細を提供し、増強されたオブジェクト認識と小さなオブジェクト(ワイヤー、枝など)の限界的な検出を可能にできる。これは、図5のビュー(DからI)に示されるように、離れた所にある細い構造またはオブジェクトをイメージ化するときに特に顕著である。ビュー(DからF)は、ビュー(E)の密な3Dポイントクラウドを作成するために、細いワイヤーフェンスを含むボリュームを通してスイープした平面カーテンを示している。ビュー(F)のライトカーテン(緑色のポイント)は、1.5mの距離にある16ビームベロダインVLP-16スキャニングLIDAR(白色のポイント)よりもはるかに高い解像度でフェンスメッシュを再構築する。平面カーテンをイメージ化することにより、ライトカーテンの範囲と解像度は、ビュー(GからI)に示すように、屋外の15mの範囲にあるオブジェクトの高解像度の高さマップを作成することを可能にする。この範囲では、静的VLP-16スキャニングLIDARは、白で示されているいくつかのポイントとしてしかオブジェクトを感知しない。
High resolution, high speed light curtain:
The rapid capture rate and resolution of the described device allows for the imaging of small and fast objects as they pass through the light curtain, as shown in the views of FIG. 5 (A to C). Several composite images show a small ball with a diameter of 70 mm in view (A), a ball with a diameter of 30 mm thrown through a flat curtain 5 m away in view (B), and a view and detection of a Frisbee with a thickness of 30 mm and a diameter of 265 mm. It shows the location where it was done. Object detection is displayed in view (C). The resolution of the light curtain provides increased detail compared to scanning LIDAR devices and can enable enhanced object recognition and marginal detection of small objects (wires, branches, etc.). This is particularly noticeable when imaging thin structures or objects at a distance, as shown in the views (D to I) of FIG. 5. Views (D to F) show a planar curtain swept through a volume containing a thin wire fence to create the dense 3D point cloud in view (E). The light curtain (green points) in view (F) reconstructs the fence mesh with much higher resolution than the 16-beam Velodyne VLP-16 scanning LIDAR (white points) at a distance of 1.5 m. By imaging a plane curtain, the range and resolution of the light curtain makes it possible to create a high-resolution height map of objects within a 15m range outdoors, as shown in the views (G to I). do. At this range, the static VLP-16 scanning LIDAR only senses objects as a few points shown in white.

適応的深度イメージ化
関心のある深度をハイレートで指定する能力は、シーンの現在の知識に基づいて環境のインテリジェントな深度イメージ化を可能にする。例えば、デバイスが最初にシーンに入ったとき、デバイスは環境の知識を有していないが、ライトカーテンで関心のあるボリュームをすばやくランダムにスキャンすることで、シーン内のオブジェクトの場所の大まかな推定値を生成でき、1つ以上の新しいカーテンを設計して、これらの関心のあるポイントの周囲をイメージ化することができる。次に、このプロセスが迅速に繰り返されて、シーン内のオブジェクトの精密なマップが形成される。図6は、テーブルと椅子を含むシーンの適応的深度イメージ化を示している。イメージ化は、最初に関心のあるボリュームをランダムにサンプリングしてオブジェクトを見つけることによって行われる。次に、これらのオブジェクトの前面で検出されたポイント(プロットの赤いドットと下の行の白いドットで示される)を使用してライトカーテンのセットを設計し、それをイメージ化して精緻化し、より多くのシーンを発見する。時間が経つにつれて、カーテンは最終的にシーンの後ろの壁を発見してイメージ化する。図6、ビュー(A)は、ライトカーテンから3m以内の関心のあるボリュームをランダムにサンプリングすることにより、カーテンを初期化するために使用されるランダムカーテンを示している。これらのカーテンはいくつかのオブジェクトを検出し、デバイスはそれらをデザインポイントとして使用して、オブジェクトの前面に新しいカーテンを適合した。数ミリ秒未満で、検出されたシーンポイントのすぐ前と後ろのエリアをカバーするように、このスプラインのスケーリングされたバージョンである10個のカーテンのセットが設計された。次に、これらの新しいカーテンがイメージ化され、より多くのシーンを精緻化して発見するために使用された。いくつかのランダムカーテンを適応型カーテンとインターリーブすることにより、デバイスはシーンのあらゆる変化をチェックし続け、シーンの残りの部分を低解像度でサンプリングできる。図6の実験の設計プロセスは、検出されたすべてのポイントをXZ平面に投影し、角度領域内の最も近いポイントをその領域の設計ポイントとして使用した。平面全体をこれらの均一に角度付けされた角度領域に分割することにより、設計ポイントのセットが決定された。
Adaptive Depth Imaging The ability to specify depth of interest at high rates enables intelligent depth imaging of the environment based on current knowledge of the scene. For example, when a device first enters a scene, it has no knowledge of the environment, but by quickly and randomly scanning volumes of interest with a light curtain, it can make a rough estimate of the location of objects in the scene. Values can be generated and one or more new curtains can be designed to image around these points of interest. This process is then rapidly repeated to form a precise map of the objects in the scene. Figure 6 shows adaptive depth imaging of a scene containing a table and chairs. Imaging is performed by first randomly sampling the volume of interest to find objects. We then use the detected points in front of these objects (indicated by red dots in the plot and white dots in the bottom row) to design a set of light curtains, which we image and refine to create more Discover many scenes. Over time, the curtain eventually discovers and images the wall behind the scene. Figure 6, view (A) shows a random curtain used to initialize the curtain by randomly sampling a volume of interest within 3 m of the light curtain. These curtains detected some objects and the device used them as design points to fit new curtains in front of the objects. A set of 10 curtains, a scaled version of this spline, was designed to cover the area immediately in front and behind the detected scene points in less than a few milliseconds. These new curtains were then imaged and used to refine and discover more scenes. By interleaving some random curtains with adaptive curtains, the device can keep checking for any changes in the scene and sample the rest of the scene at a lower resolution. The design process for the experiment in Figure 6 was to project all detected points onto the XZ plane and use the closest point within the angular domain as the design point for that domain. A set of design points was determined by dividing the entire plane into these uniformly angled angular regions.

深度イメージ化の比較
異なるライトカーテンタイプを使用する深度イメージ化方法の比較は、各カーテンタイプで同じシーンをキャプチャし、指定された時間でのシーンのカバレッジを比較することによって行われた。方法は、平面スイーピング、ランダムサンプリング、および適応的深度イメージ化が含んでいた。平面スイーピングの場合、平面は、深度解像度0.2mで1.0で4.25mのシーンを完全にイメージ化するように設計された。適応型カーテンは、検出されたオブジェクトの前面を高解像度で感知し、シーンの残りの部分を低解像度で感知するようにチューニングされた。図7は、この比較の結果を示している。0.25秒のランダム検出で初期化されると、適応型カーテンの発見の性質が、検出されたオブジェクトの近くを感知することを可能にし、シーンの前方の空のエリアを感知する時間を無駄にすることはない。その結果、0.25秒未満でシーンの興味のある部分をすばやくカバーすることができた。時間が与えられると、平面スイープカーテンは高解像度で完全なカバレッジを提供できるが、限られた時間では、ランダムおよび適応型カーテンはより短い時間でより多くのシーンをイメージ化できる。例えば、平面スイープカーテンは、シーン全体を0.5秒でイメージ化するように構成され得たが、深度解像度は0.4mであり、他の方法よりもはるかに低くなる。図7は、適応型カーテンが、平面をスイープするか、またはシーンのランダムサンプリングよりも短い時間でより多くのシーンをインテリジェントにカバーすることを示している。ランダムサンプリングで初期化した後、適応型カーテンは、0.25秒でシーンの興味のある部分を発見し、次いでマップの精緻化を続けた。
Depth Imaging Comparison A comparison of depth imaging methods using different light curtain types was performed by capturing the same scene with each curtain type and comparing the coverage of the scene at a given time. Methods included planar sweeping, random sampling, and adaptive depth imaging. For plane sweeping, the plane was designed to fully image a 4.25 m scene at 1.0 with a depth resolution of 0.2 m. The adaptive curtain was tuned to sense the front side of the detected object in high resolution and the rest of the scene in low resolution. Figure 7 shows the results of this comparison. When initialized with 0.25 seconds of random detection, the nature of adaptive curtain discovery allows it to sense the proximity of detected objects, wasting time sensing empty areas in front of the scene. There's nothing to do. As a result, we were able to quickly cover interesting parts of the scene in less than 0.25 seconds. Given time, planar sweep curtains can provide complete coverage with high resolution, but with limited time, random and adaptive curtains can image more scenes in less time. For example, a planar sweep curtain could be configured to image the entire scene in 0.5 seconds, but the depth resolution would be 0.4 m, much lower than other methods. Figure 7 shows that the adaptive curtain intelligently covers more scenes in less time than sweeping a plane or random sampling of scenes. After initializing with random sampling, the adaptive curtain found interesting parts of the scene in 0.25 seconds and then continued to refine the map.

適応型ライトカーテンを使用した発見とマッピング
適応型ライトカーテンを使用して、移動するプラットフォームからシーンを発見およびマッピングすることができる。図8に示すように、オンボードローカリゼーションを備えた小型ロボットを使用して、雑然としたハイベイシーンを通してライトカーテンデバイスを移動させた。ロボットがシーンを進むと、適応型ライトカーテンがシーン構造を発見し、各フレームから新しく検出されたオブジェクトをイメージ化するように継続的に構成された。ライトカーテンは、固定深度感知戦略を使用するのではなく、検出されたオブジェクトの周囲の領域を高解像度でインテリジェントにサンプリングし、シーンの残りの部分をより低解像度のランダムカーテンでサンプリングした。マッピング実験では、5つの一意にランダムなカーテンのセットが10個の適応型カーテンごとにインターリーブされた。図8は、シーン内のオブジェクトに適合するカーテンのいくつかの例を示している。ビュー(A)に青で示されているカーテンが、シーン内のオブジェクトの周囲にぴったりと適合していることに留意されたい。環境全体を移動すると、ビュー(B)に緑色で示されているカーテン上の検出されたポイントもシーンをマッピングした。3Dマップの白いポイントは、適応型カーテンのセットの設計ポイントを示している。
Discovery and Mapping Using Adaptive Light Curtains Adaptive light curtains can be used to discover and map scenes from a moving platform. As shown in Figure 8, a small robot with onboard localization was used to move a light curtain device through a cluttered high bay scene. As the robot progressed through the scene, an adaptive light curtain was continuously configured to discover the scene structure and image newly detected objects from each frame. Rather than using a fixed depth sensing strategy, the light curtain intelligently sampled the area around the detected object at high resolution, and sampled the rest of the scene with a random curtain at lower resolution. In the mapping experiment, a set of 5 uniquely random curtains were interleaved with each of the 10 adaptive curtains. Figure 8 shows some examples of curtains that fit objects in a scene. Note that the curtain, shown in blue in view (A), fits tightly around the objects in the scene. As we moved through the environment, the detected points on the curtain, shown in green in view (B), also mapped the scene. The white points on the 3D map indicate the design points of the set of adaptive curtains.

本発明が関係する当業者にとっては、本発明の多くの修正および適応がそれら自体を示唆するものであろう。本明細書に開示される例示的な方法およびシステムは、本発明の限定としてではなく、その例示として解釈されるべきである。本発明の意図されている範囲は、以下の特許請求の範囲によって定義される。 Many modifications and adaptations of the invention will suggest themselves to those skilled in the art to which the invention pertains. The example methods and systems disclosed herein should be construed as illustrative of the invention, rather than as a limitation thereof. The intended scope of the invention is defined by the following claims.

Claims (18)

ライトシート平面を作成するための光源と、
感知平面内のラインを感知するための調整可能な関心領域を有するラインセンサであって、感知されるラインは、ライトシート平面と感知平面との交差部分によって画定される、ラインセンサと、
プロセッサと、
プロセッサによって実行されるソフトウェアであって、
シーン内の不均一な複数の感知されるラインに沿ってシーンをサンプリングする機能、
複数の感知されるラインのうちの1つ以上でシーン内の1つ以上のオブジェクトを発見する機能、
感知されるラインの1つ以上の適応型カーテンを作成するために1つ以上の発見されたオブジェクトを含むシーンのエリアにおいて感知されるラインの密度を増加させる機能
を行うための、ソフトウェアと
を含む、システムであって、
不均一な複数の感知されるラインがシーン内にランダムに分布している、システム。
a light source for creating a light sheet plane;
a line sensor having an adjustable region of interest for sensing a line in a sensing plane, the sensed line being defined by the intersection of a light sheet plane and a sensing plane;
a processor;
Software executed by a processor,
the ability to sample the scene along multiple non-uniform sensed lines within the scene;
the ability to locate one or more objects in a scene on one or more of a plurality of sensed lines;
increasing the density of the sensed lines in an area of the scene containing the one or more discovered objects to create one or more adaptive curtains of the sensed lines; , a system,
A system in which multiple non-uniform sensed lines are randomly distributed in the scene.
光源が、
レーザダイオードと、
コリメーションレンズと、
パウエルタイプのレンズと、
操縦可能なガルボミラーと
を含み、
レーザダイオードによって放射された光が、パウエルタイプのレンズによって、操縦可能なガルボミラーに当たる前に、光のラインに形成される、請求項1に記載のシステム。
The light source is
laser diode and
collimation lens,
Powell type lens,
including a steerable galvo mirror;
2. The system of claim 1, wherein the light emitted by the laser diode is formed into a line of light by a Powell type lens before impinging on the steerable galvo mirror.
ラインセンサが、ローリング2Dシャッタを有するカメラを含む、請求項1に記載のシステム。 The system of claim 1, wherein the line sensor includes a camera with a rolling 2D shutter. 1つ以上のオブジェクトの発見が、感知されるラインと交差するオブジェクトの存在を示す、ラインセンサによって検出された光の変動を検出することを含む、請求項1に記載のシステム。 2. The system of claim 1, wherein locating one or more objects includes detecting variations in light detected by a line sensor that indicate the presence of an object intersecting a sensed line. 1つ以上のオブジェクトの発見が、
ライトシート平面と感知平面の位置に基づく三角測量を使用して、1つ以上の発見されたオブジェクトのそれぞれの位置と深度を決定すること
をさらに含む、請求項4に記載のシステム。
The discovery of one or more objects
5. The system of claim 4, further comprising determining the position and depth of each of the one or more discovered objects using triangulation based on the positions of the light sheet plane and the sensing plane.
不均一な複数の感知されるラインがシーン内にスパースに分布している、請求項1に記載のシステム。 The system of claim 1, wherein the plurality of non-uniform sensed lines are sparsely distributed within the scene. カメラが、複数のカラムのピクセルを含むピクセルアレイを有し、さらに、ガルボミラーの回転軸が複数のカラムのピクセルに平行である、請求項2に記載のシステム。 3. The system of claim 2, wherein the camera has a pixel array that includes a plurality of columns of pixels, and further, the rotational axis of the galvo mirror is parallel to the plurality of columns of pixels. 1つ以上の発見されたオブジェクトを含むシーンのエリアにおける増加された密度の感知されるラインがライトカーテン輪郭を画定し、ライトカーテン輪郭が、
輪郭に沿って複数の均一に分布したポイントを画定することにより、ライトカーテン輪郭を離散化することと、
各ポイントについて、ライトシート平面をポイントと交差させるためにガルボミラーの角度を算出することと、
各画定されたポイントで感知されるラインと交差するオブジェクトから反射された光をキャプチャすることと
によってイメージ化される、請求項7に記載のシステム。
The sensed lines of increased density in the area of the scene containing the one or more discovered objects define a light curtain contour, the light curtain contour comprising:
discretizing the light curtain contour by defining a plurality of uniformly distributed points along the contour;
for each point, calculating the angle of the galvo mirror to intersect the light sheet plane with the point;
8. The system of claim 7, imaged by capturing light reflected from an object intersecting a line sensed at each defined point.
各画定されたポイントが、カメラのピクセルアレイ内の単一のカラムに対応する、請求項8に記載のシステム。 9. The system of claim 8, wherein each defined point corresponds to a single column within the camera's pixel array. 各ポイントで感知されるラインから反射された光をキャプチャすることが、
ライトシート平面によって現在照らされている画定されたポイントに対応するピクセルの単一のカラムの各ピクセルについて、ピクセル光線とライトシート平面との交差部分を算出すること
をさらに含む、請求項9に記載のシステム。
Capturing the light reflected from the line sensed at each point
10. The method of claim 9, further comprising calculating, for each pixel of a single column of pixels corresponding to a defined point currently illuminated by the light sheet plane, the intersection of the pixel ray with the light sheet plane. system.
感知されるラインごとに、
周囲光のみを含む第1の画像をキャプチャすることと、
周囲光と光源からの照明の両方を含む第2の画像をキャプチャすることと、
第2の画像から第1の画像を減算することと
をさらに含む、請求項8に記載のシステム。
For each line sensed,
capturing a first image containing only ambient light;
capturing a second image that includes both ambient light and illumination from the light source;
9. The system of claim 8, further comprising subtracting the first image from the second image.
ソフトウェアが、プロセッサにさらに、
必要なガルボミラーの位置を算出し、ガルボミラーを制御するマイクロコントローラにそれを送信させ、
フレームキャプチャを開始するためにカメラをトリガーさせ、
カメラのローリングシャッタの時間指定された進行に伴い、ロックステップでガルボミラーの位置を順次命令させる、
請求項8に記載のシステム。
The software also tells the processor
Calculate the required galvo mirror position and send it to the microcontroller that controls the galvo mirror,
Trigger the camera to start frame capture,
Sequentially commands the position of the galvo mirror in lockstep with the timed progression of the camera's rolling shutter;
The system according to claim 8.
ソフトウェアが、プロセッサにさらに、
所望のレーザ出力設定でレーザ光ダイオードを制御させる、請求項12に記載のシステム。
The software also tells the processor
13. The system of claim 12, wherein the system controls a laser photodiode with a desired laser power setting.
1つ以上の適応型ライトカーテンが、不均一でスパースな感知されるラインでシーンをサンプリングしながら、シーン内の1つ以上のオブジェクトを追跡するために作成され得る、請求項1に記載のシステム。 The system of claim 1, wherein one or more adaptive light curtains may be created to track one or more objects in a scene while sampling the scene with non-uniform and sparse sensed lines. . シーン内の不均一な複数の感知されるラインに沿ってシーンをサンプリングすることであって、各感知されるラインは、ライトシート平面と感知平面との交差部分として画定される、サンプリングすること、
複数の感知されるラインのうちの1つ以上でシーン内の1つ以上のオブジェクトを発見すること、
感知されるラインの1つ以上の適応型カーテンを作成するために1つ以上の発見されたオブジェクトを含むシーンのエリアにおいて感知されるラインの密度を増加させることであって、各適応型カーテンは発見されたオブジェクトの1つ以上を感知するように構成されている、こと
を含む、コンピュータによって実行される方法であって、
不均一な複数の感知されるラインがシーン内にスパースでランダムに分布している、方法。
sampling the scene along a plurality of non-uniform sensed lines in the scene, each sensed line being defined as the intersection of a light sheet plane and a sensing plane;
locating one or more objects in the scene at one or more of the plurality of sensed lines;
increasing the density of sensed lines in an area of the scene containing one or more discovered objects to create one or more adaptive curtains of sensed lines, each adaptive curtain comprising: A computer-implemented method comprising: being configured to sense one or more of the discovered objects, the method comprising :
A method in which multiple non-uniform sensed lines are sparsely and randomly distributed in the scene.
1つ以上のオブジェクトの発見が、
ライトシート平面と感知平面の位置に基づく三角測量を使用して、1つ以上の発見されたオブジェクトのそれぞれの位置と深度を決定すること
を含む、請求項15に記載の方法。
The discovery of one or more objects
16. The method of claim 15, comprising determining the position and depth of each of the one or more discovered objects using triangulation based on the positions of the light sheet plane and the sensing plane.
感知されるラインごとに、
周囲光のみを含む第1の画像をキャプチャすることと、
周囲光と光源からの照明の両方を含む第2の画像をキャプチャすることと、
第2の画像から第1の画像を減算することと
をさらに含む、請求項15に記載の方法。
For each line sensed,
capturing a first image containing only ambient light;
capturing a second image that includes both ambient light and illumination from the light source;
16. The method of claim 15, further comprising subtracting the first image from the second image.
1つ以上の適応型ライトカーテンが、不均一でスパースな感知されるラインでシーンをサンプリングしながら、シーン内の1つ以上のオブジェクトを追跡するために作成され得る、請求項15に記載の方法。 16. The method of claim 15, wherein one or more adaptive light curtains may be created to track one or more objects in a scene while sampling the scene with non-uniform and sparse sensed lines. .
JP2021561679A 2019-04-17 2019-09-25 Agile depth sensing using triangulation light curtains Active JP7403860B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US16/470,885 US11493634B2 (en) 2015-02-13 2019-03-11 Programmable light curtains
US201962920178P 2019-04-17 2019-04-17
US62/920,178 2019-04-17
US16/470,885 2019-06-18
PCT/US2019/052854 WO2020214201A1 (en) 2019-04-17 2019-09-25 Agile depth sensing using triangulation light curtains

Publications (2)

Publication Number Publication Date
JP2022530349A JP2022530349A (en) 2022-06-29
JP7403860B2 true JP7403860B2 (en) 2023-12-25

Family

ID=72836986

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021561679A Active JP7403860B2 (en) 2019-04-17 2019-09-25 Agile depth sensing using triangulation light curtains

Country Status (4)

Country Link
EP (1) EP3956631A4 (en)
JP (1) JP7403860B2 (en)
CA (1) CA3137060A1 (en)
WO (1) WO2020214201A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004150810A (en) 2002-10-28 2004-05-27 Sony Corp Three-dimensional image measuring instrument
JP2008224629A (en) 2007-03-15 2008-09-25 Funai Electric Co Ltd Apparatus for measuring three-dimensional shape
JP2010203864A (en) 2009-03-02 2010-09-16 Stanley Electric Co Ltd Object detection device
WO2018136709A1 (en) 2017-01-20 2018-07-26 Carnegie Mellon University Method for epipolar time of flight imaging

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1934945A4 (en) * 2005-10-11 2016-01-20 Apple Inc Method and system for object reconstruction
WO2014200589A2 (en) * 2013-03-15 2014-12-18 Leap Motion, Inc. Determining positional information for an object in space
US20150176977A1 (en) 2013-12-20 2015-06-25 Lemoptix Sa Methods and devices for determining position or distance
US10181190B2 (en) * 2014-11-04 2019-01-15 Olympus Corporation Microscope and microscope image acquisition method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004150810A (en) 2002-10-28 2004-05-27 Sony Corp Three-dimensional image measuring instrument
JP2008224629A (en) 2007-03-15 2008-09-25 Funai Electric Co Ltd Apparatus for measuring three-dimensional shape
JP2010203864A (en) 2009-03-02 2010-09-16 Stanley Electric Co Ltd Object detection device
WO2018136709A1 (en) 2017-01-20 2018-07-26 Carnegie Mellon University Method for epipolar time of flight imaging
JP2020504310A (en) 2017-01-20 2020-02-06 カーネギー メロン ユニバーシティ A method for epipolar time-of-flight imaging

Also Published As

Publication number Publication date
WO2020214201A1 (en) 2020-10-22
EP3956631A4 (en) 2022-12-28
CA3137060A1 (en) 2020-10-22
EP3956631A1 (en) 2022-02-23
JP2022530349A (en) 2022-06-29

Similar Documents

Publication Publication Date Title
JP7256920B2 (en) LIDAR system and method
JP7106595B2 (en) LIDAR system and method
JP6387407B2 (en) Perimeter detection system
EP3187895B1 (en) Variable resolution light radar system
JP7203217B2 (en) Time-of-flight sensor with structured light illumination
JP7117092B2 (en) LASER MEASUREMENT METHOD AND LASER MEASUREMENT DEVICE
US20180164090A1 (en) Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
CN109416399A (en) 3-D imaging system
Wang et al. Programmable triangulation light curtains
EP3045936A1 (en) Surround sensing system with telecentric optics
US20040220698A1 (en) Robotic vacuum cleaner with edge and object detection system
KR20100019576A (en) Distance sensor system and method
EP2824418A1 (en) Surround sensing system
EP3045935A1 (en) Surround sensing system with dome-filter assembly
JP2023541098A (en) LIDAR system with variable resolution multi-beam scanning
JP4069456B2 (en) Number detection device and method
English et al. TriDAR: A hybrid sensor for exploiting the complimentary nature of triangulation and LIDAR technologies
Häselich et al. Calibration of multiple cameras to a 3D laser range finder
JP7403860B2 (en) Agile depth sensing using triangulation light curtains
US20210055420A1 (en) Base for spherical laser scanner and method for three-dimensional measurement of an area
Hancock et al. High-performance laser range scanner
US20220207761A1 (en) Agile depth sensing using triangulation light curtains
JPWO2017199785A1 (en) Monitoring system setting method and monitoring system
US20220342047A1 (en) Systems and methods for interlaced scanning in lidar systems
EP4095561A1 (en) Reality capture device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231206

R150 Certificate of patent or registration of utility model

Ref document number: 7403860

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150