JP2023022237A - 色によるパノラマlidar結果の増強 - Google Patents

色によるパノラマlidar結果の増強 Download PDF

Info

Publication number
JP2023022237A
JP2023022237A JP2022192760A JP2022192760A JP2023022237A JP 2023022237 A JP2023022237 A JP 2023022237A JP 2022192760 A JP2022192760 A JP 2022192760A JP 2022192760 A JP2022192760 A JP 2022192760A JP 2023022237 A JP2023022237 A JP 2023022237A
Authority
JP
Japan
Prior art keywords
color
lidar
pixels
pixel
angular position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022192760A
Other languages
English (en)
Inventor
アンガス パカラ
Pacala Angus
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ouster Inc
Original Assignee
Ouster Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ouster Inc filed Critical Ouster Inc
Publication of JP2023022237A publication Critical patent/JP2023022237A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4813Housing arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/51Display arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

【課題】カラーカメラから得られた色でLIDARの結果を増強する、パノラマLIDARシステムを提供する。【解決手段】カラーピクセルルックアップテーブルは、LIDARピクセルとカラーピクセルとの間の対応を指定することができ、これは、異なる表示オブジェクト距離で実行され得る。カラーカメラの動作は、LIDARシステムが特定の角度位置にあるときにトリガすることで、特定のカメラのカラー画像を捕捉することができ、それは、カメラのシャッタスピードに基づいて事前に決定することができる。代替的にまたは加えて、LIDAR及びカラーピクセルが捕捉されるときに、共通の内部クロックを使用して、それらにタイムスタンプを割り当てることができる。例えば、カラーピクセルルックアップテーブルを使用して決定された、最も近いタイムスタンプを有する対応するカラーピクセル(複数可)を、色付けのために使用することができる。【選択図】図3

Description

〔関連出願の相互参照〕
本出願は、2017年5月15日に出願された「Systems and Method for Augmenting 360° Panoramic LIDAR results with Color」と題する米国仮特許出願第62/506,460号に対する優先権を主張し、その内容全体は、あらゆる目的のためにそれらの全体が参照により本明細書に援用される。
360度パノラマビューLIDARシステムは、システムを囲むボリュームの3次元地図を作成することができるため、車両安全性及び自律車両制御などの多くの用途で使用することができる。ほとんどのLIDARシステムは、単色レーザパルスを採用し、反射レーザパルスの強度及び時間遅延の両方を測定することができる。強度及び時間遅延から、LIDARシステムは、次いで、LIDARピクセルのアレイを含むLIDAR画像を計算することができ、各ピクセルは、システム周辺の視野における検出されたオブジェクトの範囲(LIDARシステムからの距離)及び反射率を含む。しかしながら、かかるLIDARシステムは、マッピングされている周囲のボリュームの色またはスペクトル品質を本質的に認識していない。したがって、強度及び範囲情報を追加的な色情報で強化することは、LIDARシステムが、オブジェクトの検出及び認識を助けるものとしてより効果的に展開され得る、より情報的な3D地図を生成することを可能にするであろう。
異なる色の複数のレーザを使用するLIDARシステムは、高価である。代替的に、1または複数の外部カラーカメラを車両の様々な部分に取り付けるには、綿密かつ時間のかかるキャリブレーションが必要である。加えて、カラーカメラ及びLIDARを独立したモジュールとして有するには、測距データとカラー画像を首尾よくマージするために、画像データの複雑かつ時間のかかる後処理が必要である。更に、LIDAR及びカラーカメラが同じ物理的空間を占有することができないという事実により、視差エラーが存在する。
したがって、信頼性が高く、低コストで、かつ設置が容易である、色で強化されたLIDARシステムが依然として必要である。
特定の実施形態によれば、方法及びシステムは、カラーカメラから得られた色で、(例えば、回転するLIDARシステムから)360度パノラマLIDAR結果を増強することができる。カラーピクセルルックアップテーブルは、LIDARピクセル(深度/測距ピクセル)とカラーピクセルとの間の対応を指定することができ、これは、異なる表示オブジェクト距離で実行され得る。カラーカメラの動作は、LIDARシステムの角度位置によってトリガすることができる。例えば、LIDARシステムが特定の角度位置にあるときに特定のカメラのカラー画像を捕捉することができ、それは、カメラのプロパティ(例えば、シャッタスピード)に基づいて事前に決定することができる。このようにカラーカメラをトリガすることは、カメラの取得が(LIDARの回転速度に関係なく)同じ視野内の対応するLIDAR測距測定と時間的に同期することを確実にすることができる。
代替的にまたは加えて、LIDAR及びカラーピクセルが捕捉されるときに、共通の内部クロックを使用して、それらにタイムスタンプを割り当てることができる。例えば、カラーピクセルルックアップテーブルを使用して決定された、最も近いタイムスタンプを有する対応するカラーピクセル(複数可)を、色付けのために使用することができる。
本発明のこれら及び他の実施形態を以下に詳細に説明する。例えば、他の実施形態は、本明細書に記載の方法に関連付けられたシステム、デバイス、及び、コンピュータ可読媒体に関する。
本発明の実施形態の性質及び利点に関するより良好な理解は、以下の詳細な説明及び添付の図面を参照して得ることができる。
いくつかの実施形態による、自動車用途の状況における360度パノラマカラーLIDARシステム(PCLS)を示す。
特定の実施形態によるPCLS配置を示す。 特定の実施形態によるPCLS配置を示す。
特定の実施形態による、回転するLIDARとカラーカメラシャッタとの間の回転同期の概念を更に例解するための、PCLSのブロック図を例解する。
特定の実施形態による、カメラ同期プロセスを例解することを目的として、カラーカメラ視野のセットと重複するLIDAR視野を例解する。
ピクセルごとのレベルでの、LIDARピクセルとカラーピクセルとの間の対応を例解する。
1または複数の実施形態に従って、視差に起因するLIDARとカラー画像との間の相違を例解する。 1または複数の実施形態に従って、視差に起因するLIDARとカラー画像との間の相違を例解する。 1または複数の実施形態に従って、視差に起因するLIDARとカラー画像との間の相違を例解する。
特定の実施形態による、深度依存ピクセル対応のためのルックアップテーブルの使用を更に例解するためのPCLS310のブロック図を示す。
360パノラマビューLIDARシステムを色で増強するためのステップを示すフローチャートである。
360パノラマビューLIDARシステムを色で増強するためのステップを示すフローチャートである。
1または複数の実施形態に従ってLIDARシステムの断面図を示す 1または複数の実施形態に従ってLIDARシステムの断面図を示す 1または複数の実施形態に従ってLIDARシステムの断面図を示す いくつかの実施形態による個々の回路基板の表面の図を提供する。 いくつかの実施形態による個々の回路基板の表面の図を提供する。 特定の実施形態による、LIDAR及びカラーピクセルのタイムスタンプを使用したPCLSのブロック図を示す。
特定の実施形態によると、本明細書に開示された方法及びシステムは、360度パノラマLIDAR結果を色で増強することに関する。360度パノラマビュー、カラー、回転する、LIDARシステム(PCLS)の実施形態は、カラーカメラ情報でその距離及び強度のLIDAR結果を増強する。カメラ及びLIDARシステム(例えば、エミッタ及びセンサなど)は、製造中に工場でキャリブレーションされ得る機械的に統合されたユニットとして構築することができる。
キャリブレーションの一部には、LIDARピクセル(深度/測距ピクセル)とカラーピクセルとの間の対応を決定するためのカラーピクセルルックアップテーブルの決定を含むことができ、これは、異なる表示オブジェクト距離で実行され得る。LIDARピクセルは、LIDAR検知に関連する任意の情報、例えば、深度値、信号強度値、信号対雑音比値などを含むことができる。カラーピクセルルックアップテーブルは、どのカラー画像ピクセル(複数可)が所与の測距測定に対する各LIDARピクセルに対応するかを指定することができる。したがって、LIDARシステムとカラーカメラとの間の視差効果を修正することができる。カメラ及びLIDARシステムは、製造中に機械的支持体に固定して取り付けることができるため、LIDARピクセルとカラーピクセルとの間のピクセルごとのマッピングは、初期の組み付け後は変更されず、それによって、車両への設置時に追加的なキャリブレーションが不要になるが、かかる後のキャリブレーションは可能である。
いくつかの実施形態では、ロータリエンコーダを使用して、カラーカメラに対するLIDARシステムのポインティング方向(すなわち、角度位置)をキャリブレーションすることができ、LIDARシステムが回転する際に、いつカラーカメラの各々をトリガする必要があるかをシステムが決定する直接的な方法を可能にする。このようにカラーカメラをトリガすることは、カメラの取得が(LIDARの回転速度に関係なく)同じ視野内の対応するLIDAR測距測定と時間的に同期することを確実にする。かかるシステムは、LIDARとカラー取得との間の時間的変化(例えば、車、歩行者などの移動によって生じる)を最小限に抑え、それにより、2種類のピクセルをオブジェクト上のポイントに、より厳密に対応させることができる。他の実施形態では、独立したLIDAR及びカラーカメラシステムは、タイムスタンプを使用して位置合わせを行い、LIDAR画像のLIDARピクセルに時間的に最も近いカメラ画像のカラーピクセル(複数可)を特定することができる。LIDARの位置に基づいてカラーカメラをトリガすることは、時間的な同期の改善を提供することができる。
カラーカメラ及びLIDARシステムは、別個のモジュールではなく、単一の機械ユニットに統合することができるため、システムを、工場でキャリブレーションすることができ、車両への設置時に更にキャリブレーションすることなく設置することができる。同様に、工場でのキャリブレーション中に、カラーカメラに対するLIDARのポインティング方向も、回転するLIDARに統合されているロータリエンコーダの出力を使用して、キャリブレーションすることができる。この回転キャリブレーションにより、システムは、いつLIDARが複数のカメラのうちの1つの視野内の方向を向いているか、及び、いつ特定のカメラの取得をトリガするかを決定することが可能になる。したがって、工場でのキャリブレーション後、LIDARデータ(LIDARの360度の1回転中に取得された)のフレームごとに、様々なカラー画像とLIDARポイントクラウドとの間の位置合わせが固定され得、かつ反復可能であり得る。
LIDARとカラーカメラとの間の取得タイミング(例えば、トリガとカラーピクセルの捕捉との間の時間)も工場で設定することができ、設置時に再キャリブレーションする必要はない。システムの全体的な剛性及び安定性により、ピクセルルックアップテーブルを使用して、指定されたカラー画像の1または複数のカラーピクセルをあらゆるLIDARピクセルに素早く関連付けることができる。ルックアップテーブルは、現在の回転サイクル中にトリガされたカラー画像と特定の角度位置で取得されたLIDARピクセルとの間の所定の相関関係の結果として、リアルタイムで使用することができる。リアルタイムでのルックアップテーブルの使用は、タイムスタンプ及び/または地理データを使用した後処理ステップ中に、後に相互に位置合わせされるカラーデータ及びLIDARデータの別個の取得に依存する配列よりも簡素である。
取得したLIDARピクセルごとにカラーピクセルを素早く特定することができるため、PCLSは、フルカラー強化ピクセル(範囲、強度、R、G、B)を、3次元画像再構成に使用するために、または、カラー及びLIDAR画像を相互に位置合わせをするための複雑な後処理を必要としない、例えばタイムスタンプに基づいた安全システムに使用するために、下流の処理素子へ素早く送信することができる。この処理時間の短縮は、システムが、先進運転支援システム(ADAS)または自動運転システムなど、より広範な安全システム内で採用される場合に有利であり得る。
I.自動車用パノラマカラーLIDARシステム
図1は、いくつかの実施形態による、自動車用途の状況における360度パノラマカラーLIDARシステム(PCLS)100を示す。PCLSの自動車用途は、ここでは単に例解のために選択したものであり、本明細書に記載のセンサは、例えば、ボート、航空機、列車などの他のタイプの車両において、ならびに医用撮像、測地学、ジオマティクス、考古学、地理学、地質学、地形学、地震学、林業、大気物理学、レーザ誘導、空中レーザスワスマッピング(ALSM)、レーザ高度計などの、LIDAR画像が有用な様々な他の用途において採用され得る。いくつかの実施形態によれば、PCLS100は、図1に示すように車両105の屋根に取り付けることができる。
いくつかの実施形態では、PCLS100は、カラーカメラ119a~119dのアレイを含むカラーカメラアセンブリに回転可能に連結されたスキャンLIDARシステム102を含む。図1に示すスキャンLIDARシステム102は、LIDARシステム102のポインティング方向(すなわち、角度位置)を車両105の周りの360度視野のすべてまたは一部にわたってスキャンすることができる、回転アーキテクチャを採用することができる。いくつかの実施形態において、パルス出力ビーム(複数可)111は、図のように、周囲環境にわたってスキャンすることができる。周囲のボリューム内のオブジェクトは、次いで、パルス出力ビーム(複数可)111の反射光の部分117を反射し、これらの反射部分117は、次いで、LIDARシステムに戻り、検出器回路によって検出することができる。放出と検出との間の時間差に基づいて、計算によって、車両を囲む環境内のポイント110におけるLIDARシステムからのオブジェクトの距離(本明細書では「測距」とも称される)を決定することができる。単一のポイント110のみが所与の角度方向で図1に示されているが、LIDARシステム102は、出力ビーム(複数可)111の任意の所与の配向のポイントの対応するアレイにおける深度値を測定するためのエミッタ(例えば、z軸の上下に分布)のアレイを含んでもよい。エミッタの2次元(2D)アレイも使用することができる。
スキャンLIDARシステム102は、(時計回りの回転方向115で示すように)z軸の周りを機械的に回転し、車両105の周囲360度である全視野のLIDAR画像を捕捉することができる。いくつかの実施形態では、回転は、機械的手段によって、例えば、スキャンLIDARシステム102を、電気モータによって駆動することができる回転柱またはプラットフォームに取り付けることによって、実施することができる。いくつかの実施形態では、回転は、検流計を使用するなど、他の機械的手段を介して実施することができる。例えば、デジタルマイクロミラー(DMD)デバイス、デジタル光処理(DLP)デバイスなどの1または複数のMEMSベースの反射器を採用するマイクロチップを使用することによって、チップベースのステアリング技術を採用することもできる。いくつかの実施形態では、スキャンは、非機械的手段を介して、例えば、電子信号を使用して1または複数の光フェーズドアレイを操縦することにより達成することができる。
図示されるように、カラーカメラのアレイは、カラーカメラ119a~119dを含む。カメラ119a~119dの各々は、LIDARシステムの全360視野の一部であるそれぞれの視野角120a~120d内の2Dカラー画像を捕捉することができる。いくつかの実施形態では、各カラーカメラ119a~119dは、それぞれ、周囲光反射を使用して、その視野120a~120d内のピクセルの色を決定することができる。以下で詳細に説明するように、カメラから捕捉された色情報を使用して、スキャンLIDARシステムによって捕捉された深度データを充実させ、それにより、ピクセルごとの深度(距離)及び色情報の両方が提供される。
II.幾何学的配列
図2Aは、図1を参照して上述したPCLS100と同様の、特定の実施形態によるPCLS250を示す斜視図である。PCLS250は、スキャンLIDARシステム210を保護するための、光学的に透明な窓260及び蓋270から形成されたエンクロージャを含む。いくつかの実施形態では、システムコントローラ280、及びカメラ220を含むカラーカメラアレイもハウジング内に存在することができる。カラーカメラのアレイは、ベース240の周囲に位置付けることができ、ベース自体は、各カメラがベース240から出る透明な光路を有するように開口部のアレイを含むことができる。いくつかの実施形態では、開口部は、中身のない貫通孔であってもよく、または各カラーカメラの撮像を支援するための1または複数の光学素子を含んでもよい。
いくつかの実施形態では、カラーカメラをベース240に直接取り付ける必要はないが、何らかの内部構造に取り付けることができる、またはエンクロージャ内に収容される1または複数の回路基板に取り付けることができる。いくつかの実施形態において、カメラ220は、スキャンLIDARシステム210がカメラに対して回転することができるように、すなわち、カメラ220はハウジングに対して静止しているが、スキャンLIDARシステム210はエンクロージャ内で、例えばz軸を中心に、回転することができるように、エンクロージャのベース240に(直接的または間接的に)堅固に取り付けられている。
図2Bは、エンクロージャが取り外されたPCLSをz軸に沿って見下ろしたPCLSの平面図を例解し、スキャンLIDARシステム210に対するカメラ220の幾何学的配列を更に詳細に示している。前述のように、スキャンLIDARシステム210は、光パルスを送信し、その反射を分析して、距離及び強度値をLIDAR画像の形態で生成する。
任意の所与の時点で、スキャンLIDARシステム210は、(例えば、y軸に位置する固定基準位置に対する)特定の角度方向θを向いていることができ、したがって、その特定の方向の視野内のオブジェクトの距離及び強度値を生成することができる。LIDARシステム210は、z軸を中心に回転するので、例えば測定を実行するための時間/速度によって定義される、それが回転する複数の方向の距離及び強度値を生成することができる。したがって、LIDARシステム210は、それを囲むボリュームの360度のパノラマビューを提供することができる。
一実施形態では、PCLSは、スキャンLIDARシステム210の周りに対称的に配列された8つのカラーカメラ220を含むことができる。他の実施形態は、本開示の範囲から逸脱することなく、異なる数のカメラ及び非対称配列を含んでもよい。各カラーカメラ220は、それ自体の視野角230(スキャンLIDARシステム210の全360度視野の一部である)内で2D画像を捕捉することができる。図のように、8つのカラーカメラ220の各々の視野230は、45度の角度に広がることができる。
カラーカメラの各々のシャッタは、LIDARシステム210が対応するカメラの視野内に配向されている場合、例えば、LIDARシステム210が視野の中央に向けられている場合、PCLS250がカラーカメラの取得をトリガすることができるように、スキャンLIDARシステム210の回転と同期することができる。トリガされたカメラの視野内で取得されたLIDARデータ(例えば、ピクセル)は、トリガされた画像のカラーデータと組み合わせることができる。PCLS250は、取得したばかりのLIDARデータ(例えば、視野の前半内)をカラー画像データと組み合わせてもよい。PCLS250は、LIDARシステム210が視野内の(例えば、トリガされた画像に対応する)すべての測距を完了する前に、カラーカメラデータを取得してもよい。かかる場合、PCLS250は、その特定のカラーカメラ220からカラー画像データを読み取り、それを、LIDARがカメラの残りの視野をスイープするときに、今取得されたLIDARデータと組み合わせることができる。
一実施形態では、カラーカメラ220は、通常、ローリングシャッタを有する低コストのCMOSセンサであり得る。ローリングシャッタセンサは、一度に1または複数のピクセル列のデータを生成する。グローバルシャッタを有するカメラも使用することができる。いずれの場合でも、PCLS250は、カラーカメラ220の配向及びLIDARシステム210の回転方向を調整して、同じ円方向のピクセルデータを取得することができる。PCLS250はまた、カラーカメラシャッタを制御することができるため、カラーピクセルの取得は、LIDARピクセルの捕捉と同期する(つまり、対応するLIDARピクセルが決定された角度位置の近く及びその位置において捕捉されており、トリガされた画像のカラーピクセルが時間的に近接して位置合わせされるように、時間的に同期する)。他の実施形態は、異なるタイプのカラーカメラを使用してもよい。例えば、PCLSはより高価なCCDカメラを使用することができ、それは通常、画像全体を同時に捕捉する。カラーカメラ220は、RGB、YUV、及びCMYKを含む任意のフォーマットで色情報を提供することができる。一実施形態では、ベース240は成形プラスチックの機械的ハウジングであるが、他の実施形態は、金属または他の材料を使用してもよい。
III.回転同期を採用するPCLSシステム
図3は、特定の実施形態による、スキャンLIDARシステムとカラーカメラシャッタとの間の回転同期の概念を更に詳しく説明するための、PCLS300のブロック図を例解する。回転同期とは、カラーカメラ取得とスキャンLIDAR取得を同期するプロセスを指す。いくつかの実施形態では、後処理でタイムスタンプを使用することなく、例えば、スキャンLIDARシステムの角度位置に基づいて1または複数のカラーカメラ取得をトリガすることにより、同期を達成することができる。
図3では、回転アセンブリ311(例えば、1または複数の回路基板、ブラケット、または他の構造部材を含む)が、回転カップリング317を介して固定アセンブリ313(固定ベースとも呼ばれる)に回転可能に連結されている。したがって、スキャンLIDARシステム301は、回転アセンブリ313とともに回転することができ、かつz軸の周りを全360度スキャンすることができる。固定アセンブリ313は、例えば、1または複数の回路基板、ブラケット、または他の構造部材を含むことができる。
スキャンLIDARシステム301の回転は、本明細書で「ポイントクラウド」及び/またはLIDAR画像とも称される、デバイスの周囲の環境のパノラマ深度マップを提供することができる。いくつかの実施形態において、固定アセンブリ313は、固定アセンブリ313が固定された状態で、かつハウジング315に対して回転しないように、例えば、機械的ブラケット及びネジ(図示せず)によってハウジング315に連結され得る。
回転カップリング317は、様々な実施形態において、多くの異なる方法で実装することができる。例えば、いくつかの実施形態は、シャフト及びベアリング構造(図示せず)を採用することができる。いくつかの実施形態では、回転カップリング317は、回転運動を可能にするだけでなく、回転アセンブリ311の回転運動も駆動する回転アクチュエータ用の1または複数のコンポーネントも含む。例えば、電気モータモジュール(図示せず)を使用することができ、または1または複数の回転駆動要素をアセンブリ自体の一体部品として形成することができる。例えば、ロータ要素(例えば、永久磁石)の配列が、回転アセンブリ311の回路基板の表面に直接統合されてもよく、また、電気モータステータアセンブリ(例えば、ソレノイドコイルなどのステータ要素の配列を含む)が、固定アセンブリ313の回路基板に直接統合されてもよい。かかる実施形態では、1または複数の回転駆動コンポーネントが固定アセンブリ313及び/または回転アセンブリ311に統合されており、回転駆動のための別のモジュールはもはや不要であり、それによって信頼性が高まり、複雑性が低下し、アセンブリプロセスの簡素化が促進される。
いくつかの実施形態では、ロータリエンコーダシステムは、ある固定基準に対するスキャンLIDARシステム301の角度位置を追跡することができる(例えば、エンコーダは、図2Bに示すように角度θを測定することができる)。回転アセンブリ311(したがって、LIDARシステム301)の角度位置は、ロータリエンコーダレシーバ319によって追跡することができる。例えば、ロータリエンコーダレシーバ319は、開始特徴を検出し、次いで、固定アセンブリ313に取り付けることができるリング状のエンコーダ(例えば、エンコーダ323)上の特徴/マーキングの数の通過を追跡することにより、回転アセンブリ311の角度位置を追跡することができる。かかる開始特徴は、固定アセンブリ313上の固定基準点の一例である。
他の実施形態では、ハウジング315内のどこか別の場所に固定されたロータリエンコーダモジュールによって角度位置を追跡することができる。例えば、ロータリエンコーダレシーバ319aは、リング状ロータリエンコーダ323aを受け入れるスロットを有することができる。ロータリエンコーダレシーバ319aは、リング状ロータリエンコーダ323a上の1または複数の特徴/マークの通過を検出することにより、リング状ロータリエンコーダ331の角度位置を決定することができる。当業者は、1つのエンコーディングメカニズムのみが使用されてもよく、また、2つの例が例解目的のみのために示されることを認識するであろう。図3は、ロータリエンコーダアーキテクチャの2つの例を示しているが、本開示の範囲から逸脱することなく、任意のロータリエンコーダ技術を採用することができる。
採用されるエンコーダの特定の形態に関係なく、エンコーダレシーバ319は、スキャンLIDARシステム301が時間とともに回転するときのその角度位置をエンコードする角度位置信号334を生成することができる。角度位置信号334をLIDARコントローラ321に提供して、スキャンLIDAR取得とカラーカメラ取得との間の回転同期を実行することができる。LIDARコントローラ321は、カメラコントローラ327と通信しており、それにより、特定のカメラをトリガして画像を撮影することができる。LIDARコントローラ321及び/またはカメラコントローラ327は、各々別個の操作を実行する2つの別個のコントローラとして示されているが、回転するまたは固定される単一のコントローラとして存在することができる。
コントローラ(複数可)は、角度位置信号334によって示される現在の角度位置を決定することができる。コントローラ(複数可)は、現在の角度位置が、複数のカメラ325のうちのいずれかをトリガするための任意の所定の値/位置に対応するかどうかを決定することができる。所定の位置は、対応するカメラの識別子と関連付けて記憶することができる。現在の角度位置が一致する場合、コントローラ(複数可)は対応するカメラにコマンド信号を送信して、画像を撮影することができる。コントローラ(複数可)は、リアルタイムで、ロータリエンコーダレシーバ319から角度位置信号334を受信することができ、したがって、システムは、時間の関数としてLIDARシステムの現在の角度位置を継続的に監視しており、それにより、発生している実際の回転速度に対応する速度でカメラを連続してトリガすることができる。
カメラ325は、固定されており、固定アセンブリに対して決められた場所に取り付けられているため、角度位置信号334は、カラーカメラに対するLIDARシステムの角度位置を示す。上述のように、コントローラ(複数可)は、適切なときにカメラの取得を行わせるトリガ信号を生成することができる。例えば、LIDARシステム301が、トリガされたカメラの視野に対して所定及び/または特定された方向に現在向いているときに、カラーカメラの取得をトリガすることができる。例えば、LIDARシステム301が、カメラの視野角の中間、中心の少し前、中心の少し後、またはLIDARが所与のカメラの視野に入る直前または直後にカメラをトリガすることができる。上述の回転同期のプロセスは、LIDAR及びカラーピクセルの位置合わせのための時間のかかる後処理なしに、カラーカメラの取得と時間的に近接して同期するLIDAR取得を提供する。
いくつかの実施形態では、スキャンLIDARシステム301は、光送信モジュール303及び光検知モジュール305を含むことができる。光検知及び送信モジュール303及び305は、それぞれ、例えば、検知及び送信モジュールの入力/出力に位置付けられたバルク光学素子308、例えば多素子レンズアセンブリを含むことができる。光送信モジュール303は、マイクロ光学素子アレイを有する焦点面アレイ、及び、バルク光学素子308と発光回路307との間に位置する任意のノッチフィルタ素子(図示せず)を更に含むことができる。いくつかの実施形態では、発光回路307は、ヒ化インジウムガリウム(InGA)基板上の垂直共振器面発光レーザ(VCSEL)のアレイなどの光源のチップスケールアレイを含む。光検知モジュール305はまた、マイクロ光学素子アレイ、及びバルク光学素子308と光検出器回路309との間に位置するノッチフィルタ素子(図示せず)を含むことができる。いくつかの実施形態では、光検出器回路309は、CMOS技術で製造された単一光子アバランシェダイオード(SPADS)のアレイなどの、光検出器のチップスケールアレイを含むことができる。他の検出器技術、例えば、アバランシェフォトダイオード、CCDイメージセンサ、CMOSフォトダイオードイメージセンサ、空洞強化光検出器、表面強化光検出器なども採用することができる。さらなる詳細(例えば、マイクロ光学素子に関する)は、米国特許公開第2017/0289524号及び第2017/0219426号に見出すことができ、その内容は、それらの全体が参照により援用される。
LIDARコントローラ321及び/またはカメラコントローラ327は、1または複数のプロセッサ及びメモリ(図示せず)を含むことができる。例えば、システムコントローラは、フィールドプログラマブルゲートアレイ(FPGA)ならびに/または特定のLIDAR及び/もしくはカメラコントロール機能を提供するように調整された1または複数の用途固有の集積回路(ASIC)を含むことができる。スキャンLIDARシステム301は、マルチピン電気コネクタを介して回転アセンブリ311に配線接続することができ、または、例えば、光学、誘導、RF接続などを採用する1または複数の通信チャネルを介して固定アセンブリ313に無線で接続することができる。カラーカメラ325は、固定アセンブリ313の回路基板に直接取り付けることができる。固定アセンブリ313は、回転アセンブリ311に無線で電力を送信して、例えば、スキャンLIDARシステム301及び他のあらゆる関連回路、例えば、ASICS、FPGA、通信回路などに電力を供給することができる。加えて、光学、誘導、及び/または容量通信チャネルは、固定アセンブリ313を回転アセンブリ311に接続することができ、それにより、ベース回路基板アセンブリから非接触データ転送を介してスキャンLIDARシステム301を制御することができる。
いくつかの実施形態では、1または複数のLIDAR固有の動作(例えば、ピーク検出ならびに測距データの計算及び出力に続く光子時系列蓄積)を実行するためのハードウェア及びソフトウェア/ファームウェアは、スキャンLIDARシステム301及び/またはLIDARコントローラ321の回路に組み込まれ得る。例えば、光検出器回路309は、SPADのアレイと同じ基板上に統合されるASICを含むこともできる。かかる状況では、スキャンLIDARシステム301は、ソフトウェア/ファームウェアの再プログラミング(再構成)により、スキャンLIDARシステム301が、回転LIDARシステムの一部として、またはスタンドアロンのソリッドステートLIDARシステムとして動作することができるという意味において、モジュール式である。また、機械的回転アクチュエータを必要とせずにビームステアリングを可能にすることもできる回路(例えば、MEMS、DMD、光学フェーズドアレイなど)を採用することができる。したがって、本明細書で開示されるシステムのモジュール設計は、ハードウェア及び機械的アーキテクチャ全体の高価かつ時間のかかる再設計なしに、ユーザのニーズに適合することができる高度に適応可能なシステムをもたらす。
IV.LIDARの角度位置に基づくカラー画像の取得
図4は、特定の実施形態による、回転同期プロセスを例解することを目的として、カラーカメラの視野のセットと位置合わせされたパノラマLIDAR画像403を例解する。図4は、特定の実施形態による、システムコントローラが、ロータリエンコーダによって生成された角度位置信号に基づいて、PCLSシステムのカラーカメラのセットからカラー画像405、407、及び409の一連の取得を、どのようにトリガすることができるかを例解する。より具体的には、図4は、図2Bに示されるのと同様の方法でベースの周囲に周方向に配置された3つのカラーカメラを有するPCLSについて、取得されたカラー画像405、407、及び409と重複する全360度パノラマLIDAR画像403を示す。この例では、各カラーカメラは約120度の視野を有している。
図4の上部の横軸402は、スキャンLIDARシステムの配向角を示し、下部の横軸404は、経過時間を表し、スキャンLIDARの角速度が10Hzの回転速度をもたらす等角速度であると仮定する。更に、本例の目的のために、第1のカメラ(カラー画像405に対応)は、その視野角が0度の点を中心とするように、0度方向を向いているその撮像面の法線に向けられ、第2のカメラ(カラー画像407に対応)は、その視野角が120度の点を中心とするように、120度の方向を向いているその撮像面の法線に向けられ、第3のカメラ(カラー画像409に対応)は、その視野角が240度の点を中心とするように、240度の方向を向いているその撮像面の法線に向けられる。
簡素化するために、スキャンLIDARシステムは、5つのLIDARピクセルのグループ411を任意の所与の角度で取得することができ、LIDARシステムの前にある視野内の5つの非重複視野の間で、それらの5つのLIDARピクセルはz方向に垂直に分布していると仮定する。また、スキャンLIDARシステムは、スキャンLIDARシステムの各回転について、5つのLIDARピクセルの24グループを取得することができると想定されている。したがって、LIDARデータのすべてのフレームは、システムの周囲の360視野の周辺に分布する24×5=120LIDARピクセルを含む。
回転の特定の部分については、LIDARピクセルの特定のグループが、異なるカメラの特定の視野と重複することが分かる。LIDARピクセルとカラーカメラピクセルとの間の時間的な同期を最大化するには、LIDARシステムがカメラの視野をアクティブにスキャンしているときにカラーカメラ画像を取得することが有益である。これは、LIDAR取得とカラーカメラの取得との間の時間を最小限に抑え、それにより、LIDARピクセル取得とカラーピクセル取得との間の時間に視野内の何かが動的に変化する可能性を最小限に抑えるため、有利である。LIDAR取得とカラーカメラの取得との間に発生し得る変化の例には、車両、歩行者の移動、停止信号の色、動き、または道路の破片の変化などが含まれる。車両の移動の場合を例にとると、LIDARデータとカラーカメラデータとの時間的同期が不十分であると、交差点内の車を示すLIDAR画像、及びその車のない同じ視野のカラー画像をもたらす場合がある。
最初に、エンコーダレシーバ(例えば、図3のエンコーダレシーバ319)は、例えば、スキャンLIDARシステムが0度を向いていることを示すエンコーダ信号をコントローラに送信することができる。このエンコーダ信号に基づいて、コントローラは、第1のカメラに送信されるトリガコマンドを生成して、カラー画像405の取得をトリガすることができる。同様に、エンコーダ信号が、スキャンLIDARシステムが120度を向いていることを示す場合は、システムによって第2のカラーカメラをトリガすることができる。また、システムは、次いで、エンコーダ信号が、スキャンLIDARシステムが240度を向いていることを示す場合は、第3のカラーカメラをトリガすることができる。回転同期プロセスの物理的解釈を助けるために、実際の角度0、120、及び240度が本明細書で使用される。しかし、本開示の恩恵を受ける当業者には理解されるように、実際のエンコーダは角度位置を度数で測定する必要はなく、本開示の範囲から逸脱することなく任意のエンコーディングを使用することができる。
いくつかの実施形態では、カメラをトリガする角度位置は、カメラ取得の性質、例えば、カメラがローリングシャッタを採用するかどうか、またはすべての画像ピクセルを同時に取得する(例えば、グローバルシャッタを有するプログレッシブフレームカメラ)かどうか、に基づいて設定することができる。LIDARピクセルのセットの取得時間が、対応するカラーカメラの取得時間に最も近いことを確実にするために、コントローラは、カメラの蓄積時間(つまり、シャッタスピードまたは露出時間)を考慮し、それに従って、トリガ位置を、各カラーカメラ視野の中心に対して進めるまたは遅らせる(つまり、スキャンLIDARシステムの所与の回転サイクルにおいてより早いまたはより遅い)角度位置へシフトすることができる。したがって、いくつかの実装形態では、カメラフレームのトリガポイントは、カメラ露出設定ポイントとLIDAR回転速度に基づいており、所与のカメラとLIDARデータとの間の時間的誤差を最小限に抑えることができる。目標は、LIDARシステムをカメラのFOVの中心に置いて、カメラの露出期間の中心を位置合わせすることであり得る。かかる手順は、LIDARデータとカメラデータとの間の最悪の場合の時間的誤差を最小限に抑えることができる。
一例として第2のカラーカメラ取得407を使用すると、システムコントローラは、120度前または120度後のLIDARの角度位置でカラーカメラをトリガすることができる。したがって、第2カメラを実際にトリガする時間遅延が、LIDARシステムが120度を向いているときと一致する場合があるため、第2のカメラのトリガ位置は、115度で発生する場合がある。
図4は、カメラ画像のトリガを例解することに加えて、異なるLIDARピクセルの、カラー画像の異なる部分へのマッピングも例解している。マッピングテーブルは、各LIDARピクセルに対応するカラーピクセル(複数可)を特定するキャリブレーションプロセス中に決定することができる。通常、LIDARは低解像度であるため、パノラマLIDAR画像403の各LIDARピクセルに複数のカラーピクセルを割り当てることができる。単一のLIDARピクセルに複数のカラーピクセルが割り当てられている場合、色の平均値を使用することができる。
トリガされた画像のカラーピクセルのセット及び対応するLIDARピクセル(例えば、視野内で撮影された)は、結合するために互いに割り当てられたバッファに記憶することができる。例として、各カラー画像405、407、及び409についてカラーバッファのセットが存在することができ、LIDARデータを、LIDARデータが取得された角度位置に基づいて、対応するLIDARバッファに記憶することができる。例えば、カラー画像407に対応するLIDARバッファは、60~180度の角度位置のLIDARピクセルを保持することができる。バッファ内の記憶位置は角度位置に対応することができ、記憶位置を使用してルックアップテーブルの対応するカラーピクセル(複数可)のインデックスを作成することができる。
別の実施形態では、所与のLIDAR画像のLIDARピクセルは、対応する角度位置でタグ付けすることができ、ルックアップテーブルは、現在の回転で撮影されたカラー画像のどのピクセル(複数可)が角度位置に対応するかを指定することができる。かかる実施形態では、異なるLIDAR画像(回転)に対して2つのバッファを使用することができ、1つのバッファでリアルタイム分析が発生している間に、データが次のバッファに記憶されている。
多くの最新のカメラは、LIDARセンサよりも高いフレームレート(例えば60Hz対10Hz)で動作することができるため、いくつかの実施形態では、カメラに素早く連続して2回の露出をさせ、例えば、各々をLIDAR角度位置によってトリガする。第1の露出画像の前半及び第2の露出画像の後半を使用して、カラー画像を生成することができる。代替的に、両方の露出は、それら自体のLIDAR角度位置によってトリガすることができる。したがって、1回転で、カラーカメラを複数回トリガすることができ、例えば、その回転についてそのカメラのカラー画像全体を生成するために、その露出の一部分のみを使用することができる。したがって、カメラが更に高いフレームレートをサポートすることができる場合、これを各カメラのFOVについて撮影された任意の数のカメラフレームに拡張することができる。かかる操作は、露出した数に応じて、例えば2倍以上、時間的誤差(及びプロキシによる空間的誤差)を減らすことができる。
V.LIDAR画像-カラー画像ピクセル対応
上記で説明したように、1または複数のカラーピクセルは、1つのLIDARピクセルに対応することができる。ルックアップテーブルは、かかるマッピングを特定するためのキャリブレーション手順を介して決定されてもよい。
A.理想的なピクセル対応
図5は、ピクセルごとのレベルでの、LIDARピクセルとカラーピクセルとの間の対応を例解する。有利なことに、いくつかの実施形態では、カメラの取得は、LIDARシステムの角度位置に基づいて(システムクロックなどを使用するのではなく)、トリガすることができるため、LIDAR画像全体内の各カラー取得の相対位置が固定されており、それにより、キャリブレーション手順を介して、LIDARとカラーピクセルとの間の単一マッピングを工場で決定することが可能になる。このマッピングをPCLSのシステムメモリに記憶することができ、その後、システムが、対応するLIDARピクセルにマップする各カラーピクセルを認識することができるように、ルックアップテーブルとして使用することができる。
LIDAR画像510は長方形として表されており、LIDARシステムの1回転(回転)中に取得されたLIDARデータに対応する。LIDAR画像510は、LIDARピクセル540及び550などのLIDARピクセルデータポイント(本明細書ではLIDARピクセルと称される)を含む。これらのLIDARピクセルは、図4で前述した非重複視野に対応し得る。LIDAR画像510は、LIDAR画像幅520及びLIDAR画像高さ530を有する。例えば、LIDAR画像510は、2048ピクセルのLIDAR画像幅及び64ピクセルのLIDAR画像高さを有し得る。
カラー画像560及び562も長方形で表される。各LIDARシステム回転の間に、PCLSは、各カラーカメラから1つの画像を捕捉し、各カラーカメラの取得は、IDARシステムの角度位置に基づいてシステムコントローラによってトリガされる。各カラー画像560及び562は、カラーピクセル575及び580などのカラーピクセルを有する。各カラー画像560及び562は、カラー画像幅565及びカラー画像高さ570を有する。例えば、各カラー画像560及び562は、幅640ピクセル×高さ480ピクセルを有し得る。この例では、LIDARピクセル545は、第1のカメラ画像からのカラーピクセル575に対応し、LIDARピクセル550は、第2のカメラ画像からのカラーピクセル580に対応する。
以下で更に詳しく説明するように、LIDARピクセルとカラーピクセルとの間の対応は、システムを現場の車両に設置する前に工場でキャリブレーションすることができ、例えば、設置後の再キャリブレーションは不要である。LIDARピクセル及びカラーピクセルは、図3及び図4を参照して上述したように、特定の視野角(FOV)の測定値を表す。LIDARピクセルのFOVのサイズは、通常、カラーピクセルのFOVのサイズとは異なる。いくつかの実施形態では、LIDARピクセルとカラーピクセルとの間の対応は、LIDARシステムと近距離でのカメラとの間の視差差のため、表示オブジェクトの距離、すなわち範囲に依存する。
LIDARピクセル540が特定の角度位置で取得された後、特定の角度位置、または角度位置の何らかのプロキシ、例えば特定の角度位置に対応することが知られているメモリ内の位置を使用して、ルックアップテーブルにアクセスすることができる。例えば、LIDARフレームは、回転中に取得した各角度位置に対応する列を有する2次元アレイとして記憶することができる。ルックアップテーブルは、角度位置(またはプロキシ)によってインデックス付けすることができ、指定されたカメラ画像、例えばカラー画像560のカラーピクセル位置(複数可)を提供することができる。したがって、カラーピクセルルックアップテーブルは、各回転について約360度の角度位置によってインデックス付けすることができる。カラーピクセルルックアップテーブルの各エントリは、ピクセルアレイ(例えば、1次元または2次元のピクセルアレイ)内の特定の角度位置及び特定のセンサに対するそれぞれのカラー画像の1または複数のカラーピクセルを特定することができる。
所与の回転におけるカメラ画像は、対応するカメラの識別子とともに記憶することができる。異なる回転の画像を識別し、かかるように記憶することができる。したがって、ルックアップテーブルは、対応する回転の第1のカメラ画像の位置(123、242)でカラーピクセル575を指定することができる。
B.視差を含むピクセル対応
図6Aは、1または複数の実施形態に従って、視差に起因するLIDARとカラー画像との間の相違を例解する。より具体的には、図6Aは、近点オブジェクト694及び遠点オブジェクト692の両方を撮像するLIDARシステム610及びカラーカメラ620を示す。視差効果を更に例解するために、図6Bは、LIDARシステム610から取得される画像の例を示し、図6Cは、カラーカメラ620から取得される画像の例を示す。図6B及び図6Cにおいて、近点オブジェクトは木の上部に対応し、遠点オブジェクトは家の上部に対応する。
図6Bに示すLIDAR画像では、近点オブジェクト694及び遠点オブジェクト692は、LIDARシステム610の中心からそれぞれのオブジェクトを通って延びる線に対して同一線上にあることが分かる。したがって、視野内のこれらのポイントは、同じLIDARピクセル列に対応する。しかしながら、図6A及び図6Cから分かるように、近点オブジェクト694及び遠点オブジェクト692は、カラーカメラ620に対して同一線上にない。むしろ、それらの対応するピクセルは、カラーカメラ画像の異なるピクセル列にある。したがって、カラー画像とLIDAR画像との間のピクセル対応は、ある深度に位置するオブジェクトに対しては正確であるが、他の深度に位置するオブジェクトに対しては不正確である場合がある。
この視差効果を補うために、PCLSは、LIDARシステムのできるだけ近くにカラーカメラを配置することにより、視差効果を最小限に抑えるように構築することができる。加えて、工場でのキャリブレーション手順中に、既知の深度のオブジェクトに対して複数のピクセルマッピングを決定することができ、これらの複数のマッピングを使用して、任意の所与の深度に対するピクセル対応を提供する、深度依存ルックアップテーブルを決定することができる。例えば、異なる深度に対して別個のルックアップテーブルを決定することができる。したがって、所与のLIDARピクセルの深度測定値を使用して、どのルックアップテーブルを使用するべきであるかを特定することができ、次いで、特定したルックアップテーブルを使用して、どのカメラ画像のどのカラーピクセル(複数可)を使用するべきかを特定して、色付けされたLIDARピクセルを作成することができる。
VI.ルックアップテーブルを採用するPCLSシステム
LIDARピクセルが所与の角度位置で取得された後、LIDARピクセルのセンサアレイ内の所与の角度位置及び場所に関する情報(例えば、実際の角度値、角度エンコーディング位置、または角度/エンコーディング位置によって並べられたバッファ内のメモリ位置)を使用して、所与の角度位置及びセンサ位置に割り当てられた対応するカラーピクセル(複数可)の座標(複数可)を提供するルックアップテーブルにアクセスすることができる。本明細書で説明するように、かかるテーブルは、例えば、異なるカメラ用の異なるテーブル、すべてのカメラ用の1つのテーブル、及び深度の関数によって定義することができる異なる深度用の異なるテーブルなど、様々な方法で構成することができる。
A.システムアーキテクチャ
図7は、特定の実施形態による、深度依存ピクセル対応のためのルックアップテーブルの使用を更に例解するためのPCLS710のブロック図を示す。PCLS710は、ユーザインターフェースハードウェア715と相互作用することができる。ユーザインターフェースハードウェア715は、a)モニタ、キーボード、マウス、CPU及びメモリを有するコンピュータシステム、b)自動車のタッチスクリーン、及びc)タッチスクリーン付きのハンドヘルドデバイスを含む多くの形態をとることができる。ユーザインターフェースは、ユーザが、a)PCLSをアクティブにするまたは非アクティブにすること、b)カメラの明るさ、コントラスト、彩度、色相、その他の操作パラメーターを指定すること、c)LIDARピクセルとカラーピクセルとの間の対応を定義するカラーピクセルルックアップテーブルをセットアップすること、及びd)結果を表示するための方法を選択すること、を含め、1または複数のユーザコマンドを介してPCLSを制御することを可能にすることができる。ユーザインターフェースは、a)検出されたオブジェクトの経時的な3次元カラーマップ、及び、b)特定のオブジェクトの特定のビューの特定の時間における距離値を含み得る、PCLS結果を表示することができる。
PCLS710は、システムコントローラ720(例えば、LIDARコントローラ321及び/またはカメラコントローラ327)、スキャンLIDARシステム730、及びカラーカメラ740のアレイを含む。システムコントローラ720は、ユーザインターフェースハードウェア715と相互作用することができ、LIDARシステム730及びカラーカメラのアレイ740の両方を制御することができる。システムコントローラ720は、例えば、LIDARピクセル及び少なくとも1つの対応するカラーピクセルを単一のパケットで送信することにより、着色されたLIDARピクセルデータをユーザインターフェースハードウェアに送信するように構成された、通信モジュールを含むことができる。システムコントローラ720は、(a)FPGAなどのプログラマブルロジックデバイスを使用して、(b)ASICまたはASICの一部として、(c)メモリを有するプロセッサを使用して、及び(d)上記のいくつかの組み合わせ、のうちの1または複数を含む複数の方法で実現され得る。
システムコントローラ720は、開始及び停止を含むコマンドを送信することにより、スキャンLIDARシステム730を制御することができる。システムコントローラ720は、LIDARシステムステータスを読み取って、いつLIDARシステム730が異なるカメラの視野を向いているかを決定することができ、したがって、本明細書で説明するように、ロータリエンコーダシステムの1または複数のコンポーネントを含むことができる。システムコントローラ720は、a)「フレームの捕捉」、及び、b)カメラのパラメーターの調整を含むコマンドを送信することにより、カラーカメラ740を制御することができる。システムコントローラ720は、カラーカメラ740からカラー画像ピクセルデータを読み取ることができる。一実施形態では、システムコントローラ720は、LIDARシステム730及びカラーカメラ740と相互作用するための有線インターフェースを有する。
いくつかの実施形態では、システムコントローラ720は、非一過性コンピュータ可読媒体(図示せず)に記憶されたカラーピクセルルックアップテーブル724を含むことができる。カラーピクセルルックアップテーブル724は、LIDARピクセルとカラーピクセルとの間の対応(マッピング)を定義する。可能なカラーピクセルルックアップテーブルの形式は以下を含む。
(1)パノラマLIDAR画像内の各LIDARピクセルについてのエントリと最も近いカラーピクセル座標のリスト。カラーピクセル座標は、特定のカラーカメラのカラー画像、及びそのカラーカメラの画像内のカラーピクセル場所(複数可)を特定することができ、これは、単一のテーブル、または異なるカメラの別個のテーブルで行うことができる。かかる形式では、表示オブジェクトまでの距離を無視することができる。
(2)ルックアップテーブルは、異なる距離のセット(例えば、近距離、中距離、及び遠距離、または数値範囲などのより多くの分類)のサブテーブルを含むことができる。測定距離がサブテーブルに対応する範囲内にあることに基づき、特定のサブテーブルが特定されると、LIDARピクセル座標(例えば、アレイ内の角度位置及びセンサ位置)を使用してサブテーブルにアクセスし、対応するカラー画像のカラーピクセル座標(複数可)を得ることができる。このように、ルックアップテーブルは、テーブル内のフィールドとして、ピクセルID(LIDARセンサのアレイの識別子など)、エンコーダ値(角度位置など)、及び深度値を有し、多次元であり得る。
(3).各プロパティ値エントリ(LIDARピクセル座標に対応)がプロパティフィールド及び対応する値フィールドを有する、プロパティ値エントリのリスト。各プロパティフィールドは、表示オブジェクト距離の異なる範囲(例えば、0~1m、1m~5m、5m~20m、及び20~100mなどの深度値の範囲)のLIDARピクセルに対応するカラーピクセル座標(複数可)を指定する。各値フィールドは、プロパティフィールドに基づいて対応するカラーピクセル場所(複数可)を計算するための式を定義する。式は、異なるカラーピクセルのブレンドを選択可能にするカーブフィット関数として機能することができ、例えば、異なる深度について異なるブレンドウェイトを異なるカラーピクセルに割り当てることができる。かかるウェイトは、所与のLIDARピクセルに対して測定された測定距離に基づいて割り当てることができる。例えば、測定距離は、2つの深度範囲との間の境界近くであることができ(例えば、上記の例では、5mが2つの深度範囲の境界である)、ブレンドウェイトは、2つの深度範囲に対して特定されたカラーピクセル(複数可)の2つのセットについて、約0.5であり得る。各エントリの式は、表示オブジェクト距離の範囲を使用して、視差エラーを補正することができる。
したがって、カラーピクセルルックアップテーブルは、LIDARピクセルとカラーピクセルとの間のマッピングのための深度値を含むことができる。システムコントローラは、対応するLIDARピクセルの測定深度値を使用して、カラーピクセルルックアップテーブルにアクセスし、次いで、対応するLIDARピクセルの測定深度値に対して記憶されている1または複数のカラーピクセルを使用して、カラーピクセル(複数可)をLIDARピクセルに関連付けることができる。そして、カラーピクセルルックアップテーブルは、各々が対応する深度値に関連付けられた複数のサブテーブルを含むことができ、コントローラは、特定の深度値を有する特定のLIDARピクセルをマッピングするために、複数のサブテーブルのうちの1つを選択するように構成されている。
カラーピクセル(複数可)が特定されると、システムコントローラ720は、カラー値(複数可)をLIDARピクセルの値(複数可)(例えば、距離及び強度)と組み合わせることができる。かかる組み合わせを実行するシステムコントローラ720の部分は、回転しないベース回路(例えば、固定アセンブリ313)に実装され得る。システムコントローラ720の別の部分は、異なる回路基板に実装されてもよい。キャリブレーション
キャリブレーションは、どのトリガ位置でLIDAR視野をカメラ視野(例えば、それらの中間点)と位置合わせをするかを特定することができ、システムが設置されている各車両に対して行うことができる。カラーピクセルルックアップテーブル724はまた、PCLS製造中に構築することもできる。どのカラーピクセル(またはカラーピクセルのグループ)がどのLIDARピクセルに対応するかを決定するために、PCLSを、異なる既知の距離において静的テストパターンでカバーされたオブジェクトを含むテストチャンバーに入れることができる。次いで、LIDARシステム及びカラーカメラの各々の両方で画像が撮影される。2つの画像内の様々な既知のオブジェクトの画像を使用して、1または複数のカラー画像ピクセルを所与の深度測定値のLIDARピクセルと相関させることができる。
代替的に、PCLSを円筒状のテストチャンバーの中央に配置することができ、LIDAR及びカラーカメラをトリガして、シリンダーの内面上のパターンの画像を捕捉する。例えば、LIDAR及びカラーカメラの両方で特徴を検出することができるように、様々な反射率を有する明るい正方形と暗い正方形が交互に並ぶチェス盤パターンでシリンダーをコーティングすることができる。代替的に、シリンダーの表面を、既知のオブジェクト検出技術を使用して、画像内で検出することができるQRコード(登録商標)または他のオブジェクトでコーティングすることができる。PCLSから様々な距離にあるオブジェクトのLIDAR―カラーピクセルの対応を決定するために、いくつかの異なるキャリブレーションシリンダーを使用することができ、各シリンダーは異なる半径を有する。カラーピクセルルックアップテーブルが完全に決定されると、情報は、PCLSの非一過性コンピュータメモリにカラーピクセルルックアップテーブル724として記憶され得る。カラーピクセルルックアップテーブル724は、様々な方式で記憶することができ、例えば、深度、カメラ識別子、角度位置、及びセンサアレイ内の位置などの様々な値によってインデックス付けされたサブテーブルに分類することができる。
ほとんどの場合、LIDAR画像は、任意の所与のカラー画像よりも少ないピクセルを含み、したがって、複数のカラーピクセルが1つのLIDARピクセルに対応することができる場合が多い。このような場合、カラーピクセルルックアップテーブルは、値を結合(例えば、平均化)し、次いで、単一のLIDARピクセルに関連付けることができる、カラーピクセルのグループの識別データを記憶することができる。最大値、最小値、モードなどの結合の他の方法を使用することができる。
B.ランタイムピクセルマッピング方法
図8は、360度パノラマビューのLIDARシステムを色で増強するための方法800を示すフローチャートを例解する。方法800を使用して、特定の実施形態による、記憶されたカラーピクセルルックアップテーブルを使用して、取得された各LIDARピクセルについて色情報を決定することができる。PCLSは、前もってキャリブレーションすることができ、したがって、LIDARピクセルをカラーピクセルにマッピングするためのルックアップテーブルを記憶することができる。
ステップ810で、PCLSはLIDARシステム及びカラーカメラを初期化する。PCLSは、回転速度、画像の解像度、どのテーブル(複数可)をメモリにロードするかなど、LIDARシステムの動作パラメーターを設定または読み取ることができる。PCLSは、次いで、LIDARデータの回転及び捕捉を開始することができる。PCLSは、カラーカメラの各々の動作パラメーターを初期化することができる。
ステップ820で、PCLSは、所与の瞬間におけるLIDARシステムのポインティング方向を決定する。PCLSは、光を送信すること、及び反射光を検出することにより、測距測定の一部としてLIDARピクセルを二乗することができる。上述のように、ロータリエンコーダは、システムコントローラに角度位置信号を提供することができ、システムコントローラは、角度位置信号に基づいてLIDARシステムの角度位置を決定することができる。PCLSは、エンコードされた位置の数に相当する、あるいはより速いまたはより遅いレートでかかる測定を実行することができる。
ステップ830では、PCLSは、決定された角度位置が次のカメラ(すなわち、カラー画像を得るためにトリガされた最後のカメラの後の回転方向の次)の視野内を向いているかどうかを確認する。決定された方向が次のカメラの視野内を向いている場合、例えば、画像の撮影をトリガするためにシステムコントローラから次のカメラに送信されたコマンド信号に基づいて、カラー画像を記録することができる。次のカメラの視野に入っている状態は、特定の角度位置によって定義することができる。決定された角度位置が次のカメラの視野内を向いていない場合、PCLSはステップ820にループバックすることができる。
ステップ840で、PCLSのシステムコントローラは、適切なカメラに画像を捕捉するよう命令する。例えば、システムコントローラは、取得トリガ信号をカメラに直接提供することができる。トリガ信号を受信すると、カメラのシャッタがトリガされ、取得が開始する。したがって、システムコントローラは、LIDARの角度位置がそれぞれのカメラ視野内にあるとコントローラが判断したときに、複数のカラー画像の各々の画像捕捉をトリガすることができる。
ステップ850で、PCLSは、カラーピクセルルックアップテーブル及びいくつかの手順のうちの1つを使用して、LIDARピクセルの色を決定する。手順の選択は、a)LIDARピクセルのFOVサイズ対カラーピクセルのFOVサイズ、b)所望の精度、c)利用可能な計算資源、及び、d)システムコストを含む複数の要因に依存し得る。PCLSは、カメラとLIDARシステムとの間の視差差を補正する際に、LIDARピクセル位置及び表示オブジェクト距離の両方を使用して、カラーピクセル位置を選択することができる。システムコントローラはこの決定を行うことができる。
LIDARピクセルの色を決定するための代替手順は、(1)LIDARピクセルFOVとの重複が最も多いFOVを有する1つのカラーピクセルの色を選択することと、この場合、カラーピクセルルックアップテーブルは、どのカラーピクセルを使用するかを示し、(2)カラーカメラ画像を、その解像度がLIDAR画像の関連部分の解像度と一致する、またはほぼ一致するように、フィルタリングまたはダウンサンプリングすることと、LIDARピクセルFOVとの重複が最も多いFOVを有する1つのピクセル(フィルタリングまたはダウンサンプリングカラー画像内の)の色を選択することと、及び(3)LIDARピクセルFOVと重複しているカラーピクセルの色成分に双線形フィルタを平均化または適用することと、を含む。
LIDARピクセルFOVがカラーピクセルFOVよりも大きい一実施形態では、PCLSは、LIDARピクセルFOVと重複するカラーピクセルに対応する複数のカラー値でLIDARピクセルデータを増強することができる。この特別なレベルのカラーディテイルは、オブジェクトの検出及び認識に役立つ場合がある。
ステップ860で、PCLSは、色情報で増強されたLIDARピクセルデータを出力する。一実施形態では、PCLSは、PCLSがLIDARピクセルの色を決定した直後に、色で増強されたLIDARピクセルデータを出力する。他の実施形態は、データのバッチを出力し得る。PCLSは、色で増強されたLIDARピクセルデータをローカルデバイス、例えば図7のユーザインターフェースハードウェア715に出力してもよい。
ステップ870で、PCLSは停止するかどうかを決定する。例えば、ユーザインターフェースが停止コマンドを発行する場合、または、エラーによりPCLSを停止する必要がある場合がある。PCLSを停止する必要がある場合、デバイスは電源を切られ、方法800は終了することができる。PCLSを停止する必要がない場合、方法800は、引き続きステップ820に戻り、LIDARシステムの角度位置のさらなる測定を実行することができる。
ステップ850で色付けされたLIDARピクセルは、カラー画像にまだマッピングされていないLIDARピクセル、及びステップ840でカラー画像が捕捉された後に取得されるがそのカラー画像にマッピングするLIDARピクセル、に対応することができる。まだ撮影されていないカラー画像に対応するLIDARピクセルは、メモリに記憶することができ、次いで、対応するカメラの画像がトリガされると色付けすることができる。対応するカラー画像が存在するかどうかの決定は、様々な方法で、例えば、対応するメモリ場所が任意のデータを含むかどうかを特定して、または、次のカラー画像が撮影されるまで新しいLIDARピクセルを記憶することを示すフラグによって、実行することができる。かかる手順のさらなる詳細については、次のフローチャートで説明する。
図9は、360度パノラマビューのLIDARシステムを色で増強するための方法900を示すフローチャートを例解する。方法900は、特定の実施形態による、記憶されたカラーピクセルルックアップテーブルを使用して、取得された各LIDARピクセルについて色情報を決定するために使用され得る。LIDARピクセルは、カメラの視野内の方向に沿って取得され得るが、カメラは、LIDARシステムの現在の全回転に対応する最新のカラー画像をまだ取得していない。この場合、LIDARピクセルは、LIDARシステムの前回の回転中に取得したカラー画像を使用して色付けすることができるが、これは、古い画像がかなり古くなる、つまり最後の取得後にLIDARの周囲の視野内にある多くのオブジェクトが移動したかもしれないリスクを冒す。したがって、方法900は、LIDARシステムが複数のカメラのうちの1つの視野に近づいている、または入ったことをシステムコントローラが検出すると、カメラアレイ内のカメラの各々によってトリガされる新しいカラー画像取得を提供することができる。
ステップ910では、LIDARシステムの角度位置ωは、ロータリエンコーダから決定される(例えば、読み取られる)。例えば、図3を参照して上述したように、エンコーダレシーバ319は、スキャンLIDARシステムが特定の角度位置、例えば100度を向いていることを示す角度位置信号334を、LIDARコントローラ321に送信することができる。
ステップ920で、LIDARシステムは、ω方向(この例では100度)のLIDARピクセルを取得する。いくつかの実施形態では、LIDARピクセルは、LIDARを囲む視野内のポイント(例えば、オブジェクト)の反射率及び距離を表すデータを含むことができる。したがって、LIDARピクセルは、LIDARを囲む1つの視野の深度及び反射強度を表すことができる。上記のように、この例では各角度位置に対して単一のLIDARピクセルのみを使用するが、LIDARシステムは、(例えば、図4に示すようにz軸に沿って分布された)複数のLIDARピクセルを同時にまたは密に連続して取得することができる。
ステップ930において、取得されたLIDARピクセルは、例えば、後で色付けプロセス中にアクセスされるために、メモリに記憶される。取得されたLIDARピクセルは、例えば、後で対応するカラー画像が捕捉されるときに検索されるために、メモリ935に記憶され得る。
ステップ940において、システムコントローラは、トリガ角度位置のセット、例えば、ω1、ω2、...、ωnと、決定された角度位置とを比較し、添字nは、アレイ内のカメラの数に等しい。トリガ角度位置(例えば、ω1、ω2、...、ωn)に対して指定された値は、LIDARの現在の回転速度、カメラのシャッタ速度(蓄積時間)、各カメラの視野角のサイズを含む多数の変数に依存し得る。様々な場合、トリガ(指定)値は、カメラの視野角の直前、(例えば、処理遅延を考慮して)または中間点、あるいは、所与のカメラのゼロ以外の蓄積時間を考慮して、所与のカメラの視野角外でも発生することがある。
一例として図4を使用すると、カラー画像407に関与する第2のカメラの中心が120度にある場合、そのカメラのトリガポイントを100度に事前に決定してもよい)。トリガが100度であり、LIDARシステムが回転し続けている間にカメラが起動されるまでにLIDARシステムが120度にあるときに、実際のカラー画像を取得することができる。
様々なカメラのトリガポイントを決定するために、多数の異なるLIDAR回転速度及びシャッタ速度に対してキャリブレーションプロセスを実行することができる。例えば、トリガポイントは、LIDARシステムが任意の所与のカメラの視野角の中間を向いているときまでに、任意の所与のカメラのカラー画像が完了していることを確実にするように、選択することができる。これにより、カラー画像の中心に最も近いLIDARピクセルを、その画像のカラーピクセルに時間的に最も近接して同期することを確実にすることができる。同様に、例えば、70~120度の間の回転がより早いLIDARピクセルは、カラーカメラの取得の少し前に取得されることになり、例えば、120~170度の間の回転がより遅いLIDARピクセルは、カラーカメラの取得の少し後に取得されることになる。
ステップ950において、角度位置信号が、ωがω1、ω2、…、またはωnに等しいことを示す、とシステムコントローラが決定した場合、システムコントローラは、次いで、適切なカメラに送信されるトリガコマンドを生成することができる。様々な実施形態では、トリガコマンドを、カメラコントローラを介して送信して、または、システムコントローラからカメラに直接送信して、カラーカメラのアレイの適切なカラーカメラの取得をトリガすることができる。このように所定の位置値に基づいてカメラを連続的にトリガすることは、LIDARシステムの所与の回転に対するカラー画像の連続的な取得を提供することができる。
ステップ960において、新しいカラーカメラ取得は、メモリに、例えば、複数のカメラのうちの1つに位置するフラッシュメモリ内、またはシステムコントローラ及びカメラの両方にアクセス可能なシステムメモリ内に記憶される。いくつかの実施形態では、LIDARシステムの異なる回転のカラー画像は、LIDARピクセルの色付けの処理時間に依存するが、交互のメモリ(例えば、2つ、3つなどのメモリバンク間)に記憶することができる。更に、各カメラは、そのカメラの指定されたメモリバンクにカラー画像を記憶することができる。他の実施形態では、次のカメラは、そのカラー画像を、単一のメモリバンク内の前のカラー画像に付加することができ、例えば、カラー画像のサイズによって分かるように、カラー画像の開始と終了を記憶することができる。
ステップ970で、システムコントローラは、次いで、少なくとも1つのカラー値(複数可)をLIDARピクセルに割り当てることにより、記憶されたLIDARピクセルから色付けされたLIDARピクセルを生成することができる。カラー値(複数可)は、上記のステップの結果としてトリガされた新しいカラーカメラ取得から少なくとも1つのピクセルに関連付けることができる。例えば、カラー値(複数可)は、LIDARピクセルに近いカラーピクセルのグループから得られてもよい。
図4、図5及び図7で説明したように、カラーピクセルとLIDARピクセルとの間のマッピングは、工場で事前に決定することができ、カラーピクセルルックアップテーブルの形態でメモリに記憶することができる。したがって、システムコントローラは、カラーピクセルルックアップテーブルを使用して、LIDARピクセルを色付けするために使用される適切なカラーピクセルから1または複数のカラー値(複数可)を選択することができる。複数のピクセルを選択した場合、カラー値を組み合わせて、例えば平均化して、単一の平均カラー値を生成することができる。本明細書で使用されるように、「カラー値」という用語は、例えば、RGB値、または他のあらゆるカラースペースで使用されるあらゆる他の値などの数値のセットを含む。
ステップ980では、色付けされたLIDAR値は、システムコントローラから、例えばディスプレイなどのユーザインターフェースに、またはオブジェクト検出などのさらなる処理のための別のモジュールに出力される。
ステップ940に戻って、角度位置信号が、ωがω1、ω2、…またはωnと等しくないことを示す、とシステムコントローラが決定する場合、方法900はステップ990に進むことができる。
ステップ990では、対応するカラー画像が撮影されたかどうかを判定することができる。LIDARピクセルが、カメラの視野の前半の角度位置で取得される場合、LIDARピクセルは、そのカメラの撮影されていないカラー画像に対応し得る。例えば、角度位置が90度であり、そのカメラのトリガ角度が120度である場合、対応するカラー画像は撮影されていない。かかる場合、LIDARピクセルは、ステップ970で後に使用するためにメモリ935に記憶される。したがって、トリガ位置においてカラー画像を取得した後、ステップ970で、そのカラー画像についてメモリ935に記憶されたピクセルは、ステップ970で検索及び色付けすることができる。したがって、いくつかの実施形態は、複数のカラー画像のうち対応するカラー画像が取得されるまで、LIDARピクセルのグループをメモリに記憶し、次いで、対応するカラー画像が取得されることに応答して、ピクセル複数のLIDARピクセルのグループの各々に複数のカラーピクセルのうちの1または複数を割り当てることができる。
カラー画像が既に撮影されている場合、方法900は、ステップ970に進むことができる。新しく取得したLIDARピクセルは、例えばルックアップテーブルを使用して、取得した最新のカラー画像で色付けすることができる。
VII.システム例のさらなる詳細
一般に、PCLSは、本開示の範囲から逸脱することなく、任意のタイプのスキャンLIDARを採用することができる。例えば、LIDARは、図3を参照して上述したように、ベースの周りに周方向に配置されたカラーカメラのアレイを含むことができるベースユニットに回転可能に連結された上部ハウジング内に位置するレーザエミッタ及びフォトダイオード検出器のペア(例えば、32ペア、64ペア、128ペアなど)を含むことができる。いくつかの実施形態では、各エミッタ及び検出器は、独自の別個の基板に取り付けることができ、エミッタ基板及び検出器基板は2つの別個のアセンブリに取り付けられている。別個のアセンブリを、水平に対して異なる角度で上部ハウジング内に位置付けられ、異なる垂直視野を提供することができる。いくつかの実施形態では、ベースは、電気モータ上部ハウジングを可能にする回転カップリングに接続されたモータを含むことができ、それにより、LIDARシステムが全360度の水平視野を捕捉することができるようになる。
図10A乃至図10Cは、1または複数の実施形態に従うLIDARシステム1001の断面図を示す。より具体的には、図10A乃至図10Cに示す個々のコンポーネントは、図2及び図3を参照して既に上述したものに対応し、図10A乃至図10Cに示す図は、いくつかの実施形態による、様々な回路素子の幾何学的配置の例を提供する。図10A乃至図10Bは、上部及び下部回路基板アセンブリ間のすべての光通信を採用する実施形態を示し、図10Cは、誘導通信を採用する実施形態を示す。図10D乃至図10Eは、いくつかの実施形態による個々の回路基板の表面の図を提供し、多数の個々の回路素子の周方向の同心配列を更に例解する。
図10Aに示すように、上部及び下部回路基板アセンブリ1007及び1017は、それぞれ、2つ以上の積層された平面回路基板を含むことができる。代替的に、図10Bに示すように、上部及び下部アセンブリは、それぞれ、単一の回路基板1059及び1051であってもよい。この高度に統合、積層された基板設計は、LIDARシステムの異なる機能素子のすべてに多数のスタンドアロンモジュールを採用するシステムと比較して、アセンブリプロセスが大幅に簡素化されたシステムを提供する。
図10Aに見られるように、LIDARの回転タレットアセンブリは、上部回路基板アセンブリ1007と光測距システム1005を含む。回転は、中空シャフト1003上に位置するベアリングシステム1013(平面回路基板の各々が回転する回転軸でもある長手方向軸1004を有する)によって可能になる。
A.光リンク
1.統合された中心光ダウンリンク
いくつかの実施形態では、中空シャフト1003は、基板アセンブリの各々を支持する中心構造部材として機能することができるだけでなく、データ、例えば、測距及び/または動作データを、タレットアセンブリから、下部回路基板アセンブリ1017(ベースシステムとも称される)に位置する制御及び処理回路に提供するためのダウンリンク光通信チャネル(「ダウンリンクチャネル」)のハウジングとしても機能する。光ダウンリンクチャネルは、光ダウンリンクトランスミッタ1019及び光ダウンリンクレシーバ1021を含むことができる。光ダウンリンクトランスミッタ1019は、上部回路基板アセンブリ1007の回路基板の表面に直接はんだ付けなどで取り付けることができ、中空シャフト1003の中心孔または開口部を通して光を送信することができるように位置付けることができる。同様に、光ダウンリンクレシーバ1021は、下部回路基板アセンブリ1017の回路基板の表面に直接はんだ付けなどで取り付けることができる。光ダウンリンクレシーバ1021は、光ダウンリンクトランスミッタ1019から送信される光を検出することができるように、シャフトの下端に位置付け、光ダウンリンクトランスミッタ1019と位置合わせすることができる。
2.統合された光アップリンク
光アップリンクチャネルは、光アップリンクトランスミッタ1023の周方向配列と光アップリンクレシーバ1025の相補的な周方向配列との間に形成される。有利には、中空シャフト1003の壁は、アップリンクチャネルとダウンリンクチャネルとの間の光分離を提供し、したがって、クロストークを最小限に抑える。周方向配列の個々のエミッタ及びレシーバは、単一の複合レシーバ及び単一の複合トランスミッタとしてともに機能するように一緒に配線される。例えば、システムが全体の光強度を上げて回転すると、個々のエミッタ/検出器が互いに通過するときに、光アップリンクレシーバの全配列によって検出されるアップリンク信号は、わずかにしか変化しない。更に、個々のトランスミッタの数は、個々のレシーバの数と同じでもまたは異なってもよい。
回転アクチュエータの光アップリンクに使用される光トランスミッタ及びレシーバは、任意のタイプの光エミッタまたは検出器である。例えば、IR LED、レーザダイオード、VCSELなどをエミッタに使用することができる。同様に、任意のタイプの光検出技術、例えば、フォトダイオードなどをレシーバに使用することができる。加えて、光アップリンクに使用される光トランスミッタ及びレシーバは、ダウンリンクに使用されるものと同じまたは異なるタイプ(例えば、電源及び波長)であり得る。
光アップリンクトランスミッタ1023の周方向配列の例が図10Dに示されており、それは、回路基板、例えば図10Aの回路基板1041または図10Bの回路基板1051の平面図を例解する。この例では、中心孔1069の周囲に周方向に配列された6つの光アップリンクトランスミッタ1023がある。6つのトランスミッタは、中心がシャフト(図示せず)の中心に位置する、したがって回転軸と重複する、円1065の周りに等間隔に配置されている。
回転基板の反対側の表面は、図10Eに示すように、対応する周方向配列の光アップリンクレシーバ1025を含み、それは、いくつかの実施形態による、回転回路基板、例えば図10Aの回路基板1039または図10Bの回路基板1051の下面図を例解する。この例では、中心孔1071の周囲に円周方向に配列された7つの光アップリンクレシーバがある。7つのレシーバは、中心がシャフト(図示せず)の中心に位置する、したがって回転軸と重複する、円1067の周りに等間隔に配置されている。したがって、基板が回転すると、光アップリンクレシーバ1025の配列は、回転軸を中心に回転する。円1067の半径は円1065の半径と同じであるため、トランスミッタはレシーバと位置合わせされており、回転は時間の経過とともに平均信号のわずかな上昇及び下降をもたらすだけであり、周波数はタレットシステムの回転周波数の倍数である。
B.誘導通信リンク
図10Cは、上部回路基板アセンブリと下部回路基板アセンブリとの間の誘導通信システムを採用する実施形態を示す。この例では、データのアップリンクとダウンリンクは、図のように、下部回路基板アセンブリと上部回路基板アセンブリにそれぞれ取り付けられたコイルのペア1061a~e及び1063a~eによって提供される。コイルは、データライン及びクロックラインの両方を含むことができる。各コイルは、それぞれの回路基板の表面に取り付けられたそれら自体である上部コイルハウジング1061及び下部コイルハウジング1063などのハウジングの別のチャネル、例えば円形チャネル内に埋め込むことができる。いくつかの実施形態では、複数の誘導データ線に使用されるいくつかのコイル、例えば、ダウンリンクチャネル1トランスミッタコイル1061b及びダウンリンクチャネル1レシーバコイル1063b、ダウンリンクチャネル2トランスミッタコイル1061c、ならびにダウンリンクチャネル2レシーバコイル1063cがあり得る。いくつかの実施形態において、ダウンリンククロック信号は、別のコイルペア、例えば、ダウンリンククロック送信コイル1061a及びダウンリンククロックレシーバコイル1063aを介して送信され得る。同様に、データアップリンクチャネルは、1または複数のペアのコイルから、例えばアップリンクトランスミッタコイル1063d及びアップリンクレシーバコイル1061dにより、形成することができる。ダウンリンクと同様に、データアップリンククロック信号は、一ペアのコイル、例えば、アップリンククロックトランスミッタコイル1063e及びアップリンククロックレシーバコイル1061eから形成される、専用チャネルを有することもできる。
C.統合された電気モータ
特定の実施形態によれば、回転アクチュエータ用の電動モータは、対向するステータ基板上の平面ステータアセンブリに対向するロータ基板上の平面ロータアセンブリを有する「パンケーキ」または「アキシャル」設計のものである。電気モータのステータ及びロータアセンブリはまた、回転アクチュエータ1006の基板に統合されている、つまり、電気モータの要素は、プリント回路基板の表面上の多くのコンポーネントの1つであり、したがって、別のモータモジュールはLIDARシステムには必要ではない。例えば、モータステータアセンブリ1027は、ステータ要素、例えば、接着剤を使用して、下部回路基板アセンブリ1017の基板に貼り付けられる、または軟磁性コアに貼り付けられ、次いで、下部回路基板アセンブリ1017に貼り付けられる、垂直に配向されたソレノイド(基板の表面に垂直な長手方向軸を有する)の円形配列を含むことができる。ソレノイド巻線の例は、図10Dの平面図に示される。各ソレノイドコイルは、磁性材料、例えばフェライトなどのコアの周りに巻かれることができる。コイルは、ソレノイドを出る磁場が回路基板の平面に実質的に垂直である方向に実質的に配向されるように配向される。
モータステータアセンブリ1027の上方に位置付けられ、上部回路基板アセンブリ1007の基板に取り付けられているのは、モータロータアセンブリ1029である。いくつかの実施形態では、モータロータアセンブリは、永久磁石の円形配列を含む受動素子であり得、それらの極は、ステータアセンブリの様々なソレノイドコイルの開口部に順番に対向及び引き付けるために交互のパターンで配列されており、図10Eに示す基板図により詳細に示される。図10D及び図10Eに見られるように、モータステータアセンブリ1027及びモータロータアセンブリ1029は、ステータ及びロータの両方の円が同じ半径及び中心位置を有する全体的に円形リング形状を有することができる(例えば、両方のリングは、シャフトを中心とすることができる)。
D.統合された無線電力送信システム
回転する上部回路基板アセンブリ1007に接続された回路素子に電力を提供するために、回転アクチュエータ1006は、本明細書で回転変圧器とも称される無線電力システムを含み、無線電力トランスミッタ1035を含む無線電力送信サブシステム及び無線電力レシーバ1037を含む無線電力受信サブシステムを含む。無線電力トランスミッタ1035は、円形ループアンテナ形状のトランスミッタコイル、すなわち、シングルターンまたはマルチターンコイルであり得、例えば、図10Dに示すように、下部回路基板アセンブリ1017の回路基板の表面に取り付けられている。同様に、無線電力レシーバ1037は、円形ループアンテナ形状のレシーバコイル、すなわち、シングルターンまたはマルチターンコイルであり得、例えば、図10Eに示すように、上部回路基板アセンブリ1017の回路基板の表面に取り付けられている。無線電力トランスミッタ1035及び無線電力レシーバ1037の両方の中心は、中空シャフト1003の中心に位置付けられ、したがって、光学エンコーダリング、電気モータアセンブリ、及び光学アップリンクレシーバ/トランスミッタと同心である。
いくつかの実施形態では、無線電力トランスミッタ1035及び無線電力レシーバ1037は、それぞれの基板の環状領域内に配置されており、環状領域の壁及び底は、磁性材料、例えばフェライトなどから形成されている。例えば、図10Eは、フェライト壁1047及び1049と閉塞されたフェライト底部から形成された環状領域内に配置された無線電力レシーバ1037を示す。かかるフェライト材料の配列は、トランスミッタとレシーバとの間の磁場を通すのに役立ち、電力伝送効率を改善し、システムから漏れる電磁放射を低減する。
E.統合された光学エンコーダ
回転アクチュエータ1006は、下部回路基板アセンブリ1017に対する上部回路基板アセンブリ1007の角度位置の読み出しを可能にする、統合された光学エンコーダアセンブリを更に含む。光学エンコーダアセンブリは、パターン化された環状光学エンコーダ1031、及び、例えば、システムが回転するときにロータリエンコーダ検出器1031を通過するパターンの数を検出及びカウントすることによりアセンブリの角度位置を読み取るためのロータリエンコーダ検出器1033を含む。特定の実施形態では、ロータリエンコーダ検出器1033は、LEDなどの照明デバイス、ならびに、環状光学エンコーダのパターン化された表面を照射及び検出するためのフォトダイオードまたは撮像検出器などの検出器を含むことができる。いくつかの実施形態では、環状光学エンコーダは、円環上の一意の位置で発生する開始コードを含むことができ、または絶対エンコーディングパターンを提供し、それにより絶対角度配向測定を可能にする。いくつかの実施形態では、エンコーダシステムは、本質的に光学的ではなく磁気的であり、同様に位置付けられた磁気エンコーダストリップ及び磁気エンコーダリーダに依存する。
いくつかの実施形態では、環状光学エンコーダ1031は、下部回路基板アセンブリ1017の回路基板の表面に取り付けることができ、ロータリエンコーダ検出器1033は、ここに図示するように、上部回路基板アセンブリ1007の表面に取り付けることができ、またはその逆も可能である。環状光学エンコーダ1031は、どちらの基板に配置されるかに関わらず、その中心が中空シャフト1003の中心にあるように配列することができ、したがって、例えば図10Dに示すように、電気モータアセンブリ及び光アップリンクレシーバ/トランスミッタの両方と同心である。いくつかの実施形態では、ロータリエンコーダ検出器1033は、例えば図10Eに示すように、環状光学エンコーダ1031の上方のどこか回転回路基板上に位置付けられる。有利には、エンコーダアセンブリは、無線電力送信システムと電気モータアセンブリとの間に位置付けられ、エンコーダ検出器と光学アップリンクシステムのトランスミッタとの間の光学的分離を最大化する。図10Aの例に示すように、いくつかの実施形態では、環状光学エンコーダ1031は、回転アクチュエータ1006のステータ側にあり、ロータリエンコーダ検出器1033はロータ側にあり得る。これは、回転アクチュエータの非標準的な構成であるが、LIDAR用途にはこの構成が有利である。例えば、このようにロータリエンコーダ検出器1033と光測距システム1005との間の回転接続を排除することにより、2つのシステム間の低遅延接続の実施を実行することができる。LIDAR用途では、ロータリエンコーダ検出器1033の角度位置測定値を迅速に取り込むため、及び現在の測距情報をロータの現在の角度位置と相関させて空間精度を高めるために、低遅延接続が重要になり得る。
VIII.タイムスタンプを使用した位置合わせ
LIDARシステムの角度位置を使用してカラー画像をトリガすることに加えて、いくつかの実施形態は、共通の内部クロックを使用して、プロセッサにストリームするときに各LIDARピクセル及び各カメラピクセルにタイムスタンプし、それにより、データは共通のタイムベース上にあり、厳密な時間的相関関係が得られる。LIDARピクセルが色付けのために受信されると、その捕捉時間を使用して、時間的に近くにある、例えば、最も近い時間内または指定された時間しきい値内にある、カラーピクセル(複数可)を選択することができる。例えば、選択は、ルックアップテーブルを使用してカラーピクセルの座標を特定することができ、これらの座標(複数可)をLIDARピクセルのタイムスタンプとともに使用して、LIDARピクセルのタイムスタンプに対し所望の時間を有するこれらの座標(複数可)において特定のピクセル値(複数可)を選択することができる。異なる時間におけるカラーピクセルのブレンドを実行することもできる。
図11は、特定の実施形態による、LIDAR及びカラーピクセルのタイムスタンプを使用したPCLS1110のブロック図を示す。PCLS1110は、図7のユーザインターフェースハードウェア715と同様の方法で、ユーザインターフェースハードウェア1115と相互作用することができる。PCLS1110は、システムコントローラ1120、スキャンLIDARシステム1130、及びカラーカメラのアレイ1140を含む。PCLS1110は、ルックアップテーブル1124(例えば、図7の724)を使用することができる。
クロック1121は、LIDARタイミングモジュール1122及びカラータイミングモジュール1123に共通の内部クロック信号を提供することができる。LIDARタイミングモジュール1122は、クロック信号を使用して各LIDARピクセルにタイムスタンプを割り当てることができる。LIDARピクセルセンサのアレイが使用される場合、アレイ内のLIDARピクセルの各々は、同じ時間を有し得る。様々な実施形態では、時間は、最初のLIDARピクセル、最後のLIDARピクセル、またはアレイ内の他のあらゆるLIDARピクセルがLIDARタイミングモジュール1122によって受信されるときであり得る。LIDARピクセルは、そのタイミング情報とともにLIDARタイミングバッファ1125に記憶することができる。
カラータイミングモジュール1123は、タイムスタンプをカラーピクセルに割り当てる。グローバルシャッタが使用される場合、所与のカラー画像のピクセルは、すべて同じタイムスタンプを有することができる。ローリングシャッタが使用される場合、ピクセル画像のカラーピクセルは、異なるタイムスタンプを有することができ、例えば、各々は、カラーピクセルが捕捉された特定の時間に対応する。したがって、実施形態は、ストリームするときにローリングシャッタカメラの各ピクセルにタイムスタンプをすることができる。更に、カラータイミングモジュール1123は、カラーカメラの各々の露光時間及び/またはデータ読み出し待ち時間の知識に基づいて、タイムスタンプを調整することができる。カラータイミングメモリ1126は、カメラからのカラーピクセルを記憶することができ、所定のカメラからの複数のピクセル画像を記憶することができる。例えば、カラーカメラ1140は、LIDARシステム1130よりも高いフレームレートで動作することができる。このより高いレートにより、システムは、LIDARシステム1130の角度位置に基づいてカラー画像のトリガを要求することに加えて、またはその代替として、時間的に比較的近いカラーピクセルを選択することができる。したがって、LIDARシステムの所定の回転について、各カラーカメラに対して複数のカラー画像、例えばLIDARシステムの回転について、カメラごとに2つ、3つ、またはそれ以上のカラー画像を捕捉することができる。
LIDARピクセルがLIDARタイミングバッファ1125(例えば、FIFOバッファ)から色付けモジュール1127に送信されると、色付けモジュール1127は、ルックアップテーブル1124を使用して対応するカラーピクセル座標(複数可)を特定することができる。次いで、色付けモジュール1127は、これらの座標(複数)に対応し、LIDARピクセルのタイムスタンプに最も近いタイムスタンプを有するカラーピクセルをカラータイミングメモリ1126から検索することができる。カラータイミングメモリ1126は、迅速な検索を容易にするために、様々なフィールド、例えば時間、カラーピクセル座標、及びカメラIDによってインデックス付けされたデータを記憶することができる。
所望のカラーピクセル(複数可)が検索されると、色付けモジュール1127は、例えば本明細書で説明されるように、カラーピクセル(複数可)から使用する色を決定することができる。次いで、色付けされたLIDARピクセルをPCLS1110から、例えばユーザインターフェースハードウェアに出力することができる。
IX.コンピュータシステム
本明細書で言及されるコンピュータシステムまたは回路のいずれも、任意の好適な数のサブシステムを利用し得る。サブシステムは、システムバスを介して接続することができる。例として、サブシステムは、コンピュータシステムを他のデバイス(例えば、エンジン制御まで)に接続するために使用されることができる、入力/出力(I/O)デバイス、システムメモリ、記憶デバイス(複数可)、及びネットワークアダプタ(複数可)(例えば、Ethernet、Wi-Fiなど)を含むことができる。システムメモリ及び/または記憶デバイス(複数可)は、コンピュータ可読媒体を統合することができる。
コンピュータシステムは、内部インターフェースによって、または1つのコンポーネントから別のコンポーネントに接続して取り外し可能な記憶デバイスを介して、例えば外部インターフェースによって互いに接続された、複数の同一コンポーネントまたはサブシステムを含むことができる。いくつかの実施形態では、コンピュータシステム、サブシステム、またはデバイスは、ネットワーク上で通信することができる。
実施形態の態様は、制御ロジックの形態で、ハードウェア回路(例えば、特定用途向け集積回路またはフィールドプログラマブルゲートアレイ)を使用して、及び/またはモジュール式もしくは集積様態で汎用プログラマブルプロセッサを有するコンピュータソフトウェアを使用して、実装することができる。本明細書で使用される場合、プロセッサは、シングルコアプロセッサ、同じ集積チップ上のマルチコアプロセッサ、または単一の回路基板もしくはネットワーク化された上の複数の処理ユニット、ならびに専用のハードウェアを含むことができる。本開示及び本明細書に提供される教示に基づいて、当業者は、ハードウェアを用いて及びハードウェアとソフトウェアとを併用して、本発明の実施形態を実施するための他のやりかた及び/または方法を知り、認識することになっている。
本出願で説明されるソフトウェアコンポーネントまたは関数のうちのいずれも、例えば、Java(登録商標)、C、C++、C#、Objective-C、Swiftなどの何らかの好適なコンピュータ言語、または例えば、従来の技術もしくはオブジェクト指向の技術を使用するPerlもしくはPythonなどのスクリプト言語を使用する、処理デバイスによって実行されるソフトウェアコードとして実装されてもよい。ソフトウェアコードは、保存及び/または伝送のためのコンピュータ可読媒体上に一連の命令またはコマンドとして保存することができる。好適な非一過性コンピュータ可読媒体は、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、磁気媒体(ハードドライブもしくはフロッピーディスクなど)、または光学媒体(コンパクトディスク(CD)もしくはDVD(デジタル多用途ディスク)など)、及びフラッシュメモリなどを含むことができる。コンピュータ可読媒体は、かかる記憶デバイスまたは送信デバイスの任意の組み合わせであってもよい。
かかるプログラムはまた、コード化され、インターネットを含む様々なプロトコルに従う有線ネットワーク、光ネットワーク、及び/または無線ネットワークを介した送信に適合した搬送波信号を使用して送信されてもよい。このように、コンピュータ可読媒体は、かかるプログラムでコード化されたデータ信号を用いて作成されてもよい。プログラムコードでコード化されたコンピュータ可読媒体は、互換性のあるデバイスでパッケージ化されていても、または(例えば、インターネットダウンロードを介して)他のデバイスとは別個に提供されてもよい。任意のかかるコンピュータ可読媒体は、単一のコンピュータ製品(例えば、ハードドライブ、CD、またはコンピュータシステム全体)上またはその内部に存在してもよく、システムまたはネットワーク内の異なるコンピュータ製品上またはその内部に存在してもよい。コンピュータシステムは、モニタ、プリンタ、または本明細書に記載の結果のうちのいずれかをユーザへ提供するための他の好適なディスプレイを含み得る。
本明細書記載の方法のうちのいずれも、ステップを実行するように構成することができる1または複数のプロセッサを含むコンピュータシステムを用いて全体的または部分的に実施することができる。したがって、実施形態は、本明細書に説明される方法のうちのいずれかのステップを実行するように構成されたコンピュータシステムを対象とし得、潜在的には異なるコンポーネントがそれぞれのステップまたはそれぞれのステップのグループを実行する。番号付けされたステップとして提示されるが、本明細書の方法のステップは、同時にもしくは異なる時間に、または異なる順序で実行することができる。加えて、これらのステップの部分は、他の方法からの他のステップの部分と併用することができる。また、あるステップのすべてまたは部分が任意であってもよい。加えて、本方法のうちのいずれかのステップのうちのいずれかを、これらのステップを実行するためのシステムのモジュール、ユニット、回路、または他の手段を用いて実行することができる。
特定の実施形態の具体的な詳細は、本発明の実施形態の趣旨及び範囲から逸脱することなく、任意の好適な様態で組み合わせることができる。しかしながら、本発明の他の実施形態は、各個々の態様、またはこれらの個々の態様の具体的な組み合わせに関する具体的な実施形態を対象とし得る。
本発明の例示的実施形態の上の説明は、例解及び説明目的で提示されている。包括的であること、または本発明を説明された正確な形態に限定することは意図されず、多くの修正及び変更が、先の教示に鑑みて可能である。
「a」、「an」、または「the」の記述は、それとは反対に具体的に示されない限り、「1または複数」を意味することが意図される。「または」の使用は、それとは反対に具体的に示されない限り、「を除く、または」ではなく「を含む、または」を意味することが意図される。「第1」のコンポーネントへの言及は、第2のコンポーネントが提供されることを必ずしも必要としない。更に、「第1」または「第2」のコンポーネントへの言及は、明示的に述べられていない限り、言及されるコンポーネントを特定の場所に限定するものではない。「~に基づいて」という用語は、「少なくとも一部に基づいて」を意味することを意図している。
本明細書において言及されるすべての特許、特許出願、刊行物、及び明細書は、すべての目的に対して参照によりそれらの全体が組み込まれる。いかなるものも、先行技術であるとは認められていない。

Claims (20)

  1. パノラマカラー光検出及び測距(LIDAR)システムであって、
    固定ベースと、
    前記固定ベースに回転可能に連結されており、光を送信する工程と反射光を検出する工程とにより複数の測距測定を実行して、視野角内に分布する複数のLIDARピクセルを含むLIDAR画像を取得するように構成されているLIDARシステムと、
    前記固定ベースに固定的に連結され、前記LIDARシステムの周囲に周方向に配置された複数のカラーカメラであって、各カメラは前記視野角の一部分であるそれぞれのカメラ視野を有し、当該複数のカラーカメラは複数のカラーピクセルを含む複数のカラー画像を取得するように構成されている、複数のカラーカメラと、
    前記複数のLIDARピクセルと前記複数のカラーピクセルとの間のマッピングを定義するカラーピクセルルックアップテーブルを記憶するメモリと、
    前記メモリに動作可能に連結されたコントローラであって、
    それぞれのカメラ視野に対する前記LIDARシステムの決定された角度位置に基づいて、前記複数のカラー画像の各々の画像捕捉をトリガして、前記LIDARピクセルの一部分の捕捉を前記複数のカラーカメラのそれぞれのカメラのカラーピクセルの捕捉と同期させる工程と、
    前記メモリに記憶された前記カラーピクセルルックアップテーブルを使用して、前記複数のカラーピクセルのうちの少なくとも1つを前記複数のLIDARピクセルのうちの対応するLIDARピクセルに関連付け、それによって色付けされたLIDARピクセルを生成する工程と、
    を行うように構成されている、コントローラと、
    を備えたことを特徴とするシステム。
  2. 前記固定ベース上の固定基準点に対する前記LIDARシステムのポインティング方向に対応する角度位置信号を出力するように構成されているロータリエンコーダ
    を更に備え、
    前記コントローラは、前記角度位置信号を受信するように、かつ、前記角度位置信号が前記角度位置が前記複数のカラーカメラのうちの1つに関連付けられた前記角度位置信号の指定値に等しいことを示す場合に、前記画像捕捉をトリガするように、構成されている
    ことを特徴とする請求項1に記載のパノラマカラーLIDARシステム。
  3. 前記コントローラは、
    前記LIDARシステムの回転中に、前記LIDARシステムの角度位置を複数回決定する工程と、
    前記決定された角度位置を、各々が前記複数のカラーカメラの対応するカメラのトリガ角度位置に対応する複数の指定値と比較する工程と、
    前記決定された角度位置が前記対応するカメラの前記トリガ角度位置と一致する場合、前記対応するカメラにコマンドを送信してカラー画像を取得し、それによって前記複数のカラーピクセルを含む前記複数のカラー画像を得る工程と、
    前記複数のカラーピクセルのうちの1または複数を、前記決定された角度位置の各々において、LIDARピクセルアレイの各々に関連付ける工程と、
    を行うように構成されている
    ことを特徴とする請求項1に記載のパノラマカラーLIDARシステム。
  4. 前記カラーピクセルルックアップテーブルは、前記LIDARピクセルと前記カラーピクセルとの間のマッピングのための深度値を含み、
    前記コントローラは、
    対応するLIDARピクセルの測定された深度値を使用して、前記カラーピクセルルックアップテーブルにアクセスする工程と、
    対応するLIDARピクセルの測定された深度値に対して記憶された1または複数のカラーピクセルを使用して、前記複数のカラーピクセルのうちの少なくとも1つを、前記複数のLIDARピクセルのうちの対応するLIDARピクセルに関連付ける工程と、
    を行うように構成されている
    ことを特徴とする請求項1に記載のパノラマカラーLIDARシステム。
  5. 前記カラーピクセルルックアップテーブルは、各々が対応する深度値に関連付けられた複数のサブテーブルを含み、
    前記コントローラは、特定の深度値を有する特定のLIDARピクセルをマッピングするために前記複数のサブテーブルのうちの1つを選択するように構成されている
    ことを特徴とする請求項4に記載のパノラマカラーLIDARシステム。
  6. 前記サブテーブルの各々は、深度値の範囲と関連付けられ、
    前記LIDARピクセルと前記カラーピクセルとの間の前記マッピングは、前記サブテーブル間で異なる
    ことを特徴とする請求項5に記載のパノラマカラーLIDARシステム。
  7. 前記カラーピクセルルックアップテーブルに従って、前記コントローラは、
    カラー画像の解像度が前記LIDAR画像の関連部分と一致するように、当該カラー画像をフィルタリングまたはダウンサンプリングする工程と、
    LIDARピクセル視野(FOV)との重複が最も多い視野(FOV)を有する前記フィルタリングまたはダウンサンプリングされたカラー画像内で、1つのピクセルの色を選択する工程と、
    を行うために使用するように構成されている
    ことを特徴とする請求項1に記載のパノラマカラーLIDARシステム。
  8. 前記カラーピクセルルックアップテーブルは、プロパティ値エントリのリストを含み、
    各プロパティ値エントリは、プロパティフィールド及び対応する値フィールドを有し、
    前記プロパティフィールドは、LIDARピクセルのセット及び深度値の範囲を定義し、
    各値フィールドは、前記対応するLIDARピクセルに関連付けられる前記複数のカラーピクセルのうちの前記少なくとも1つを特定するための式を定義する
    ことを特徴とする請求項1に記載のパノラマカラーLIDARシステム。
  9. 前記コントローラは、
    前記複数のカラー画像のうちの対応するカラー画像が取得されるまで、前記複数のLIDARピクセルのグループを前記メモリに記憶する工程と、
    前記対応するカラー画像が取得されることに応答して、前記複数のカラーピクセルのうちの1または複数を、前記複数のLIDARピクセルの前記グループの各々に関連付ける工程と、
    を行うように構成されている
    ことを特徴とする請求項1に記載のパノラマカラーLIDARシステム。
  10. 前記カラーピクセルルックアップテーブルは、各回転について360度の角度位置によってインデックス付けされており、
    前記カラーピクセルルックアップテーブルの各エントリは、ピクセルアレイ内の特定の角度位置及び特定のセンサに対するそれぞれのカラー画像の1または複数のカラーピクセルを特定する
    ことを特徴とする請求項1に記載のパノラマカラーLIDARシステム。
  11. 回転する光測距及び検出(LIDAR)システムの第1の角度位置を決定する工程と、
    前記LIDARシステムにより、前記第1の角度位置で第1のLIDARピクセルを取得する工程と、
    前記LIDARシステムのメモリに前記第1のLIDARピクセルを記憶する工程と、
    前記第1の角度位置が第1のカラーカメラと関連付けられた第1の指定値に等しいことを決定する工程であって、前記第1の指定値は、前記第1のLIDARピクセルが前記第1のカラーカメラの視野角内にあるように設定されている、という工程と、
    前記第1の角度位置が前記第1の指定値に等しいと決定した結果、前記第1のカラーカメラに第1のカラー画像を取得させる工程であって、前記第1のカラー画像は、カラーピクセルのセットを含む、という工程と、
    メモリに前記第1のカラー画像を記憶する工程と、
    前記LIDARシステムのプロセッサによって、前記第1のLIDARピクセルに、前記メモリに記憶されたカラーピクセルルックアップテーブルを使用して前記カラーピクセルのセットの少なくとも1つのカラーピクセルから少なくとも1つのカラー値を割り当てることにより、第1の色付けされたLIDARピクセルを生成する工程であって、前記カラーピクセルルックアップテーブルは、複数のLIDARピクセルと前記カラーピクセルのセットとの間のマッピングを定義する、という工程と、
    を備えたことを特徴とする方法。
  12. 前記第1の角度位置を決定する工程は、前記第1の角度位置に対応する第1の特徴をエンコーダレシーバによって検出する工程を含む
    ことを特徴とする請求項11に記載の方法。
  13. 前記LIDARシステムの回転中に、前記LIDARシステムの角度位置を複数回決定する工程と、
    前記決定された角度位置を、各々が前記複数のカラーカメラの対応するカメラのトリガ角度位置に対応する複数の指定値と比較する工程と、
    前記決定された角度位置が前記対応するカメラの前記トリガ角度位置と一致する場合、前記対応するカメラにコマンドを送信してカラー画像を取得し、それによって前記複数のカラーピクセルを含む前記複数のカラー画像を得る工程と、
    前記複数のカラーピクセルのうちの1または複数を、前記決定された角度位置の各々において、LIDARピクセルアレイの各々に関連付ける工程と、
    を更に備えたことを特徴とする請求項11に記載の方法。
  14. 前記複数のカラー画像のうちの対応するカラー画像が取得されるまで、前記複数のLIDARピクセルのグループを前記メモリに記憶する工程と、
    前記対応するカラー画像が取得されることに応答して、前記複数のカラーピクセルのうちの1または複数を、前記複数のLIDARピクセルの前記グループの各々に関連付ける工程と、
    を更に備えたことを特徴とする請求項13に記載の方法。
  15. 前記カラーピクセルルックアップテーブルは、前記LIDARピクセルと前記カラーピクセルとの間のマッピングのための深度値を含み、
    当該方法は、
    前記第1のLIDARピクセルの第1の深度値を決定する工程と、
    前記カラーピクセルルックアップテーブルを使用して、前記カラーピクセルのセットの前記少なくとも1つのカラーピクセルから前記少なくとも1つのカラー値を割り当てるために、前記第1の深度値を使用する工程と、
    を更に備えたことを特徴とする請求項11に記載の方法。
  16. 前記カラーピクセルルックアップテーブルは、各々が対応する深度値に関連付けられた複数のサブテーブルを含み、
    当該方法は、前記第1の深度値を有する前記第1のLIDARピクセルをマッピングするために、前記複数のサブテーブルのうちの1つを選択する工程を更に含む
    ことを特徴とする請求項15に記載の方法。
  17. 前記第1のカラー画像の解像度がLIDARピクセルのLIDAR画像の関連部分と一致するように、前記第1のカラー画像をフィルタリングまたはダウンサンプリングする工程
    を更に備え、
    前記第1の色付けされたLIDARピクセルは、前記第1のLIDARピクセルの視野(FOV)との重複が最も多い視野(FOV)を有する前記フィルタリングまたはダウンサンプリングされたカラー画像内のカラーピクセルの色を使用して生成される
    ことを特徴とする請求項11に記載の方法。
  18. 前記カラーピクセルルックアップテーブルは、プロパティ値エントリのリストを含み、
    各プロパティ値エントリは、プロパティフィールド及び対応する値フィールドを有し、
    前記プロパティフィールドは、LIDARピクセルのセット及び深度値の範囲を定義し、
    各値フィールドは、前記第1のLIDARピクセルに関連付けられる前記少なくとも1つのカラーピクセルを特定するための式を定義する
    ことを特徴とする請求項11に記載の方法。
  19. 前記LIDARシステムにより、第2の角度位置で第2のLIDARピクセルを取得する工程と、
    前記LIDARシステムのプロセッサにより、前記第2のLIDARピクセルに、前記メモリに記憶された前記カラーピクセルルックアップテーブルを使用して前記カラーピクセルのセットの1または複数の他のピクセルから1または複数のカラー値を割り当てることにより、第2の色付けされたLIDARピクセルを生成する工程であって、前記第1のカラー画像は前記第2のLIDARピクセルが取得される前に取得される、という工程と、
    を更に備えたことを特徴とする請求項11に記載の方法。
  20. 前記カラーピクセルルックアップテーブルは、各回転について360度の角度位置によってインデックス付けされており、
    前記カラーピクセルルックアップテーブルの各エントリは、ピクセルアレイ内の特定の角度位置及び特定のセンサに対するそれぞれのカラー画像の1または複数のカラーピクセルを特定する
    ことを特徴とする請求項11に記載の方法。
JP2022192760A 2017-05-15 2022-12-01 色によるパノラマlidar結果の増強 Pending JP2023022237A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201762506460P 2017-05-15 2017-05-15
US62/506,460 2017-05-15
JP2019563212A JP7189156B2 (ja) 2017-05-15 2018-05-15 色によるパノラマlidar結果の増強
PCT/US2018/032811 WO2018213338A1 (en) 2017-05-15 2018-05-15 Augmenting panoramic lidar results with color

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019563212A Division JP7189156B2 (ja) 2017-05-15 2018-05-15 色によるパノラマlidar結果の増強

Publications (1)

Publication Number Publication Date
JP2023022237A true JP2023022237A (ja) 2023-02-14

Family

ID=64097862

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019563212A Active JP7189156B2 (ja) 2017-05-15 2018-05-15 色によるパノラマlidar結果の増強
JP2022192760A Pending JP2023022237A (ja) 2017-05-15 2022-12-01 色によるパノラマlidar結果の増強

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019563212A Active JP7189156B2 (ja) 2017-05-15 2018-05-15 色によるパノラマlidar結果の増強

Country Status (6)

Country Link
US (2) US10809380B2 (ja)
EP (1) EP3615961A4 (ja)
JP (2) JP7189156B2 (ja)
KR (1) KR20200004840A (ja)
CN (1) CN110832349B (ja)
WO (1) WO2018213338A1 (ja)

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11067385B2 (en) * 2012-01-04 2021-07-20 Chris Olexa Laser centering tool
US9992477B2 (en) 2015-09-24 2018-06-05 Ouster, Inc. Optical system for collecting distance information within a field
RU2728836C2 (ru) 2016-10-28 2020-07-31 Ппг Индастриз Огайо, Инк. Покрытия для увеличения расстояния обнаружения до объекта, обнаруживаемого с помощью электромагнитного излучения ближнего инфракрасного диапазона
DE102017101945A1 (de) * 2017-02-01 2018-08-02 Osram Opto Semiconductors Gmbh Messanordnung mit einem optischen Sender und einem optischen Empfänger
JP7290571B2 (ja) 2017-03-31 2023-06-13 ベロダイン ライダー ユーエスエー,インコーポレイテッド 統合化されたlidar照明出力制御
US10809380B2 (en) * 2017-05-15 2020-10-20 Ouster, Inc. Augmenting panoramic LIDAR results with color
US10861359B2 (en) * 2017-05-16 2020-12-08 Texas Instruments Incorporated Surround-view with seamless transition to 3D view system and method
US10474161B2 (en) * 2017-07-03 2019-11-12 Baidu Usa Llc High resolution 3D point clouds generation from upsampled low resolution lidar 3D point clouds and camera images
US10474160B2 (en) * 2017-07-03 2019-11-12 Baidu Usa Llc High resolution 3D point clouds generation from downsampled low resolution LIDAR 3D point clouds and camera images
EP3438776B1 (en) * 2017-08-04 2022-09-07 Bayerische Motoren Werke Aktiengesellschaft Method, apparatus and computer program for a vehicle
US10523880B2 (en) * 2017-09-28 2019-12-31 Waymo Llc Synchronized spinning LIDAR and rolling shutter camera system
US10785400B2 (en) 2017-10-09 2020-09-22 Stmicroelectronics (Research & Development) Limited Multiple fields of view time of flight sensor
US10481269B2 (en) * 2017-12-07 2019-11-19 Ouster, Inc. Rotating compact light ranging system
JP2020003256A (ja) * 2018-06-26 2020-01-09 株式会社デンソー 距離測定装置
US10732032B2 (en) 2018-08-09 2020-08-04 Ouster, Inc. Scanning sensor array with overlapping pass bands
US10739189B2 (en) 2018-08-09 2020-08-11 Ouster, Inc. Multispectral ranging/imaging sensor arrays and systems
DE102018214741A1 (de) * 2018-08-30 2020-03-05 Robert Bosch Gmbh Drehtellereinheit und Verfahren zur Herstellung
US10712434B2 (en) 2018-09-18 2020-07-14 Velodyne Lidar, Inc. Multi-channel LIDAR illumination driver
US10531075B1 (en) * 2018-09-27 2020-01-07 Honda Motor Co., Ltd. Synchronization controller unit for sensor node
JP7206855B2 (ja) * 2018-11-29 2023-01-18 株式会社リコー 三次元位置検出装置、三次元位置検出システム、及び三次元位置検出方法
EP3671261A1 (en) 2018-12-21 2020-06-24 Leica Geosystems AG 3d surveillance system comprising lidar and multispectral imaging for object classification
CN109752724A (zh) * 2018-12-26 2019-05-14 珠海市众创芯慧科技有限公司 一种图像激光一体式导航定位系统
CN109829421B (zh) * 2019-01-29 2020-09-08 西安邮电大学 车辆检测的方法、装置及计算机可读存储介质
US11227398B2 (en) * 2019-01-30 2022-01-18 Baidu Usa Llc RGB point clouds based map generation system for autonomous vehicles
CN112055805A (zh) 2019-01-30 2020-12-08 百度时代网络技术(北京)有限公司 用于自动驾驶车辆的点云登记系统
KR102265574B1 (ko) * 2019-02-13 2021-06-16 주식회사 스프링클라우드 자율주행 차량용 통합 센서 장치
EP3702802A1 (en) * 2019-03-01 2020-09-02 Aptiv Technologies Limited Method of multi-sensor data fusion
GB2582266B (en) * 2019-03-05 2022-11-30 Geoslam Ltd Three-dimensional dataset and two-dimensional image localisation
CN110082739B (zh) * 2019-03-20 2022-04-12 深圳市速腾聚创科技有限公司 数据同步方法和设备
JP2022533119A (ja) 2019-05-13 2022-07-21 アウスター インコーポレイテッド 電子走査lidarシステム用同期画像捕捉
US10732268B1 (en) * 2019-05-21 2020-08-04 Pony Ai Inc. Systems and methods for enclosure alignment
JP7356286B2 (ja) * 2019-06-26 2023-10-04 ダイキョーニシカワ株式会社 車両用距離センサの取付構造
US11222460B2 (en) * 2019-07-22 2022-01-11 Scale AI, Inc. Visualization techniques for data labeling
DE102019212021B4 (de) * 2019-08-09 2024-02-08 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Feststellen eines Parallaxenproblems in Sensordaten zweier Sensoren
US11556000B1 (en) 2019-08-22 2023-01-17 Red Creamery Llc Distally-actuated scanning mirror
JP2022546591A (ja) * 2019-09-06 2022-11-04 アウスター インコーポレイテッド Lidar画像の処理
CN111080519A (zh) * 2019-11-28 2020-04-28 常州新途软件有限公司 汽车全景环视图像融合方法
JPWO2021111747A1 (ja) * 2019-12-03 2021-06-10
US20210185214A1 (en) * 2019-12-13 2021-06-17 Sony Corporation Trans-spectral feature detection for volumetric image alignment and colorization
EP3842835A1 (en) * 2019-12-24 2021-06-30 Yandex Self Driving Group Llc Methods and systems for online synchronization of sensors of self-driving vehicles (sdv)
CN113378867B (zh) * 2020-02-25 2023-08-22 北京轻舟智航智能技术有限公司 一种异步数据融合的方法、装置、存储介质及电子设备
KR20210122457A (ko) * 2020-04-01 2021-10-12 주식회사 제이캐스트 스마트 공장의 작업 안전을 위한 전방위 무회전 라이다 기반 안전 시스템
US11695911B2 (en) 2020-04-27 2023-07-04 Ouster, Inc. Stereoscopic image capturing systems
CN115516738A (zh) 2020-05-11 2022-12-23 株式会社来德罗 无触点供电及数据通信装置和利用其的旋转驱动激光雷达系统
US11743564B2 (en) * 2020-10-22 2023-08-29 Uatc, Llc Sensor platform for autonomous vehicles
US11430224B2 (en) 2020-10-23 2022-08-30 Argo AI, LLC Systems and methods for camera-LiDAR fused object detection with segment filtering
US20220126873A1 (en) * 2020-10-23 2022-04-28 Argo AI, LLC Systems and methods for camera-lidar fused object detection with segment merging
US11885886B2 (en) 2020-10-23 2024-01-30 Ford Global Technologies, Llc Systems and methods for camera-LiDAR fused object detection with LiDAR-to-image detection matching
EP4264536A1 (en) * 2020-12-21 2023-10-25 Seesafe Innovation Srl Method for forming panoramic images and related apparatus
US11706507B2 (en) 2020-12-30 2023-07-18 Waymo Llc Systems, apparatus, and methods for generating enhanced images
CN112671499B (zh) * 2021-03-16 2022-04-01 深圳安途智行科技有限公司 多传感器同步方法及系统、以及主控制设备
KR102485816B1 (ko) * 2021-11-03 2023-01-09 아이티컨버젼스 주식회사 이미지 수집장치를 이용한 작물 생육 분석 시스템
DE102021006248A1 (de) 2021-12-17 2023-06-22 Automotive Research & Testing Center Objekterfassungsverfahren
WO2023174653A1 (en) * 2022-03-17 2023-09-21 Sony Semiconductor Solutions Corporation Hybrid image and event sensing with rolling shutter compensation
US20230402903A1 (en) * 2022-06-08 2023-12-14 Ferrari S.P.A. Electric actuator apparatus equipped with position detection system and related road vehicle
KR102540632B1 (ko) * 2022-10-27 2023-06-13 주식회사 모빌테크 색상 보정을 적용한 컬러맵 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
WO2024096853A1 (en) * 2022-10-31 2024-05-10 Google Llc Image capture system including a lidar device and cameras having a rolling shutter sensor

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004265396A (ja) 2003-02-13 2004-09-24 Vingo:Kk 映像生成システム及び映像生成方法
JP4355341B2 (ja) * 2003-05-29 2009-10-28 本田技研工業株式会社 深度データを用いたビジュアルトラッキング
AU2004298635B2 (en) * 2003-12-18 2008-02-28 1626628 Ontario Limited System, apparatus and method for mapping
SE527257C2 (sv) * 2004-06-21 2006-01-31 Totalfoersvarets Forskningsins Anordning och metod för att presentera en omvärldsbild
US8730322B2 (en) * 2004-07-30 2014-05-20 Eyesee360, Inc. Telepresence using panoramic imaging and directional sound and motion
US7701558B2 (en) 2006-09-22 2010-04-20 Leica Geosystems Ag LIDAR system
US20080112610A1 (en) * 2006-11-14 2008-05-15 S2, Inc. System and method for 3d model generation
JP5132164B2 (ja) * 2007-02-22 2013-01-30 富士通株式会社 背景画像作成装置
TWI358606B (en) 2007-12-28 2012-02-21 Ind Tech Res Inst Method for three-dimension (3d) measurement and an
US8774950B2 (en) * 2008-01-22 2014-07-08 Carnegie Mellon University Apparatuses, systems, and methods for apparatus operation and remote sensing
US8332134B2 (en) 2008-04-24 2012-12-11 GM Global Technology Operations LLC Three-dimensional LIDAR-based clear path detection
US9041915B2 (en) 2008-05-09 2015-05-26 Ball Aerospace & Technologies Corp. Systems and methods of scene and action capture using imaging system incorporating 3D LIDAR
US20100157280A1 (en) 2008-12-19 2010-06-24 Ambercore Software Inc. Method and system for aligning a line scan camera with a lidar scanner for real time data fusion in three dimensions
US8675181B2 (en) 2009-06-02 2014-03-18 Velodyne Acoustics, Inc. Color LiDAR scanner
CN102006402B (zh) 2009-08-28 2014-02-19 鸿富锦精密工业(深圳)有限公司 摄像装置及其身份识别方法
DE112009005382T5 (de) * 2009-11-18 2012-09-13 Industrial Technology Research Institute Verfahren zum Erzeugen von Tiefenkarten aus monokularen Bildern und Systeme, die dieses verwenden
NL2004996C2 (nl) 2010-06-29 2011-12-30 Cyclomedia Technology B V Werkwijze voor het vervaardigen van een digitale foto, waarbij ten minste een deel van de beeldelementen positieinformatie omvatten en een dergelijke digitale foto.
JP5770486B2 (ja) * 2011-02-21 2015-08-26 株式会社トプコン 全周画像計測装置
US9529426B2 (en) * 2012-02-08 2016-12-27 Microsoft Technology Licensing, Llc Head pose tracking using a depth camera
US10848731B2 (en) * 2012-02-24 2020-11-24 Matterport, Inc. Capturing and aligning panoramic image and depth data
US9195914B2 (en) 2012-09-05 2015-11-24 Google Inc. Construction zone sign detection
US9111444B2 (en) 2012-10-31 2015-08-18 Raytheon Company Video and lidar target detection and tracking system and method for segmenting moving targets
GB201303076D0 (en) 2013-02-21 2013-04-10 Isis Innovation Generation of 3D models of an environment
NL2010463C2 (nl) * 2013-03-15 2014-09-16 Cyclomedia Technology B V Werkwijze voor het genereren van een panoramabeeld.
WO2014154270A1 (en) * 2013-03-27 2014-10-02 Irdeto B.V. Tamper resistant cryptographic algorithm implementation
TWI547142B (zh) * 2013-04-02 2016-08-21 杜比實驗室特許公司 引導的3d顯示器適配
US9164511B1 (en) 2013-04-17 2015-10-20 Google Inc. Use of detected objects for image processing
US9563951B2 (en) * 2013-05-21 2017-02-07 Magna Electronics Inc. Vehicle vision system with targetless camera calibration
US20150002636A1 (en) 2013-06-28 2015-01-01 Cable Television Laboratories, Inc. Capturing Full Motion Live Events Using Spatially Distributed Depth Sensing Cameras
US10126412B2 (en) 2013-08-19 2018-11-13 Quanergy Systems, Inc. Optical phased array lidar system and method of using same
GB2520338A (en) 2013-11-19 2015-05-20 Nokia Corp Automatic scene parsing
US9684673B2 (en) * 2013-12-04 2017-06-20 Urthecast Corp. Systems and methods for processing and distributing earth observation images
KR101582572B1 (ko) 2013-12-24 2016-01-11 엘지전자 주식회사 차량 운전 보조 장치 및 이를 구비한 차량
US9098754B1 (en) 2014-04-25 2015-08-04 Google Inc. Methods and systems for object detection using laser point clouds
US9986154B2 (en) 2014-05-21 2018-05-29 Here Global B.V. Developing a panoramic image
US9754192B2 (en) 2014-06-30 2017-09-05 Microsoft Technology Licensing, Llc Object detection utilizing geometric information fused with image data
US9772405B2 (en) 2014-10-06 2017-09-26 The Boeing Company Backfilling clouds of 3D coordinates
US9369689B1 (en) 2015-02-24 2016-06-14 HypeVR Lidar stereo fusion live action 3D model video reconstruction for six degrees of freedom 360° volumetric virtual reality video
CN104836960B (zh) * 2015-05-29 2017-12-08 京东方科技集团股份有限公司 一种图像采集系统和图像采集方法
US9710714B2 (en) 2015-08-03 2017-07-18 Nokia Technologies Oy Fusion of RGB images and LiDAR data for lane classification
US9992477B2 (en) * 2015-09-24 2018-06-05 Ouster, Inc. Optical system for collecting distance information within a field
US9989406B2 (en) 2016-01-29 2018-06-05 Ouster, Inc. Systems and methods for calibrating an optical distance sensor
US9940696B2 (en) * 2016-03-24 2018-04-10 GM Global Technology Operations LLC Dynamic image adjustment to enhance off- axis viewing in a display assembly
US20180136314A1 (en) * 2016-11-15 2018-05-17 Wheego Electric Cars, Inc. Method and system for analyzing the distance to an object in an image
US10445928B2 (en) * 2017-02-11 2019-10-15 Vayavision Ltd. Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types
US10809380B2 (en) * 2017-05-15 2020-10-20 Ouster, Inc. Augmenting panoramic LIDAR results with color
CN107576960B (zh) 2017-09-04 2021-03-16 赵建辉 视觉雷达时空信息融合的目标检测方法及系统
US10523880B2 (en) 2017-09-28 2019-12-31 Waymo Llc Synchronized spinning LIDAR and rolling shutter camera system
CN113378867B (zh) * 2020-02-25 2023-08-22 北京轻舟智航智能技术有限公司 一种异步数据融合的方法、装置、存储介质及电子设备
US11695911B2 (en) * 2020-04-27 2023-07-04 Ouster, Inc. Stereoscopic image capturing systems

Also Published As

Publication number Publication date
JP7189156B2 (ja) 2022-12-13
US20210041570A1 (en) 2021-02-11
KR20200004840A (ko) 2020-01-14
WO2018213338A1 (en) 2018-11-22
US20180329066A1 (en) 2018-11-15
CN110832349A (zh) 2020-02-21
JP2020521955A (ja) 2020-07-27
EP3615961A4 (en) 2021-01-20
US10809380B2 (en) 2020-10-20
EP3615961A1 (en) 2020-03-04
CN110832349B (zh) 2023-10-10

Similar Documents

Publication Publication Date Title
JP7189156B2 (ja) 色によるパノラマlidar結果の増強
AU2021200905B2 (en) Synchronized spinning lidar and rolling shutter camera system
US20240146895A1 (en) Time-of-flight camera system
US20100134596A1 (en) Apparatus and method for capturing an area in 3d
CN112213730B (zh) 三维测距方法和装置
US10742881B1 (en) Combined temporal contrast sensing and line scanning
JP2017133931A (ja) 画像生成装置、ならびに距離画像およびカラー画像の生成方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221205

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231127

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240423