JP2023022237A - 色によるパノラマlidar結果の増強 - Google Patents
色によるパノラマlidar結果の増強 Download PDFInfo
- Publication number
- JP2023022237A JP2023022237A JP2022192760A JP2022192760A JP2023022237A JP 2023022237 A JP2023022237 A JP 2023022237A JP 2022192760 A JP2022192760 A JP 2022192760A JP 2022192760 A JP2022192760 A JP 2022192760A JP 2023022237 A JP2023022237 A JP 2023022237A
- Authority
- JP
- Japan
- Prior art keywords
- color
- lidar
- pixels
- pixel
- angular position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003190 augmentative effect Effects 0.000 title description 2
- 239000003086 colorant Substances 0.000 claims abstract description 3
- 230000003287 optical effect Effects 0.000 claims description 58
- 238000000034 method Methods 0.000 claims description 54
- 238000013507 mapping Methods 0.000 claims description 20
- 238000005259 measurement Methods 0.000 claims description 14
- 238000001514 detection method Methods 0.000 claims description 12
- 238000003491 array Methods 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 230000001960 triggered effect Effects 0.000 abstract description 22
- 230000000875 corresponding effect Effects 0.000 description 50
- 239000000758 substrate Substances 0.000 description 18
- 239000000872 buffer Substances 0.000 description 12
- 230000000712 assembly Effects 0.000 description 11
- 238000000429 assembly Methods 0.000 description 11
- 230000005540 biological transmission Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 238000004040 coloring Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 230000002123 temporal effect Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000033001 locomotion Effects 0.000 description 7
- 238000003860 storage Methods 0.000 description 7
- 230000001360 synchronised effect Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 230000001939 inductive effect Effects 0.000 description 6
- 230000008878 coupling Effects 0.000 description 5
- 238000010168 coupling process Methods 0.000 description 5
- 238000005859 coupling reaction Methods 0.000 description 5
- 230000002708 enhancing effect Effects 0.000 description 5
- 238000012805 post-processing Methods 0.000 description 5
- 238000005096 rolling process Methods 0.000 description 5
- 229910000859 α-Fe Inorganic materials 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 229910000530 Gallium indium arsenide Inorganic materials 0.000 description 2
- KXNLCSXBJCPWGL-UHFFFAOYSA-N [Ga].[As].[In] Chemical compound [Ga].[As].[In] KXNLCSXBJCPWGL-UHFFFAOYSA-N 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 238000002955 isolation Methods 0.000 description 2
- 239000000696 magnetic material Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000005476 soldering Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 235000001008 Leptadenia hastata Nutrition 0.000 description 1
- 244000074209 Leptadenia hastata Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000011143 downstream manufacturing Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000001976 improved effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000002991 molded plastic Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 235000012771 pancakes Nutrition 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000010223 real-time analysis Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000004804 winding Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4811—Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
- G01S7/4813—Housing arrangements
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/51—Display arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/73—Circuitry for compensating brightness variation in the scene by influencing the exposure time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
Description
本出願は、2017年5月15日に出願された「Systems and Method for Augmenting 360° Panoramic LIDAR results with Color」と題する米国仮特許出願第62/506,460号に対する優先権を主張し、その内容全体は、あらゆる目的のためにそれらの全体が参照により本明細書に援用される。
図1は、いくつかの実施形態による、自動車用途の状況における360度パノラマカラーLIDARシステム(PCLS)100を示す。PCLSの自動車用途は、ここでは単に例解のために選択したものであり、本明細書に記載のセンサは、例えば、ボート、航空機、列車などの他のタイプの車両において、ならびに医用撮像、測地学、ジオマティクス、考古学、地理学、地質学、地形学、地震学、林業、大気物理学、レーザ誘導、空中レーザスワスマッピング(ALSM)、レーザ高度計などの、LIDAR画像が有用な様々な他の用途において採用され得る。いくつかの実施形態によれば、PCLS100は、図1に示すように車両105の屋根に取り付けることができる。
図2Aは、図1を参照して上述したPCLS100と同様の、特定の実施形態によるPCLS250を示す斜視図である。PCLS250は、スキャンLIDARシステム210を保護するための、光学的に透明な窓260及び蓋270から形成されたエンクロージャを含む。いくつかの実施形態では、システムコントローラ280、及びカメラ220を含むカラーカメラアレイもハウジング内に存在することができる。カラーカメラのアレイは、ベース240の周囲に位置付けることができ、ベース自体は、各カメラがベース240から出る透明な光路を有するように開口部のアレイを含むことができる。いくつかの実施形態では、開口部は、中身のない貫通孔であってもよく、または各カラーカメラの撮像を支援するための1または複数の光学素子を含んでもよい。
一実施形態では、カラーカメラ220は、通常、ローリングシャッタを有する低コストのCMOSセンサであり得る。ローリングシャッタセンサは、一度に1または複数のピクセル列のデータを生成する。グローバルシャッタを有するカメラも使用することができる。いずれの場合でも、PCLS250は、カラーカメラ220の配向及びLIDARシステム210の回転方向を調整して、同じ円方向のピクセルデータを取得することができる。PCLS250はまた、カラーカメラシャッタを制御することができるため、カラーピクセルの取得は、LIDARピクセルの捕捉と同期する(つまり、対応するLIDARピクセルが決定された角度位置の近く及びその位置において捕捉されており、トリガされた画像のカラーピクセルが時間的に近接して位置合わせされるように、時間的に同期する)。他の実施形態は、異なるタイプのカラーカメラを使用してもよい。例えば、PCLSはより高価なCCDカメラを使用することができ、それは通常、画像全体を同時に捕捉する。カラーカメラ220は、RGB、YUV、及びCMYKを含む任意のフォーマットで色情報を提供することができる。一実施形態では、ベース240は成形プラスチックの機械的ハウジングであるが、他の実施形態は、金属または他の材料を使用してもよい。
図3は、特定の実施形態による、スキャンLIDARシステムとカラーカメラシャッタとの間の回転同期の概念を更に詳しく説明するための、PCLS300のブロック図を例解する。回転同期とは、カラーカメラ取得とスキャンLIDAR取得を同期するプロセスを指す。いくつかの実施形態では、後処理でタイムスタンプを使用することなく、例えば、スキャンLIDARシステムの角度位置に基づいて1または複数のカラーカメラ取得をトリガすることにより、同期を達成することができる。
図4は、特定の実施形態による、回転同期プロセスを例解することを目的として、カラーカメラの視野のセットと位置合わせされたパノラマLIDAR画像403を例解する。図4は、特定の実施形態による、システムコントローラが、ロータリエンコーダによって生成された角度位置信号に基づいて、PCLSシステムのカラーカメラのセットからカラー画像405、407、及び409の一連の取得を、どのようにトリガすることができるかを例解する。より具体的には、図4は、図2Bに示されるのと同様の方法でベースの周囲に周方向に配置された3つのカラーカメラを有するPCLSについて、取得されたカラー画像405、407、及び409と重複する全360度パノラマLIDAR画像403を示す。この例では、各カラーカメラは約120度の視野を有している。
上記で説明したように、1または複数のカラーピクセルは、1つのLIDARピクセルに対応することができる。ルックアップテーブルは、かかるマッピングを特定するためのキャリブレーション手順を介して決定されてもよい。
図5は、ピクセルごとのレベルでの、LIDARピクセルとカラーピクセルとの間の対応を例解する。有利なことに、いくつかの実施形態では、カメラの取得は、LIDARシステムの角度位置に基づいて(システムクロックなどを使用するのではなく)、トリガすることができるため、LIDAR画像全体内の各カラー取得の相対位置が固定されており、それにより、キャリブレーション手順を介して、LIDARとカラーピクセルとの間の単一マッピングを工場で決定することが可能になる。このマッピングをPCLSのシステムメモリに記憶することができ、その後、システムが、対応するLIDARピクセルにマップする各カラーピクセルを認識することができるように、ルックアップテーブルとして使用することができる。
図6Aは、1または複数の実施形態に従って、視差に起因するLIDARとカラー画像との間の相違を例解する。より具体的には、図6Aは、近点オブジェクト694及び遠点オブジェクト692の両方を撮像するLIDARシステム610及びカラーカメラ620を示す。視差効果を更に例解するために、図6Bは、LIDARシステム610から取得される画像の例を示し、図6Cは、カラーカメラ620から取得される画像の例を示す。図6B及び図6Cにおいて、近点オブジェクトは木の上部に対応し、遠点オブジェクトは家の上部に対応する。
LIDARピクセルが所与の角度位置で取得された後、LIDARピクセルのセンサアレイ内の所与の角度位置及び場所に関する情報(例えば、実際の角度値、角度エンコーディング位置、または角度/エンコーディング位置によって並べられたバッファ内のメモリ位置)を使用して、所与の角度位置及びセンサ位置に割り当てられた対応するカラーピクセル(複数可)の座標(複数可)を提供するルックアップテーブルにアクセスすることができる。本明細書で説明するように、かかるテーブルは、例えば、異なるカメラ用の異なるテーブル、すべてのカメラ用の1つのテーブル、及び深度の関数によって定義することができる異なる深度用の異なるテーブルなど、様々な方法で構成することができる。
図7は、特定の実施形態による、深度依存ピクセル対応のためのルックアップテーブルの使用を更に例解するためのPCLS710のブロック図を示す。PCLS710は、ユーザインターフェースハードウェア715と相互作用することができる。ユーザインターフェースハードウェア715は、a)モニタ、キーボード、マウス、CPU及びメモリを有するコンピュータシステム、b)自動車のタッチスクリーン、及びc)タッチスクリーン付きのハンドヘルドデバイスを含む多くの形態をとることができる。ユーザインターフェースは、ユーザが、a)PCLSをアクティブにするまたは非アクティブにすること、b)カメラの明るさ、コントラスト、彩度、色相、その他の操作パラメーターを指定すること、c)LIDARピクセルとカラーピクセルとの間の対応を定義するカラーピクセルルックアップテーブルをセットアップすること、及びd)結果を表示するための方法を選択すること、を含め、1または複数のユーザコマンドを介してPCLSを制御することを可能にすることができる。ユーザインターフェースは、a)検出されたオブジェクトの経時的な3次元カラーマップ、及び、b)特定のオブジェクトの特定のビューの特定の時間における距離値を含み得る、PCLS結果を表示することができる。
(1)パノラマLIDAR画像内の各LIDARピクセルについてのエントリと最も近いカラーピクセル座標のリスト。カラーピクセル座標は、特定のカラーカメラのカラー画像、及びそのカラーカメラの画像内のカラーピクセル場所(複数可)を特定することができ、これは、単一のテーブル、または異なるカメラの別個のテーブルで行うことができる。かかる形式では、表示オブジェクトまでの距離を無視することができる。
(2)ルックアップテーブルは、異なる距離のセット(例えば、近距離、中距離、及び遠距離、または数値範囲などのより多くの分類)のサブテーブルを含むことができる。測定距離がサブテーブルに対応する範囲内にあることに基づき、特定のサブテーブルが特定されると、LIDARピクセル座標(例えば、アレイ内の角度位置及びセンサ位置)を使用してサブテーブルにアクセスし、対応するカラー画像のカラーピクセル座標(複数可)を得ることができる。このように、ルックアップテーブルは、テーブル内のフィールドとして、ピクセルID(LIDARセンサのアレイの識別子など)、エンコーダ値(角度位置など)、及び深度値を有し、多次元であり得る。
(3).各プロパティ値エントリ(LIDARピクセル座標に対応)がプロパティフィールド及び対応する値フィールドを有する、プロパティ値エントリのリスト。各プロパティフィールドは、表示オブジェクト距離の異なる範囲(例えば、0~1m、1m~5m、5m~20m、及び20~100mなどの深度値の範囲)のLIDARピクセルに対応するカラーピクセル座標(複数可)を指定する。各値フィールドは、プロパティフィールドに基づいて対応するカラーピクセル場所(複数可)を計算するための式を定義する。式は、異なるカラーピクセルのブレンドを選択可能にするカーブフィット関数として機能することができ、例えば、異なる深度について異なるブレンドウェイトを異なるカラーピクセルに割り当てることができる。かかるウェイトは、所与のLIDARピクセルに対して測定された測定距離に基づいて割り当てることができる。例えば、測定距離は、2つの深度範囲との間の境界近くであることができ(例えば、上記の例では、5mが2つの深度範囲の境界である)、ブレンドウェイトは、2つの深度範囲に対して特定されたカラーピクセル(複数可)の2つのセットについて、約0.5であり得る。各エントリの式は、表示オブジェクト距離の範囲を使用して、視差エラーを補正することができる。
図8は、360度パノラマビューのLIDARシステムを色で増強するための方法800を示すフローチャートを例解する。方法800を使用して、特定の実施形態による、記憶されたカラーピクセルルックアップテーブルを使用して、取得された各LIDARピクセルについて色情報を決定することができる。PCLSは、前もってキャリブレーションすることができ、したがって、LIDARピクセルをカラーピクセルにマッピングするためのルックアップテーブルを記憶することができる。
一般に、PCLSは、本開示の範囲から逸脱することなく、任意のタイプのスキャンLIDARを採用することができる。例えば、LIDARは、図3を参照して上述したように、ベースの周りに周方向に配置されたカラーカメラのアレイを含むことができるベースユニットに回転可能に連結された上部ハウジング内に位置するレーザエミッタ及びフォトダイオード検出器のペア(例えば、32ペア、64ペア、128ペアなど)を含むことができる。いくつかの実施形態では、各エミッタ及び検出器は、独自の別個の基板に取り付けることができ、エミッタ基板及び検出器基板は2つの別個のアセンブリに取り付けられている。別個のアセンブリを、水平に対して異なる角度で上部ハウジング内に位置付けられ、異なる垂直視野を提供することができる。いくつかの実施形態では、ベースは、電気モータ上部ハウジングを可能にする回転カップリングに接続されたモータを含むことができ、それにより、LIDARシステムが全360度の水平視野を捕捉することができるようになる。
1.統合された中心光ダウンリンク
いくつかの実施形態では、中空シャフト1003は、基板アセンブリの各々を支持する中心構造部材として機能することができるだけでなく、データ、例えば、測距及び/または動作データを、タレットアセンブリから、下部回路基板アセンブリ1017(ベースシステムとも称される)に位置する制御及び処理回路に提供するためのダウンリンク光通信チャネル(「ダウンリンクチャネル」)のハウジングとしても機能する。光ダウンリンクチャネルは、光ダウンリンクトランスミッタ1019及び光ダウンリンクレシーバ1021を含むことができる。光ダウンリンクトランスミッタ1019は、上部回路基板アセンブリ1007の回路基板の表面に直接はんだ付けなどで取り付けることができ、中空シャフト1003の中心孔または開口部を通して光を送信することができるように位置付けることができる。同様に、光ダウンリンクレシーバ1021は、下部回路基板アセンブリ1017の回路基板の表面に直接はんだ付けなどで取り付けることができる。光ダウンリンクレシーバ1021は、光ダウンリンクトランスミッタ1019から送信される光を検出することができるように、シャフトの下端に位置付け、光ダウンリンクトランスミッタ1019と位置合わせすることができる。
光アップリンクチャネルは、光アップリンクトランスミッタ1023の周方向配列と光アップリンクレシーバ1025の相補的な周方向配列との間に形成される。有利には、中空シャフト1003の壁は、アップリンクチャネルとダウンリンクチャネルとの間の光分離を提供し、したがって、クロストークを最小限に抑える。周方向配列の個々のエミッタ及びレシーバは、単一の複合レシーバ及び単一の複合トランスミッタとしてともに機能するように一緒に配線される。例えば、システムが全体の光強度を上げて回転すると、個々のエミッタ/検出器が互いに通過するときに、光アップリンクレシーバの全配列によって検出されるアップリンク信号は、わずかにしか変化しない。更に、個々のトランスミッタの数は、個々のレシーバの数と同じでもまたは異なってもよい。
図10Cは、上部回路基板アセンブリと下部回路基板アセンブリとの間の誘導通信システムを採用する実施形態を示す。この例では、データのアップリンクとダウンリンクは、図のように、下部回路基板アセンブリと上部回路基板アセンブリにそれぞれ取り付けられたコイルのペア1061a~e及び1063a~eによって提供される。コイルは、データライン及びクロックラインの両方を含むことができる。各コイルは、それぞれの回路基板の表面に取り付けられたそれら自体である上部コイルハウジング1061及び下部コイルハウジング1063などのハウジングの別のチャネル、例えば円形チャネル内に埋め込むことができる。いくつかの実施形態では、複数の誘導データ線に使用されるいくつかのコイル、例えば、ダウンリンクチャネル1トランスミッタコイル1061b及びダウンリンクチャネル1レシーバコイル1063b、ダウンリンクチャネル2トランスミッタコイル1061c、ならびにダウンリンクチャネル2レシーバコイル1063cがあり得る。いくつかの実施形態において、ダウンリンククロック信号は、別のコイルペア、例えば、ダウンリンククロック送信コイル1061a及びダウンリンククロックレシーバコイル1063aを介して送信され得る。同様に、データアップリンクチャネルは、1または複数のペアのコイルから、例えばアップリンクトランスミッタコイル1063d及びアップリンクレシーバコイル1061dにより、形成することができる。ダウンリンクと同様に、データアップリンククロック信号は、一ペアのコイル、例えば、アップリンククロックトランスミッタコイル1063e及びアップリンククロックレシーバコイル1061eから形成される、専用チャネルを有することもできる。
特定の実施形態によれば、回転アクチュエータ用の電動モータは、対向するステータ基板上の平面ステータアセンブリに対向するロータ基板上の平面ロータアセンブリを有する「パンケーキ」または「アキシャル」設計のものである。電気モータのステータ及びロータアセンブリはまた、回転アクチュエータ1006の基板に統合されている、つまり、電気モータの要素は、プリント回路基板の表面上の多くのコンポーネントの1つであり、したがって、別のモータモジュールはLIDARシステムには必要ではない。例えば、モータステータアセンブリ1027は、ステータ要素、例えば、接着剤を使用して、下部回路基板アセンブリ1017の基板に貼り付けられる、または軟磁性コアに貼り付けられ、次いで、下部回路基板アセンブリ1017に貼り付けられる、垂直に配向されたソレノイド(基板の表面に垂直な長手方向軸を有する)の円形配列を含むことができる。ソレノイド巻線の例は、図10Dの平面図に示される。各ソレノイドコイルは、磁性材料、例えばフェライトなどのコアの周りに巻かれることができる。コイルは、ソレノイドを出る磁場が回路基板の平面に実質的に垂直である方向に実質的に配向されるように配向される。
回転する上部回路基板アセンブリ1007に接続された回路素子に電力を提供するために、回転アクチュエータ1006は、本明細書で回転変圧器とも称される無線電力システムを含み、無線電力トランスミッタ1035を含む無線電力送信サブシステム及び無線電力レシーバ1037を含む無線電力受信サブシステムを含む。無線電力トランスミッタ1035は、円形ループアンテナ形状のトランスミッタコイル、すなわち、シングルターンまたはマルチターンコイルであり得、例えば、図10Dに示すように、下部回路基板アセンブリ1017の回路基板の表面に取り付けられている。同様に、無線電力レシーバ1037は、円形ループアンテナ形状のレシーバコイル、すなわち、シングルターンまたはマルチターンコイルであり得、例えば、図10Eに示すように、上部回路基板アセンブリ1017の回路基板の表面に取り付けられている。無線電力トランスミッタ1035及び無線電力レシーバ1037の両方の中心は、中空シャフト1003の中心に位置付けられ、したがって、光学エンコーダリング、電気モータアセンブリ、及び光学アップリンクレシーバ/トランスミッタと同心である。
回転アクチュエータ1006は、下部回路基板アセンブリ1017に対する上部回路基板アセンブリ1007の角度位置の読み出しを可能にする、統合された光学エンコーダアセンブリを更に含む。光学エンコーダアセンブリは、パターン化された環状光学エンコーダ1031、及び、例えば、システムが回転するときにロータリエンコーダ検出器1031を通過するパターンの数を検出及びカウントすることによりアセンブリの角度位置を読み取るためのロータリエンコーダ検出器1033を含む。特定の実施形態では、ロータリエンコーダ検出器1033は、LEDなどの照明デバイス、ならびに、環状光学エンコーダのパターン化された表面を照射及び検出するためのフォトダイオードまたは撮像検出器などの検出器を含むことができる。いくつかの実施形態では、環状光学エンコーダは、円環上の一意の位置で発生する開始コードを含むことができ、または絶対エンコーディングパターンを提供し、それにより絶対角度配向測定を可能にする。いくつかの実施形態では、エンコーダシステムは、本質的に光学的ではなく磁気的であり、同様に位置付けられた磁気エンコーダストリップ及び磁気エンコーダリーダに依存する。
LIDARシステムの角度位置を使用してカラー画像をトリガすることに加えて、いくつかの実施形態は、共通の内部クロックを使用して、プロセッサにストリームするときに各LIDARピクセル及び各カメラピクセルにタイムスタンプし、それにより、データは共通のタイムベース上にあり、厳密な時間的相関関係が得られる。LIDARピクセルが色付けのために受信されると、その捕捉時間を使用して、時間的に近くにある、例えば、最も近い時間内または指定された時間しきい値内にある、カラーピクセル(複数可)を選択することができる。例えば、選択は、ルックアップテーブルを使用してカラーピクセルの座標を特定することができ、これらの座標(複数可)をLIDARピクセルのタイムスタンプとともに使用して、LIDARピクセルのタイムスタンプに対し所望の時間を有するこれらの座標(複数可)において特定のピクセル値(複数可)を選択することができる。異なる時間におけるカラーピクセルのブレンドを実行することもできる。
本明細書で言及されるコンピュータシステムまたは回路のいずれも、任意の好適な数のサブシステムを利用し得る。サブシステムは、システムバスを介して接続することができる。例として、サブシステムは、コンピュータシステムを他のデバイス(例えば、エンジン制御まで)に接続するために使用されることができる、入力/出力(I/O)デバイス、システムメモリ、記憶デバイス(複数可)、及びネットワークアダプタ(複数可)(例えば、Ethernet、Wi-Fiなど)を含むことができる。システムメモリ及び/または記憶デバイス(複数可)は、コンピュータ可読媒体を統合することができる。
Claims (20)
- パノラマカラー光検出及び測距(LIDAR)システムであって、
固定ベースと、
前記固定ベースに回転可能に連結されており、光を送信する工程と反射光を検出する工程とにより複数の測距測定を実行して、視野角内に分布する複数のLIDARピクセルを含むLIDAR画像を取得するように構成されているLIDARシステムと、
前記固定ベースに固定的に連結され、前記LIDARシステムの周囲に周方向に配置された複数のカラーカメラであって、各カメラは前記視野角の一部分であるそれぞれのカメラ視野を有し、当該複数のカラーカメラは複数のカラーピクセルを含む複数のカラー画像を取得するように構成されている、複数のカラーカメラと、
前記複数のLIDARピクセルと前記複数のカラーピクセルとの間のマッピングを定義するカラーピクセルルックアップテーブルを記憶するメモリと、
前記メモリに動作可能に連結されたコントローラであって、
それぞれのカメラ視野に対する前記LIDARシステムの決定された角度位置に基づいて、前記複数のカラー画像の各々の画像捕捉をトリガして、前記LIDARピクセルの一部分の捕捉を前記複数のカラーカメラのそれぞれのカメラのカラーピクセルの捕捉と同期させる工程と、
前記メモリに記憶された前記カラーピクセルルックアップテーブルを使用して、前記複数のカラーピクセルのうちの少なくとも1つを前記複数のLIDARピクセルのうちの対応するLIDARピクセルに関連付け、それによって色付けされたLIDARピクセルを生成する工程と、
を行うように構成されている、コントローラと、
を備えたことを特徴とするシステム。 - 前記固定ベース上の固定基準点に対する前記LIDARシステムのポインティング方向に対応する角度位置信号を出力するように構成されているロータリエンコーダ
を更に備え、
前記コントローラは、前記角度位置信号を受信するように、かつ、前記角度位置信号が前記角度位置が前記複数のカラーカメラのうちの1つに関連付けられた前記角度位置信号の指定値に等しいことを示す場合に、前記画像捕捉をトリガするように、構成されている
ことを特徴とする請求項1に記載のパノラマカラーLIDARシステム。 - 前記コントローラは、
前記LIDARシステムの回転中に、前記LIDARシステムの角度位置を複数回決定する工程と、
前記決定された角度位置を、各々が前記複数のカラーカメラの対応するカメラのトリガ角度位置に対応する複数の指定値と比較する工程と、
前記決定された角度位置が前記対応するカメラの前記トリガ角度位置と一致する場合、前記対応するカメラにコマンドを送信してカラー画像を取得し、それによって前記複数のカラーピクセルを含む前記複数のカラー画像を得る工程と、
前記複数のカラーピクセルのうちの1または複数を、前記決定された角度位置の各々において、LIDARピクセルアレイの各々に関連付ける工程と、
を行うように構成されている
ことを特徴とする請求項1に記載のパノラマカラーLIDARシステム。 - 前記カラーピクセルルックアップテーブルは、前記LIDARピクセルと前記カラーピクセルとの間のマッピングのための深度値を含み、
前記コントローラは、
対応するLIDARピクセルの測定された深度値を使用して、前記カラーピクセルルックアップテーブルにアクセスする工程と、
対応するLIDARピクセルの測定された深度値に対して記憶された1または複数のカラーピクセルを使用して、前記複数のカラーピクセルのうちの少なくとも1つを、前記複数のLIDARピクセルのうちの対応するLIDARピクセルに関連付ける工程と、
を行うように構成されている
ことを特徴とする請求項1に記載のパノラマカラーLIDARシステム。 - 前記カラーピクセルルックアップテーブルは、各々が対応する深度値に関連付けられた複数のサブテーブルを含み、
前記コントローラは、特定の深度値を有する特定のLIDARピクセルをマッピングするために前記複数のサブテーブルのうちの1つを選択するように構成されている
ことを特徴とする請求項4に記載のパノラマカラーLIDARシステム。 - 前記サブテーブルの各々は、深度値の範囲と関連付けられ、
前記LIDARピクセルと前記カラーピクセルとの間の前記マッピングは、前記サブテーブル間で異なる
ことを特徴とする請求項5に記載のパノラマカラーLIDARシステム。 - 前記カラーピクセルルックアップテーブルに従って、前記コントローラは、
カラー画像の解像度が前記LIDAR画像の関連部分と一致するように、当該カラー画像をフィルタリングまたはダウンサンプリングする工程と、
LIDARピクセル視野(FOV)との重複が最も多い視野(FOV)を有する前記フィルタリングまたはダウンサンプリングされたカラー画像内で、1つのピクセルの色を選択する工程と、
を行うために使用するように構成されている
ことを特徴とする請求項1に記載のパノラマカラーLIDARシステム。 - 前記カラーピクセルルックアップテーブルは、プロパティ値エントリのリストを含み、
各プロパティ値エントリは、プロパティフィールド及び対応する値フィールドを有し、
前記プロパティフィールドは、LIDARピクセルのセット及び深度値の範囲を定義し、
各値フィールドは、前記対応するLIDARピクセルに関連付けられる前記複数のカラーピクセルのうちの前記少なくとも1つを特定するための式を定義する
ことを特徴とする請求項1に記載のパノラマカラーLIDARシステム。 - 前記コントローラは、
前記複数のカラー画像のうちの対応するカラー画像が取得されるまで、前記複数のLIDARピクセルのグループを前記メモリに記憶する工程と、
前記対応するカラー画像が取得されることに応答して、前記複数のカラーピクセルのうちの1または複数を、前記複数のLIDARピクセルの前記グループの各々に関連付ける工程と、
を行うように構成されている
ことを特徴とする請求項1に記載のパノラマカラーLIDARシステム。 - 前記カラーピクセルルックアップテーブルは、各回転について360度の角度位置によってインデックス付けされており、
前記カラーピクセルルックアップテーブルの各エントリは、ピクセルアレイ内の特定の角度位置及び特定のセンサに対するそれぞれのカラー画像の1または複数のカラーピクセルを特定する
ことを特徴とする請求項1に記載のパノラマカラーLIDARシステム。 - 回転する光測距及び検出(LIDAR)システムの第1の角度位置を決定する工程と、
前記LIDARシステムにより、前記第1の角度位置で第1のLIDARピクセルを取得する工程と、
前記LIDARシステムのメモリに前記第1のLIDARピクセルを記憶する工程と、
前記第1の角度位置が第1のカラーカメラと関連付けられた第1の指定値に等しいことを決定する工程であって、前記第1の指定値は、前記第1のLIDARピクセルが前記第1のカラーカメラの視野角内にあるように設定されている、という工程と、
前記第1の角度位置が前記第1の指定値に等しいと決定した結果、前記第1のカラーカメラに第1のカラー画像を取得させる工程であって、前記第1のカラー画像は、カラーピクセルのセットを含む、という工程と、
メモリに前記第1のカラー画像を記憶する工程と、
前記LIDARシステムのプロセッサによって、前記第1のLIDARピクセルに、前記メモリに記憶されたカラーピクセルルックアップテーブルを使用して前記カラーピクセルのセットの少なくとも1つのカラーピクセルから少なくとも1つのカラー値を割り当てることにより、第1の色付けされたLIDARピクセルを生成する工程であって、前記カラーピクセルルックアップテーブルは、複数のLIDARピクセルと前記カラーピクセルのセットとの間のマッピングを定義する、という工程と、
を備えたことを特徴とする方法。 - 前記第1の角度位置を決定する工程は、前記第1の角度位置に対応する第1の特徴をエンコーダレシーバによって検出する工程を含む
ことを特徴とする請求項11に記載の方法。 - 前記LIDARシステムの回転中に、前記LIDARシステムの角度位置を複数回決定する工程と、
前記決定された角度位置を、各々が前記複数のカラーカメラの対応するカメラのトリガ角度位置に対応する複数の指定値と比較する工程と、
前記決定された角度位置が前記対応するカメラの前記トリガ角度位置と一致する場合、前記対応するカメラにコマンドを送信してカラー画像を取得し、それによって前記複数のカラーピクセルを含む前記複数のカラー画像を得る工程と、
前記複数のカラーピクセルのうちの1または複数を、前記決定された角度位置の各々において、LIDARピクセルアレイの各々に関連付ける工程と、
を更に備えたことを特徴とする請求項11に記載の方法。 - 前記複数のカラー画像のうちの対応するカラー画像が取得されるまで、前記複数のLIDARピクセルのグループを前記メモリに記憶する工程と、
前記対応するカラー画像が取得されることに応答して、前記複数のカラーピクセルのうちの1または複数を、前記複数のLIDARピクセルの前記グループの各々に関連付ける工程と、
を更に備えたことを特徴とする請求項13に記載の方法。 - 前記カラーピクセルルックアップテーブルは、前記LIDARピクセルと前記カラーピクセルとの間のマッピングのための深度値を含み、
当該方法は、
前記第1のLIDARピクセルの第1の深度値を決定する工程と、
前記カラーピクセルルックアップテーブルを使用して、前記カラーピクセルのセットの前記少なくとも1つのカラーピクセルから前記少なくとも1つのカラー値を割り当てるために、前記第1の深度値を使用する工程と、
を更に備えたことを特徴とする請求項11に記載の方法。 - 前記カラーピクセルルックアップテーブルは、各々が対応する深度値に関連付けられた複数のサブテーブルを含み、
当該方法は、前記第1の深度値を有する前記第1のLIDARピクセルをマッピングするために、前記複数のサブテーブルのうちの1つを選択する工程を更に含む
ことを特徴とする請求項15に記載の方法。 - 前記第1のカラー画像の解像度がLIDARピクセルのLIDAR画像の関連部分と一致するように、前記第1のカラー画像をフィルタリングまたはダウンサンプリングする工程
を更に備え、
前記第1の色付けされたLIDARピクセルは、前記第1のLIDARピクセルの視野(FOV)との重複が最も多い視野(FOV)を有する前記フィルタリングまたはダウンサンプリングされたカラー画像内のカラーピクセルの色を使用して生成される
ことを特徴とする請求項11に記載の方法。 - 前記カラーピクセルルックアップテーブルは、プロパティ値エントリのリストを含み、
各プロパティ値エントリは、プロパティフィールド及び対応する値フィールドを有し、
前記プロパティフィールドは、LIDARピクセルのセット及び深度値の範囲を定義し、
各値フィールドは、前記第1のLIDARピクセルに関連付けられる前記少なくとも1つのカラーピクセルを特定するための式を定義する
ことを特徴とする請求項11に記載の方法。 - 前記LIDARシステムにより、第2の角度位置で第2のLIDARピクセルを取得する工程と、
前記LIDARシステムのプロセッサにより、前記第2のLIDARピクセルに、前記メモリに記憶された前記カラーピクセルルックアップテーブルを使用して前記カラーピクセルのセットの1または複数の他のピクセルから1または複数のカラー値を割り当てることにより、第2の色付けされたLIDARピクセルを生成する工程であって、前記第1のカラー画像は前記第2のLIDARピクセルが取得される前に取得される、という工程と、
を更に備えたことを特徴とする請求項11に記載の方法。 - 前記カラーピクセルルックアップテーブルは、各回転について360度の角度位置によってインデックス付けされており、
前記カラーピクセルルックアップテーブルの各エントリは、ピクセルアレイ内の特定の角度位置及び特定のセンサに対するそれぞれのカラー画像の1または複数のカラーピクセルを特定する
ことを特徴とする請求項11に記載の方法。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762506460P | 2017-05-15 | 2017-05-15 | |
US62/506,460 | 2017-05-15 | ||
JP2019563212A JP7189156B2 (ja) | 2017-05-15 | 2018-05-15 | 色によるパノラマlidar結果の増強 |
PCT/US2018/032811 WO2018213338A1 (en) | 2017-05-15 | 2018-05-15 | Augmenting panoramic lidar results with color |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019563212A Division JP7189156B2 (ja) | 2017-05-15 | 2018-05-15 | 色によるパノラマlidar結果の増強 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023022237A true JP2023022237A (ja) | 2023-02-14 |
Family
ID=64097862
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019563212A Active JP7189156B2 (ja) | 2017-05-15 | 2018-05-15 | 色によるパノラマlidar結果の増強 |
JP2022192760A Pending JP2023022237A (ja) | 2017-05-15 | 2022-12-01 | 色によるパノラマlidar結果の増強 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019563212A Active JP7189156B2 (ja) | 2017-05-15 | 2018-05-15 | 色によるパノラマlidar結果の増強 |
Country Status (6)
Country | Link |
---|---|
US (2) | US10809380B2 (ja) |
EP (1) | EP3615961A4 (ja) |
JP (2) | JP7189156B2 (ja) |
KR (1) | KR20200004840A (ja) |
CN (1) | CN110832349B (ja) |
WO (1) | WO2018213338A1 (ja) |
Families Citing this family (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11067385B2 (en) * | 2012-01-04 | 2021-07-20 | Chris Olexa | Laser centering tool |
US9992477B2 (en) | 2015-09-24 | 2018-06-05 | Ouster, Inc. | Optical system for collecting distance information within a field |
RU2728836C2 (ru) | 2016-10-28 | 2020-07-31 | Ппг Индастриз Огайо, Инк. | Покрытия для увеличения расстояния обнаружения до объекта, обнаруживаемого с помощью электромагнитного излучения ближнего инфракрасного диапазона |
DE102017101945A1 (de) * | 2017-02-01 | 2018-08-02 | Osram Opto Semiconductors Gmbh | Messanordnung mit einem optischen Sender und einem optischen Empfänger |
JP7290571B2 (ja) | 2017-03-31 | 2023-06-13 | ベロダイン ライダー ユーエスエー,インコーポレイテッド | 統合化されたlidar照明出力制御 |
US10809380B2 (en) * | 2017-05-15 | 2020-10-20 | Ouster, Inc. | Augmenting panoramic LIDAR results with color |
US10861359B2 (en) * | 2017-05-16 | 2020-12-08 | Texas Instruments Incorporated | Surround-view with seamless transition to 3D view system and method |
US10474161B2 (en) * | 2017-07-03 | 2019-11-12 | Baidu Usa Llc | High resolution 3D point clouds generation from upsampled low resolution lidar 3D point clouds and camera images |
US10474160B2 (en) * | 2017-07-03 | 2019-11-12 | Baidu Usa Llc | High resolution 3D point clouds generation from downsampled low resolution LIDAR 3D point clouds and camera images |
EP3438776B1 (en) * | 2017-08-04 | 2022-09-07 | Bayerische Motoren Werke Aktiengesellschaft | Method, apparatus and computer program for a vehicle |
US10523880B2 (en) * | 2017-09-28 | 2019-12-31 | Waymo Llc | Synchronized spinning LIDAR and rolling shutter camera system |
US10785400B2 (en) | 2017-10-09 | 2020-09-22 | Stmicroelectronics (Research & Development) Limited | Multiple fields of view time of flight sensor |
US10481269B2 (en) * | 2017-12-07 | 2019-11-19 | Ouster, Inc. | Rotating compact light ranging system |
JP2020003256A (ja) * | 2018-06-26 | 2020-01-09 | 株式会社デンソー | 距離測定装置 |
US10732032B2 (en) | 2018-08-09 | 2020-08-04 | Ouster, Inc. | Scanning sensor array with overlapping pass bands |
US10739189B2 (en) | 2018-08-09 | 2020-08-11 | Ouster, Inc. | Multispectral ranging/imaging sensor arrays and systems |
DE102018214741A1 (de) * | 2018-08-30 | 2020-03-05 | Robert Bosch Gmbh | Drehtellereinheit und Verfahren zur Herstellung |
US10712434B2 (en) | 2018-09-18 | 2020-07-14 | Velodyne Lidar, Inc. | Multi-channel LIDAR illumination driver |
US10531075B1 (en) * | 2018-09-27 | 2020-01-07 | Honda Motor Co., Ltd. | Synchronization controller unit for sensor node |
JP7206855B2 (ja) * | 2018-11-29 | 2023-01-18 | 株式会社リコー | 三次元位置検出装置、三次元位置検出システム、及び三次元位置検出方法 |
EP3671261A1 (en) | 2018-12-21 | 2020-06-24 | Leica Geosystems AG | 3d surveillance system comprising lidar and multispectral imaging for object classification |
CN109752724A (zh) * | 2018-12-26 | 2019-05-14 | 珠海市众创芯慧科技有限公司 | 一种图像激光一体式导航定位系统 |
CN109829421B (zh) * | 2019-01-29 | 2020-09-08 | 西安邮电大学 | 车辆检测的方法、装置及计算机可读存储介质 |
US11227398B2 (en) * | 2019-01-30 | 2022-01-18 | Baidu Usa Llc | RGB point clouds based map generation system for autonomous vehicles |
CN112055805A (zh) | 2019-01-30 | 2020-12-08 | 百度时代网络技术(北京)有限公司 | 用于自动驾驶车辆的点云登记系统 |
KR102265574B1 (ko) * | 2019-02-13 | 2021-06-16 | 주식회사 스프링클라우드 | 자율주행 차량용 통합 센서 장치 |
EP3702802A1 (en) * | 2019-03-01 | 2020-09-02 | Aptiv Technologies Limited | Method of multi-sensor data fusion |
GB2582266B (en) * | 2019-03-05 | 2022-11-30 | Geoslam Ltd | Three-dimensional dataset and two-dimensional image localisation |
CN110082739B (zh) * | 2019-03-20 | 2022-04-12 | 深圳市速腾聚创科技有限公司 | 数据同步方法和设备 |
JP2022533119A (ja) | 2019-05-13 | 2022-07-21 | アウスター インコーポレイテッド | 電子走査lidarシステム用同期画像捕捉 |
US10732268B1 (en) * | 2019-05-21 | 2020-08-04 | Pony Ai Inc. | Systems and methods for enclosure alignment |
JP7356286B2 (ja) * | 2019-06-26 | 2023-10-04 | ダイキョーニシカワ株式会社 | 車両用距離センサの取付構造 |
US11222460B2 (en) * | 2019-07-22 | 2022-01-11 | Scale AI, Inc. | Visualization techniques for data labeling |
DE102019212021B4 (de) * | 2019-08-09 | 2024-02-08 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zum Feststellen eines Parallaxenproblems in Sensordaten zweier Sensoren |
US11556000B1 (en) | 2019-08-22 | 2023-01-17 | Red Creamery Llc | Distally-actuated scanning mirror |
JP2022546591A (ja) * | 2019-09-06 | 2022-11-04 | アウスター インコーポレイテッド | Lidar画像の処理 |
CN111080519A (zh) * | 2019-11-28 | 2020-04-28 | 常州新途软件有限公司 | 汽车全景环视图像融合方法 |
JPWO2021111747A1 (ja) * | 2019-12-03 | 2021-06-10 | ||
US20210185214A1 (en) * | 2019-12-13 | 2021-06-17 | Sony Corporation | Trans-spectral feature detection for volumetric image alignment and colorization |
EP3842835A1 (en) * | 2019-12-24 | 2021-06-30 | Yandex Self Driving Group Llc | Methods and systems for online synchronization of sensors of self-driving vehicles (sdv) |
CN113378867B (zh) * | 2020-02-25 | 2023-08-22 | 北京轻舟智航智能技术有限公司 | 一种异步数据融合的方法、装置、存储介质及电子设备 |
KR20210122457A (ko) * | 2020-04-01 | 2021-10-12 | 주식회사 제이캐스트 | 스마트 공장의 작업 안전을 위한 전방위 무회전 라이다 기반 안전 시스템 |
US11695911B2 (en) | 2020-04-27 | 2023-07-04 | Ouster, Inc. | Stereoscopic image capturing systems |
CN115516738A (zh) | 2020-05-11 | 2022-12-23 | 株式会社来德罗 | 无触点供电及数据通信装置和利用其的旋转驱动激光雷达系统 |
US11743564B2 (en) * | 2020-10-22 | 2023-08-29 | Uatc, Llc | Sensor platform for autonomous vehicles |
US11430224B2 (en) | 2020-10-23 | 2022-08-30 | Argo AI, LLC | Systems and methods for camera-LiDAR fused object detection with segment filtering |
US20220126873A1 (en) * | 2020-10-23 | 2022-04-28 | Argo AI, LLC | Systems and methods for camera-lidar fused object detection with segment merging |
US11885886B2 (en) | 2020-10-23 | 2024-01-30 | Ford Global Technologies, Llc | Systems and methods for camera-LiDAR fused object detection with LiDAR-to-image detection matching |
EP4264536A1 (en) * | 2020-12-21 | 2023-10-25 | Seesafe Innovation Srl | Method for forming panoramic images and related apparatus |
US11706507B2 (en) | 2020-12-30 | 2023-07-18 | Waymo Llc | Systems, apparatus, and methods for generating enhanced images |
CN112671499B (zh) * | 2021-03-16 | 2022-04-01 | 深圳安途智行科技有限公司 | 多传感器同步方法及系统、以及主控制设备 |
KR102485816B1 (ko) * | 2021-11-03 | 2023-01-09 | 아이티컨버젼스 주식회사 | 이미지 수집장치를 이용한 작물 생육 분석 시스템 |
DE102021006248A1 (de) | 2021-12-17 | 2023-06-22 | Automotive Research & Testing Center | Objekterfassungsverfahren |
WO2023174653A1 (en) * | 2022-03-17 | 2023-09-21 | Sony Semiconductor Solutions Corporation | Hybrid image and event sensing with rolling shutter compensation |
US20230402903A1 (en) * | 2022-06-08 | 2023-12-14 | Ferrari S.P.A. | Electric actuator apparatus equipped with position detection system and related road vehicle |
KR102540632B1 (ko) * | 2022-10-27 | 2023-06-13 | 주식회사 모빌테크 | 색상 보정을 적용한 컬러맵 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 |
WO2024096853A1 (en) * | 2022-10-31 | 2024-05-10 | Google Llc | Image capture system including a lidar device and cameras having a rolling shutter sensor |
Family Cites Families (50)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004265396A (ja) | 2003-02-13 | 2004-09-24 | Vingo:Kk | 映像生成システム及び映像生成方法 |
JP4355341B2 (ja) * | 2003-05-29 | 2009-10-28 | 本田技研工業株式会社 | 深度データを用いたビジュアルトラッキング |
AU2004298635B2 (en) * | 2003-12-18 | 2008-02-28 | 1626628 Ontario Limited | System, apparatus and method for mapping |
SE527257C2 (sv) * | 2004-06-21 | 2006-01-31 | Totalfoersvarets Forskningsins | Anordning och metod för att presentera en omvärldsbild |
US8730322B2 (en) * | 2004-07-30 | 2014-05-20 | Eyesee360, Inc. | Telepresence using panoramic imaging and directional sound and motion |
US7701558B2 (en) | 2006-09-22 | 2010-04-20 | Leica Geosystems Ag | LIDAR system |
US20080112610A1 (en) * | 2006-11-14 | 2008-05-15 | S2, Inc. | System and method for 3d model generation |
JP5132164B2 (ja) * | 2007-02-22 | 2013-01-30 | 富士通株式会社 | 背景画像作成装置 |
TWI358606B (en) | 2007-12-28 | 2012-02-21 | Ind Tech Res Inst | Method for three-dimension (3d) measurement and an |
US8774950B2 (en) * | 2008-01-22 | 2014-07-08 | Carnegie Mellon University | Apparatuses, systems, and methods for apparatus operation and remote sensing |
US8332134B2 (en) | 2008-04-24 | 2012-12-11 | GM Global Technology Operations LLC | Three-dimensional LIDAR-based clear path detection |
US9041915B2 (en) | 2008-05-09 | 2015-05-26 | Ball Aerospace & Technologies Corp. | Systems and methods of scene and action capture using imaging system incorporating 3D LIDAR |
US20100157280A1 (en) | 2008-12-19 | 2010-06-24 | Ambercore Software Inc. | Method and system for aligning a line scan camera with a lidar scanner for real time data fusion in three dimensions |
US8675181B2 (en) | 2009-06-02 | 2014-03-18 | Velodyne Acoustics, Inc. | Color LiDAR scanner |
CN102006402B (zh) | 2009-08-28 | 2014-02-19 | 鸿富锦精密工业(深圳)有限公司 | 摄像装置及其身份识别方法 |
DE112009005382T5 (de) * | 2009-11-18 | 2012-09-13 | Industrial Technology Research Institute | Verfahren zum Erzeugen von Tiefenkarten aus monokularen Bildern und Systeme, die dieses verwenden |
NL2004996C2 (nl) | 2010-06-29 | 2011-12-30 | Cyclomedia Technology B V | Werkwijze voor het vervaardigen van een digitale foto, waarbij ten minste een deel van de beeldelementen positieinformatie omvatten en een dergelijke digitale foto. |
JP5770486B2 (ja) * | 2011-02-21 | 2015-08-26 | 株式会社トプコン | 全周画像計測装置 |
US9529426B2 (en) * | 2012-02-08 | 2016-12-27 | Microsoft Technology Licensing, Llc | Head pose tracking using a depth camera |
US10848731B2 (en) * | 2012-02-24 | 2020-11-24 | Matterport, Inc. | Capturing and aligning panoramic image and depth data |
US9195914B2 (en) | 2012-09-05 | 2015-11-24 | Google Inc. | Construction zone sign detection |
US9111444B2 (en) | 2012-10-31 | 2015-08-18 | Raytheon Company | Video and lidar target detection and tracking system and method for segmenting moving targets |
GB201303076D0 (en) | 2013-02-21 | 2013-04-10 | Isis Innovation | Generation of 3D models of an environment |
NL2010463C2 (nl) * | 2013-03-15 | 2014-09-16 | Cyclomedia Technology B V | Werkwijze voor het genereren van een panoramabeeld. |
WO2014154270A1 (en) * | 2013-03-27 | 2014-10-02 | Irdeto B.V. | Tamper resistant cryptographic algorithm implementation |
TWI547142B (zh) * | 2013-04-02 | 2016-08-21 | 杜比實驗室特許公司 | 引導的3d顯示器適配 |
US9164511B1 (en) | 2013-04-17 | 2015-10-20 | Google Inc. | Use of detected objects for image processing |
US9563951B2 (en) * | 2013-05-21 | 2017-02-07 | Magna Electronics Inc. | Vehicle vision system with targetless camera calibration |
US20150002636A1 (en) | 2013-06-28 | 2015-01-01 | Cable Television Laboratories, Inc. | Capturing Full Motion Live Events Using Spatially Distributed Depth Sensing Cameras |
US10126412B2 (en) | 2013-08-19 | 2018-11-13 | Quanergy Systems, Inc. | Optical phased array lidar system and method of using same |
GB2520338A (en) | 2013-11-19 | 2015-05-20 | Nokia Corp | Automatic scene parsing |
US9684673B2 (en) * | 2013-12-04 | 2017-06-20 | Urthecast Corp. | Systems and methods for processing and distributing earth observation images |
KR101582572B1 (ko) | 2013-12-24 | 2016-01-11 | 엘지전자 주식회사 | 차량 운전 보조 장치 및 이를 구비한 차량 |
US9098754B1 (en) | 2014-04-25 | 2015-08-04 | Google Inc. | Methods and systems for object detection using laser point clouds |
US9986154B2 (en) | 2014-05-21 | 2018-05-29 | Here Global B.V. | Developing a panoramic image |
US9754192B2 (en) | 2014-06-30 | 2017-09-05 | Microsoft Technology Licensing, Llc | Object detection utilizing geometric information fused with image data |
US9772405B2 (en) | 2014-10-06 | 2017-09-26 | The Boeing Company | Backfilling clouds of 3D coordinates |
US9369689B1 (en) | 2015-02-24 | 2016-06-14 | HypeVR | Lidar stereo fusion live action 3D model video reconstruction for six degrees of freedom 360° volumetric virtual reality video |
CN104836960B (zh) * | 2015-05-29 | 2017-12-08 | 京东方科技集团股份有限公司 | 一种图像采集系统和图像采集方法 |
US9710714B2 (en) | 2015-08-03 | 2017-07-18 | Nokia Technologies Oy | Fusion of RGB images and LiDAR data for lane classification |
US9992477B2 (en) * | 2015-09-24 | 2018-06-05 | Ouster, Inc. | Optical system for collecting distance information within a field |
US9989406B2 (en) | 2016-01-29 | 2018-06-05 | Ouster, Inc. | Systems and methods for calibrating an optical distance sensor |
US9940696B2 (en) * | 2016-03-24 | 2018-04-10 | GM Global Technology Operations LLC | Dynamic image adjustment to enhance off- axis viewing in a display assembly |
US20180136314A1 (en) * | 2016-11-15 | 2018-05-17 | Wheego Electric Cars, Inc. | Method and system for analyzing the distance to an object in an image |
US10445928B2 (en) * | 2017-02-11 | 2019-10-15 | Vayavision Ltd. | Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types |
US10809380B2 (en) * | 2017-05-15 | 2020-10-20 | Ouster, Inc. | Augmenting panoramic LIDAR results with color |
CN107576960B (zh) | 2017-09-04 | 2021-03-16 | 赵建辉 | 视觉雷达时空信息融合的目标检测方法及系统 |
US10523880B2 (en) | 2017-09-28 | 2019-12-31 | Waymo Llc | Synchronized spinning LIDAR and rolling shutter camera system |
CN113378867B (zh) * | 2020-02-25 | 2023-08-22 | 北京轻舟智航智能技术有限公司 | 一种异步数据融合的方法、装置、存储介质及电子设备 |
US11695911B2 (en) * | 2020-04-27 | 2023-07-04 | Ouster, Inc. | Stereoscopic image capturing systems |
-
2018
- 2018-05-15 US US15/980,509 patent/US10809380B2/en active Active
- 2018-05-15 EP EP18802367.5A patent/EP3615961A4/en active Pending
- 2018-05-15 WO PCT/US2018/032811 patent/WO2018213338A1/en unknown
- 2018-05-15 KR KR1020197035085A patent/KR20200004840A/ko not_active Application Discontinuation
- 2018-05-15 CN CN201880039931.9A patent/CN110832349B/zh active Active
- 2018-05-15 JP JP2019563212A patent/JP7189156B2/ja active Active
-
2020
- 2020-10-09 US US17/067,411 patent/US20210041570A1/en active Pending
-
2022
- 2022-12-01 JP JP2022192760A patent/JP2023022237A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
JP7189156B2 (ja) | 2022-12-13 |
US20210041570A1 (en) | 2021-02-11 |
KR20200004840A (ko) | 2020-01-14 |
WO2018213338A1 (en) | 2018-11-22 |
US20180329066A1 (en) | 2018-11-15 |
CN110832349A (zh) | 2020-02-21 |
JP2020521955A (ja) | 2020-07-27 |
EP3615961A4 (en) | 2021-01-20 |
US10809380B2 (en) | 2020-10-20 |
EP3615961A1 (en) | 2020-03-04 |
CN110832349B (zh) | 2023-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7189156B2 (ja) | 色によるパノラマlidar結果の増強 | |
AU2021200905B2 (en) | Synchronized spinning lidar and rolling shutter camera system | |
US20240146895A1 (en) | Time-of-flight camera system | |
US20100134596A1 (en) | Apparatus and method for capturing an area in 3d | |
CN112213730B (zh) | 三维测距方法和装置 | |
US10742881B1 (en) | Combined temporal contrast sensing and line scanning | |
JP2017133931A (ja) | 画像生成装置、ならびに距離画像およびカラー画像の生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221205 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231127 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240226 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240423 |