JP6571274B2 - レーザ深度マップサンプリングのためのシステム及び方法 - Google Patents
レーザ深度マップサンプリングのためのシステム及び方法 Download PDFInfo
- Publication number
- JP6571274B2 JP6571274B2 JP2018510076A JP2018510076A JP6571274B2 JP 6571274 B2 JP6571274 B2 JP 6571274B2 JP 2018510076 A JP2018510076 A JP 2018510076A JP 2018510076 A JP2018510076 A JP 2018510076A JP 6571274 B2 JP6571274 B2 JP 6571274B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- segment
- depth
- electronic device
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
- G01S7/4972—Alignment of sensor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Theoretical Computer Science (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
以下に本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1] 電子デバイスであって、
シーンの画像を取り込むように構成されたカメラと、
複数の画像セグメントを生成するために、画像コンテンツに基づいて前記画像のセグメンテーションを実行するように構成された画像セグメンテーションマッパーと、前記複数の画像セグメントの各々は、前記シーン内の各セグメントのロケーションを示す空間座標に関連付けられている、
前記画像及び前記空間座標を記憶するように構成されたメモリと、
LIDAR(光+レーダ)ユニットと、前記LIDARユニットは、前記空間座標の少なくともサブセットに対応する深度値を選択的に取得するように操向可能である、
前記深度値と前記空間座標とに基づいて、前記シーンの深度マップを生成するように構成された深度マッパーと
を備える電子デバイス。
[C2] 前記画像セグメントの少なくとも一部は、前記画像内のオブジェクトの境界を定義する不均一なセグメントを備える、C1に記載の電子デバイス。
[C3] 前記画像セグメンテーションマッパーは、画像複雑性に基づいてセグメンテーションを実行するように構成され、生成されるセグメントの量は、決定された前記画像の複雑性の関数である、C1に記載の電子デバイス。
[C4] 前記LIDARユニットは、前記シーン内の実質的に均一なオブジェクトを含む前記シーンの領域にわたって粗スキャンを実行するように構成される、C1に記載の電子デバイス。
[C5] 前記セグメントの前記空間座標は、前記セグメントの重心に対応する、C1に記載の電子デバイス。
[C6] 前記画像セグメンテーションマッパーは、前記空間座標を前記LIDARユニットに供給するように及び前記画像の前記セグメントを前記深度マッパーに供給するように構成される、C1に記載の電子デバイス。
[C7] 前記深度マッパーは、前記セグメントを対応する深度値とマージすることで前記深度マップを生成するように構成される、C1に記載の電子デバイス。
[C8] 前記深度マッパーは、前記空間座標において前記LIDARユニットによって取得された対応する深度値を各セグメントに追加することで前記深度マップを生成するように構成される、C1に記載の電子デバイス。
[C9] 前記LIDARユニットによって取得される前記深度値の数は、前の深度マップからのフィードバックに基づいて調節されるように構成される、C1に記載の電子デバイス。
[C10] 方法であって
シーンの画像を取り込むことと、
複数の画像セグメントを生成するために、画像コンテンツに基づいて前記画像のセグメンテーションを実行することと、前記複数の画像セグメントの各々は、前記シーン内の各セグメントのロケーションを示す空間座標に関連付けられている、
LIDARユニットが、前記空間座標の少なくともサブセットに対応する深度値を取得することと、ここにおいて、前記LIDARユニットは、前記深度値を選択的に取得するように操向可能である、
前記深度値と前記空間座標とに基づいて、前記シーンの深度マップを生成することと
を備える方法。
[C11] 前記画像セグメントの少なくとも一部は、前記画像内のオブジェクトの境界を定義する不均一なセグメントを備える、C10に記載の方法。
[C12] 前記画像のセグメンテーションを実行することは、画像複雑性に基づいてセグメンテーションを実行することを備え、生成されるセグメントの量は、決定された前記画像の複雑性の関数である、C10に記載の方法。
[C13] 前記LIDARユニットは、前記シーン内の実質的に均一なオブジェクトを含む前記シーンの領域にわたって粗スキャンを実行するように構成される、C10に記載の方法。
[C14] 前記深度マップを生成することは、前記セグメントを対応する深度値とマージすることを備える、C10に記載の方法。
[C15] 前記深度マップを生成することは、前記空間座標において前記LIDARユニットによって取得された対応する深度値を各セグメントに追加することを備える、C10に記載の方法。
[C16] 前の深度マップからのフィードバックに基づいて、前記LIDARユニットによって取得される前記深度値の数を調節することを更に備える、C10に記載の方法。
[C17] 装置であって、
シーンの画像を取り込むための手段と、
複数の画像セグメントを生成するために、画像コンテンツに基づいて前記画像のセグメンテーションを実行するための手段と、前記複数の画像セグメントの各々は、前記シーン内の各セグメントのロケーションを示す空間座標に関連付けられている、
LIDARユニットによって、前記空間座標の少なくともサブセットに対応する深度値を取得するための手段と、ここにおいて、前記LIDARユニットは、前記深度値を選択的に取得するように操向可能である、
前記深度値と前記空間座標とに基づいて、前記シーンの深度マップを生成するための手段と
を備える装置。
[C18] 前記画像セグメントの少なくとも一部は、前記画像内のオブジェクトの境界を定義する不均一なセグメントを備える、C17に記載の装置。
[C19] 前記画像のセグメンテーションを実行するための前記手段は、画像複雑性に基づいてセグメンテーションを実行するための手段を備え、生成されるセグメントの量は、決定された前記画像の複雑性の関数である、C17に記載の装置。
[C20] 前記セグメントの前記空間座標は、前記セグメントの重心に対応する、C17に記載の装置。
[C21] 前記深度マップを生成するための前記手段は、前記セグメントを対応する深度値とマージするための手段を備える、C17に記載の装置。
[C22] 前記深度マップを生成するための前記手段は、前記空間座標において前記LIDARユニットによって取得された対応する深度値を各セグメントに追加するための手段を備える、C17に記載の装置。
[C23] 前の深度マップからのフィードバックに基づいて、前記LIDARユニットによって取得される前記深度値の数を調節するための手段を更に備える、C17に記載の装置。
[C24] 命令を有する非一時的な有形のコンピュータ読取可能な媒体を備えるコンピュータプログラム製品であって、前記命令は、
シーンの画像を取り込むことを電子デバイスに行わせるためのコードと、
複数の画像セグメントを生成するために、画像コンテンツに基づいて前記画像のセグメンテーションを実行することを前記電子デバイスに行わせるためのコードと、前記複数の画像セグメントの各々は、前記シーン内の各セグメントのロケーションを示す空間座標に関連付けられている、
LIDARユニットによって、前記空間座標の少なくともサブセットに対応する深度値を取得することを前記電子デバイスに行わせるためのコードと、ここにおいて、前記LIDARユニットは、前記深度値を選択的に取得するように操向可能である、
前記深度値と前記空間座標とに基づいて、前記シーンの深度マップを生成することを前記電子デバイスに行わせるためのコードと
を備える、コンピュータプログラム製品。
[C25] 前記画像セグメントの少なくとも一部は、前記画像内のオブジェクトの境界を定義する不均一なセグメントを備える、C24に記載のコンピュータプログラム製品。
[C26] 前記画像のセグメンテーションを実行することを前記電子デバイスに行わせるための前記コードは、画像複雑性に基づいてセグメンテーションを実行することを前記電子デバイスに行わせるためのコードを備え、生成されるセグメントの量は、決定された前記画像の複雑性の関数である、C24に記載のコンピュータプログラム製品。
[C27] 前記セグメントの前記空間座標は、前記セグメントの重心に対応する、C24に記載のコンピュータプログラム製品。
[C28] 前記深度マップを生成することを前記電子デバイスに行わせるための前記コードは、前記セグメントを対応する深度値とマージすることを前記電子デバイスに行わせるためのコードを備える、C24に記載のコンピュータプログラム製品。
[C29] 前記深度マップを生成することを前記電子デバイスに行わせるための前記コードは、前記空間座標において前記LIDARユニットによって取得された対応する深度値を各セグメントに追加することを前記電子デバイスに行わせるためのコードを備える、C24に記載のコンピュータプログラム製品。
[C30] 前の深度マップからのフィードバックに基づいて、前記LIDARユニットによって取得される前記深度値の数を調節することを前記電子デバイスに行わせるためのコードを更に備える、C24に記載のコンピュータプログラム製品。
Claims (26)
- 電子デバイスであって、
シーンの画像を取り込むように構成されたカメラと、
複数の画像セグメントを生成するために、画像コンテンツに基づいて前記画像のセグメンテーションを実行するように構成された画像セグメンテーションマッパーと、前記複数の画像セグメントの各々は、前記シーン内の各セグメントのロケーションを示す空間座標に関連付けられ、ここにおいて、前記画像セグメントの少なくとも一部は、前記画像コンテンツに基づいて、不規則なジオメトリ、サイズ、及び分布を有する不均一なセグメントを備え、ここにおいて、各画像セグメントの前記空間座標は、各画像セグメントについてのサンプリングポイントに対応する、
前記画像及び前記空間座標を記憶するように構成されたメモリと、
LIDAR(光+レーダ)ユニットと、前記LIDARユニットは、前記空間座標に対応する前記シーンの深度値を選択的に取得するように操向可能である、
前記深度値と前記空間座標とに基づいて、前記シーンの深度マップを生成するように構成された深度マッパーと
を備える電子デバイス。 - 前記画像セグメンテーションマッパーは、画像複雑性に基づいてセグメンテーションを実行するように構成され、生成されるセグメントの量は、決定された前記画像の複雑性の関数である、請求項1に記載の電子デバイス。
- 前記LIDARユニットは、前記シーン内の実質的に均一なオブジェクトを含む前記シーンの領域にわたって粗スキャンを実行するように構成される、請求項1に記載の電子デバイス。
- 各画像セグメントについての前記サンプリングポイントは、前記セグメントの重心に対応する、請求項1に記載の電子デバイス。
- 前記画像セグメンテーションマッパーは、各画像セグメントについての前記サンプリングポイントを前記LIDARユニットに供給するように及び前記画像の前記セグメントを前記深度マッパーに供給するように構成される、請求項1に記載の電子デバイス。
- 前記深度マッパーは、前記セグメントを対応する深度値とマージすることで前記深度マップを生成するように構成される、請求項1に記載の電子デバイス。
- 前記深度マッパーは、前記空間座標において前記LIDARユニットによって取得された対応する深度値を各セグメントに追加することで前記深度マップを生成するように構成される、請求項1に記載の電子デバイス。
- 前記LIDARユニットによって取得される前記深度値の数は、前の深度マップからのフィードバックに基づいて調節されるように構成される、請求項1に記載の電子デバイス。
- 方法であって
シーンの画像を取り込むことと、
複数の画像セグメントを生成するために、画像コンテンツに基づいて前記画像のセグメンテーションを実行することと、前記複数の画像セグメントの各々は、前記シーン内の各セグメントのロケーションを示す空間座標に関連付けられ、ここにおいて、前記画像セグメントの少なくとも一部は、前記画像コンテンツに基づいて、不規則なジオメトリ、サイズ、及び分布を有する不均一なセグメントを備え、ここにおいて、各画像セグメントの前記空間座標は、各画像セグメントについてのサンプリングポイントに対応する、
LIDARユニットが、前記空間座標に対応する前記シーンの深度値を取得することと、ここにおいて、前記LIDARユニットは、前記深度値を選択的に取得するように操向可能である、
前記深度値と前記空間座標とに基づいて、前記シーンの深度マップを生成することと
を備える方法。 - 前記画像のセグメンテーションを実行することは、画像複雑性に基づいてセグメンテーションを実行することを備え、生成されるセグメントの量は、決定された前記画像の複雑性の関数である、請求項9に記載の方法。
- 前記LIDARユニットは、前記シーン内の実質的に均一なオブジェクトを含む前記シーンの領域にわたって粗スキャンを実行するように構成される、請求項9に記載の方法。
- 前記深度マップを生成することは、前記セグメントを対応する深度値とマージすることを備える、請求項9に記載の方法。
- 前記深度マップを生成することは、前記空間座標において前記LIDARユニットによって取得された対応する深度値を各セグメントに追加することを備える、請求項9に記載の方法。
- 前の深度マップからのフィードバックに基づいて、前記LIDARユニットによって取得される前記深度値の数を調節することを更に備える、請求項9に記載の方法。
- 装置であって、
シーンの画像を取り込むための手段と、
複数の画像セグメントを生成するために、画像コンテンツに基づいて前記画像のセグメンテーションを実行するための手段と、前記複数の画像セグメントの各々は、前記シーン内の各セグメントのロケーションを示す空間座標に関連付けられ、ここにおいて、前記画像セグメントの少なくとも一部は、前記画像コンテンツに基づいて、不規則なジオメトリ、サイズ、及び分布を有する不均一なセグメントを備え、ここにおいて、各画像セグメントの前記空間座標は、各画像セグメントについてのサンプリングポイントに対応する、
LIDARユニットによって、前記空間座標に対応する前記シーンの深度値を取得するための手段と、ここにおいて、前記LIDARユニットは、前記深度値を選択的に取得するように操向可能である、
前記深度値と前記空間座標とに基づいて、前記シーンの深度マップを生成するための手段と
を備える装置。 - 前記画像のセグメンテーションを実行するための前記手段は、画像複雑性に基づいてセグメンテーションを実行するための手段を備え、生成されるセグメントの量は、決定された前記画像の複雑性の関数である、請求項15に記載の装置。
- 各画像セグメントについての前記サンプリングポイントは、前記セグメントの重心に対応する、請求項15に記載の装置。
- 前記深度マップを生成するための前記手段は、前記セグメントを対応する深度値とマージするための手段を備える、請求項15に記載の装置。
- 前記深度マップを生成するための前記手段は、前記空間座標において前記LIDARユニットによって取得された対応する深度値を各セグメントに追加するための手段を備える、請求項15に記載の装置。
- 前の深度マップからのフィードバックに基づいて、前記LIDARユニットによって取得される前記深度値の数を調節するための手段を更に備える、請求項15に記載の装置。
- 命令を有する非一時的な有形のコンピュータ読取可能な媒体を備えるコンピュータプログラム製品であって、前記命令は、
シーンの画像を取り込むことを電子デバイスに行わせるためのコードと、
複数の画像セグメントを生成するために、画像コンテンツに基づいて前記画像のセグメンテーションを実行することを前記電子デバイスに行わせるためのコードと、前記複数の画像セグメントの各々は、前記シーン内の各セグメントのロケーションを示す空間座標に関連付けられ、ここにおいて、前記画像セグメントの少なくとも一部は、前記画像コンテンツに基づいて、不規則なジオメトリ、サイズ、及び分布を有する不均一なセグメントを備え、ここにおいて、各画像セグメントの前記空間座標は、各画像セグメントについてのサンプリングポイントに対応する、
LIDARユニットによって、前記空間座標に対応する前記シーンの深度値を取得することを前記電子デバイスに行わせるためのコードと、ここにおいて、前記LIDARユニットは、前記深度値を選択的に取得するように操向可能である、
前記深度値と前記空間座標とに基づいて、前記シーンの深度マップを生成することを前記電子デバイスに行わせるためのコードと
を備える、コンピュータプログラム製品。 - 前記画像のセグメンテーションを実行することを前記電子デバイスに行わせるための前記コードは、画像複雑性に基づいてセグメンテーションを実行することを前記電子デバイスに行わせるためのコードを備え、生成されるセグメントの量は、決定された前記画像の複雑性の関数である、請求項21に記載のコンピュータプログラム製品。
- 各画像セグメントについての前記サンプリングポイントは、前記セグメントの重心に対応する、請求項21に記載のコンピュータプログラム製品。
- 前記深度マップを生成することを前記電子デバイスに行わせるための前記コードは、前記セグメントを対応する深度値とマージすることを前記電子デバイスに行わせるためのコードを備える、請求項21に記載のコンピュータプログラム製品。
- 前記深度マップを生成することを前記電子デバイスに行わせるための前記コードは、前記空間座標において前記LIDARユニットによって取得された対応する深度値を各セグメントに追加することを前記電子デバイスに行わせるためのコードを備える、請求項21に記載のコンピュータプログラム製品。
- 前の深度マップからのフィードバックに基づいて、前記LIDARユニットによって取得される前記深度値の数を調節することを前記電子デバイスに行わせるためのコードを更に備える、請求項21に記載のコンピュータプログラム製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/833,573 | 2015-08-24 | ||
US14/833,573 US10282591B2 (en) | 2015-08-24 | 2015-08-24 | Systems and methods for depth map sampling |
PCT/US2016/041782 WO2017034689A1 (en) | 2015-08-24 | 2016-07-11 | System and method for laser depth map sampling |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018526641A JP2018526641A (ja) | 2018-09-13 |
JP2018526641A5 JP2018526641A5 (ja) | 2019-07-18 |
JP6571274B2 true JP6571274B2 (ja) | 2019-09-04 |
Family
ID=56497905
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018510076A Active JP6571274B2 (ja) | 2015-08-24 | 2016-07-11 | レーザ深度マップサンプリングのためのシステム及び方法 |
Country Status (8)
Country | Link |
---|---|
US (3) | US10282591B2 (ja) |
EP (1) | EP3317691B1 (ja) |
JP (1) | JP6571274B2 (ja) |
KR (1) | KR102032070B1 (ja) |
CN (2) | CN108419446B (ja) |
BR (1) | BR112018003305A2 (ja) |
CA (1) | CA2993616A1 (ja) |
WO (1) | WO2017034689A1 (ja) |
Families Citing this family (75)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10282591B2 (en) | 2015-08-24 | 2019-05-07 | Qualcomm Incorporated | Systems and methods for depth map sampling |
CA3085049C (en) | 2015-11-24 | 2023-08-15 | Drone Go Home, LLC | Drone defense system |
US10042159B2 (en) | 2016-02-18 | 2018-08-07 | Aeye, Inc. | Ladar transmitter with optical field splitter/inverter |
US9933513B2 (en) | 2016-02-18 | 2018-04-03 | Aeye, Inc. | Method and apparatus for an adaptive ladar receiver |
US10754015B2 (en) | 2016-02-18 | 2020-08-25 | Aeye, Inc. | Adaptive ladar receiver |
EP3545337A1 (en) * | 2017-01-26 | 2019-10-02 | Mobileye Vision Technologies Ltd. | Vehicle navigation based on aligned image and lidar information |
US10209349B2 (en) | 2017-02-17 | 2019-02-19 | Aeye, Inc. | Method and system for ladar pulse deconfliction to detect and track other ladar systems |
CN107466404B (zh) * | 2017-05-11 | 2023-01-31 | 达闼机器人股份有限公司 | 物品搜索方法、装置及机器人 |
EP3438777B1 (en) * | 2017-08-04 | 2022-05-11 | Bayerische Motoren Werke Aktiengesellschaft | Method, apparatus and computer program for a vehicle |
EP3438776B1 (en) * | 2017-08-04 | 2022-09-07 | Bayerische Motoren Werke Aktiengesellschaft | Method, apparatus and computer program for a vehicle |
US10447973B2 (en) * | 2017-08-08 | 2019-10-15 | Waymo Llc | Rotating LIDAR with co-aligned imager |
US10816354B2 (en) | 2017-08-22 | 2020-10-27 | Tusimple, Inc. | Verification module system and method for motion-based lane detection with multiple sensors |
US10565457B2 (en) | 2017-08-23 | 2020-02-18 | Tusimple, Inc. | Feature matching and correspondence refinement and 3D submap position refinement system and method for centimeter precision localization using camera-based submap and LiDAR-based global map |
US10762673B2 (en) | 2017-08-23 | 2020-09-01 | Tusimple, Inc. | 3D submap reconstruction system and method for centimeter precision localization using camera-based submap and LiDAR-based global map |
JP6689006B2 (ja) | 2017-08-25 | 2020-04-28 | ベイジン・ボイジャー・テクノロジー・カンパニー・リミテッド | 車両の環境情報を検出するための方法およびシステム |
US10495757B2 (en) | 2017-09-15 | 2019-12-03 | Aeye, Inc. | Intelligent ladar system with low latency motion planning updates |
US11758111B2 (en) | 2017-10-27 | 2023-09-12 | Baidu Usa Llc | 3D lidar system using a dichroic mirror for autonomous driving vehicles |
US11745727B2 (en) * | 2018-01-08 | 2023-09-05 | STEER-Tech, LLC | Methods and systems for mapping a parking area for autonomous parking |
EP3737595B1 (en) | 2018-01-09 | 2023-12-27 | TuSimple, Inc. | Real-time remote control of vehicles with high redundancy |
CN115834617A (zh) | 2018-01-11 | 2023-03-21 | 图森有限公司 | 用于自主车辆操作的监视系统 |
US11009365B2 (en) | 2018-02-14 | 2021-05-18 | Tusimple, Inc. | Lane marking localization |
US11009356B2 (en) | 2018-02-14 | 2021-05-18 | Tusimple, Inc. | Lane marking localization and fusion |
CN111133447B (zh) | 2018-02-18 | 2024-03-19 | 辉达公司 | 适于自主驾驶的对象检测和检测置信度的方法和系统 |
WO2019168869A1 (en) | 2018-02-27 | 2019-09-06 | Nvidia Corporation | Real-time detection of lanes and boundaries by autonomous vehicles |
US10776983B2 (en) | 2018-02-27 | 2020-09-15 | Nvidia Corporation | Analysis of point cloud data using depth and texture maps |
US10628920B2 (en) | 2018-03-12 | 2020-04-21 | Ford Global Technologies, Llc | Generating a super-resolution depth-map |
US11537139B2 (en) | 2018-03-15 | 2022-12-27 | Nvidia Corporation | Determining drivable free-space for autonomous vehicles |
US11353587B2 (en) * | 2018-03-26 | 2022-06-07 | Facebook Technologies, Llc | Lidar depth measurement systems and methods |
CN110378185A (zh) | 2018-04-12 | 2019-10-25 | 北京图森未来科技有限公司 | 一种应用于自动驾驶车辆的图像处理方法、装置 |
CN116129376A (zh) | 2018-05-02 | 2023-05-16 | 北京图森未来科技有限公司 | 一种道路边缘检测方法和装置 |
CN108827306B (zh) * | 2018-05-31 | 2022-01-07 | 北京林业大学 | 一种基于多传感器融合的无人机slam导航方法及系统 |
AU2019339418A1 (en) | 2018-09-13 | 2021-05-13 | Tusimple, Inc. | Remote safe driving methods and systems |
JP2022502647A (ja) * | 2018-09-26 | 2022-01-11 | エージーシー グラス ユーロップAgc Glass Europe | 検出装置用の光学カバー |
KR102086663B1 (ko) * | 2018-09-28 | 2020-03-09 | 에스케이텔레콤 주식회사 | 영상생성장치 및 영상생성장치의 동작 방법 |
US10699430B2 (en) | 2018-10-09 | 2020-06-30 | Industrial Technology Research Institute | Depth estimation apparatus, autonomous vehicle using the same, and depth estimation method thereof |
CN110160502B (zh) * | 2018-10-12 | 2022-04-01 | 腾讯科技(深圳)有限公司 | 地图要素提取方法、装置及服务器 |
US10656252B1 (en) | 2018-10-25 | 2020-05-19 | Aeye, Inc. | Adaptive control of Ladar systems using spatial index of prior Ladar return data |
US10942271B2 (en) | 2018-10-30 | 2021-03-09 | Tusimple, Inc. | Determining an angle between a tow vehicle and a trailer |
CA3028223C (en) | 2018-11-16 | 2021-02-16 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for positioning vehicles under poor lighting conditions |
US10716177B2 (en) * | 2018-12-13 | 2020-07-14 | Zebra Technologies Corporation | Method and apparatus for control of mobile automation apparatus light emitters |
CN111319629B (zh) | 2018-12-14 | 2021-07-16 | 北京图森智途科技有限公司 | 一种自动驾驶车队的组队方法、装置及系统 |
CN111316119A (zh) * | 2018-12-28 | 2020-06-19 | 深圳市大疆创新科技有限公司 | 雷达仿真方法及装置 |
US11170299B2 (en) | 2018-12-28 | 2021-11-09 | Nvidia Corporation | Distance estimation to objects and free-space boundaries in autonomous machine applications |
WO2020140049A1 (en) | 2018-12-28 | 2020-07-02 | Nvidia Corporation | Distance to obstacle detection in autonomous machine applications |
DE112019006468T5 (de) * | 2018-12-28 | 2021-10-14 | Nvidia Corporation | Erkennung des abstands zu hindernissen bei anwendungen mit autonomen maschinen |
US11648945B2 (en) | 2019-03-11 | 2023-05-16 | Nvidia Corporation | Intersection detection and classification in autonomous machine applications |
CN111815696B (zh) * | 2019-04-11 | 2023-08-22 | 曜科智能科技(上海)有限公司 | 基于语义实例分割的深度图优化方法、装置、设备和介质 |
US11513223B2 (en) | 2019-04-24 | 2022-11-29 | Aeye, Inc. | Ladar system and method with cross-receiver |
US11620752B2 (en) * | 2019-06-03 | 2023-04-04 | Technion Research & Development Foundation Limited | Image-guided depth sampling and reconstruction |
US11823460B2 (en) | 2019-06-14 | 2023-11-21 | Tusimple, Inc. | Image fusion for autonomous vehicle operation |
US10841483B1 (en) * | 2019-07-11 | 2020-11-17 | Denso International America, Inc. | System and method for calibrating at least one camera and a light detection and ranging sensor |
DE112020004139T5 (de) | 2019-08-31 | 2022-05-12 | Nvidia Corporation | Erstellung von karten und lokalisierung für anwendungen im bereich des autonomen fahrens |
CN110727748B (zh) * | 2019-09-17 | 2021-08-24 | 禾多科技(北京)有限公司 | 小体量高精度定位图层的构建、编译及读取方法 |
JP7348300B2 (ja) * | 2019-09-30 | 2023-09-20 | 富士フイルム株式会社 | 処理装置、電子機器、処理方法、及びプログラム |
JP7311617B2 (ja) * | 2019-09-30 | 2023-07-19 | 富士フイルム株式会社 | 処理装置、電子機器、処理方法、及びプログラム |
US20210132213A1 (en) * | 2019-10-31 | 2021-05-06 | Samsung Electronics Co., Ltd. | Apparatus and methods for multi-sensor slam systems |
US11260752B2 (en) * | 2019-12-27 | 2022-03-01 | Kawasaki Jukogyo Kabushiki Kaisha | Instrument panel for leisure vehicle |
WO2021134325A1 (zh) * | 2019-12-30 | 2021-07-08 | 深圳元戎启行科技有限公司 | 基于无人驾驶技术的障碍物检测方法、装置和计算机设备 |
CN111311709B (zh) * | 2020-02-05 | 2023-06-20 | 北京三快在线科技有限公司 | 一种生成高精地图的方法及装置 |
EP3893150A1 (en) | 2020-04-09 | 2021-10-13 | Tusimple, Inc. | Camera pose estimation techniques |
CN111429386B (zh) * | 2020-06-11 | 2020-09-25 | 北京云迹科技有限公司 | 图像处理方法、装置和电子设备 |
AU2021203567A1 (en) | 2020-06-18 | 2022-01-20 | Tusimple, Inc. | Angle and orientation measurements for vehicles with multiple drivable sections |
CN111735479B (zh) * | 2020-08-28 | 2021-03-23 | 中国计量大学 | 一种多传感器联合标定装置及方法 |
US11978266B2 (en) | 2020-10-21 | 2024-05-07 | Nvidia Corporation | Occupant attentiveness and cognitive load monitoring for autonomous and semi-autonomous driving applications |
KR20220075476A (ko) * | 2020-11-30 | 2022-06-08 | 한국전자기술연구원 | 다중 영상을 이용한 라이다 센서 정보 보정 및 업-샘플링 방법 및 장치 |
US11630188B1 (en) | 2021-03-26 | 2023-04-18 | Aeye, Inc. | Hyper temporal lidar with dynamic laser control using safety models |
US11635495B1 (en) | 2021-03-26 | 2023-04-25 | Aeye, Inc. | Hyper temporal lidar with controllable tilt amplitude for a variable amplitude scan mirror |
US11486977B2 (en) | 2021-03-26 | 2022-11-01 | Aeye, Inc. | Hyper temporal lidar with pulse burst scheduling |
US11686845B2 (en) | 2021-03-26 | 2023-06-27 | Aeye, Inc. | Hyper temporal lidar with controllable detection intervals based on regions of interest |
US11604264B2 (en) | 2021-03-26 | 2023-03-14 | Aeye, Inc. | Switchable multi-lens Lidar receiver |
US11500093B2 (en) | 2021-03-26 | 2022-11-15 | Aeye, Inc. | Hyper temporal lidar using multiple matched filters to determine target obliquity |
US11460552B1 (en) | 2021-03-26 | 2022-10-04 | Aeye, Inc. | Hyper temporal lidar with dynamic control of variable energy laser source |
US11741631B2 (en) | 2021-07-15 | 2023-08-29 | Vilnius Gediminas Technical University | Real-time alignment of multiple point clouds to video capture |
KR20230084978A (ko) * | 2021-12-06 | 2023-06-13 | 삼성전자주식회사 | 라이다 장치를 포함하는 전자 장치 및 이의 동작 방법 |
WO2023152422A1 (en) * | 2022-02-11 | 2023-08-17 | Teknologian Tutkimuskeskus Vtt Oy | Light-emitting device |
Family Cites Families (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5988862A (en) | 1996-04-24 | 1999-11-23 | Cyra Technologies, Inc. | Integrated system for quickly and accurately imaging and modeling three dimensional objects |
US7321669B2 (en) * | 2003-07-10 | 2008-01-22 | Sarnoff Corporation | Method and apparatus for refining target position and size estimates using image and depth data |
US8042056B2 (en) * | 2004-03-16 | 2011-10-18 | Leica Geosystems Ag | Browsers for large geometric data visualization |
JP4763250B2 (ja) * | 2004-04-09 | 2011-08-31 | 株式会社デンソー | 物体検出装置 |
US8577538B2 (en) * | 2006-07-14 | 2013-11-05 | Irobot Corporation | Method and system for controlling a remote vehicle |
JP2010091426A (ja) * | 2008-10-08 | 2010-04-22 | Toyota Central R&D Labs Inc | 距離計測装置及びプログラム |
CN101943847A (zh) * | 2010-08-31 | 2011-01-12 | 福建网讯科技有限公司 | 一种单投影宽屏投影方法 |
KR101030763B1 (ko) | 2010-10-01 | 2011-04-26 | 위재영 | 이미지 획득 유닛, 방법 및 연관된 제어 유닛 |
US8447549B2 (en) * | 2011-02-11 | 2013-05-21 | Quality Vision International, Inc. | Tolerance evaluation with reduced measured points |
EP2511781A1 (de) * | 2011-04-14 | 2012-10-17 | Hexagon Technology Center GmbH | System und Verfahren zur Steuerung eines unbemannten Fluggeräts |
CN103049933A (zh) * | 2011-10-17 | 2013-04-17 | 联咏科技股份有限公司 | 图像处理装置与其方法 |
US8873835B2 (en) * | 2011-11-30 | 2014-10-28 | Adobe Systems Incorporated | Methods and apparatus for correcting disparity maps using statistical analysis on local neighborhoods |
CN102490868B (zh) * | 2011-12-02 | 2015-05-13 | 大连海事大学 | 航标防碰撞雷达装置 |
US8824733B2 (en) * | 2012-03-26 | 2014-09-02 | Tk Holdings Inc. | Range-cued object segmentation system and method |
US9207070B2 (en) | 2012-05-24 | 2015-12-08 | Qualcomm Incorporated | Transmission of affine-invariant spatial mask for active depth sensing |
CN102761768A (zh) * | 2012-06-28 | 2012-10-31 | 中兴通讯股份有限公司 | 一种实现立体成像的方法及装置 |
US9383753B1 (en) * | 2012-09-26 | 2016-07-05 | Google Inc. | Wide-view LIDAR with areas of special attention |
CN103795961A (zh) * | 2012-10-30 | 2014-05-14 | 三亚中兴软件有限责任公司 | 会议电视网真系统及其图像处理方法 |
US9111444B2 (en) | 2012-10-31 | 2015-08-18 | Raytheon Company | Video and lidar target detection and tracking system and method for segmenting moving targets |
KR101370785B1 (ko) * | 2012-11-06 | 2014-03-06 | 한국과학기술원 | 입체 영상의 깊이 맵 생성 방법 및 장치 |
US20140132723A1 (en) | 2012-11-13 | 2014-05-15 | Osmose Utilities Services, Inc. | Methods for calibrating a digital photographic image of utility structures |
US11509880B2 (en) * | 2012-11-14 | 2022-11-22 | Qualcomm Incorporated | Dynamic adjustment of light source power in structured light active depth sensing systems |
US8891905B2 (en) * | 2012-12-19 | 2014-11-18 | Hong Kong Applied Science And Technology Research Institute Co., Ltd. | Boundary-based high resolution depth mapping |
CN103198473B (zh) * | 2013-03-05 | 2016-02-24 | 腾讯科技(深圳)有限公司 | 一种深度图生成方法及装置 |
US9164511B1 (en) * | 2013-04-17 | 2015-10-20 | Google Inc. | Use of detected objects for image processing |
US9208548B1 (en) * | 2013-05-06 | 2015-12-08 | Amazon Technologies, Inc. | Automatic image enhancement |
US9406137B2 (en) | 2013-06-14 | 2016-08-02 | Qualcomm Incorporated | Robust tracking using point and line features |
EP2869263A1 (en) * | 2013-10-29 | 2015-05-06 | Thomson Licensing | Method and apparatus for generating depth map of a scene |
US20150116458A1 (en) * | 2013-10-30 | 2015-04-30 | Barkatech Consulting, LLC | Method and apparatus for generating enhanced 3d-effects for real-time and offline appplications |
US8989944B1 (en) * | 2013-11-26 | 2015-03-24 | Google Inc. | Methods and devices for determining movements of an object in an environment |
US9664784B2 (en) * | 2013-12-04 | 2017-05-30 | Trimble Inc. | System and methods for data point detection and spatial modeling |
US10346465B2 (en) | 2013-12-20 | 2019-07-09 | Qualcomm Incorporated | Systems, methods, and apparatus for digital composition and/or retrieval |
WO2015097824A1 (ja) * | 2013-12-26 | 2015-07-02 | 株式会社日立製作所 | 物体認識装置 |
CN103955886A (zh) * | 2014-05-22 | 2014-07-30 | 哈尔滨工业大学 | 一种基于图论和灭点检测的2d-3d图像转换方法 |
EP3265885A4 (en) * | 2015-03-03 | 2018-08-29 | Prenav Inc. | Scanning environments and tracking unmanned aerial vehicles |
CN104820981B (zh) * | 2015-04-22 | 2017-10-31 | 上海交通大学 | 一种基于视差分层分割的图像立体表示方法及系统 |
US9729782B2 (en) * | 2015-06-05 | 2017-08-08 | Digital Signal Corporation | System and method for intelligent camera control |
US9589327B2 (en) * | 2015-06-10 | 2017-03-07 | Samsung Electronics Co., Ltd. | Apparatus and method for noise reduction in depth images during object segmentation |
US10282591B2 (en) | 2015-08-24 | 2019-05-07 | Qualcomm Incorporated | Systems and methods for depth map sampling |
-
2015
- 2015-08-24 US US14/833,573 patent/US10282591B2/en active Active
-
2016
- 2016-07-11 WO PCT/US2016/041782 patent/WO2017034689A1/en active Application Filing
- 2016-07-11 KR KR1020187005019A patent/KR102032070B1/ko active IP Right Grant
- 2016-07-11 CN CN201680046908.3A patent/CN108419446B/zh active Active
- 2016-07-11 JP JP2018510076A patent/JP6571274B2/ja active Active
- 2016-07-11 CA CA2993616A patent/CA2993616A1/en not_active Abandoned
- 2016-07-11 CN CN202210280505.2A patent/CN114637023A/zh active Pending
- 2016-07-11 EP EP16741493.7A patent/EP3317691B1/en active Active
- 2016-07-11 BR BR112018003305A patent/BR112018003305A2/pt not_active Application Discontinuation
-
2019
- 2019-03-20 US US16/359,441 patent/US11042723B2/en active Active
-
2021
- 2021-05-21 US US17/327,309 patent/US11915502B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN108419446B (zh) | 2022-03-25 |
WO2017034689A1 (en) | 2017-03-02 |
KR20180044279A (ko) | 2018-05-02 |
EP3317691A1 (en) | 2018-05-09 |
US20170061632A1 (en) | 2017-03-02 |
KR102032070B1 (ko) | 2019-10-14 |
US20210279444A1 (en) | 2021-09-09 |
CN108419446A (zh) | 2018-08-17 |
US10282591B2 (en) | 2019-05-07 |
EP3317691B1 (en) | 2021-11-10 |
BR112018003305A2 (pt) | 2018-09-18 |
CA2993616A1 (en) | 2017-03-02 |
CN114637023A (zh) | 2022-06-17 |
US20190220650A1 (en) | 2019-07-18 |
US11042723B2 (en) | 2021-06-22 |
JP2018526641A (ja) | 2018-09-13 |
US11915502B2 (en) | 2024-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6571274B2 (ja) | レーザ深度マップサンプリングのためのシステム及び方法 | |
CN112567201B (zh) | 距离测量方法以及设备 | |
US20220309687A1 (en) | Object Tracking By An Unmanned Aerial Vehicle Using Visual Sensors | |
US11749124B2 (en) | User interaction with an autonomous unmanned aerial vehicle | |
EP3627180B1 (en) | Sensor calibration method and device, computer device, medium, and vehicle | |
US10341633B2 (en) | Systems and methods for correcting erroneous depth information | |
JP6794436B2 (ja) | 非障害物エリア検出のためのシステムおよび方法 | |
CN108140235B (zh) | 用于产生图像视觉显示的系统和方法 | |
JP2022515591A (ja) | ターゲットオブジェクトの3d検出方法、装置、媒体及び機器 | |
WO2020113423A1 (zh) | 目标场景三维重建方法、系统及无人机 | |
US11092690B1 (en) | Predicting lidar data using machine learning | |
CN113887400B (zh) | 障碍物检测方法、模型训练方法、装置及自动驾驶车辆 | |
TWI726278B (zh) | 行車偵測方法、車輛及行車處理裝置 | |
CN110794844A (zh) | 自动驾驶方法、装置、电子设备及可读存储介质 | |
CN113228103A (zh) | 目标跟踪方法、装置、无人机、系统及可读存储介质 | |
CN114815851A (zh) | 机器人跟随方法、装置、电子设备以及存储介质 | |
CN111833443A (zh) | 自主机器应用中的地标位置重建 | |
CN113516013B (zh) | 目标检测方法、装置、电子设备、路侧设备和云控平台 | |
CN113168532A (zh) | 目标检测方法、装置、无人机及计算机可读存储介质 | |
WO2022160101A1 (zh) | 朝向估计方法、装置、可移动平台及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190612 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190612 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190612 |
|
TRDD | Decision of grant or rejection written | ||
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190702 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190709 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190807 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6571274 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |