JP6552729B2 - 異なる分解能を有するセンサーの出力を融合するシステム及び方法 - Google Patents
異なる分解能を有するセンサーの出力を融合するシステム及び方法 Download PDFInfo
- Publication number
- JP6552729B2 JP6552729B2 JP2018516582A JP2018516582A JP6552729B2 JP 6552729 B2 JP6552729 B2 JP 6552729B2 JP 2018516582 A JP2018516582 A JP 2018516582A JP 2018516582 A JP2018516582 A JP 2018516582A JP 6552729 B2 JP6552729 B2 JP 6552729B2
- Authority
- JP
- Japan
- Prior art keywords
- sensor
- measurements
- fused
- calibration
- fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 61
- 238000005259 measurement Methods 0.000 claims description 184
- 230000004927 fusion Effects 0.000 claims description 84
- 238000013507 mapping Methods 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 4
- 230000008859 change Effects 0.000 claims description 3
- 238000002945 steepest descent method Methods 0.000 claims description 2
- 238000005070 sampling Methods 0.000 claims 1
- 230000015654 memory Effects 0.000 description 24
- 230000006870 function Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 238000007499 fusion processing Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 4
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000007500 overflow downdraw method Methods 0.000 description 3
- 238000002310 reflectometry Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000002620 method output Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000014616 translation Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/951—Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
- G01S7/4004—Means for monitoring or calibrating of parts of a radar system
- G01S7/4026—Antenna boresight
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/45—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Theoretical Computer Science (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Image Analysis (AREA)
Description
図3は、本発明の1つの実施形態によるシステムの概略図を示す。システムは、シーンを測定してシーンの第1の測定値組を生成する第1のセンサー310と、シーンを測定してシーンの第2の測定値組を生成する第2のセンサー320とを備える。例えば、第1のセンサー310は、LIDARであり、第2のセンサー320は、カメラである。LIDARセンサー310は、低分解能の第1のセンサーであり、カメラ320は、高分解能の第2のセンサーである。
Claims (19)
- 異なる分解能を有するセンサーの測定値を融合する方法であって、
第1のセンサーによって測定されたシーンの第1の測定値組を取得することと、
第2のセンサーによって測定された前記シーンの第2の測定値組を取得することであって、前記第1のセンサーの様式は前記第2のセンサーの様式と異なり、前記第1のセンサーの分解能は、前記第2のセンサーの分解能未満であることと、
前記第1のセンサー及び前記第2のセンサーの較正と、前記第1の測定値組及び前記第2の測定値組の融合とを共同で行い、前記第1のセンサーの座標系と前記第2のセンサーの座標系との間の幾何学的マッピングを定義する較正パラメーターと、前記第1のセンサーの前記分解能よりも高い分解能を有する、前記第1のセンサーの前記様式を含む融合された測定値組とを生成することであって、前記較正及び前記融合は、互いに依拠して、前記較正パラメーター及び前記融合された測定値組を更新するために共同で行われ、前記融合は、前記第2の測定値組の値を用いて、前記第1の測定値組をアップサンプリングし、前記融合された測定値組を生成することと、
を含み、
前記較正及び前記融合は、
前記第2の測定値組を用いて前記第1の測定値組を融合し、前記融合された測定値組を生成することであって、前記第1の測定値組及び前記第2の測定値組は、前記較正パラメーターに従って互いにマッピングされることと、
前記融合された測定値組を前記第2の測定値組と比較して、前記較正パラメーターの誤差を求めることと、
前記較正パラメーターを更新して、前記誤差を低減することと、
終了条件が満たされるまで、前記融合、前記比較、及び前記更新を繰り返すことと、
を含み、前記方法は、プロセッサを用いて行われる、方法。 - 前記較正及び前記融合は、
前記較正パラメーターを所与として前記融合された測定値組のコスト関数を最適化すること、
を含む、請求項1に記載の方法。 - 前記コスト関数は、
前記コスト関数を低減する方向を求めることと、
前記方向に従って前記融合された測定値組を更新することと、
を含む最急降下法を用いて最適化される、請求項2に記載の方法。 - 前記較正及び前記融合は、
終了基準が満たされるまで、前記較正パラメーター及び前記融合された測定値組を再帰的に更新することであって、前記較正パラメーターが、前記融合された測定値組の変化に応じて更新され、前記融合された測定値組が、前記較正パラメーターの変化に応じて更新されるようにすること、
を含む、請求項1に記載の方法。 - 前記誤差は、前記較正パラメーターを所与として最適化された、前記融合された測定値組のコスト関数の値を含む、請求項1に記載の方法。
- 前記融合することは、
前記較正パラメーターを用いて、前記第1の測定値組を前記第2のセンサーの前記座標系にマッピングして、マッピングされた測定値組を形成することと、
前記第2の測定値組を用いて前記マッピングされた測定値組をアップサンプリングして、前記融合された測定値組を生成することと、
を含む、請求項1に記載の方法。 - 前記アップサンプリングは、前記第1のセンサーによって当初に取得された測定値の一貫性を保持する、請求項6に記載の方法。
- 前記アップサンプリングは、前記融合された測定値組の品質の尺度を最大にする、請求項6に記載の方法。
- 前記アップサンプリングは、前記融合された測定値組と、前記第2の測定値組との間の相違の尺度を最小にする、請求項6に記載の方法。
- 前記第1のセンサー及び前記第2のセンサーは、前記第1の測定値組及び前記第2の測定値組を取得するために車両に設置される、請求項1に記載の方法。
- 前記第1のセンサーは、深度センサーであり、前記第2のセンサーは、カメラであり、前記第1の測定値組は、前記深度センサーの前記分解能を有する深度画像であり、前記第2の測定値組は、前記カメラの前記分解能を有する輝度画像であり、前記融合された測定値組は、前記カメラの前記分解能を有する深度画像である、請求項1に記載の方法。
- シーンを測定して、該シーンの第1の測定値組を生成する第1のセンサーと、
前記シーンを測定して、該シーンの第2の測定値組を生成する第2のセンサーであって、前記第1のセンサーの分解能は、前記第2のセンサーの分解能未満である、第2のセンサーと、
前記第1のセンサー及び前記第2のセンサーの較正と、前記第1の測定値組及び前記第2の測定値組の融合とを共同で行い、前記第1のセンサーの座標系と前記第2のセンサーの座標系との間の幾何学的マッピングを定義する較正パラメーターと、前記第1のセンサーの前記分解能よりも高い分解能を有する、前記第1のセンサーの様式を含む融合された測定値組とを生成するプロセッサであって、前記較正及び前記融合は、互いに依拠して、前記較正パラメーター及び前記融合された測定値組を更新するために共同で行われ、前記融合は、前記第2の測定値組の値を用いて、前記第1の測定値組をアップサンプリングし、前記融合された測定値組を生成する、プロセッサと、
を備え、
前記プロセッサは、前記較正及び前記融合を行うに当たり、
前記第2の測定値組を用いて前記第1の測定値組を融合し、前記融合された測定値組を生成し、前記第1の測定値組及び前記第2の測定値組は、前記較正パラメーターに従って互いにマッピングされ、
前記融合された測定値組を前記第2の測定値組と比較して、前記較正パラメーターの誤差を求め、
前記較正パラメーターを更新して、前記誤差を低減し、
終了条件が満たされるまで、前記融合、前記比較、及び前記更新を繰り返す、
システム。 - 前記プロセッサは、前記融合された測定値組を用いて前記シーン内の物体を追跡するように構成される、請求項12に記載のシステム。
- 前記プロセッサは、前記較正パラメーターを所与として、前記融合された測定値組のコスト関数を最適化する、請求項12に記載のシステム。
- 前記第1のセンサー及び前記第2のセンサーは、前記第1の測定値組及び前記第2の測定値組を取得するために車両に設置され、前記プロセッサは、前記車両の計算システムの一部を形成する、請求項12に記載のシステム。
- 前記第1のセンサーは、深度センサーであり、前記第2のセンサーは、カメラであり、前記第1の測定値組は、前記深度センサーの前記分解能を有する深度画像であり、前記第2の測定値組は、前記カメラの前記分解能を有する輝度画像であり、前記融合された測定値組は、前記カメラの前記分解能を有する深度画像である、請求項12に記載のシステム。
- 較正されていないセンサーの出力を融合する方法であって、
第1のセンサーからシーンの第1の測定値組を取得することと、
第2のセンサーから前記シーンの第2の測定値組を取得することであって、前記第1のセンサーの分解能は、前記第2のセンサーの分解能未満であることと、
前記第2の測定値組を用いて前記第1の測定値組を融合して、前記第1のセンサーの様式及び該第1のセンサーの前記分解能よりも高い分解能を含む融合された測定値組を生成することであって、該融合は、前記第1のセンサーの座標系と前記第2のセンサーの座標系との幾何学的マッピングを定義する較正パラメーターを用い、前記融合は、前記第2の測定値組の値を用いて、前記第1の測定値組をアップサンプリングし、前記融合された測定値組を生成することと、
前記融合された測定値組を、前記第2の測定値組と比較して、前記較正パラメーターの誤差を求めることと、
前記較正パラメーターを更新して前記誤差を低減することと、
終了条件が満たされるまで、前記融合、前記比較、及び前記更新を繰り返すことと、
を含む、方法。 - 前記第1のセンサーの前記様式は、前記第2のセンサーの様式と異なり、前記融合された測定値組は、前記第1のセンサーの前記様式及び前記第2のセンサーの前記様式を有するデータを含み、前記第2のセンサーの分解能を有する、請求項17に記載の方法。
- 前記第1のセンサーは、深度センサーであり、前記第2のセンサーは、カメラである、請求項18に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/993,307 | 2016-01-12 | ||
US14/993,307 US10582121B2 (en) | 2016-01-12 | 2016-01-12 | System and method for fusing outputs of sensors having different resolutions |
PCT/JP2016/088804 WO2017122529A1 (en) | 2016-01-12 | 2016-12-20 | System and method for fusing outputs of sensors having different resolutions |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018535402A JP2018535402A (ja) | 2018-11-29 |
JP6552729B2 true JP6552729B2 (ja) | 2019-07-31 |
Family
ID=57915033
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018516582A Active JP6552729B2 (ja) | 2016-01-12 | 2016-12-20 | 異なる分解能を有するセンサーの出力を融合するシステム及び方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10582121B2 (ja) |
JP (1) | JP6552729B2 (ja) |
WO (1) | WO2017122529A1 (ja) |
Families Citing this family (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10962647B2 (en) | 2016-11-30 | 2021-03-30 | Yujin Robot Co., Ltd. | Lidar apparatus based on time of flight and moving object |
CN110235026A (zh) * | 2017-01-26 | 2019-09-13 | 御眼视觉技术有限公司 | 基于对齐的图像和激光雷达信息的车辆导航 |
US10509120B2 (en) * | 2017-02-16 | 2019-12-17 | GM Global Technology Operations LLC | Lidar-radar relative pose calibration |
JP6816658B2 (ja) * | 2017-06-09 | 2021-01-20 | トヨタ自動車株式会社 | 物標情報取得装置 |
WO2019039733A1 (ko) * | 2017-08-21 | 2019-02-28 | (주)유진로봇 | 카메라와 라이다를 이용한 융합 센서 및 이동체 |
CN107862293B (zh) * | 2017-09-14 | 2021-05-04 | 北京航空航天大学 | 基于对抗生成网络的雷达生成彩色语义图像系统及方法 |
US11579298B2 (en) | 2017-09-20 | 2023-02-14 | Yujin Robot Co., Ltd. | Hybrid sensor and compact Lidar sensor |
US20200241140A1 (en) * | 2017-09-28 | 2020-07-30 | Sony Semiconductor Solutions Corporation | Apparatus and method |
US10706505B2 (en) * | 2018-01-24 | 2020-07-07 | GM Global Technology Operations LLC | Method and system for generating a range image using sparse depth data |
DE102018203075A1 (de) * | 2018-03-01 | 2019-09-05 | Robert Bosch Gmbh | Kühlvorrichtung |
US10628920B2 (en) * | 2018-03-12 | 2020-04-21 | Ford Global Technologies, Llc | Generating a super-resolution depth-map |
US11435752B2 (en) | 2018-03-23 | 2022-09-06 | Motional Ad Llc | Data fusion system for a vehicle equipped with unsynchronized perception sensors |
US11061120B2 (en) | 2018-04-24 | 2021-07-13 | Ford Global Technologies, Llc | Sensor calibration |
US11874399B2 (en) | 2018-05-16 | 2024-01-16 | Yujin Robot Co., Ltd. | 3D scanning LIDAR sensor |
CN108875164B (zh) * | 2018-06-01 | 2023-04-07 | 南京理工大学 | 一种带电更换跌落式熔断器作业场景的快速重构方法 |
EP3811113A1 (en) * | 2018-06-22 | 2021-04-28 | Ams Ag | Using time-of-flight and pseudo-random bit sequences to measure distance to object |
JP6717887B2 (ja) | 2018-07-12 | 2020-07-08 | ファナック株式会社 | 距離補正機能を有する測距装置 |
US11609313B2 (en) * | 2018-07-31 | 2023-03-21 | Waymo Llc | Hybrid time-of-flight and imager module |
US10598791B2 (en) | 2018-07-31 | 2020-03-24 | Uatc, Llc | Object detection based on Lidar intensity |
JP6970065B2 (ja) * | 2018-09-06 | 2021-11-24 | 株式会社Soken | 物体検出装置 |
US10955857B2 (en) | 2018-10-02 | 2021-03-23 | Ford Global Technologies, Llc | Stationary camera localization |
US11609574B2 (en) * | 2018-11-13 | 2023-03-21 | FLIR Belgium BVBA | Extrinsic sensor calibration systems and methods |
US11346950B2 (en) | 2018-11-19 | 2022-05-31 | Huawei Technologies Co., Ltd. | System, device and method of generating a high resolution and high accuracy point cloud |
CN109614889B (zh) * | 2018-11-23 | 2020-09-18 | 华为技术有限公司 | 对象检测方法、相关设备及计算机存储介质 |
US10627512B1 (en) * | 2018-11-29 | 2020-04-21 | Luminar Technologies, Inc. | Early fusion of lidar return data with camera information |
CN109781163B (zh) * | 2018-12-18 | 2021-08-03 | 北京百度网讯科技有限公司 | 标定参数有效性检验方法、装置、设备及存储介质 |
CN111754624A (zh) * | 2019-03-29 | 2020-10-09 | 株式会社理光 | 变换矩阵确定方法、设备和可记录介质 |
US11493635B2 (en) * | 2019-04-17 | 2022-11-08 | Uatc, Llc | Ground intensity LIDAR localizer |
US11372091B2 (en) | 2019-06-28 | 2022-06-28 | Toyota Research Institute, Inc. | Systems and methods for correcting parallax |
JP7162142B2 (ja) * | 2019-08-02 | 2022-10-27 | 日立Astemo株式会社 | エイミング装置、運転制御システム、及びセンサデータの補正量の計算方法 |
DE102019212279B3 (de) * | 2019-08-15 | 2021-01-28 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zum Überprüfen einer Kalibrierung von Umfeldsensoren |
KR102269750B1 (ko) * | 2019-08-30 | 2021-06-25 | 순천향대학교 산학협력단 | Cnn을 활용한 카메라 및 라이다 센서 기반 실시간 객체 탐지 방법 |
CN110751722B (zh) * | 2019-09-09 | 2021-06-15 | 清华大学 | 同时定位建图方法及装置 |
JP2023501812A (ja) * | 2019-11-13 | 2023-01-19 | ユヴァル ネフマディ | 自律車両環境知覚ソフトウェアアーキテクチャ |
US11854279B2 (en) * | 2020-05-25 | 2023-12-26 | Subaru Corporation | Vehicle exterior environment recognition apparatus |
IL275896B (en) * | 2020-07-07 | 2022-07-01 | Frank Amit | Imaging device and method |
US11210535B1 (en) * | 2020-08-17 | 2021-12-28 | Ford Global Technologies, Llc | Sensor fusion |
CN112400489B (zh) * | 2020-10-27 | 2022-05-17 | 贵州省草地技术试验推广站 | 一种改善牧草储藏性能的储藏仓及其储藏方法 |
CN112532870B (zh) * | 2020-11-09 | 2021-11-30 | 福建福瑞康信息技术有限公司 | 多终端自适应数据处理系统、方法及计算机可读存储介质 |
CN112911265B (zh) * | 2021-02-01 | 2023-01-24 | 北京都视科技有限公司 | 融合处理器及融合处理系统 |
DE102021102480A1 (de) | 2021-02-03 | 2022-08-04 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum bestimmen einer ersten montageposition zumindest einer ersten sensorvorrichtung eines assistenzsystems eines kraftfahrzeugs sowie assistenzsystem |
CN113034621B (zh) * | 2021-05-24 | 2021-07-30 | 腾讯科技(深圳)有限公司 | 联合标定方法、装置、设备、车辆及存储介质 |
DE102022103958A1 (de) | 2022-02-18 | 2023-08-24 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein | Vorrichtung und Verfahren zum Kalibrieren zumindest eines Parameters eines Radarsystems und mobiles Radarsystem |
US20230341542A1 (en) * | 2022-04-26 | 2023-10-26 | Gm Cruise Holdings Llc | Use of camera information for radar beamforming |
JP2024066886A (ja) * | 2022-11-02 | 2024-05-16 | 京セラ株式会社 | 電子機器、電子機器の制御方法、及びプログラム |
WO2024105829A1 (ja) * | 2022-11-16 | 2024-05-23 | 日本電信電話株式会社 | 画像処理装置及び画像処理プログラム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004317507A (ja) * | 2003-04-04 | 2004-11-11 | Omron Corp | 監視装置の軸調整方法 |
US8139142B2 (en) | 2006-06-01 | 2012-03-20 | Microsoft Corporation | Video manipulation of red, green, blue, distance (RGB-Z) data including segmentation, up-sampling, and background substitution techniques |
US7889949B2 (en) * | 2007-04-30 | 2011-02-15 | Microsoft Corporation | Joint bilateral upsampling |
CN102105810B (zh) * | 2008-07-24 | 2013-10-23 | 皇家飞利浦电子股份有限公司 | 三维(3-d)画面捕获 |
US8179393B2 (en) * | 2009-02-13 | 2012-05-15 | Harris Corporation | Fusion of a 2D electro-optical image and 3D point cloud data for scene interpretation and registration performance assessment |
US20100235129A1 (en) | 2009-03-10 | 2010-09-16 | Honeywell International Inc. | Calibration of multi-sensor system |
US8446492B2 (en) * | 2009-12-10 | 2013-05-21 | Honda Motor Co., Ltd. | Image capturing device, method of searching for occlusion region, and program |
US8704887B2 (en) * | 2010-12-02 | 2014-04-22 | GM Global Technology Operations LLC | Multi-object appearance-enhanced fusion of camera and range sensor data |
JP2012146132A (ja) * | 2011-01-12 | 2012-08-02 | Osaka City Univ | 3次元データと2次元データの統合方法及びこれを用いた見守りシステム、監視システム |
US9875557B2 (en) * | 2012-11-05 | 2018-01-23 | The Chancellor Masters And Scholars Of The University Of Oxford | Extrinsic calibration of imaging sensing devices and 2D LIDARs mounted on transportable apparatus |
US8891905B2 (en) * | 2012-12-19 | 2014-11-18 | Hong Kong Applied Science And Technology Research Institute Co., Ltd. | Boundary-based high resolution depth mapping |
US8983177B2 (en) * | 2013-02-01 | 2015-03-17 | Mitsubishi Electric Research Laboratories, Inc. | Method for increasing resolutions of depth images |
-
2016
- 2016-01-12 US US14/993,307 patent/US10582121B2/en active Active
- 2016-12-20 WO PCT/JP2016/088804 patent/WO2017122529A1/en active Application Filing
- 2016-12-20 JP JP2018516582A patent/JP6552729B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018535402A (ja) | 2018-11-29 |
US10582121B2 (en) | 2020-03-03 |
WO2017122529A1 (en) | 2017-07-20 |
US20170200273A1 (en) | 2017-07-13 |
WO2017122529A8 (en) | 2018-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6552729B2 (ja) | 異なる分解能を有するセンサーの出力を融合するシステム及び方法 | |
CN108603933B (zh) | 用于融合具有不同分辨率的传感器输出的系统和方法 | |
US11422265B2 (en) | Driver visualization and semantic monitoring of a vehicle using LiDAR data | |
EP3378033B1 (en) | Systems and methods for correcting erroneous depth information | |
US9443350B2 (en) | Real-time 3D reconstruction with power efficient depth sensor usage | |
EP3469306B1 (en) | Geometric matching in visual navigation systems | |
US10636151B2 (en) | Method for estimating the speed of movement of a camera | |
US10509983B2 (en) | Operating device, operating system, operating method, and program therefor | |
US10242454B2 (en) | System for depth data filtering based on amplitude energy values | |
WO2020037492A1 (en) | Distance measuring method and device | |
JP7236565B2 (ja) | 位置姿勢決定方法、装置、電子機器、記憶媒体及びコンピュータプログラム | |
US10237532B2 (en) | Scan colorization with an uncalibrated camera | |
Zhang et al. | A real-time method for depth enhanced visual odometry | |
CN111436216A (zh) | 用于彩色点云生成的方法和系统 | |
US11082633B2 (en) | Method of estimating the speed of displacement of a camera | |
WO2018179549A1 (en) | System and method for controlling motion of vehicle | |
CN112288825A (zh) | 相机标定方法、装置、电子设备、存储介质和路侧设备 | |
US11651502B2 (en) | Systems and methods for updating continuous image alignment of separate cameras | |
US20240176025A1 (en) | Generating a parallax free two and a half (2.5) dimensional point cloud using a high resolution image | |
WO2022019128A1 (ja) | 情報処理装置、情報処理方法、及びコンピュータが読み取り可能な記録媒体 | |
CN117237789A (zh) | 基于全景相机和激光雷达融合生成纹理信息点云地图方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190409 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190521 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190604 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190702 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6552729 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |