JP2021016151A - 少なくとも1つのカメラと光検出および測距センサを較正するためのシステムおよび方法 - Google Patents
少なくとも1つのカメラと光検出および測距センサを較正するためのシステムおよび方法 Download PDFInfo
- Publication number
- JP2021016151A JP2021016151A JP2020115038A JP2020115038A JP2021016151A JP 2021016151 A JP2021016151 A JP 2021016151A JP 2020115038 A JP2020115038 A JP 2020115038A JP 2020115038 A JP2020115038 A JP 2020115038A JP 2021016151 A JP2021016151 A JP 2021016151A
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- point cloud
- processors
- lidar sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 43
- 238000001514 detection method Methods 0.000 title claims description 7
- 230000004044 response Effects 0.000 claims abstract description 7
- 239000002131 composite material Substances 0.000 claims description 55
- 238000005259 measurement Methods 0.000 claims 3
- 230000006870 function Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 8
- 238000004590 computer program Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/002—Diagnosis, testing or measuring for television systems or their details for television cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
- G01S7/4972—Alignment of sensor
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/51—Display arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/14—Transformations for image registration, e.g. adjusting or mapping for alignment of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/20—Linear translation of whole images or parts thereof, e.g. panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Networks & Wireless Communication (AREA)
- Theoretical Computer Science (AREA)
- Electromagnetism (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
ロンソフトウェアパッケージとして、完全にユーザのコンピュータ上で、部分的にユーザのコンピュータ上で、あるいは、一部をユーザのコンピュータ上でかつ一部を遠隔コンピュータ上で、もしくは、完全に遠隔コンピュータまたはサーバ上で実行されてもよい。後者のシナリオでは、遠隔コンピュータは、ローカルエリアネットワーク(LAN)またはワイドエリアネットワーク(WAN)を含む任意のタイプのネットワークを介してユーザのコンピュータに接続されてもよいし、または、その接続は、(たとえば、インターネットサービスプロバイダを使用したインターネット経由で)外部コンピュータになされてもよい。
Claims (20)
- 少なくとも1つのカメラと、光検出および測距(LiDAR)センサを較正するための方法であって、
少なくとも1つのカメラからカメラ画像を取得すること、
カメラ画像が少なくとも1つのエッジを有する少なくとも1つの物体を含むときを判定すること、
LiDARセンサから3次元点群画像を取得すること、3次元点群画像は、少なくとも1つのエッジを有する少なくとも1つの物体を含み、
合成画像を生成すること、合成画像は、カメラ画像の少なくとも一部と3次元点群画像の少なくとも一部を含み、
合成画像をディスプレイに表示すること、
ユーザインターフェースから少なくとも1つの入力を受信すること、少なくとも1つの入力は、ディスプレイに表示された合成画像の3次元点群画像とカメラ画像との少なくとも1つを移動するように構成され、および、
ユーザインターフェースからの1つ以上の入力に応じて、LiDARセンサと少なくとも1つのカメラとの少なくとも1つの較正パラメータを調整すること、を含む方法。 - 合成画像は、合成画像を形成するために、カメラ画像に3次元点群画像を投影することによって生成される、請求項1に記載の方法。
- 合成画像は、3次元点群画像にカメラ画像を投影することによって生成される、請求項1に記載の方法。
- 少なくとも1つの物体は、少なくとも1つの道路標識である、請求項1に記載の方法。
- カメラ画像の少なくとも1つの物体の少なくとも1つのエッジが、合成画像において、三次元点群画像の少なくとも1つの物体の少なくとも1つのエッジと実質的に位置合わせされるように、LiDARセンサと少なくとも1つのカメラとの少なくとも1つの較正パラメータを調整するステップをさらに含む、請求項1に記載の方法。
- カメラ画像内の少なくとも1つの物体の数が、3次元点群画像内の少なくとも1つの物体の数と一致するときを判定するステップ、および
カメラ画像内の少なくとも1つの物体の数が、3次元点群画像内の少なくとも1つの物体の数と一致するときに、合成画像を形成するために、カメラ画像に3次元点群画像を投影するステップ、をさらに含む請求項1に記載の方法。 - ユーザインターフェースの少なくとも1つの入力は、合成画像の3次元点群画像とカメラ画像の少なくとも1つのヨー、ピッチ、ロール、および位置の少なくとも1つを調整する、請求項1に記載の方法。
- 較正パラメータは、少なくとも1つのカメラとLiDARセンサの少なくとも1つのヨー、ピッチ、ロール、および位置の少なくとも1つを含む、請求項1に記載の方法。
- 少なくとも1つのカメラおよびLiDARセンサは、車両に搭載される、請求項1に記載の方法。
- 少なくとも1つのカメラと、光検出および測距(LiDAR)センサを較正するためのシステムであって、
1つ以上のプロセッサと、
1つ以上のプロセッサと通信するメモリと、を備え、
メモリは、
1つ以上のプロセッサによる実行時に、1つ以上のプロセッサに、
少なくとも1つのカメラからカメラ画像を取得させる命令、
カメラ画像が少なくとも1つのエッジを有する少なくとも1つの物体を含むときを判定させる命令、
LiDARセンサから3次元点群画像を取得させる命令、3次元点群画像は、少なくとも1つのエッジを有する少なくとも1つの物体を含み、および、
合成画像を生成させる命令、合成画像は、カメラ画像の少なくとも一部と3次元点群画像の少なくとも一部を含む、を有する初期較正モジュールと、
1つ以上のプロセッサによる実行時に、1つ以上のプロセッサに、
ディスプレイに合成画像を表示させる命令、
ユーザインターフェースから少なくとも1つの入力を受信させる命令、少なくとも1つの入力は、ディスプレイに表示された合成画像の3次元点群画像とカメラ画像の少なくとも1つを移動するように構成され、および、
ユーザインターフェースからの1つ以上の入力に応じて、LiDARセンサと少なくとも1つのカメラとの少なくとも1つの較正パラメータを調整させる命令、を有するユーザ較正モジュールを格納するシステム。 - 合成画像は、合成画像を形成するために、カメラ画像に3次元点群画像を投影することによって初期較正モジュールにより生成される、請求項10に記載のシステム。
- 合成画像は、3次元点群画像にカメラ画像を投影することによって初期較正モジュールにより生成される、請求項10に記載のシステム。
- 少なくとも1つの物体は、少なくとも1つの道路標識である、請求項10に記載のシステム。
- 初期較正モジュールは、1つ以上のプロセッサによる実行時に、1つ以上のプロセッサに、カメラ画像の少なくとも1つの物体の少なくとも1つのエッジが、合成画像において、三次元点群画像の少なくとも1つの物体の少なくとも1つのエッジと実質的に位置合わせされるように、LiDARセンサと少なくとも1つのカメラとの少なくとも1つの較正パラメータを調整させる命令をさらに含む、請求項10に記載のシステム。
- 初期較正モジュールは、
1つ以上のプロセッサによる実行時に、1つ以上のプロセッサに、
カメラ画像内の少なくとも1つの物体の数が、3次元点群画像内の少なくとも1つの物体の数と一致するときを判定させる命令、および
カメラ画像内の少なくとも1つの物体の数が、3次元点群画像内の少なくとも1つの物体の数と一致するときに、合成画像を形成するために、カメラ画像に3次元点群画像を投影させる命令、をさらに含む請求項10に記載のシステム。 - ユーザインターフェースの少なくとも1つの入力は、合成画像の3次元点群画像とカメラ画像の少なくとも1つのヨー、ピッチ、ロール、および位置の少なくとも1つを調整する、請求項10に記載のシステム。
- 較正パラメータは、少なくとも1つのカメラとLiDARセンサの少なくとも1つのヨー、ピッチ、ロール、および位置の少なくとも1つを含む、請求項10に記載のシステム。
- 少なくとも1つのカメラおよびLiDARセンサは、車両に搭載される、請求項10に記載のシステム。
- 少なくとも1つのカメラと、光検出および測距(LiDAR)センサを較正するための非一時的なコンピュータ可読媒体であって、
1つ以上のプロセッサによる実行時に、1つ以上のプロセッサに、
少なくとも1つのカメラからカメラ画像を取得させる命令、
カメラ画像が少なくとも1つのエッジを有する少なくとも1つの物体を含むときを判定させる命令、
LiDARセンサから3次元点群画像を取得させる命令、3次元点群画像は、少なくとも1つのエッジを有する少なくとも1つの物体を含み、
合成画像を生成させる命令、合成画像は、カメラ画像の少なくとも一部と3次元点群画像の少なくとも一部を含み、
合成画像をディスプレイに表示させる命令、
ユーザインターフェースから少なくとも1つの入力を受信させる命令、少なくとも1つの入力は、ディスプレイに表示された合成画像の3次元点群画像とカメラ画像との少なくとも1つを移動するように構成され、および
ユーザインターフェースからの1つ以上の入力に応じて、LiDARセンサと少なくとも1つのカメラとの少なくとも1つの較正パラメータを調整させる命令、を含む非一時的なコンピュータ可読媒体。 - 1つ以上のプロセッサによる実行時に、1つ以上のプロセッサに、カメラ画像の少なくとも1つの物体の少なくとも1つのエッジが、合成画像において、3次元点群画像の少なくとも1つの物体の少なくとも1つのエッジと実質的に位置合わせされるように、LiDARセンサと少なくとも1つのカメラとの少なくとも1つの較正パラメータを調整させる命令をさらに含む、請求項19に記載の非一時的なコンピュータ可読媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/508,592 US10841483B1 (en) | 2019-07-11 | 2019-07-11 | System and method for calibrating at least one camera and a light detection and ranging sensor |
US16/508,592 | 2019-07-11 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021016151A true JP2021016151A (ja) | 2021-02-12 |
Family
ID=73263912
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020115038A Pending JP2021016151A (ja) | 2019-07-11 | 2020-07-02 | 少なくとも1つのカメラと光検出および測距センサを較正するためのシステムおよび方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10841483B1 (ja) |
JP (1) | JP2021016151A (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110619666B (zh) * | 2019-09-20 | 2022-05-27 | 阿波罗智能技术(北京)有限公司 | 用于标定相机的方法及装置 |
US20210344491A1 (en) * | 2020-05-04 | 2021-11-04 | Gaurav Upadhyay | System and method to generate a unique security proof for secure accessing of data |
CN112381889B (zh) * | 2020-11-19 | 2024-05-07 | 阿波罗智联(北京)科技有限公司 | 相机检验方法、装置、设备及存储介质 |
US20220237838A1 (en) * | 2021-01-27 | 2022-07-28 | Nvidia Corporation | Image synthesis using one or more neural networks |
CN112946609B (zh) * | 2021-02-02 | 2022-03-15 | 中国汽车技术研究中心有限公司 | 激光雷达与相机的标定方法、装置、设备及可读存储介质 |
US11802945B2 (en) * | 2021-03-10 | 2023-10-31 | Allegro Microsystems, Llc | Photonic ROIC having safety features |
US11763569B2 (en) * | 2021-03-24 | 2023-09-19 | Denso International America, Inc. | System for controlling a camera supporting human review of sensor information |
US11770621B2 (en) * | 2021-09-30 | 2023-09-26 | Snap Inc. | Customized image reprocessing system using a machine learning model |
GB2612663B (en) * | 2022-05-17 | 2023-12-20 | Envisics Ltd | Head-up display calibration |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005286577A (ja) * | 2004-03-29 | 2005-10-13 | Fuji Photo Film Co Ltd | 撮像装置、表示方法、および車両 |
JP2010175423A (ja) * | 2009-01-30 | 2010-08-12 | Mitsubishi Electric Corp | 計測装置、計測装置のレーザー位置姿勢値補正方法およびレーザー位置姿勢値補正プログラム |
WO2013145072A1 (ja) * | 2012-03-26 | 2013-10-03 | 三菱電機株式会社 | カメラキャリブレーション方法、カメラキャリブレーションプログラムおよびカメラキャリブレーション装置 |
US20140132723A1 (en) * | 2012-11-13 | 2014-05-15 | Osmose Utilities Services, Inc. | Methods for calibrating a digital photographic image of utility structures |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006083297A2 (en) * | 2004-06-10 | 2006-08-10 | Sarnoff Corporation | Method and apparatus for aligning video to three-dimensional point clouds |
US7605817B2 (en) * | 2005-11-09 | 2009-10-20 | 3M Innovative Properties Company | Determining camera motion |
US20080112610A1 (en) * | 2006-11-14 | 2008-05-15 | S2, Inc. | System and method for 3d model generation |
US20100157280A1 (en) * | 2008-12-19 | 2010-06-24 | Ambercore Software Inc. | Method and system for aligning a line scan camera with a lidar scanner for real time data fusion in three dimensions |
US8295589B2 (en) * | 2010-05-20 | 2012-10-23 | Microsoft Corporation | Spatially registering user photographs |
US8775064B2 (en) * | 2011-05-10 | 2014-07-08 | GM Global Technology Operations LLC | Sensor alignment process and tools for active safety vehicle applications |
GB201116961D0 (en) * | 2011-09-30 | 2011-11-16 | Bae Systems Plc | Fast calibration for lidars |
US9875557B2 (en) * | 2012-11-05 | 2018-01-23 | The Chancellor Masters And Scholars Of The University Of Oxford | Extrinsic calibration of imaging sensing devices and 2D LIDARs mounted on transportable apparatus |
WO2014113657A1 (en) * | 2013-01-18 | 2014-07-24 | Intergraph Corporation | Associating a point cloud image with a piping line drawing and applying dimensions regarding the same |
US9201424B1 (en) * | 2013-08-27 | 2015-12-01 | Google Inc. | Camera calibration using structure from motion techniques |
EP3703001A1 (en) * | 2013-08-31 | 2020-09-02 | ML Netherlands C.V. | User feedback for real-time checking and improving quality of scanned image |
US9846963B2 (en) * | 2014-10-03 | 2017-12-19 | Samsung Electronics Co., Ltd. | 3-dimensional model generation using edges |
US9530235B2 (en) * | 2014-11-18 | 2016-12-27 | Google Inc. | Aligning panoramic imagery and aerial imagery |
US10282591B2 (en) * | 2015-08-24 | 2019-05-07 | Qualcomm Incorporated | Systems and methods for depth map sampling |
US9916703B2 (en) * | 2015-11-04 | 2018-03-13 | Zoox, Inc. | Calibration for autonomous vehicle operation |
US10482681B2 (en) * | 2016-02-09 | 2019-11-19 | Intel Corporation | Recognition-based object segmentation of a 3-dimensional image |
KR102551198B1 (ko) * | 2016-03-31 | 2023-07-03 | 매직 립, 인코포레이티드 | 포즈들 및 멀티-dof 제어기들을 사용하는 3d 가상 객체들과 상호작용들 |
CN105911559A (zh) * | 2016-06-02 | 2016-08-31 | 中国科学院光电研究院 | 基于可见光-近红外-短波红外波段的激光雷达系统 |
US10311648B2 (en) * | 2016-06-22 | 2019-06-04 | Aquifi, Inc. | Systems and methods for scanning three-dimensional objects |
US10380767B2 (en) * | 2016-08-01 | 2019-08-13 | Cognex Corporation | System and method for automatic selection of 3D alignment algorithms in a vision system |
US10032310B2 (en) * | 2016-08-22 | 2018-07-24 | Pointivo, Inc. | Methods and systems for wireframes of a structure or element of interest and wireframes generated therefrom |
EP3545337A1 (en) * | 2017-01-26 | 2019-10-02 | Mobileye Vision Technologies Ltd. | Vehicle navigation based on aligned image and lidar information |
US10198829B2 (en) * | 2017-04-25 | 2019-02-05 | Symbol Technologies, Llc | Systems and methods for extrinsic calibration of a plurality of sensors |
US10488521B2 (en) * | 2017-06-13 | 2019-11-26 | TuSimple | Sensor calibration and time method for ground truth static scene sparse flow generation |
US10176596B1 (en) * | 2017-07-06 | 2019-01-08 | GM Global Technology Operations LLC | Calibration verification methods for autonomous vehicle operations |
EP3438776B1 (en) | 2017-08-04 | 2022-09-07 | Bayerische Motoren Werke Aktiengesellschaft | Method, apparatus and computer program for a vehicle |
US10223806B1 (en) | 2017-08-23 | 2019-03-05 | TuSimple | System and method for centimeter precision localization using camera-based submap and LiDAR-based global map |
CN111492403A (zh) | 2017-10-19 | 2020-08-04 | 迪普迈普有限公司 | 用于生成高清晰度地图的激光雷达到相机校准 |
US11227366B2 (en) * | 2018-06-22 | 2022-01-18 | Volkswagen Ag | Heads up display (HUD) content control system and methodologies |
-
2019
- 2019-07-11 US US16/508,592 patent/US10841483B1/en active Active
-
2020
- 2020-07-02 JP JP2020115038A patent/JP2021016151A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005286577A (ja) * | 2004-03-29 | 2005-10-13 | Fuji Photo Film Co Ltd | 撮像装置、表示方法、および車両 |
JP2010175423A (ja) * | 2009-01-30 | 2010-08-12 | Mitsubishi Electric Corp | 計測装置、計測装置のレーザー位置姿勢値補正方法およびレーザー位置姿勢値補正プログラム |
WO2013145072A1 (ja) * | 2012-03-26 | 2013-10-03 | 三菱電機株式会社 | カメラキャリブレーション方法、カメラキャリブレーションプログラムおよびカメラキャリブレーション装置 |
US20140132723A1 (en) * | 2012-11-13 | 2014-05-15 | Osmose Utilities Services, Inc. | Methods for calibrating a digital photographic image of utility structures |
Also Published As
Publication number | Publication date |
---|---|
US10841483B1 (en) | 2020-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021016151A (ja) | 少なくとも1つのカメラと光検出および測距センサを較正するためのシステムおよび方法 | |
CN111532257B (zh) | 用于补偿交通工具校准误差的方法和系统 | |
US10726576B2 (en) | System and method for identifying a camera pose of a forward facing camera in a vehicle | |
US11600075B2 (en) | Nighttime sensing | |
WO2020240284A2 (en) | Vehicle environment modeling with cameras | |
CN110793544B (zh) | 路侧感知传感器参数标定方法、装置、设备及存储介质 | |
GB2555185A (en) | Vehicle exterior monitoring | |
CN111627054B (zh) | 用于预测高置信度密集点云的深度补全误差地图的方法和装置 | |
JP2019528501A (ja) | マルチカメラシステムにおけるカメラ位置合わせ | |
US20200158840A1 (en) | Multi-mode multi-sensor calibration | |
US11199614B1 (en) | Lidar and image calibration for autonomous vehicles | |
JP2016031648A (ja) | 車載機器 | |
US11127147B2 (en) | Three-dimensional point cloud generation using a polarimetric camera in a drive assistance system equipped vehicle | |
US20210011358A1 (en) | Control method and device, gimbal, unmanned aerial vehicle, and computer-readable storage medium | |
KR20200071960A (ko) | 카메라 및 라이다 센서 융합을 이용한 객체 검출 방법 및 그를 위한 장치 | |
CN110794844A (zh) | 自动驾驶方法、装置、电子设备及可读存储介质 | |
CN114170826A (zh) | 自动驾驶控制方法和装置、电子设备和存储介质 | |
US10991155B2 (en) | Landmark location reconstruction in autonomous machine applications | |
US20220237921A1 (en) | Outside environment recognition device | |
CN110827337B (zh) | 确定车载相机的姿态的方法、装置和电子设备 | |
US20230109473A1 (en) | Vehicle, electronic apparatus, and control method thereof | |
CN112816995A (zh) | 目标检测方法及装置、融合处理单元、计算机可读介质 | |
Marefat et al. | A hemispherical omni-directional bio inspired optical sensor | |
US11830254B2 (en) | Outside environment recognition device | |
WO2021106510A1 (ja) | 障害物認識装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200702 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210817 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220517 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220810 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221220 |