JP2022548593A - 未知の関連付けを有する2dから3dラインに基づいた位置合わせ - Google Patents
未知の関連付けを有する2dから3dラインに基づいた位置合わせ Download PDFInfo
- Publication number
- JP2022548593A JP2022548593A JP2022516219A JP2022516219A JP2022548593A JP 2022548593 A JP2022548593 A JP 2022548593A JP 2022516219 A JP2022516219 A JP 2022516219A JP 2022516219 A JP2022516219 A JP 2022516219A JP 2022548593 A JP2022548593 A JP 2022548593A
- Authority
- JP
- Japan
- Prior art keywords
- data
- sensor
- environment
- point cloud
- lines
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000009466 transformation Effects 0.000 claims abstract description 105
- 239000013598 vector Substances 0.000 claims abstract description 64
- 238000000844 transformation Methods 0.000 abstract description 27
- 238000000034 method Methods 0.000 description 58
- 230000015654 memory Effects 0.000 description 28
- 238000004891 communication Methods 0.000 description 24
- 230000004807 localization Effects 0.000 description 23
- 230000008569 process Effects 0.000 description 16
- 239000011159 matrix material Substances 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000013500 data storage Methods 0.000 description 9
- 230000000875 corresponding effect Effects 0.000 description 8
- 238000005259 measurement Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000012795 verification Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000009472 formulation Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013501 data transformation Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000005670 electromagnetic radiation Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本出願は、2019年9月13日付けで出願された米国仮特許出願第62/900,102号の利益又はこれに対する優先権を主張する2020年3月30日付けで出願された米国仮特許出願第16/834,466号の利益又はこれに対する優先権を主張するものであり、これらの特許文献のそれぞれのものの内容は、引用により、そのすべてが本明細書に包含される。
PAB=[R[t]xR] 式2
Claims (20)
- システムであって、
環境の画像データをキャプチャするように構成された第1センサと、
前記環境のポイントクラウドデータをキャプチャするように構成された第2センサと、
前記第1センサ及び前記第2センサに通信自在に結合された演算装置と、
を有し、
前記演算装置は、
前記第1センサからの前記画像データ及び前記第2センサからの前記ポイントクラウドデータを受け取り、
前記画像データから1つ又は複数の2Dラインをパラメータ化し、
前記ポイントクラウドデータから1つ又は複数の3Dラインをパラメータ化し、
射影変換ベクトル及びデータ関連付けセットについて同時に解くために混合整数線形計画として定式化された位置合わせ問題を解くことにより、前記1つ又は複数の2Dラインを前記1つ又は複数の3Dラインとアライメントし、且つ、
前記射影変換ベクトルに基づいて前記ポイントクラウドデータとアライメントされた前記画像データを有するデータメッシュを生成するように、
構成されている、システム。 - 前記演算装置は、
前記第1センサ及び前記第2センサ用の較正値を受け取り、前記第1センサが較正済みのセンサとなり、
前記第1センサ用の前記較正値及び前記射影変換ベクトルに基づいて前記第2センサ用の予想較正値を生成し、
前記第2センサ用の前記較正値が予め定義されたエラーのマージン内において前記予想較正値とマッチングしているかどうかを判定し、且つ、
前記第2センサ用の前記較正値が前記予め定義されたエラーのマージン内において前記予想較正値とマッチングしていないと判定することに応答して、前記第2センサが前記較正済みの第1センサを基準として較正されり、前記射影変換ベクトルに基づいて前記第2センサ用の前記較正値を更新するように、
更に構成されている、請求項1に記載のシステム。 - 前記演算装置は、
前記第1センサ及び前記第2センサ用の較正値を受け取り、前記第2センサが較正済みのセンサとなり、
前記第2センサ用の前記較正値及び前記射影変換ベクトルに基づいて前記第1センサ用の予想較正値を生成し、
前記第1センサ用の前記較正値が、予め定義されたエラーのマージン内において前記予想較正値とマッチングしているかどうかを判定し、
前記第1センサ用の前記較正値が前記予め定義されたエラーのマージン内において前記予想較正値とマッチングしていないという判定に応答して、前記第1センサが前記較正済みの第2センサを基準として較正され、前記射影変換ベクトルに基づいて前記第1センサ用の前記較正値を更新するように、
更に構成されている、請求項1に記載のシステム。 - 前記較正値は、外因性パラメータ及び内因性パラメータを含む、請求項3に記載のシステム。
- 前記混合整数線形計画として定式化された前記位置合わせ問題を解くことは、L1ノルムを極小化するステップを有する、請求項1に記載のシステム。
- 前記1つ又は複数の2Dラインと前記1つ又は複数の3Dラインの間のデータ関連付けは、前記データ関連付け及びニアレストネイバーヒューリスティックを定義する対応性に関する初期推測が前記位置合わせ問題を解くために適用されるように、当初既知ではない請求項1に記載のシステム。
- 前記環境の前記画像データ内においてキャプチャされた前記環境の視野及び前記環境の前記ポイントクラウドデータ内においてキャプチャされた前記環境の視野は、オーバーラップした前記環境の視野の少なくとも一部分を含む、請求項1に記載のシステム。
- 前記第2センサは、LIDARセンサ、RADARセンサ、又はRGB-Dカメラの少なくとも1つを有する、請求項1に記載のシステム。
- システムであって、
環境を定義するデータをキャプチャするように構成された第1センサであって、前記データは、画像データ又はポイントクラウドデータの少なくとも1つを有する、第1センサと、
前記第1センサに通信自在に結合された演算装置と、
を有し、
前記演算装置は、
前記第1センサからデータを受け取り、
前記環境のマップデータを取得し、
前記第1センサから受け取られた前記データから1つ又は複数のラインをパラメータ化し、
前記マップデータから1つ又は複数のラインをパラメータ化し、
射影変換ベクトル及びデータ関連付けセットについて同時に解くために混合整数線形計画として定式化された位置合わせ問題を解くことにより、前記第1センサから受け取られた前記データからパラメータ化された前記1つ又は複数のラインを前記マップデータからパラメータ化された前記1つ又は複数のラインとアライメントし、且つ、
前記射影変換ベクトルに基づいて前記マップデータとアライメントされた前記第1センサから受け取られた前記データを有するデータメッシュを生成するように、
構成されている、システム。 - 前記演算装置は、
前記マップデータに対応するナビゲーション座標を受け取り、且つ、
前記環境の前記第1センサからの前記データがキャプチャされた座標を判定し、これにより、前記環境内の前記第1センサをローカライズするために、前記射影変換ベクトルを前記ナビゲーション座標に対して適用するように、
更に構成されている、請求項9に記載のシステム。 - 前記マップデータに対応する前記ナビゲーション座標は、前記第1センサからのデータとアライメントされた前記環境の観点の経度、緯度、高度を定義している、請求項10に記載のシステム。
- 前記第1センサは、カメラであり、且つ、前記データは、前記環境の画像データである、請求項9に記載のシステム。
- 前記第1センサによってキャプチャされた前記データは、前記環境の前記ポイントクラウドデータである、請求項9に記載のシステム。
- 前記マップデータは、前記環境の少なくとも1つの観点の画像データを含む、請求項9に記載のシステム。
- 前記マップデータは、前記環境の3Dモデルを含み、前記3Dモデルは、前記環境内の複数の場所からキャプチャされた画像データ又は前記ポイントクラウドデータの少なくとも1つを有する、請求項9に記載のシステム。
- システムであって、
演算装置を有し、
前記演算装置は、
環境のカメラによってキャプチャされた画像データを取得し、
前記環境のポイントクラウドデータを取得し、
前記画像データから1つ又は複数のラインをパラメータ化し、
前記ポイントクラウドデータからの1つ又は複数のラインをパラメータ化し、
射影変換ベクトル及びデータ関連付けセットを同時に解くために混合整数線形計画として定式化された位置合わせ問題を解くことにより、前記画像データからパラメータ化された前記1つ又は複数のラインを前記ポイントクラウドデータからパラメータ化された1つ又は複数のラインとアライメントし、且つ、
前記射影変換ベクトルに基づいて前記ポイントクラウドデータとアライメントされた前記画像データを有するデータメッシュを生成するように、
構成されている、システム。 - 前記混合整数線形計画として定式化された前記位置合わせ問題を解くステップは、L1ノルムを極小化するステップを有する、請求項16に記載のシステム。
- 前記画像データからパラメータ化された前記1つ又は複数のラインと前記ポイントクラウドデータからパラメータ化された前記1つ又は複数のラインの間のデータ関連付けは、前記データ関連付け及びニアレストネイバーヒューリスティックを定義する対応性に関する初期推測が前記位置合わせ問題を解くために適用されるように、当初既知ではない、請求項16に記載のシステム。
- 前記環境の前記画像データ内においてキャプチャされた前記環境の視野及び前記環境の前記ポイントクラウドデータ内においてキャプチャされた前記環境の視野は、オーバーラップする前記環境の視野の少なくとも一部分を含む、請求項16に記載のシステム。
- 前記環境に対応するデータをキャプチャするための1つ又は複数のセンサを有する車両を更に有し、前記1つ又は複数のセンサは、前記1つ又は複数のセンサによってキャプチャされたデータが前記演算装置に送信され且つこれによって処理される能力を有するように、前記演算装置に通信自在に結合されている、請求項16に記載のシステム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962900102P | 2019-09-13 | 2019-09-13 | |
US62/900,102 | 2019-09-13 | ||
US16/834,466 | 2020-03-30 | ||
US16/834,466 US11393127B2 (en) | 2019-09-13 | 2020-03-30 | 2D to 3D line-based registration with unknown associations |
PCT/US2020/050706 WO2021051073A1 (en) | 2019-09-13 | 2020-09-14 | 2d to 3d line-based registration with unknown associations |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022548593A true JP2022548593A (ja) | 2022-11-21 |
JPWO2021051073A5 JPWO2021051073A5 (ja) | 2023-09-20 |
JP7493032B2 JP7493032B2 (ja) | 2024-05-30 |
Family
ID=72659365
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022516219A Active JP7493032B2 (ja) | 2019-09-13 | 2020-09-14 | 未知の関連付けを有する2dから3dラインに基づいた位置合わせ |
Country Status (4)
Country | Link |
---|---|
US (1) | US11393127B2 (ja) |
JP (1) | JP7493032B2 (ja) |
CN (1) | CN114556438B (ja) |
WO (1) | WO2021051073A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11645756B2 (en) | 2019-11-14 | 2023-05-09 | Samsung Electronics Co., Ltd. | Image processing apparatus and method |
US11592539B2 (en) * | 2020-09-04 | 2023-02-28 | Pony Al Inc. | Sensor alignment |
US20220207759A1 (en) * | 2020-12-29 | 2022-06-30 | Faro Technologies, Inc. | Automatic registration of multiple measurement devices |
US20230326053A1 (en) * | 2022-04-08 | 2023-10-12 | Faro Technologies, Inc. | Capturing three-dimensional representation of surroundings using mobile device |
CN116124161B (zh) * | 2022-12-22 | 2024-07-05 | 东南大学 | 一种基于先验地图的LiDAR/IMU融合定位方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7570791B2 (en) | 2003-04-25 | 2009-08-04 | Medtronic Navigation, Inc. | Method and apparatus for performing 2D to 3D registration |
US8306361B2 (en) | 2004-06-03 | 2012-11-06 | Japan Science And Technology Agency | High-speed high-accuracy matrix singular value decomposition method, program, and device |
JP5462093B2 (ja) | 2010-07-05 | 2014-04-02 | 株式会社トプコン | 点群データ処理装置、点群データ処理システム、点群データ処理方法、および点群データ処理プログラム |
US8401242B2 (en) * | 2011-01-31 | 2013-03-19 | Microsoft Corporation | Real-time camera tracking using depth maps |
US8942455B2 (en) | 2011-08-30 | 2015-01-27 | Siemens Aktiengesellschaft | 2D/3D image registration method |
EP2728376A1 (en) * | 2012-11-05 | 2014-05-07 | The Chancellor, Masters and Scholars of the University of Oxford | Extrinsic calibration of imaging sensing devices and 2D LIDARs mounted on transportable apparatus |
US9210417B2 (en) * | 2013-07-17 | 2015-12-08 | Microsoft Technology Licensing, Llc | Real-time registration of a stereo depth camera array |
US9646361B2 (en) | 2014-12-10 | 2017-05-09 | Siemens Healthcare Gmbh | Initialization independent approaches towards registration of 3D models with 2D projections |
US9369689B1 (en) | 2015-02-24 | 2016-06-14 | HypeVR | Lidar stereo fusion live action 3D model video reconstruction for six degrees of freedom 360° volumetric virtual reality video |
US9715016B2 (en) * | 2015-03-11 | 2017-07-25 | The Boeing Company | Real time multi dimensional image fusing |
US10489927B2 (en) * | 2016-07-18 | 2019-11-26 | King Abdullah University Of Science And Technology | System and method for three-dimensional image reconstruction using an absolute orientation sensor |
US10318822B2 (en) * | 2017-04-06 | 2019-06-11 | GM Global Technology Operations LLC | Object tracking |
US10432913B2 (en) * | 2017-05-31 | 2019-10-01 | Proximie, Inc. | Systems and methods for determining three dimensional measurements in telemedicine application |
US10891741B2 (en) * | 2017-12-29 | 2021-01-12 | RetailNext, Inc. | Human analytics using fusion of image and depth modalities |
US10830871B2 (en) * | 2018-03-21 | 2020-11-10 | Zoox, Inc. | Sensor calibration |
-
2020
- 2020-03-30 US US16/834,466 patent/US11393127B2/en active Active
- 2020-09-14 CN CN202080071484.2A patent/CN114556438B/zh active Active
- 2020-09-14 JP JP2022516219A patent/JP7493032B2/ja active Active
- 2020-09-14 WO PCT/US2020/050706 patent/WO2021051073A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2021051073A1 (en) | 2021-03-18 |
CN114556438A (zh) | 2022-05-27 |
US20210082148A1 (en) | 2021-03-18 |
US11393127B2 (en) | 2022-07-19 |
CN114556438B (zh) | 2023-01-31 |
JP7493032B2 (ja) | 2024-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7493032B2 (ja) | 未知の関連付けを有する2dから3dラインに基づいた位置合わせ | |
Mei et al. | Calibration between a central catadioptric camera and a laser range finder for robotic applications | |
EP3542182B1 (en) | Methods and systems for vehicle environment map generation and updating | |
Blanco et al. | A collection of outdoor robotic datasets with centimeter-accuracy ground truth | |
CN111383279B (zh) | 外参标定方法、装置及电子设备 | |
Nguyen et al. | A high-definition LIDAR system based on two-mirror deflection scanners | |
US20200082547A1 (en) | Method and apparatus for determining motion vector field, device, storage medium and vehicle | |
JP2013187862A (ja) | 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム | |
US11494939B2 (en) | Sensor self-calibration in the wild by coupling object detection and analysis-by-synthesis | |
US10265850B2 (en) | Robotic sensing apparatus and methods of sensor planning | |
US11501490B2 (en) | Systems and methods for multi-resolution fusion of pseudo-LiDAR features | |
Gong et al. | Extrinsic calibration of a 3D LIDAR and a camera using a trihedron | |
WO2023035301A1 (en) | A camera calibration method | |
Silva et al. | Camera calibration using a color-depth camera: Points and lines based DLT including radial distortion | |
Zhou | A closed-form algorithm for the least-squares trilateration problem | |
Fang et al. | Single-shot is enough: Panoramic infrastructure based calibration of multiple cameras and 3D LiDARs | |
CN114494466B (zh) | 外参标定方法、装置及设备、存储介质 | |
Chen et al. | Geometric calibration of a multi-layer LiDAR system and image sensors using plane-based implicit laser parameters for textured 3-D depth reconstruction | |
AU774749B2 (en) | Method and apparatus for calibrating positions of a plurality of first light sources on a first part | |
Chen et al. | Heterogeneous multi-sensor calibration based on graph optimization | |
Robinson et al. | Robust accurate extrinsic calibration of static non-overlapping cameras | |
Yamada et al. | Evaluation of calibration methods to construct a 3-D environmental map with good color projection using both camera images and laser scanning data | |
KR20210116161A (ko) | 단일 체커보드를 이용하는 이종 센서 캘리브레이션 방법 및 장치 | |
Hajdu et al. | Calibration Measurements and Computational Models of Sensors Used in Autonomous Vehicles | |
Khan et al. | On-field mounting position estimation of a lidar sensor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230911 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230911 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230911 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240123 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240417 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240507 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240520 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7493032 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |