JP7493032B2 - 未知の関連付けを有する2dから3dラインに基づいた位置合わせ - Google Patents
未知の関連付けを有する2dから3dラインに基づいた位置合わせ Download PDFInfo
- Publication number
- JP7493032B2 JP7493032B2 JP2022516219A JP2022516219A JP7493032B2 JP 7493032 B2 JP7493032 B2 JP 7493032B2 JP 2022516219 A JP2022516219 A JP 2022516219A JP 2022516219 A JP2022516219 A JP 2022516219A JP 7493032 B2 JP7493032 B2 JP 7493032B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- sensor
- lines
- environment
- point cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000009466 transformation Effects 0.000 claims description 87
- 239000013598 vector Substances 0.000 claims description 75
- 230000004044 response Effects 0.000 claims description 4
- 238000000034 method Methods 0.000 description 58
- 230000015654 memory Effects 0.000 description 26
- 238000004891 communication Methods 0.000 description 24
- 230000004807 localization Effects 0.000 description 23
- 230000008569 process Effects 0.000 description 17
- 238000013459 approach Methods 0.000 description 13
- 239000011159 matrix material Substances 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000005259 measurement Methods 0.000 description 10
- 230000000875 corresponding effect Effects 0.000 description 9
- 238000013500 data storage Methods 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000001052 transient effect Effects 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 230000001131 transforming effect Effects 0.000 description 3
- 238000009472 formulation Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013501 data transformation Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000005670 electromagnetic radiation Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Description
本出願は、2019年9月13日付けで出願された米国仮特許出願第62/900,102号の利益又はこれに対する優先権を主張する2020年3月30日付けで出願された米国仮特許出願第16/834,466号の利益又はこれに対する優先権を主張するものであり、これらの特許文献のそれぞれのものの内容は、引用により、そのすべてが本明細書に包含される。
PAB=[R[t]xR] 式2
上述の実施形態は下記のようにも記載され得るが下記には限定されない。
[構成1]
システムであって、
環境の画像データをキャプチャするように構成された第1センサと、
前記環境のポイントクラウドデータをキャプチャするように構成された第2センサと、
前記第1センサ及び前記第2センサに通信自在に結合された演算装置と、
を有し、
前記演算装置は、
前記第1センサからの前記画像データ及び前記第2センサからの前記ポイントクラウドデータを受け取り、
前記画像データから1つ又は複数の2Dラインをパラメータ化し、
前記ポイントクラウドデータから1つ又は複数の3Dラインをパラメータ化し、
射影変換ベクトル及びデータ関連付けセットについて同時に解くために混合整数線形計画として定式化された位置合わせ問題を解くことにより、前記1つ又は複数の2Dラインを前記1つ又は複数の3Dラインとアライメントし、且つ、
前記射影変換ベクトルに基づいて前記ポイントクラウドデータとアライメントされた前記画像データを有するデータメッシュを生成するように、
構成されている、システム。
[構成2]
前記演算装置は、
前記第1センサ及び前記第2センサ用の較正値を受け取り、前記第1センサが較正済みのセンサとなり、
前記第1センサ用の前記較正値及び前記射影変換ベクトルに基づいて前記第2センサ用の予想較正値を生成し、
前記第2センサ用の前記較正値が予め定義されたエラーのマージン内において前記予想較正値とマッチングしているかどうかを判定し、且つ、
前記第2センサ用の前記較正値が前記予め定義されたエラーのマージン内において前記予想較正値とマッチングしていないと判定することに応答して、前記第2センサが前記較正済みの第1センサを基準として較正されり、前記射影変換ベクトルに基づいて前記第2センサ用の前記較正値を更新するように、
更に構成されている、構成1に記載のシステム。
[構成3]
前記演算装置は、
前記第1センサ及び前記第2センサ用の較正値を受け取り、前記第2センサが較正済みのセンサとなり、
前記第2センサ用の前記較正値及び前記射影変換ベクトルに基づいて前記第1センサ用の予想較正値を生成し、
前記第1センサ用の前記較正値が、予め定義されたエラーのマージン内において前記予想較正値とマッチングしているかどうかを判定し、
前記第1センサ用の前記較正値が前記予め定義されたエラーのマージン内において前記予想較正値とマッチングしていないという判定に応答して、前記第1センサが前記較正済みの第2センサを基準として較正され、前記射影変換ベクトルに基づいて前記第1センサ用の前記較正値を更新するように、
更に構成されている、構成1に記載のシステム。
[構成4]
前記較正値は、外因性パラメータ及び内因性パラメータを含む、構成3に記載のシステム。
[構成5]
前記混合整数線形計画として定式化された前記位置合わせ問題を解くことは、L 1 ノルムを極小化するステップを有する、構成1に記載のシステム。
[構成6]
前記1つ又は複数の2Dラインと前記1つ又は複数の3Dラインの間のデータ関連付けは、前記データ関連付け及びニアレストネイバーヒューリスティックを定義する対応性に関する初期推測が前記位置合わせ問題を解くために適用されるように、当初既知ではない構成1に記載のシステム。
[構成7]
前記環境の前記画像データ内においてキャプチャされた前記環境の視野及び前記環境の前記ポイントクラウドデータ内においてキャプチャされた前記環境の視野は、オーバーラップした前記環境の視野の少なくとも一部分を含む、構成1に記載のシステム。
[構成8]
前記第2センサは、LIDARセンサ、RADARセンサ、又はRGB-Dカメラの少なくとも1つを有する、構成1に記載のシステム。
[構成9]
システムであって、
環境を定義するデータをキャプチャするように構成された第1センサであって、前記データは、画像データ又はポイントクラウドデータの少なくとも1つを有する、第1センサと、
前記第1センサに通信自在に結合された演算装置と、
を有し、
前記演算装置は、
前記第1センサからデータを受け取り、
前記環境のマップデータを取得し、
前記第1センサから受け取られた前記データから1つ又は複数のラインをパラメータ化し、
前記マップデータから1つ又は複数のラインをパラメータ化し、
射影変換ベクトル及びデータ関連付けセットについて同時に解くために混合整数線形計画として定式化された位置合わせ問題を解くことにより、前記第1センサから受け取られた前記データからパラメータ化された前記1つ又は複数のラインを前記マップデータからパラメータ化された前記1つ又は複数のラインとアライメントし、且つ、
前記射影変換ベクトルに基づいて前記マップデータとアライメントされた前記第1センサから受け取られた前記データを有するデータメッシュを生成するように、
構成されている、システム。
[構成10]
前記演算装置は、
前記マップデータに対応するナビゲーション座標を受け取り、且つ、
前記環境の前記第1センサからの前記データがキャプチャされた座標を判定し、これにより、前記環境内の前記第1センサをローカライズするために、前記射影変換ベクトルを前記ナビゲーション座標に対して適用するように、
更に構成されている、構成9に記載のシステム。
[構成11]
前記マップデータに対応する前記ナビゲーション座標は、前記第1センサからのデータとアライメントされた前記環境の観点の経度、緯度、高度を定義している、構成10に記載のシステム。
[構成12]
前記第1センサは、カメラであり、且つ、前記データは、前記環境の画像データである、構成9に記載のシステム。
[構成13]
前記第1センサによってキャプチャされた前記データは、前記環境の前記ポイントクラウドデータである、構成9に記載のシステム。
[構成14]
前記マップデータは、前記環境の少なくとも1つの観点の画像データを含む、構成9に記載のシステム。
[構成15]
前記マップデータは、前記環境の3Dモデルを含み、前記3Dモデルは、前記環境内の複数の場所からキャプチャされた画像データ又は前記ポイントクラウドデータの少なくとも1つを有する、構成9に記載のシステム。
[構成16]
システムであって、
演算装置を有し、
前記演算装置は、
環境のカメラによってキャプチャされた画像データを取得し、
前記環境のポイントクラウドデータを取得し、
前記画像データから1つ又は複数のラインをパラメータ化し、
前記ポイントクラウドデータからの1つ又は複数のラインをパラメータ化し、
射影変換ベクトル及びデータ関連付けセットを同時に解くために混合整数線形計画として定式化された位置合わせ問題を解くことにより、前記画像データからパラメータ化された前記1つ又は複数のラインを前記ポイントクラウドデータからパラメータ化された1つ又は複数のラインとアライメントし、且つ、
前記射影変換ベクトルに基づいて前記ポイントクラウドデータとアライメントされた前記画像データを有するデータメッシュを生成するように、
構成されている、システム。
[構成17]
前記混合整数線形計画として定式化された前記位置合わせ問題を解くステップは、L 1 ノルムを極小化するステップを有する、構成16に記載のシステム。
[構成18]
前記画像データからパラメータ化された前記1つ又は複数のラインと前記ポイントクラウドデータからパラメータ化された前記1つ又は複数のラインの間のデータ関連付けは、前記データ関連付け及びニアレストネイバーヒューリスティックを定義する対応性に関する初期推測が前記位置合わせ問題を解くために適用されるように、当初既知ではない、構成16に記載のシステム。
[構成19]
前記環境の前記画像データ内においてキャプチャされた前記環境の視野及び前記環境の前記ポイントクラウドデータ内においてキャプチャされた前記環境の視野は、オーバーラップする前記環境の視野の少なくとも一部分を含む、構成16に記載のシステム。
[構成20]
前記環境に対応するデータをキャプチャするための1つ又は複数のセンサを有する車両を更に有し、前記1つ又は複数のセンサは、前記1つ又は複数のセンサによってキャプチャされたデータが前記演算装置に送信され且つこれによって処理される能力を有するように、前記演算装置に通信自在に結合されている、構成16に記載のシステム。
Claims (18)
- システムであって、
環境の画像データをキャプチャするように構成された第1センサと、
前記環境のポイントクラウドデータをキャプチャするように構成された第2センサと、
前記第1センサ及び前記第2センサに通信自在に結合された演算装置と、
を有し、
前記演算装置は、
前記第1センサからの前記画像データ及び前記第2センサからの前記ポイントクラウドデータを受け取り、
前記画像データから1つ又は複数の2Dラインをパラメータ化し、
前記ポイントクラウドデータから1つ又は複数の3Dラインをパラメータ化し、
射影変換ベクトル及びデータ関連付けセットについて同時に解くために混合整数線形計画として定式化された位置合わせ問題を解くことにより、前記1つ又は複数の2Dラインを前記1つ又は複数の3Dラインとアライメントし、且つ、
前記射影変換ベクトルに基づいて前記ポイントクラウドデータとアライメントされた前記画像データを有するデータメッシュを生成するように、
構成されており、
前記混合整数線形計画として定式化された前記位置合わせ問題を解くことは、L 1 ノルムを極小化するステップを有する、システム。 - 前記演算装置は、
前記第1センサ及び前記第2センサ用の較正値を受け取り、前記第1センサが較正済みのセンサとなり、
前記第1センサ用の前記較正値及び前記射影変換ベクトルに基づいて前記第2センサ用の予想較正値を生成し、
前記第2センサ用の前記較正値が予め定義されたエラーのマージン内において前記予想較正値とマッチングしているかどうかを判定し、且つ、
前記第2センサ用の前記較正値が前記予め定義されたエラーのマージン内において前記予想較正値とマッチングしていないと判定することに応答して、前記第2センサが前記較正済みの第1センサを基準として較正されり、前記射影変換ベクトルに基づいて前記第2センサ用の前記較正値を更新するように、
更に構成されている、請求項1に記載のシステム。 - 前記演算装置は、
前記第1センサ及び前記第2センサ用の較正値を受け取り、前記第2センサが較正済みのセンサとなり、
前記第2センサ用の前記較正値及び前記射影変換ベクトルに基づいて前記第1センサ用の予想較正値を生成し、
前記第1センサ用の前記較正値が、予め定義されたエラーのマージン内において前記予想較正値とマッチングしているかどうかを判定し、
前記第1センサ用の前記較正値が前記予め定義されたエラーのマージン内において前記予想較正値とマッチングしていないという判定に応答して、前記第1センサが前記較正済みの第2センサを基準として較正され、前記射影変換ベクトルに基づいて前記第1センサ用の前記較正値を更新するように、
更に構成されている、請求項1に記載のシステム。 - 前記較正値は、外因性パラメータ及び内因性パラメータを含む、請求項3に記載のシステム。
- 前記1つ又は複数の2Dラインと前記1つ又は複数の3Dラインの間のデータ関連付けは、前記データ関連付け及びニアレストネイバーヒューリスティックを定義する対応性に関する初期推測が前記位置合わせ問題を解くために適用されるように、当初既知ではない請求項1に記載のシステム。
- 前記環境の前記画像データ内においてキャプチャされた前記環境の視野及び前記環境の前記ポイントクラウドデータ内においてキャプチャされた前記環境の視野は、オーバーラップした前記環境の視野の少なくとも一部分を含む、請求項1に記載のシステム。
- 前記第2センサは、LIDARセンサ、RADARセンサ、又はRGB-Dカメラの少なくとも1つを有する、請求項1に記載のシステム。
- システムであって、
環境を定義するデータをキャプチャするように構成された第1センサであって、前記データは、画像データ又はポイントクラウドデータの少なくとも1つを有する、第1センサと、
前記第1センサに通信自在に結合された演算装置と、
を有し、
前記演算装置は、
前記第1センサからデータを受け取り、
前記環境のマップデータを取得し、
前記第1センサから受け取られた前記データから1つ又は複数の第1のラインをパラメータ化し、前記パラメータ化された1つ又は複数の第1のラインは2Dライン又は3Dラインであり、
前記マップデータから1つ又は複数の第2のラインをパラメータ化し、前記パラメータ化された1つ又は複数の第2のラインは前記パラメータ化された1つ又は複数の第1のラインが3Dラインのときは2Dラインであり、前記パラメータ化された1つ又は複数の第2のラインは前記パラメータ化された1つ又は複数の第1のラインが2Dラインのときは3Dラインであり、
射影変換ベクトル及びデータ関連付けセットについて同時に解くために混合整数線形計画として定式化された位置合わせ問題を解くことにより、前記第1センサから受け取られた前記データからパラメータ化された前記1つ又は複数の第1のラインを前記マップデータからパラメータ化された前記1つ又は複数の第2のラインとアライメントし、且つ、
前記射影変換ベクトルに基づいて前記マップデータとアライメントされた前記第1センサから受け取られた前記データを有するデータメッシュを生成するように、
構成されており、
前記混合整数線形計画として定式化された前記位置合わせ問題を解くことは、L 1 ノルムを極小化するステップを有する、システム。 - 前記演算装置は、
前記マップデータに対応するナビゲーション座標を受け取り、且つ、
前記環境の前記第1センサからの前記データがキャプチャされた座標を判定し、これにより、前記環境内の前記第1センサをローカライズするために、前記射影変換ベクトルを前記ナビゲーション座標に対して適用するように、
更に構成されている、請求項8に記載のシステム。 - 前記マップデータに対応する前記ナビゲーション座標は、前記第1センサからのデータとアライメントされた前記環境の観点の経度、緯度、高度を定義している、請求項9に記載のシステム。
- 前記第1センサは、カメラであり、且つ、前記データは、前記環境の画像データである、請求項8に記載のシステム。
- 前記第1センサによってキャプチャされた前記データは、前記環境の前記ポイントクラウドデータである、請求項8に記載のシステム。
- 前記マップデータは、前記環境の少なくとも1つの観点の画像データを含む、請求項8に記載のシステム。
- 前記マップデータは、前記環境の3Dモデルを含み、前記3Dモデルは、前記環境内の複数の場所からキャプチャされた画像データ又は前記ポイントクラウドデータの少なくとも1つを有する、請求項8に記載のシステム。
- システムであって、
演算装置を有し、
前記演算装置は、
環境のカメラによってキャプチャされた画像データを取得し、
前記環境のポイントクラウドデータを取得し、
前記画像データから1つ又は複数の2Dラインをパラメータ化し、
前記ポイントクラウドデータからの1つ又は複数の3Dラインをパラメータ化し、
射影変換ベクトル及びデータ関連付けセットを同時に解くために混合整数線形計画として定式化された位置合わせ問題を解くことにより、前記画像データからパラメータ化された前記1つ又は複数の2Dラインを前記ポイントクラウドデータからパラメータ化された1つ又は複数の3Dラインとアライメントし、且つ、
前記射影変換ベクトルに基づいて前記ポイントクラウドデータとアライメントされた前記画像データを有するデータメッシュを生成するように、
構成されており、
前記混合整数線形計画として定式化された前記位置合わせ問題を解くことは、L 1 ノルムを極小化するステップを有する、システム。 - 前記画像データからパラメータ化された前記1つ又は複数の2Dラインと前記ポイントクラウドデータからパラメータ化された前記1つ又は複数の3Dラインの間のデータ関連付けは、前記データ関連付け及びニアレストネイバーヒューリスティックを定義する対応性に関する初期推測が前記位置合わせ問題を解くために適用されるように、当初既知ではない、請求項15に記載のシステム。
- 前記環境の前記画像データ内においてキャプチャされた前記環境の視野及び前記環境の前記ポイントクラウドデータ内においてキャプチャされた前記環境の視野は、オーバーラップする前記環境の視野の少なくとも一部分を含む、請求項15に記載のシステム。
- 前記環境に対応するデータをキャプチャするための1つ又は複数のセンサを有する車両を更に有し、前記1つ又は複数のセンサは、前記1つ又は複数のセンサによってキャプチャされたデータが前記演算装置に送信され且つこれによって処理される能力を有するように、前記演算装置に通信自在に結合されている、請求項15に記載のシステム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962900102P | 2019-09-13 | 2019-09-13 | |
US62/900,102 | 2019-09-13 | ||
US16/834,466 US11393127B2 (en) | 2019-09-13 | 2020-03-30 | 2D to 3D line-based registration with unknown associations |
US16/834,466 | 2020-03-30 | ||
PCT/US2020/050706 WO2021051073A1 (en) | 2019-09-13 | 2020-09-14 | 2d to 3d line-based registration with unknown associations |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022548593A JP2022548593A (ja) | 2022-11-21 |
JPWO2021051073A5 JPWO2021051073A5 (ja) | 2023-09-20 |
JP7493032B2 true JP7493032B2 (ja) | 2024-05-30 |
Family
ID=72659365
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022516219A Active JP7493032B2 (ja) | 2019-09-13 | 2020-09-14 | 未知の関連付けを有する2dから3dラインに基づいた位置合わせ |
Country Status (4)
Country | Link |
---|---|
US (1) | US11393127B2 (ja) |
JP (1) | JP7493032B2 (ja) |
CN (1) | CN114556438B (ja) |
WO (1) | WO2021051073A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11645756B2 (en) | 2019-11-14 | 2023-05-09 | Samsung Electronics Co., Ltd. | Image processing apparatus and method |
US20210383573A1 (en) * | 2020-06-03 | 2021-12-09 | Labsphere, Inc. | Calibration network systems and methods of using the same |
US11592539B2 (en) * | 2020-09-04 | 2023-02-28 | Pony Al Inc. | Sensor alignment |
US20220207759A1 (en) * | 2020-12-29 | 2022-06-30 | Faro Technologies, Inc. | Automatic registration of multiple measurement devices |
US20230326053A1 (en) * | 2022-04-08 | 2023-10-12 | Faro Technologies, Inc. | Capturing three-dimensional representation of surroundings using mobile device |
CN116124161A (zh) * | 2022-12-22 | 2023-05-16 | 东南大学 | 一种基于先验地图的LiDAR/IMU融合定位方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012013660A (ja) | 2010-07-05 | 2012-01-19 | Topcon Corp | 点群データ処理装置、点群データ処理システム、点群データ処理方法、および点群データ処理プログラム |
JP2018515825A (ja) | 2015-02-24 | 2018-06-14 | ハイプヴイアール | Lidarステレオ融合実写3dモデルバーチャルリアリティビデオ |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7570791B2 (en) | 2003-04-25 | 2009-08-04 | Medtronic Navigation, Inc. | Method and apparatus for performing 2D to 3D registration |
CA2568852C (en) | 2004-06-03 | 2013-01-22 | Japan Science And Technology Agency | High-speed high-accuracy matrix singular value decomposition method, program, and device |
US8401242B2 (en) * | 2011-01-31 | 2013-03-19 | Microsoft Corporation | Real-time camera tracking using depth maps |
US8942455B2 (en) | 2011-08-30 | 2015-01-27 | Siemens Aktiengesellschaft | 2D/3D image registration method |
EP2728376A1 (en) * | 2012-11-05 | 2014-05-07 | The Chancellor, Masters and Scholars of the University of Oxford | Extrinsic calibration of imaging sensing devices and 2D LIDARs mounted on transportable apparatus |
US9210417B2 (en) * | 2013-07-17 | 2015-12-08 | Microsoft Technology Licensing, Llc | Real-time registration of a stereo depth camera array |
US9646361B2 (en) | 2014-12-10 | 2017-05-09 | Siemens Healthcare Gmbh | Initialization independent approaches towards registration of 3D models with 2D projections |
US9715016B2 (en) * | 2015-03-11 | 2017-07-25 | The Boeing Company | Real time multi dimensional image fusing |
US10489927B2 (en) * | 2016-07-18 | 2019-11-26 | King Abdullah University Of Science And Technology | System and method for three-dimensional image reconstruction using an absolute orientation sensor |
US10318822B2 (en) * | 2017-04-06 | 2019-06-11 | GM Global Technology Operations LLC | Object tracking |
US10432913B2 (en) * | 2017-05-31 | 2019-10-01 | Proximie, Inc. | Systems and methods for determining three dimensional measurements in telemedicine application |
US10891741B2 (en) * | 2017-12-29 | 2021-01-12 | RetailNext, Inc. | Human analytics using fusion of image and depth modalities |
US10830871B2 (en) * | 2018-03-21 | 2020-11-10 | Zoox, Inc. | Sensor calibration |
-
2020
- 2020-03-30 US US16/834,466 patent/US11393127B2/en active Active
- 2020-09-14 WO PCT/US2020/050706 patent/WO2021051073A1/en active Application Filing
- 2020-09-14 JP JP2022516219A patent/JP7493032B2/ja active Active
- 2020-09-14 CN CN202080071484.2A patent/CN114556438B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012013660A (ja) | 2010-07-05 | 2012-01-19 | Topcon Corp | 点群データ処理装置、点群データ処理システム、点群データ処理方法、および点群データ処理プログラム |
US20130121564A1 (en) | 2010-07-05 | 2013-05-16 | Kabushiki Kaisha Topcon | Point cloud data processing device, point cloud data processing system, point cloud data processing method, and point cloud data processing program |
JP2018515825A (ja) | 2015-02-24 | 2018-06-14 | ハイプヴイアール | Lidarステレオ融合実写3dモデルバーチャルリアリティビデオ |
Non-Patent Citations (5)
Title |
---|
P. David, et al,Simultaneous pose and correspondence determination using line features,2003 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2003. Proceedings.,米国,IEEE,2003年,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=1211499 |
STEFFEN GOEBBELS et al,line-based registration of photogrammetric point clouds with 3D city models by means of mixed integer linear programming,Proceedings of the 13th international joint conference on computer vision, imaging and computer graphics theory and applications,米国,IEEE,2018年,volume 4,299-306 |
椛島 佑樹 Yuuki Kabashima,幾何学的整合性に基づくレンジデータとカラー画像の位置合わせ Mapping textures on 3D geometric model using geometrical constraints,情報処理学会研究報告 Vol.2006 No.25 IPSJ SIG Technical Reports,日本,社団法人情報処理学会 Information Processing Society of Japan,第2006巻 |
榊原 静 Shizu Sakakibara,混合整数線形計画問題を用いた階層的な距離画像の位置合わせ Hierarchical Registration of Range Images using Mixed Integer Linear Programming,情報処理学会研究報告 Vol.2007 No.86 IPSJ SIG Technical Reports,日本,社団法人情報処理学会 Information Processing Society of Japan,第2007巻 |
高地 伸夫 Nobuo Kochi,三次元エッジに基づく点群と画像の融合処理による三次元モデリングとその建築物への応用 3D Modeling by Integrating Point Cloud and 2D Images through 3D Edge-Matching and Its Application to Architecture Modeling,電気学会論文誌C Vol.133 No.6 IEEJ,日本,一般社団法人電気学会 The Institute of Electrical Engineers of Japan,第133巻 |
Also Published As
Publication number | Publication date |
---|---|
WO2021051073A1 (en) | 2021-03-18 |
JP2022548593A (ja) | 2022-11-21 |
US20210082148A1 (en) | 2021-03-18 |
CN114556438B (zh) | 2023-01-31 |
US11393127B2 (en) | 2022-07-19 |
CN114556438A (zh) | 2022-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7493032B2 (ja) | 未知の関連付けを有する2dから3dラインに基づいた位置合わせ | |
Mei et al. | Calibration between a central catadioptric camera and a laser range finder for robotic applications | |
JP6827627B2 (ja) | ビークル環境マップを生成および更新するための方法およびシステム | |
Pandey et al. | Automatic extrinsic calibration of vision and lidar by maximizing mutual information | |
Domhof et al. | A joint extrinsic calibration tool for radar, camera and lidar | |
Costante et al. | Exploiting photometric information for planning under uncertainty | |
JP2013187862A (ja) | 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム | |
US10265850B2 (en) | Robotic sensing apparatus and methods of sensor planning | |
US11494939B2 (en) | Sensor self-calibration in the wild by coupling object detection and analysis-by-synthesis | |
Campos et al. | Multi-domain inspection of offshore wind farms using an autonomous surface vehicle | |
Palomer et al. | Underwater 3D laser scanners: The deformation of the plane | |
Silva et al. | Camera calibration using a color-depth camera: Points and lines based DLT including radial distortion | |
WO2023035301A1 (en) | A camera calibration method | |
CN114494466B (zh) | 外参标定方法、装置及设备、存储介质 | |
Fang et al. | Single-shot is enough: Panoramic infrastructure based calibration of multiple cameras and 3D LiDARs | |
Hillemann et al. | UCalMiCeL–Unified intrinsic and extrinsic calibration of a multi-camera-system and a laserscanner | |
Liu et al. | Semalign: Annotation-free camera-lidar calibration with semantic alignment loss | |
Chen et al. | Geometric calibration of a multi-layer LiDAR system and image sensors using plane-based implicit laser parameters for textured 3-D depth reconstruction | |
US11501490B2 (en) | Systems and methods for multi-resolution fusion of pseudo-LiDAR features | |
Chen et al. | Heterogeneous multi-sensor calibration based on graph optimization | |
Wong et al. | HD-map aided LiDAR-INS extrinsic calibration | |
US20230351768A1 (en) | Self-Calibration for Decoration Based Sensor Fusion Method | |
Khan et al. | On-field mounting position estimation of a lidar sensor | |
Hewitt | Intense navigation: Using active sensor intensity observations to improve localization and mapping | |
Hajdu et al. | Calibration Measurements and Computational Models of Sensors Used in Autonomous Vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230911 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230911 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230911 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240123 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240417 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240507 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240520 |