JP6761388B2 - 推定装置及びプログラム - Google Patents
推定装置及びプログラム Download PDFInfo
- Publication number
- JP6761388B2 JP6761388B2 JP2017162463A JP2017162463A JP6761388B2 JP 6761388 B2 JP6761388 B2 JP 6761388B2 JP 2017162463 A JP2017162463 A JP 2017162463A JP 2017162463 A JP2017162463 A JP 2017162463A JP 6761388 B2 JP6761388 B2 JP 6761388B2
- Authority
- JP
- Japan
- Prior art keywords
- point cloud
- voxel
- unit
- division
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
3D点群データのモデル化手法の多くは、ボクセルグリッドに依存している。非特許文献2におけるNormal Distribution Transform (NDT)は空間をボクセルで区切った後に、各ボクセル内に位置する点群を3次元多変量正規分布のパラメータ、すなわち平均と分散共分散行列で表現する。そして、モデル化された地図点群とセンサ点群を用いて自己位置推定を実現する。
「第一取得部11/第二取得部12」では、「センサ点群/地図点群」を取得する。具体的な取得手法は、前述のLiDARなどの既存手法を利用できる。
初期位置姿勢取得部31は、推定装置10の初期位置姿勢を取得する。当該取得される初期位置姿勢は、並進成分としての位置パラメータおよび回転成分としての回転パラメータを含む情報である。具体的には例えばGNSS/INS(全球測位衛星システム、慣性航法システム、あるいはこれらシステムの複合システム)や、一つ前の時刻のセンサ点群を用いた推定結果(すなわち推定部18による推定結果)、デッドレコニング、あるいは手動入力によって取得すればよい。他の方法を用いて取得してもよい。
「センサ点群/地図点群」を構成している3D点群は一般的に(x,y,z)の直交座標系で表現されるものである。「第一整列部12/第二整列部22」では、与えられた点群(すなわち、「センサ点群/地図点群」)のローカル座標系を、指定された実世界の任意の所定方位と一致する様に変換する。例えば、点群を表現しているローカル座標系のx軸が緯度0°、y軸が経度0°に一致する様に指定しても良い。
第二分割部23は第一処理として、任意に設定可能な所定基準点(例えばローカル座標系の原点)を元に、方位指定された地図点群が分布している空間を所定サイズのボクセルで分割する。更に、x,y,z 方向に指定した個数のボクセルを包括する直方体で分割する。当該直方体をブロックと呼称する。この際、ボクセルおよびブロックの各辺は、それぞれローカル座標系の x 軸,y軸,z軸に沿うように整列されていることを特筆する。
blx = vlx * vnx (数式 1)
bly = vly * vny (数式 2)
blz = vlz * vnz (数式 3)
voxel_id= voxel_idx+vnx*voxel_idy+(vnx*vny)*voxel_idz (数式 4)
「第一モデル化部14/第二モデル化部24」は、ボクセル内に含まれる点群を特定のモデルで表現する。
「第一量子化部15/第二量子化部25」は、「第一モデル化部14/第二モデル化部24」で得られたモデルを量子化する。当該モデルが数式5のものである場合、具体的には例えば以下のように量子化すればよい。
mean_idx = vsx / vlx * vqx (mean_idx =0, 1,…, vqx) (数式 6)
mean_idy = vsy / vly * vqy (mean_idy =0, 1,…, vqy) (数式 7)
mean_idz = vsz / vlz * vqz (mean_idz =0, 1,…, vqz) (数式 8)
mean_id = mean_idx + vqx * mean_idy + (vqx * vqy) * mean_idz (数式 9)
出力部32は、与えられた地図点群をモデル化した結果(第二量子化部25の出力データ)を、ブロック単位(第二分割部23で定義したブロック単位)でまとめたデータを出力する。各ブロックが含むデータは、ブロックの中心座標、ボクセルごとのボクセルID(voxel_idx, voxel_idy, voxel_idz)、ボクセルごとの平均ID(mean_idx,mean_idy,mean_idz)である。ここで、第二モデル化部42計算部において、モデル計算をスキップしたボクセルの情報は含まないことを特筆する。
近傍取得部34は第一処理として、初期位置姿勢取得部31が取得した初期位置姿勢における座標位置と、記憶部33に記憶されている各ブロックの中心座標を比較した際に、最近傍となるブロックの情報を記憶部33から取得する。
・1番のブロック:更新無し
・2番のブロック:全てのvoxel_idxにvnxを加算
・3番のブロック:全てのvoxel_idxに2*vnxを加算
・4番のブロック:全てのvoxel_idyにvnyを加算
・5番のブロック:全てのvoxel_idxにvnxを,全てのvoxel_idyにvnyを加算
・6番のブロック:全てのvoxel_idxに2*vnxを,全てのvoxel_idyにvnyを加算
・7番のブロック:全てのvoxel_idyに2*vnyを加算
・8番のブロック:全てのvoxel_idxにvnxを,全てのvoxel_idyに2*vnyを加算
・9番のブロック:全てのvoxel_idxに2*vnxを,全てのvoxel_idyに2*vnyを加算
なお、この例ではz軸方向にブロックを追加していないが、追加する場合も同様にvoxel_idzを更新することができる。
第一分割部13は、(手順1)第一整列部12によって方向が定義されたセンサ点群に様々な姿勢変換を与えた上で、(手順2)初期位置姿勢の位置にベクトルd(前述の通り、近傍取得部34から取得される)を加えた座標をセンサ側の最近傍ブロック中心点(SBCNNと呼ぶ。)とみなし、(手順3)空間をボクセルで分割する。当該みなされる最近傍ブロック中心点SBCNNの模式例は図7にも示されている通りである。
初期位置姿勢取得部31から得られた初期位置姿勢が誤差を含まない理想的な状況においては、地図データ位置としての最近傍ブロック中心MBCNNと、(手順2)でこれにみなされたセンサ側の最近傍ブロック中心点SBCNNとは一致する。従って当該一致する理想的な状況下で、地図側空間Smと同サイズの空間をセンサ側の実世界データにおいて取得した場合、その空間が含む実世界の領域は、地図側空間Smのそれと一致する。従って、センサ側データにおいて仮にこの空間を後段側の第一モデル化部14でモデル化した場合、得られるモデルは地図側空間Smのそれ(第二モデル化部24のモデル化結果)と類似する可能性が高い。
初期位置姿勢は、回転パラメータに誤差を含んでいる可能性もある。センサ点群は、初期位置姿勢を元に第一整列部12で回転変換されることで所定方向が設定されている、すなわち(x,y,z)軸が定義されているが、初期位置姿勢の回転パラメータに誤差がある場合、たとえ位置パラメータに誤差が含まれないとしても地図側空間Smが含んでいる実世界の領域と同じ領域を見つけることは出来ない。なぜならば図3の[1]に模式例を示すように、地図側データとセンサ側データとで実際の方向が異なる形でボクセル分割してしまうと、得られるモデルデータも異なるからである。
(手順3)のボクセル分割は、(手順1)で得られた一連のSPCi (i=0,1,2,…,r_size) のそれぞれに関して同様に実施されるものであり、具体的には以下の(手順3−1)及び(手順3−2)の通りである。
対象となるセンサ点群SPCiに対して、その基準点srpを基準に、更新された探索空間Svsをボクセルで分割する。ここでは,ボクセル量子化誤りを軽減するために、(すなわち、低減された結果を後段側の比較部17において見出すことを可能にするために、)ボクセルの解像度よりも細かいサイズのステップ幅による平行移動を基準点srp及び更新された探索空間Svsに与えた上で(すなわち、探索空間Svsにおいて当該ステップ幅だけ基準点srpからずれた位置をボクセル分割位置として設定したうえで)、更新された探索空間Svsをボクセルで分割する。
rsnx = vlx / rsx (数式10)
rsny = vly / rsy (数式11)
rsnz = vlz / rsz (数式12)
まず、当該(手順3−2)の目的を述べる。当該目的はすなわち、図9に模式的に示すように、後段側の比較部17において結果的に実現されることとなる処理である、センサ側点群に相当する更新された探索空間Svs(当該探索空間Svsは(手順3−1)のボクセル分割の仕方と(手順1)で適用された回転変換の仕方との組み合わせ総数だけそれぞれ存在する)の内部を、地図側空間Smを移動させながらサーチして、最も一致する箇所を見つけるという処理を、具体的に「移動させながらサーチ」する必要なく可能とするためである。このため(手順3−2)では、3次元ステップ幅として指定される当該サーチの際の移動量(Δx, Δy, Δz)に紐づける形で、探索空間Svs内の一連の探索対象ブロック(地図側空間Smと同サイズ)を予め用意しておくという処理を行なう。
以上のように網羅的に分割する(手順1)〜(手順3)によって、最終的に、第一分割部13では、与えられたセンサ点群に対して、{(r_size + 1) * rs_size * vs_size}通りのブロック分割結果を得ることとなる。また、当該得られた各ブロックに、自身に対応する変換IDを紐づける。当該変換IDは特に、適用された(手順1)及び(手順3)での変換の仕方の詳細が紐付けられたものとなる。
「第一生成部16/第二生成部26」は第一処理として、与えられたブロック内のボクセルIDと平均IDのペアの集合を元に、データ列を生成する。初めに、ブロックが含む可能性のある最大のボクセル数vnを求める。近傍取得部34で最近傍ブロックのみを取得した場合は、次式で求められる;
vn = vnx * vny * vnz (数式13)
近傍取得部34で周囲のブロックと合わせて取得した場合も同様に、それらを一つのブロックとみなした場合の、ブロックが含む可能性のある最大のボクセル数vnを計算する。なお、最大のボクセル数vnに至らないブロックは、ブロックサイズが小さいのではなく、ボクセル内の点が少ない又は存在しないことにより「第一モデル化部14/第二モデル化部24」でモデル化処理がスキップされたボクセルを含むものであることを特筆する。
比較部17は、第二生成部26から得られる地図側の単一のデータ列と、第一生成部16から得られるセンサ側の{(r_size + 1) * rs_size* vs_size}通りのデータ列群の間で類似度を計算する。ここで、センサ側のデータ列には,それぞれに対応する変換IDが紐づけられていることを特筆する。
推定部18は、初期位置姿勢取得部31で得られた初期位置姿勢と、比較部17において最大の類似度を得た変換IDと、を入力とし、センサの自己位置姿勢を計算する。すなわち、第一取得部11の取得したセンサデータを計測したセンサの自己位置姿勢を計算する。
20…モデル化装置、21…第一取得部、22…第二整列部、23…第二分割部、24…第二モデル化部、25…第二量子化部、32…出力部、33…記憶部
Claims (12)
- クエリ点群に対して、サブボクセル単位でボクセル分割位置が互いに異なる複数の分割手法を適用する第一分割部と、
前記適用される複数の分割手法ごとに、ボクセル内のクエリ点群をモデル化したクエリ点群モデル化データを得る第一モデル化部と、
リファレンス点群に所定のボクセル分割手法を適用し且つボクセル内のリファレンス点群をモデル化して得られたリファレンス点群モデル化データと、前記複数の分割手法ごとのクエリ点群モデル化データとを比較し、類似していると判定される分割手法におけるクエリ点群モデル化データを得る比較部と、を備えることを特徴とする推定装置。 - 前記第一分割部ではさらに、前記クエリ点群に複数の回転変換を施し、当該施された回転変換ごとのクエリ点群に対して、前記サブボクセル単位でボクセル分割位置が互いに異なる複数の分割手法を適用することを特徴とする請求項1に記載の推定装置。
- 前記リファレンス点群モデル化データは、ボクセルが集合した所定サイズのリファレンスブロックに対して得られており、
前記第一モデル化部は、前記所定サイズよりも大きなサイズでボクセルが集合したクエリブロックに対して前記クエリ点群モデル化データを得ており、
前記第一分割部ではさらに、前記クエリブロック内の所定位置範囲であって前記リファレンスブロックのサイズを占める位置範囲に並進移動変換を施し、当該施された並進移動変換の移動先範囲におけるクエリ点群に対して、前記サブボクセル単位でボクセル位置が互いに異なる複数の分割手法を適用することを特徴とする請求項1または2に記載の推定装置。 - さらに、前記クエリ点群モデル化データを量子化して量子化クエリ点群モデル化データを得る第一量子化部を含み、
前記比較部では、リファレンス点群に所定のボクセル分割手法を適用し且つボクセル内のリファレンス点群をモデル化及び量子化して得られた量子化リファレンス点群モデル化データと、前記第一量子化部で得られる前記複数の分割手法ごとの量子化クエリ点群モデル化データとを比較し、類似していると判定される分割手法における量子化クエリ点群モデル化データを得ることを特徴とする請求項1ないし3のいずれかに記載の推定装置。 - 前記クエリ点群はセンサによって取得されたものであり、
前記リファレンス点群は前記センサが計測する対象となるフィールドにおいて取得されたものであり、
前記センサが前記クエリ点群を取得した際の初期位置姿勢を取得する初期位置姿勢取得部と、
前記比較部によって最も類似していると判定される分割手法におけるクエリ点群モデル化データの当該分割手法に基づいて前記初期位置姿勢を補正したものとして、前記センサが前記クエリ点群を取得した際の前記フィールド内での位置姿勢を推定する推定部をさらに備えることを特徴とする請求項1ないし4のいずれかに記載の推定装置。 - 前記比較部で前記比較する対象となる前記リファレンス点群モデル化データを、前記フィールド内の一連のリファレンス点群の中から前記初期位置姿勢の近傍に属するものとして取得する近傍取得部をさらに備えることを特徴とする請求項5に記載の推定装置。
- 前記リファレンス点群モデル化データは、ボクセルが集合した所定サイズのリファレンスブロックに対して前記近傍取得部によって得られており、
前記第一モデル化部は、前記所定サイズよりも大きなサイズでボクセルが集合したクエリブロックに対して前記クエリ点群モデル化データを得ており、
前記第一分割部ではさらに、 前記クエリブロック内の所定位置範囲であって前記リファレンスブロックのサイズを占める位置範囲に並進移動変換を施し、当該施された並進移動変換の移動先範囲におけるクエリ点群に対して、前記サブボクセル単位でボクセル位置が互いに異なる複数の分割手法を適用し、
前記推定部では、前記比較部によって最も類似していると判定される分割手法及び並進移動変換におけるクエリ点群モデル化データの当該並進移動変換に基づいて前記初期位置姿勢における位置を補正したものとして、前記センサが前記クエリ点群を取得した際の前記フィールド内での位置姿勢を推定することを特徴とする請求項6に記載の推定装置。 - 前記第一分割部ではさらに、前記クエリ点群に複数の回転変換を施し、当該施された回転変換ごとのクエリ点群に対して、前記サブボクセル単位でボクセル分割位置が互いに異なる複数の分割手法を適用し、
前記推定部では、前記比較部によって最も類似していると判定される分割手法及び回転変換におけるクエリ点群モデル化データの当該回転変換に基づいて前記初期位置姿勢における姿勢を補正したものとして、前記センサが前記クエリ点群を取得した際の前記フィールド内での位置姿勢を推定することを特徴とする請求項6または7に記載の推定装置。 - 前記推定部では、前記比較部によって最も類似していると判定される分割手法におけるクエリ点群モデル化データの当該分割手法におけるボクセル分割位置に基づいて前記初期位置姿勢における位置を補正したものとして、前記センサが前記クエリ点群を取得した際の前記フィールド内での位置姿勢を推定することを特徴とする請求項6ないし8のいずれかに記載の推定装置。
- 前記第一モデル化部では、ボクセル内のクエリ点群をモデル化したクエリ点群モデル化データを、クエリ点群における座標平均、座標標準偏差、点群に対応する画素の輝度平均、点群に対応する画素の色平均の少なくとも1つを含んで構成されるものとして得ることを特徴とする請求項1ないし9のいずれかに記載の推定装置。
- 前記比較部では、リファレンス点群モデル化データ及びクエリ点群モデル化データを同一サイズのデータ列となしたうえで比較することを特徴とする請求項1ないし10のいずれかに記載の推定装置。
- コンピュータを請求項1ないし11のいずれかに記載の推定装置として機能させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017162463A JP6761388B2 (ja) | 2017-08-25 | 2017-08-25 | 推定装置及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017162463A JP6761388B2 (ja) | 2017-08-25 | 2017-08-25 | 推定装置及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019040445A JP2019040445A (ja) | 2019-03-14 |
JP6761388B2 true JP6761388B2 (ja) | 2020-09-23 |
Family
ID=65726057
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017162463A Active JP6761388B2 (ja) | 2017-08-25 | 2017-08-25 | 推定装置及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6761388B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11725944B2 (en) | 2020-03-02 | 2023-08-15 | Apollo Intelligent Driving Technology (Beijing) Co, Ltd. | Method, apparatus, computing device and computer-readable storage medium for positioning |
EP4246489A1 (en) * | 2020-11-13 | 2023-09-20 | Pioneer Corporation | Information processing apparatus, control method, program, and storage medium |
-
2017
- 2017-08-25 JP JP2017162463A patent/JP6761388B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019040445A (ja) | 2019-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10269147B2 (en) | Real-time camera position estimation with drift mitigation in incremental structure from motion | |
US11222204B2 (en) | Creation of a 3D city model from oblique imaging and lidar data | |
US8792726B2 (en) | Geometric feature extracting device, geometric feature extracting method, storage medium, three-dimensional measurement apparatus, and object recognition apparatus | |
US20180315232A1 (en) | Real-time incremental 3d reconstruction of sensor data | |
US20180315222A1 (en) | Real-time image undistortion for incremental 3d reconstruction | |
CN110135455A (zh) | 影像匹配方法、装置及计算机可读存储介质 | |
CN113888695A (zh) | 基于分支重构配准的非合作目标三维重建方法 | |
WO2021163157A1 (en) | Collaborative 3d mapping and surface registration | |
CN114526739A (zh) | 移动机器人室内重定位方法、计算机装置及产品 | |
JP2007322351A (ja) | 3次元物体照合装置 | |
JP4568845B2 (ja) | 変化領域認識装置 | |
JP6761388B2 (ja) | 推定装置及びプログラム | |
CN114358133B (zh) | 一种基于语义辅助双目视觉slam检测回环帧的方法 | |
Jiang et al. | Learned local features for structure from motion of uav images: A comparative evaluation | |
Withers et al. | Modelling scene change for large-scale long term laser localisation | |
Verykokou et al. | A Comparative analysis of different software packages for 3D Modelling of complex geometries | |
CN115239899B (zh) | 位姿图生成方法、高精地图生成方法和装置 | |
CN116704029A (zh) | 稠密物体语义地图构建方法、装置、存储介质及电子设备 | |
Saponaro et al. | Generation of 3D surface models from UAV imagery varying flight patterns and processing parameters | |
Walvoord et al. | Geoaccurate three-dimensional reconstruction via image-based geometry | |
JP6853150B2 (ja) | 選別装置、方法及びプログラム | |
JP2006172099A (ja) | 変化領域認識装置および変化認識システム | |
Ye et al. | Lunar Terrain Reconstruction from Multi-View Lroc Nac Images Based on Semi-Global Matching in Object Space | |
Qin et al. | Geometric Processing for Image-based 3D Object Modeling | |
US11776148B1 (en) | Multi-view height estimation from satellite images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190823 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200701 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200715 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200811 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200902 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200904 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6761388 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |