JP6746050B2 - キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム - Google Patents
キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム Download PDFInfo
- Publication number
- JP6746050B2 JP6746050B2 JP2015230092A JP2015230092A JP6746050B2 JP 6746050 B2 JP6746050 B2 JP 6746050B2 JP 2015230092 A JP2015230092 A JP 2015230092A JP 2015230092 A JP2015230092 A JP 2015230092A JP 6746050 B2 JP6746050 B2 JP 6746050B2
- Authority
- JP
- Japan
- Prior art keywords
- dimensional distance
- sensor
- distance sensors
- calibration
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 64
- 238000005259 measurement Methods 0.000 claims description 65
- 238000003860 storage Methods 0.000 claims description 25
- 238000012545 processing Methods 0.000 claims description 24
- 238000001514 detection method Methods 0.000 claims description 19
- 238000012935 Averaging Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 description 35
- 238000010586 diagram Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 14
- 230000009466 transformation Effects 0.000 description 13
- 239000013598 vector Substances 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 7
- 230000001936 parietal effect Effects 0.000 description 7
- 238000011156 evaluation Methods 0.000 description 6
- 238000000605 extraction Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000013481 data capture Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Landscapes
- Optical Radar Systems And Details Thereof (AREA)
Description
まず、本実施の形態の説明の前提として、天井にマウントされた3Dレンジセンサに存在する、共通のセンサ・キャリブレーション方式の使用を妨げるような困難について説明する。
較正のための素直な第一の選択は、すべてのセンサ間で、バックグラウンドの静止物体のポイントクラウドの登録を行うことといえる。
床面を参照面として使用することは、少なくともセンサのピッチ、ロールおよび高さの測定のために、有望に見えるものの、床は、典型的には、センサの予定する検知範囲をはるかに越えているので、測定のひずみが再び問題となる。
3つ以上の既知の位置のマーカーがあれば、1つのセンサの6D姿勢を計算可能とするので、別のオプションとしては、環境中にマーカを配置することである。
[実施の形態1]
図1は、2Dレンジセンサと3Dレンジセンサを、同じ領域内に配置する一例を示す図である。
文献2:D. Brscic, T. Kanda, T. Ikeda, and T. Miyashita, "Person Tracking in Large Public Spaces Using 3-D Range Sensors," Human-Machine Systems, IEEE Transactions on, vol. 43, pp. 522-534, 2013.
頭頂領域を最適にカバーするためには、3Dセンサは、水平からおよそ30−60度の角度を見込み、特定の部屋およびセンサ構成に適合するように選ばれた正確な角度となるように、手動で向きを調節される。
2Dセンサのポールは、移動可能であり、したがって、それらの(x,y)位置およびヨー角φは、それらが新しい位置に手動で置かれるごとに較正されなければならない。
(3Dレンジセンサについての較正)
図5は、3Dレンジセンサの自由度を説明する図である。
図6は、計測演算装置100のハードウェア構成を説明するためのブロック図である。
図7は、本実施の形態の計測演算装置100において、上述したCPU56がソフトウェアを実行するにより実現する機能を示す機能ブロック図である。
以下では、このような対象物(人)のトラッキングの処理を行う前提として、複数の3Dおよび2D距離センサの位置および向きをグローバル座標系において、較正するための処理の構成を説明する。
(ピッチ・ロール・z較正)
図10は、図9のステップS200のピッチ・ロール・z較正について説明するためのフロー図である。
(相対的なX・Y・ヨー角の較正)
図12は、図10のステップS202の手続きを説明する図である。
(数学的な定式化)
以下、実際に算出処理を行う場合のその処理を数式により説明する。
各センサの2D姿勢のインデックスi∈{1…S}は、以下のベクトルによりパラメータ化される。
(絶対的なX・Y・ヨー角の較正)
一旦、センサの相対的な姿勢が決定されたならば、計測演算装置100により実行されるアルゴリズムでの最終ステップは、グローバル座標系でセンサネットワークを整列させることである。
[実施の形態2]
(2Dレンジセンサおよび3Dセンサ使用する較正)
実施の形態1の較正では、3Dレンジセンサのみを使用することで実行できる。
(評価)
2つの方法で提案された2つの技術のパフォーマンスを評価した。
(センサ位置決め精度)
センサ位置のグランドトゥルースの情報を得るために、部屋の壁に関する(x,y,z)座標系の中で、各センサの場所を測定するために、レーザーレンジファインダを使用した。
(歩行者トラッキング精度)
その後、我々は、床の正確に測定された10m×4mのグリッド上で2mの間隔で18個の基準点をマークしそれらのポイントの上に立ってもらうように参加者に依頼することにより、歩行者トラッキングの精度を評価した。
(結果)
両方の評価については、3DにおけるRMS(root-mean-squared)誤差の合計とともに、x、yおよびz方向における二乗平均平方根の(RMS)誤差を計算した。
Claims (10)
- 領域内に配置される複数の3次元距離センサの位置および姿勢をグローバル座標内でキャリブレーションするためのキャリブレーション装置であって、各前記複数の3次元距離センサは、センサ位置から対象物までの距離を検出可能なものであり、
前記複数の3次元距離センサは、前記領域の天井部分に、配置されており、
各前記複数の3次元距離センサからの測定データを受け付けるインタフェース装置と、
各前記3次元距離センサからの前記測定データを時系列として格納するための記憶装置と、
前記測定データに基づいて、前記キャリブレーションを実行するための演算処理手段とを備え、前記演算処理手段は、
前記3次元距離センサごとに、前記領域内を移動する身長が既知の人物の頭頂部の位置を検出し、当該人物についての頭頂部の各時間における複数の観測を平均することにより、前記頭頂部の複数の観測を含む共通平面を特定するための頭頂部検出手段と、
前記3次元距離センサごとに、前記共通平面を基準として、ロール角、ピッチ角および高さを較正する第1の較正手段と、
前記3次元距離センサごとに、前記人物についての他の3次元距離センサとの共通の観測に基づいて、前記共通の観測の誤差が最小となるように、前記3次元距離センサの2次元での相対的な位置およびヨー角を較正する第2の較正手段と、
前記第2の較正手段により較正された前記複数の3次元距離センサの相対位置を、所定の基準位置に基づいて、グローバル座標に対して整合させる第3の較正手段とを含む、キャリブレーション装置。 - 前記第2の較正手段は、前記3次元距離センサのすべてに対して、共通の観測をグローバル座標系に剛体変換した場合に、共通の観測間の誤差が最小となるように、前記3次元距離センサの2次元での相対的な位置およびヨー角を算出する手段を含む、請求項1記載のキャリブレーション装置。
- 前記第2の較正手段は、レーベンバーグ・マーカート法により、前記共通の観測間の誤差が最小となるように、前記3次元距離センサの2次元での相対的な位置およびヨー角を算出する、請求項2記載のキャリブレーション装置。
- 前記領域内には、複数の2次元距離センサが、さらに配置されており、
前記演算処理手段は、前記2次元距離センサのペアごとに、前記人物の共通の観測に基づいて、前記ペアの各々の2次元距離センサによる観測の誤差が最小となるように、前記2次元距離センサの2次元での相対的な位置およびヨー角を較正する2次元センサ較正手段をさらに含み、
前記第2の較正手段は、各前記3次元距離センサと、すべての前記2次元距離センサとで、前記人物の共通の観測の誤差が最小となるように、前記3次元距離センサの2次元での相対的な位置およびヨー角を較正する、請求項1〜3のいずれか1項に記載のキャリブレーション装置。 - 領域内に配置される複数の3次元距離センサの位置および姿勢をグローバル座標内でコンピュータによりキャリブレーションするためのキャリブレーション方法であって、各前記複数の3次元距離センサは、センサ位置から対象物までの距離を検出可能なものであり、前記コンピュータは演算装置および記憶装置を含み、前記複数の3次元距離センサは、前記領域の天井部分に、配置されており、
前記演算装置が、前記3次元距離センサからの測定データにより、前記3次元距離センサごとに、前記領域内を移動する身長が既知の人物の頭頂部の位置を検出し、当該人物についての頭頂部の各時間における複数の観測を平均することにより、前記頭頂部の複数の観測を含む共通平面を特定するステップと、
前記演算装置が、前記3次元距離センサごとに、前記共通平面を基準として、ロール角、ピッチ角および高さを較正するステップと、
前記演算装置が、前記3次元距離センサごとに、前記人物についての他の3次元距離センサとの共通の観測に基づいて、前記共通の観測の誤差が最小となるように、前記3次元距離センサの2次元での相対的な位置およびヨー角を較正するステップと、
前記演算装置が、較正された前記複数の3次元距離センサの相対位置を、所定の基準位置に基づいて、グローバル座標に対して整合させ、前記3次元距離センサのグローバル座標における位置および向きを前記記憶装置に格納するステップと、を備えるキャリブレーション方法。 - 前記2次元での相対的な位置およびヨー角を較正するステップは、前記演算装置が、前記3次元距離センサのすべてに対して、共通の観測をグローバル座標系に剛体変換した場合に、共通の観測間の誤差が最小となるように、レーベンバーグ・マーカート法により、前記3次元距離センサの2次元での相対的な位置およびヨー角を算出するステップを含む、請求項5記載のキャリブレーション方法。
- 前記領域内には、複数の2次元距離センサが、さらに配置されており、
前記演算装置が、前記2次元距離センサのペアごとに、前記人物の共通の観測に基づいて、前記ペアの各々の2次元距離センサによる観測の誤差が最小となるように、前記2次元距離センサの2次元での相対的な位置およびヨー角を較正する2次元センサ較正ステップをさらに含み、
前記2次元での相対的な位置およびヨー角を較正するステップは、各前記3次元距離センサと、すべての前記2次元距離センサとで、前記人物の共通の観測の誤差が最小となるように、前記3次元距離センサの2次元での相対的な位置およびヨー角を較正する、請求項5または6記載のキャリブレーション方法。 - 領域内に配置される複数の3次元距離センサの位置および姿勢をグローバル座標内でコンピュータによりキャリブレーションするためのキャリブレーションプログラムであって、各前記複数の3次元距離センサは、センサ位置から対象物までの距離を検出可能なものであり、前記コンピュータは演算装置および記憶装置を含み、前記複数の3次元距離センサは、前記領域の天井部分に、配置されており、
前記演算装置が、前記3次元距離センサからの測定データにより、前記3次元距離センサごとに、前記領域内を移動する身長が既知の人物の頭頂部の位置を検出し、当該人物についての頭頂部の各時間における複数の観測を平均することにより、前記頭頂部の複数の観測を含む共通平面を特定するステップと、
前記演算装置が、前記3次元距離センサごとに、前記共通平面を基準として、ロール角、ピッチ角および高さを較正するステップと、
前記演算装置が、前記3次元距離センサごとに、前記人物についての他の3次元距離センサとの共通の観測に基づいて、前記共通の観測の誤差が最小となるように、前記3次元距離センサの2次元での相対的な位置およびヨー角を較正するステップと、
前記演算装置が、較正された前記複数の3次元距離センサの相対位置を、所定の基準位置に基づいて、グローバル座標に対して整合させ、前記3次元距離センサのグローバル座標における位置および向きを前記記憶装置に格納するステップと、をコンピュータに実行させるキャリブレーションプログラム。 - 前記2次元での相対的な位置およびヨー角を較正するステップは、前記演算装置が、前記3次元距離センサのすべてに対して、共通の観測をグローバル座標系に剛体変換した場合に、共通の観測間の誤差が最小となるように、レーベンバーグ・マーカート法により、前記3次元距離センサの2次元での相対的な位置およびヨー角を算出するステップを含む、請求項8記載のキャリブレーションプログラム。
- 前記領域内には、複数の2次元距離センサが、さらに配置されており、
前記演算装置が、前記2次元距離センサのペアごとに、前記人物の共通の観測に基づいて、前記ペアの各々の2次元距離センサによる観測の誤差が最小となるように、前記2次元距離センサの2次元での相対的な位置およびヨー角を較正する2次元センサ較正ステップをさらに含み、
前記2次元での相対的な位置およびヨー角を較正するステップは、各前記3次元距離センサと、すべての前記2次元距離センサとで、前記人物の共通の観測の誤差が最小となるように、前記3次元距離センサの2次元での相対的な位置およびヨー角を較正する、請求項8または9記載のキャリブレーションプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015230092A JP6746050B2 (ja) | 2015-11-25 | 2015-11-25 | キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015230092A JP6746050B2 (ja) | 2015-11-25 | 2015-11-25 | キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017096813A JP2017096813A (ja) | 2017-06-01 |
JP6746050B2 true JP6746050B2 (ja) | 2020-08-26 |
Family
ID=58818105
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015230092A Active JP6746050B2 (ja) | 2015-11-25 | 2015-11-25 | キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6746050B2 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108151694A (zh) * | 2017-12-20 | 2018-06-12 | 西安航天计量测试研究所 | 角位移传感器自动校准系统及方法 |
CN109059902B (zh) | 2018-09-07 | 2021-05-28 | 百度在线网络技术(北京)有限公司 | 相对位姿确定方法、装置、设备和介质 |
CN112840232B (zh) * | 2019-09-23 | 2024-03-22 | 北京航迹科技有限公司 | 用于标定相机和激光雷达的系统和方法 |
WO2021220331A1 (ja) * | 2020-04-27 | 2021-11-04 | 株式会社日立産機システム | 移動体システム |
CN112362084A (zh) * | 2020-11-23 | 2021-02-12 | 北京三快在线科技有限公司 | 一种数据标定方法、装置及数据标定系统 |
US11956693B2 (en) * | 2020-12-03 | 2024-04-09 | Mitsubishi Electric Corporation | Apparatus and method for providing location |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005092451A (ja) * | 2003-09-16 | 2005-04-07 | Sony Corp | 頭部検出装置及び頭部検出方法、並びに頭部検出プログラム |
JP5879877B2 (ja) * | 2011-09-28 | 2016-03-08 | 沖電気工業株式会社 | 画像処理装置、画像処理方法、プログラム、および画像処理システム |
EP2660624A1 (en) * | 2012-04-30 | 2013-11-06 | Traficon International N.V. | A traffic monitoring device and a method for monitoring a traffic stream. |
JP5950122B2 (ja) * | 2013-12-27 | 2016-07-13 | 株式会社国際電気通信基礎技術研究所 | キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム |
-
2015
- 2015-11-25 JP JP2015230092A patent/JP6746050B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017096813A (ja) | 2017-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6746050B2 (ja) | キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム | |
JP5950122B2 (ja) | キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム | |
JP5548482B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、プログラム及び記憶媒体 | |
JP5746477B2 (ja) | モデル生成装置、3次元計測装置、それらの制御方法及びプログラム | |
US9317735B2 (en) | Information processing apparatus, information processing method, and program to calculate position and posture of an object having a three-dimensional shape | |
KR102016636B1 (ko) | 카메라와 레이더의 캘리브레이션 장치 및 방법 | |
JP6349418B2 (ja) | 高精度単眼移動によるオブジェクト位置特定 | |
EP2438397A2 (en) | Method and device for three-dimensional surface detection with a dynamic reference frame | |
Hansen et al. | Online continuous stereo extrinsic parameter estimation | |
US20180283851A1 (en) | Motion detection device and three-dimensional shape measurement device using same | |
Ruotsalainen et al. | Visual-aided two-dimensional pedestrian indoor navigation with a smartphone | |
Zhang et al. | A novel absolute localization estimation of a target with monocular vision | |
Isa et al. | Volumetric error modelling of a stereo vision system for error correction in photogrammetric three-dimensional coordinate metrology | |
Wan et al. | A study in 3d-reconstruction using kinect sensor | |
Glas et al. | SNAPCAT-3D: Calibrating networks of 3D range sensors for pedestrian tracking | |
US11259000B2 (en) | Spatiotemporal calibration of RGB-D and displacement sensors | |
García-Moreno et al. | Error propagation and uncertainty analysis between 3D laser scanner and camera | |
Bikmaev et al. | Improving the accuracy of supporting mobile objects with the use of the algorithm of complex processing of signals with a monocular camera and LiDAR | |
JP4227037B2 (ja) | 撮像システム及び校正方法 | |
Omidalizarandi et al. | Comparison of target-and mutual informaton based calibration of terrestrial laser scanner and digital camera for deformation monitoring | |
WO2018134866A1 (ja) | カメラ校正装置 | |
Skalski et al. | Metrological analysis of microsoft kinect in the context of object localization | |
JP2021038939A (ja) | キャリブレーション装置 | |
Kawanishi et al. | Construction of 3D environment model from an omni-directional image sequence | |
Chin et al. | Camera systems in human motion analysis for biomedical applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20151225 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181016 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191017 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191217 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200603 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200604 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6746050 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |