JP2012088135A - Calibration apparatus, calibration program and calibration method for distance sensor - Google Patents

Calibration apparatus, calibration program and calibration method for distance sensor Download PDF

Info

Publication number
JP2012088135A
JP2012088135A JP2010234159A JP2010234159A JP2012088135A JP 2012088135 A JP2012088135 A JP 2012088135A JP 2010234159 A JP2010234159 A JP 2010234159A JP 2010234159 A JP2010234159 A JP 2010234159A JP 2012088135 A JP2012088135 A JP 2012088135A
Authority
JP
Japan
Prior art keywords
sensor
distance
sensors
distance sensors
trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010234159A
Other languages
Japanese (ja)
Other versions
JP5712373B2 (en
Inventor
Fairchild Glass Dylan
フェアチャイルド グラス ディラン
Takahiro Miyashita
敬宏 宮下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2010234159A priority Critical patent/JP5712373B2/en
Publication of JP2012088135A publication Critical patent/JP2012088135A/en
Application granted granted Critical
Publication of JP5712373B2 publication Critical patent/JP5712373B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a calibration apparatus, a calibration program and a calibration method for a distance sensor that can calibrate positions and directions of a plurality of distance sensors arranged in a certain environment without being provided with an initial value.SOLUTION: A measurement apparatus 10 includes a computer 12, and a plurality of distance sensors 14 are connected to the computer 12. The computer 12 detects a person observation point in each sensor 14 based on an output from each sensor 14, calculates a human movement locus from a temporal change of the person observation points, and then makes the movement loci calculated based on the output from the respective sensors 14 coincide with each other among the sensors 14. The computer extracts two person observation points on the coincident movement locus in accordance with a predetermined rule, and calculates restrictions between the sensors 14 about a distance and a relative angle between the sensors 14 generating the movement locus for each group of sensors 14 whose movement loci are made coincident, by using the extracted person observation points. Then, positions and directions of all the sensors 14 are estimated by using the restrictions between the sensors 14, and the estimated positions are adjusted.

Description

この発明は距離センサのキャリブレーション装置、キャリブレーションプログラムおよびキャリブレーション方法に関し、特にたとえば、或る環境に配置される2以上の距離センサの位置および向きをキャリブレーションする、距離センサのキャリブレーション装置、キャリブレーションプログラムおよびキャリブレーション方法に関する。   The present invention relates to a distance sensor calibration apparatus, a calibration program, and a calibration method, and in particular, a distance sensor calibration apparatus that calibrates the positions and orientations of two or more distance sensors arranged in a certain environment, for example. The present invention relates to a calibration program and a calibration method.

この種の従来の距離センサのキャリブレーション装置の一例が特許文献1に開示されている。この特許文献1に開示される移動体推定位置システムでは、測定領域内に互いに分散して配置され、互いの移動体までの距離を3個以上の距離センサで計測し、推定位置算出装置にて、距離センサそれぞれから任意の時刻のセンサ計測値を取得し蓄積する。取得蓄積された各距離センサのセンサ計測値に対して距離に応じた信頼性の度合いを示す距離信頼度を付与し、取得蓄積されたセンサ計測値のうち信頼度の高い計測値を採用して距離センサおよび移動体それぞれの位置を推定する。また、推定位置の処理は、移動体の移動前後の位置それぞれの2個以上の距離センサから得られるセンサ計測値を用いて各距離センサの位置のキャリブレーションおよび移動体の移動位置の推定を行う。   An example of a conventional distance sensor calibration device of this type is disclosed in Patent Document 1. In the moving body estimated position system disclosed in Patent Document 1, the distances to the moving bodies are measured by three or more distance sensors that are arranged in a measurement region so as to be distributed to each other. The sensor measurement value at an arbitrary time is acquired and accumulated from each distance sensor. A distance reliability indicating the degree of reliability corresponding to the distance is given to the sensor measurement value of each acquired and accumulated distance sensor, and a highly reliable measurement value among the acquired and accumulated sensor measurement values is adopted. The positions of the distance sensor and the moving body are estimated. The estimated position processing is performed by calibrating the position of each distance sensor and estimating the moving position of the moving body using sensor measurement values obtained from two or more distance sensors at positions before and after the moving body moves. .

特開2010−127650号[G01S 5/14]JP 2010-127650 [G01S 5/14]

しかし、特許文献1の移動体推定位置システムでは、各センサ位置を算出する際、各センサ位置の初期値が必要であるため、たとえば、計測する環境が変化する度に、初期値を計測等する必要があり、面倒である。   However, in the moving body estimated position system of Patent Document 1, when calculating each sensor position, an initial value of each sensor position is required. For example, the initial value is measured every time the measurement environment changes. It is necessary and troublesome.

それゆえに、この発明の主たる目的は、新規な、距離センサのキャリブレーション装置、キャリブレーションプログラムおよびキャリブレーション方法を提供することである。   Therefore, a main object of the present invention is to provide a novel distance sensor calibration apparatus, calibration program, and calibration method.

また、この発明の他の目的は、初期値を与えなくても或る環境に任意に配置した複数の距離センサの位置および向きを推定することができる、距離センサのキャリブレーション装置、キャリブレーションプログラムおよびキャリブレーション方法を提供することである。   Another object of the present invention is to provide a distance sensor calibration apparatus and calibration program capable of estimating the positions and orientations of a plurality of distance sensors arbitrarily arranged in a certain environment without giving an initial value. And providing a calibration method.

本発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate correspondence relationships with embodiments described later to help understanding of the present invention, and do not limit the present invention in any way.

第1の発明は、或る環境に配置され、一定の角度毎の距離を検出する複数の距離センサの位置および向きをキャリブレーションする、距離センサのキャリブレーション装置であって、複数の距離センサの出力に基づいて、当該距離センサ毎に、或る環境内の人間の位置を検出する人間位置検出手段、人間位置検出手段によって検出された人間の位置に基づいて、距離センサ毎に、当該人間の移動軌跡を生成する軌跡生成手段、軌跡生成手段によって距離センサ毎に生成された移動軌跡を、当該移動軌跡の特徴に基づいて、異なる2つの距離センサ間で同定する軌跡同定手段、軌跡同定手段によって同定された移動軌跡において、任意に選択された2つの人間の位置に基づいて、2つの距離センサ間の距離および当該2つの距離センサの相対的な向きについてのセンサ制約を、当該同定された移動軌跡を生成した2つの距離センサの組毎に算出するセンサ制約算出手段、およびセンサ制約算出手段によって算出されたセンサ制約を用いて、或る環境における複数の距離センサの位置および向きを推定する推定手段を備える、距離センサのキャリブレーション装置である。   A first invention is a distance sensor calibration device that is arranged in a certain environment and calibrates the positions and orientations of a plurality of distance sensors that detect distances at a certain angle. Based on the output, for each distance sensor, the human position detecting means for detecting the position of the human in a certain environment, and based on the human position detected by the human position detecting means, for each distance sensor, A trajectory generating means for generating a moving trajectory, a trajectory identifying means for identifying a moving trajectory generated for each distance sensor by the trajectory generating means between two different distance sensors based on the characteristics of the moving trajectory, and a trajectory identifying means. In the identified movement trajectory, based on two arbitrarily selected human positions, the distance between the two distance sensors and the relative distance between the two distance sensors. A sensor constraint calculation unit that calculates a sensor constraint for a direction for each set of two distance sensors that generated the identified movement trajectory, and a sensor constraint calculated by the sensor constraint calculation unit. It is a distance sensor calibration apparatus provided with the estimation means which estimates the position and direction of several distance sensors.

第1の発明では、距離センサのキャリブレーション装置(12)は、或る環境に配置され、一定の角度毎の距離を検出する複数の距離センサ(14)の位置および向きをキャリブレーションする。このキャリブレーション装置は、人間位置検手段(12、S3)、軌跡生成手段(12、S5)、軌跡同定手段(12、S7)、センサ制約算出手段(12、S11)、および推定手段(12、S15)を備える。人間位置検出手段は、複数の距離センサの出力に基づいて、当該距離センサ毎に、或る環境内の人間の位置を検出する。軌跡生成手段は、人間位置検出手段によって検出された人間の位置に基づいて、距離センサ毎に、当該人間の移動軌跡を生成する。つまり、人間の位置の時間変化が移動軌跡として生成される。軌跡同定手段は、軌跡生成手段によって距離センサ毎に生成された移動軌跡を、当該移動軌跡の特徴に基づいて、異なる2つの距離センサ間で同定する。たとえば、異なる2つの移動軌跡について、速度変化が近似する移動軌跡同士を一致するものと判定する。センサ制約算出手段は、軌跡同定手段によって同定された移動軌跡において、任意に選択された2つの人間の位置に基づいて、2つの距離センサ間の距離および当該2つの距離センサの相対的な向きについてのセンサ制約を、当該同定された移動軌跡を生成した2つの距離センサの組毎に算出する。推定手段は、センサ制約算出手段によって算出されたセンサ制約を用いて、或る環境における複数の距離センサの位置および向きを推定する。たとえば、距離センサ間の距離と相対的な向きとを保つように、複数の距離センサを仮想のマップ上に順次配置する。   In the first invention, the distance sensor calibration device (12) is arranged in a certain environment, and calibrates the positions and orientations of the plurality of distance sensors (14) that detect distances at fixed angles. The calibration apparatus includes a human position detecting means (12, S3), a locus generating means (12, S5), a locus identifying means (12, S7), a sensor constraint calculating means (12, S11), and an estimating means (12, S15). The human position detecting means detects the position of a human in a certain environment for each distance sensor based on the outputs of the plurality of distance sensors. The trajectory generating means generates a human trajectory for each distance sensor based on the human position detected by the human position detecting means. That is, the time change of the human position is generated as the movement trajectory. The trajectory identification means identifies the movement trajectory generated for each distance sensor by the trajectory generation means between two different distance sensors based on the characteristics of the movement trajectory. For example, with respect to two different movement loci, it is determined that the movement loci whose speed changes approximate to each other match. The sensor constraint calculation unit is configured to determine a distance between the two distance sensors and a relative direction of the two distance sensors based on two arbitrarily selected human positions in the movement locus identified by the locus identification unit. Is calculated for each set of two distance sensors that have generated the identified movement trajectory. The estimation unit estimates the positions and orientations of a plurality of distance sensors in a certain environment using the sensor constraint calculated by the sensor constraint calculation unit. For example, a plurality of distance sensors are sequentially arranged on a virtual map so as to maintain the distance between the distance sensors and the relative orientation.

第1の発明によれば、複数の距離センサの出力に基づいて、当該複数の距離センサの位置および向きを推定するので、初期値を与えなくても、或る環境に配置した距離センサの位置および向きをキャリブレーションすることができる。   According to the first invention, since the positions and orientations of the plurality of distance sensors are estimated based on the outputs of the plurality of distance sensors, the position of the distance sensor arranged in a certain environment without giving an initial value. And the orientation can be calibrated.

第2の発明は、第1の発明に従属し、センサ制約算出手段は、軌跡同定手段によって同定された移動軌跡において、任意に選択される2つの人間の位置のうちの少なくとも一方を変化させることにより、2つの距離センサの組毎に、複数のセンサ制約を算出し、複数のセンサ制約を平均するセンサ制約平均手段を含む。   A second invention is dependent on the first invention, and the sensor constraint calculation means changes at least one of two arbitrarily selected human positions in the movement locus identified by the locus identification means. Thus, sensor constraint averaging means for calculating a plurality of sensor constraints for each set of two distance sensors and averaging the plurality of sensor constraints is included.

第2の発明では、センサ制約算出手段は、センサ制約平均手段(12、S165)を含む。センサ制約平均手段は、軌跡同定手段によって同定された移動軌跡において、任意に選択される2つの人間の位置のうちの少なくとも一方を変化させることにより、2つの距離センサの組毎に、複数のセンサ制約を算出し、複数のセンサ制約を平均する。つまり、2つの距離センサのセンサ制約を複数算出し、それらの平均値を求める。それを、2つの距離センサの組毎に算出する。   In the second invention, the sensor constraint calculation means includes sensor constraint averaging means (12, S165). The sensor constraint averaging means changes a plurality of sensors for each set of two distance sensors by changing at least one of two arbitrarily selected human positions in the movement locus identified by the locus identification means. Calculate constraints and average multiple sensor constraints. That is, a plurality of sensor constraints of two distance sensors are calculated, and an average value thereof is obtained. It is calculated for each set of two distance sensors.

第2の発明によれば、センサ制約の平均を求めるので、距離センサ間の距離の誤差を考慮して、複数の距離センサの位置を推定することができる。   According to the second invention, since the average of sensor constraints is obtained, the position of a plurality of distance sensors can be estimated in consideration of the error in the distance between the distance sensors.

第3の発明は、第2の発明に従属し、複数のセンサ制約の分散を算出する分散算出手段をさらに備え、推定手段は、分散算出手段によって算出された分散が最小となる2つの距離センサを当該2つの距離センサのセンサ制約の平均に従って仮想のマップ上に配置する基準センサ配置手段、および基準センサ配置手段によって配置された2つの距離センサに続いて、分散の小さい順に、既に配置された距離センサとのセンサ制約の平均を有する距離センサを当該センサ制約の平均に従って仮想のマップ上に順次配置する順次配置手段を含む。   A third invention is according to the second invention, further comprising a variance calculating unit that calculates variances of a plurality of sensor constraints, and the estimating unit includes two distance sensors that minimize the variance calculated by the variance calculating unit Are placed on the virtual map in accordance with the average of the sensor constraints of the two distance sensors, and the two distance sensors arranged by the reference sensor placement means are arranged in the order of small variance. Sequential arrangement means for sequentially arranging distance sensors having an average of sensor constraints with the distance sensor on a virtual map according to the average of the sensor constraints.

第3の発明では、キャリブレーション装置は、分散算出手段(12、S165)をさらに備える。また、推定手段は、基準センサ配置手段(12、S183)および順次配置手段(12、S189、S191、S193、S195)を含む。分散算出手段は、複数のセンサ制約の分散を算出する。つまり、距離センサ間の距離の誤差を算出する。基準センサ配置手段は、分散算出手段によって算出された分散が最小となる2つの距離センサを当該2つの距離センサのセンサ制約の平均に従って仮想のマップ上に配置する。つまり、最も信頼度の高いセンサ制約を有する2つの距離センサが配置される。順次配置手段は、基準センサ配置手段によって配置された2つの距離センサに続いて、分散の小さい順に、既に配置された距離センサとのセンサ制約の平均を有する距離センサを当該センサ制約の平均に従って仮想のマップ上に順次配置する。つまり、信頼度が高く、既に配置された距離センサとのセンサ制約を有する距離センサが順次配置される。   In the third invention, the calibration apparatus further includes a variance calculating means (12, S165). The estimation means includes reference sensor arrangement means (12, S183) and sequential arrangement means (12, S189, S191, S193, S195). The variance calculation means calculates the variance of the plurality of sensor constraints. That is, the distance error between the distance sensors is calculated. The reference sensor arrangement unit arranges the two distance sensors having the smallest variance calculated by the variance calculation unit on the virtual map according to the average of the sensor constraints of the two distance sensors. That is, two distance sensors having the most reliable sensor constraint are arranged. The sequential arrangement means, after the two distance sensors arranged by the reference sensor arrangement means, in order of decreasing variance, the distance sensors having the average of sensor constraints with the already arranged distance sensors are virtually calculated according to the average of the sensor constraints. Place them sequentially on the map. That is, the distance sensors having high reliability and having sensor restrictions with the already arranged distance sensors are sequentially arranged.

第3の発明によれば、センサ制約の平均の信頼度の高い順に、距離センサを仮想のマップ上に配置するので、距離センサの推定位置の確度を高くすることができる。   According to the third aspect, since the distance sensors are arranged on the virtual map in descending order of the average reliability of the sensor constraints, the accuracy of the estimated position of the distance sensor can be increased.

第4の発明は、第1ないし第3の発明のいずれかに従属し、センサ制約が示す距離センサの各組の距離のそれぞれと、推定手段によって推定された複数の距離センサの位置に基づく当該距離センサの各組の距離のそれぞれとの差分を算出する差分算出手段、差分算出手段によって算出された差分の合計値が最小値であるかどうかを判断する最小値判断手段、および最小値判断手段によって差分の合計値が最小値になるまで、複数の距離センサの各々の位置を、推定手段によって推定された他の複数の距離センサの各々の位置およびセンサ制約に基づいて調整する位置調整手段をさらに備える。   A fourth invention is dependent on any one of the first to third inventions, and is based on each of the distances of each set of distance sensors indicated by the sensor constraint and the positions of a plurality of distance sensors estimated by the estimating means. Difference calculating means for calculating the difference between each distance of each pair of distance sensors, minimum value determining means for determining whether the total value of the differences calculated by the difference calculating means is the minimum value, and minimum value determining means Position adjusting means for adjusting the position of each of the plurality of distance sensors based on the position of each of the other plurality of distance sensors and the sensor constraint estimated by the estimating means until the sum of the differences becomes the minimum value by Further prepare.

第4の発明では、キャリブレーション装置は、差分算出手段(12、S255)、最小値判断手段(12、S225)および位置調整手段(12、S215、S217)をさらに備える。差分算出手段は、センサ制約が示す距離センサの各組の距離のそれぞれと、推定手段によって推定された複数の距離センサの位置に基づく当該距離センサの各組の距離のそれぞれとの差分を算出する。最小値判断手段は、差分算出手段によって算出された差分の合計値が最小値であるかどうかを判断する。位置調整手段は、最小値判断手段によって差分の合計値が最小値になるまで、複数の距離センサの各々の位置を、推定手段によって推定された他の複数の距離センサの各々の位置およびセンサ制約に基づいて調整する。   In the fourth invention, the calibration apparatus further includes a difference calculating means (12, S255), a minimum value determining means (12, S225), and a position adjusting means (12, S215, S217). The difference calculation means calculates a difference between each distance of each pair of distance sensors indicated by the sensor constraint and each distance of each pair of distance sensors based on the positions of the plurality of distance sensors estimated by the estimation means. . The minimum value determining means determines whether or not the sum of the differences calculated by the difference calculating means is the minimum value. The position adjusting means determines the position of each of the plurality of distance sensors, the position of each of the other plurality of distance sensors estimated by the estimating means, and the sensor constraints until the total value of the differences becomes the minimum value by the minimum value determining means. Adjust based on.

第4の発明によれば、センサ制約の示す距離センサ間の距離と、推定された距離センサの位置に基づく当該距離センサ間の距離との誤差が最小になるように、距離センサの位置を調整するので、距離センサの位置を出来る限り正確に推定することができる。   According to the fourth invention, the position of the distance sensor is adjusted so that an error between the distance between the distance sensors indicated by the sensor constraint and the distance between the distance sensors based on the estimated position of the distance sensor is minimized. Therefore, the position of the distance sensor can be estimated as accurately as possible.

第5の発明は、第3の発明に従属し、分散算出手段によって算出された分散に基づいて、推定手段によって推定された複数の距離センサの各々の位置の誤差を算出する位置誤差算出手段、位置誤差算出手段によって算出された複数の距離センサの各々の位置の誤差の平均値を算出する誤差平均値算出手段、誤差平均値算出手段によって算出された平均値が所定値以下であるかどうかを判断する位置誤差判断手段、および位置誤差判断手段によって平均値が所定値以下であると判断されるまで、人間位置検出手段、軌跡生成手段、軌跡同定手段、センサ制約算出手段、および推定手段を繰り返し機能させる繰り返し制御手段をさらに備える。   A fifth invention is dependent on the third invention, and based on the variance calculated by the variance calculation means, a position error calculation means for calculating an error of each position of the plurality of distance sensors estimated by the estimation means, An error average value calculating means for calculating an average value of errors at positions of each of the plurality of distance sensors calculated by the position error calculating means, and whether or not the average value calculated by the error average value calculating means is equal to or less than a predetermined value. The human position detection means, the trajectory generation means, the trajectory identification means, the sensor constraint calculation means, and the estimation means are repeated until the position error determination means and the position error determination means determine that the average value is less than or equal to the predetermined value. It further includes a repeat control means for functioning.

第5の発明では、キャリブレーション装置は、位置誤差算出手段(12、S185、S197)、誤差平均値算出手段(12)、位置誤差判断手段(12、S19)、繰り返し制御手段(12)をさらに備える。位置誤差算出手段は、分散算出手段によって算出された分散に基づいて、推定手段によって推定された複数の距離センサの各々の位置の誤差を算出する。つまり、距離センサの位置には、センサ間の距離の誤差による誤差(位置誤差)が含まれており、距離センサを配置する度に、センサ間の距離の誤差が累積的に蓄積されるのである。誤差平均値算出手段は、位置誤差算出手段によって算出された複数の距離センサの各々の位置の誤差の平均値を算出する。位置誤差判断出手段は、誤差平均値算出手段によって算出された平均値が所定値以下であるかどうかを判断する。繰り返し制御手段は、位置誤差判断手段によって平均値が所定値以下であると判断されるまで、人間位置検出手段、軌跡生成手段、軌跡同定手段、センサ制約算出手段、および推定手段を繰り返し機能させる。   In the fifth invention, the calibration apparatus further includes position error calculation means (12, S185, S197), error average value calculation means (12), position error determination means (12, S19), and repetition control means (12). Prepare. The position error calculation unit calculates an error in the position of each of the plurality of distance sensors estimated by the estimation unit based on the variance calculated by the variance calculation unit. That is, the position of the distance sensor includes an error (position error) due to the distance error between the sensors, and the distance error between the sensors is accumulated every time the distance sensor is arranged. . The error average value calculation means calculates the average value of the error of each position of the plurality of distance sensors calculated by the position error calculation means. The position error determination means determines whether the average value calculated by the error average value calculation means is equal to or less than a predetermined value. The iterative control means causes the human position detection means, the trajectory generation means, the trajectory identification means, the sensor constraint calculation means, and the estimation means to repeatedly function until the position error judgment means determines that the average value is equal to or less than a predetermined value.

第5の発明によれば、距離センサの位置誤差の平均値が所定値以下になるまで、距離センサの位置を推定するとともに、これを調整するので、正確に距離センサの位置をキャリブレーションすることができる。   According to the fifth aspect, since the position of the distance sensor is estimated and adjusted until the average value of the position errors of the distance sensor is equal to or less than the predetermined value, the position of the distance sensor can be accurately calibrated. Can do.

第6の発明は、或る環境に配置され、一定の角度毎の距離を検出する複数の距離センサの位置および向きをキャリブレーションする、距離センサのキャリブレーション装置のキャリブレーションプログラムであって、キャリブレーション装置のプロセッサに、複数の距離センサの出力に基づいて、当該距離センサ毎に、或る環境内の人間の位置を検出する人間位置検出ステップ、人間位置検出ステップによって検出された人間の位置に基づいて、距離センサ毎に、当該人間の移動軌跡を生成する軌跡生成ステップ、軌跡生成ステップによって距離センサ毎に生成された移動軌跡を、当該移動軌跡の特徴に基づいて、異なる2つの距離センサ間で同定する軌跡同定ステップ、軌跡同定ステップによって同定された移動軌跡において、任意に選択された2つの人間の位置に基づいて、2つの距離センサ間の距離および当該2つの距離センサの相対的な向きについてのセンサ制約を、当該同定された移動軌跡を生成した2つの距離センサの組毎に算出するセンサ制約算出ステップ、およびセンサ制約算出ステップによって算出されたセンサ制約を用いて、或る環境における複数の距離センサの位置および向きを推定する推定ステップを実行させる、キャリブレーションプログラムである。   A sixth invention is a calibration program for a calibration apparatus for a distance sensor, which is arranged in a certain environment and calibrates the positions and orientations of a plurality of distance sensors that detect distances at a certain angle, A human position detecting step for detecting a human position in a certain environment based on outputs of a plurality of distance sensors based on the outputs of the plurality of distance sensors; and a human position detected by the human position detecting step. Based on the trajectory generation step for generating the human trajectory for each distance sensor, the movement trajectory generated for each distance sensor by the trajectory generation step is determined based on the characteristics of the travel trajectory. Select any of the trajectory identification step identified in step 1 and the movement trajectory identified in the trajectory identification step. Based on the two positions of the two human beings, the sensor constraints on the distance between the two distance sensors and the relative orientation of the two distance sensors, and the set of two distance sensors that generated the identified movement trajectory A calibration program that executes a sensor constraint calculation step that is calculated every time, and an estimation step that estimates the positions and orientations of a plurality of distance sensors in a certain environment using the sensor constraint calculated by the sensor constraint calculation step. .

第7の発明は、或る環境に配置され、一定の角度毎の距離を検出する複数の距離センサの位置および向きをキャリブレーションする、距離センサのキャリブレーション方法であって、(a)複数の距離センサの出力に基づいて、当該距離センサ毎に、或る環境内の人間の位置を検出し、(b)ステップ(a)によって検出された人間の位置に基づいて、距離センサ毎に、当該人間の移動軌跡を生成し、(c)ステップ(b)によって距離センサ毎に生成された移動軌跡を、当該移動軌跡の特徴に基づいて、異なる2つの距離センサ間で同定し、(d)ステップ(c)によって同定された移動軌跡において、任意に選択された2つの人間の位置に基づいて、2つの距離センサ間の距離および当該2つの距離センサの相対的な向きについてのセンサ制約を、当該同定された移動軌跡を生成した2つの距離センサの組毎に算出し、そして、(e)ステップ(d)によって算出されたセンサ制約を用いて、或る環境における複数の距離センサの位置および向きを推定する推定手段を備える、距離センサのキャリブレーション方法である。   A seventh aspect of the invention is a distance sensor calibration method for calibrating the positions and orientations of a plurality of distance sensors that are arranged in a certain environment and detect a distance at a certain angle. Based on the output of the distance sensor, the position of a person in a certain environment is detected for each distance sensor, and (b) based on the position of the person detected in step (a), (C) identifying a movement trajectory generated for each distance sensor in step (b) between two different distance sensors based on the characteristics of the movement trajectory; In the movement trajectory identified by (c), the distance between the two distance sensors and the relative direction of the two distance sensors are determined based on the positions of two arbitrarily selected humans. A constraint is calculated for each set of two distance sensors that generated the identified movement trajectory, and (e) a plurality of distance sensors in a certain environment using the sensor constraint calculated in step (d) This is a distance sensor calibration method comprising estimation means for estimating the position and orientation of the distance sensor.

第6および第7の発明においても、第1の発明と同様に、初期値を与えなくても、或る環境に配置した距離センサの位置および向きをキャリブレーションすることができる。   In the sixth and seventh inventions, similarly to the first invention, the position and orientation of the distance sensor arranged in a certain environment can be calibrated without giving an initial value.

この発明によれば、異なる距離センサで検出した移動軌跡を同定し、同定した移動軌跡上であり、異なる2以上の人間の位置を用いて2つの距離センサ間の距離および相対角度についてのセンサ制約を算出し、距離センサの各組についてのセンサ制約を用いて、複数の距離センサの位置および向きを推定するので、初期値を与えなくても、或る環境に任意に配置した複数の距離センサの位置および向きをキャリブレーションすることができる。   According to the present invention, movement trajectories detected by different distance sensors are identified, and sensor restrictions on the distance and relative angle between the two distance sensors using two or more different human positions on the identified movement trajectories. Since the position and orientation of a plurality of distance sensors are estimated using sensor constraints for each set of distance sensors, a plurality of distance sensors arbitrarily arranged in a certain environment without giving an initial value Can be calibrated for position and orientation.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1はこの発明の計測装置の一例を示す図解図である。FIG. 1 is an illustrative view showing one example of a measuring apparatus of the present invention. 図2は図1に示す1の距離センサの検出範囲を示す図解図である。FIG. 2 is an illustrative view showing a detection range of the distance sensor 1 shown in FIG. 図3は図1に示す複数の距離センサの配置状況およびそれらの全検出範囲を示す図解図である。FIG. 3 is an illustrative view showing an arrangement state of a plurality of distance sensors shown in FIG. 1 and their entire detection ranges. 図4は図1に示す各距離センサで検出されるセンサ情報の例を示す図解図および背景スキャン処理の結果から得られる或る角度について検出された距離の個数の分布を示すグラフである。FIG. 4 is an illustrative view showing an example of sensor information detected by each distance sensor shown in FIG. 1 and a graph showing the distribution of the number of distances detected for a certain angle obtained from the result of the background scanning process. 図5は背景スキャン処理の概要を説明するための図解図および人観測点を検出する方法を説明するための図解図である。FIG. 5 is an illustrative view for explaining the outline of the background scanning process and an illustrative view for explaining a method of detecting a human observation point. 図6は図1に示す各距離センサで検出される人間についての人観測点リストおよび各距離センサで検出される移動軌跡についてのローカル軌跡リストを示す図解図である。FIG. 6 is an illustrative view showing a human observation point list for a person detected by each distance sensor shown in FIG. 1 and a local locus list for a movement locus detected by each distance sensor. 図7は或る2つの距離センサで検出される移動軌跡の例を示す図解図である。FIG. 7 is an illustrative view showing an example of a movement locus detected by two distance sensors. 図8は或る距離センサで検出された移動軌跡のうちの着目する1の移動軌跡の速度変化と、他の距離センサで検出されたすべての移動軌跡の速度変化とを示すグラフおよびそれらの速度差を示すグラフである。FIG. 8 is a graph showing the speed change of one moving track of interest among the moving tracks detected by a certain distance sensor and the speed changes of all the moving tracks detected by other distance sensors, and their speeds. It is a graph which shows a difference. 図9は異なる距離センサで検出された移動軌跡のうち、速度差が閾値以下である移動軌跡同士を関連付けした関連付けテーブルを示す図解図および異なる距離センサで検出された共有の人観測点についての共有の人観測点リストを示す図解図である。FIG. 9 is an illustrative view showing an association table in which movement loci whose speed differences are equal to or less than a threshold among movement loci detected by different distance sensors, and sharing of shared human observation points detected by different distance sensors It is an illustration figure which shows a human observation point list | wrist. 図10は共有の人観測点とこれを検出した2つの異なる距離センサとについての各パラメータを示す図解図およびセンサ間の制約を算出不能な場合の例を示す図解図である。FIG. 10 is an illustrative view showing parameters for a shared human observation point and two different distance sensors that detect the shared observation point, and an illustrative view showing an example in which a restriction between sensors cannot be calculated. 図11は距離センサ間の制約を算出可能な場合の例を示す図解図およびその算出方法を説明するための図解図である。FIG. 11 is an illustrative view showing an example of a case where the constraint between distance sensors can be calculated, and an illustrative view for explaining the calculation method. 図12は距離センサ間の制約および推定値の分散を示す制約リストを示す図解図である。FIG. 12 is an illustrative view showing a constraint list indicating constraints between distance sensors and dispersion of estimated values. 図13は距離センサ間の制約を用いてすべてのセンサを配置する場合の配置方法を説明するための図解図である。FIG. 13 is an illustrative view for explaining an arrangement method in a case where all sensors are arranged using the restriction between distance sensors. 図14は配置された距離センサについてのグローバル座標系における推定位置、角度および距離センサ間の誤差を示すセンサ位置リストを示す図解図である。FIG. 14 is an illustrative view showing a sensor position list indicating an estimated position, an angle, and an error between the distance sensors in the global coordinate system for the arranged distance sensors. 図1に示したコンピュータに内蔵されるメモリのメモリマップを示す図解図である。FIG. 2 is an illustrative view showing a memory map of a memory built in the computer shown in FIG. 1. 図16は図15に示すデータ記憶領域の具体的な内容を示す図解図である。FIG. 16 is an illustrative view showing specific contents of the data storage area shown in FIG. 図17は図1に示すコンピュータ(CPU)のキャリブレーション処理を示すフロー図である。FIG. 17 is a flowchart showing calibration processing of the computer (CPU) shown in FIG. 図18は図1に示すコンピュータ(CPU)の背景スキャン処理を示すフロー図である。FIG. 18 is a flowchart showing background scanning processing of the computer (CPU) shown in FIG. 図19は図1に示すコンピュータ(CPU)の人間の位置検出処理を示すフロー図である。FIG. 19 is a flowchart showing human position detection processing of the computer (CPU) shown in FIG. 図20は図1に示すコンピュータ(CPU)のローカル軌跡の生成処理を示すフロー図である。FIG. 20 is a flowchart showing local locus generation processing of the computer (CPU) shown in FIG. 図21は図1に示すコンピュータ(CPU)の軌跡一致処理の一部を示すフロー図である。FIG. 21 is a flowchart showing a part of the locus matching process of the computer (CPU) shown in FIG. 図22は図1に示すコンピュータ(CPU)の軌跡一致処理の他の一部であって、図21に後続するフロー図である。FIG. 22 is another part of the locus matching process of the computer (CPU) shown in FIG. 1, and is a flowchart subsequent to FIG. 図23は図1に示すコンピュータ(CPU)の共有の人観測点リストの作成処理の一部を示すフロー図である。FIG. 23 is a flowchart showing a part of the process of creating a shared human observation point list of the computer (CPU) shown in FIG. 図24は図1に示すコンピュータ(CPU)の共有の人観測点リストの作成処理の他の一部であって、図23に後続するフロー図である。FIG. 24 is another part of the process of creating the shared human observation point list of the computer (CPU) shown in FIG. 1, and is a flowchart subsequent to FIG. 図25は図1に示すコンピュータ(CPU)のセンサ間の制約の算出処理を示すフロー図である。FIG. 25 is a flowchart showing a calculation process of constraints between sensors of the computer (CPU) shown in FIG. 図26は図1に示すコンピュータ(CPU)の全センサの配置処理の一部を示すフロー図である。FIG. 26 is a flowchart showing a part of the arrangement processing of all the sensors of the computer (CPU) shown in FIG. 図27は図1に示すコンピュータ(CPU)の全センサの配置処理の他の一部であって、図26に後続するフロー図である。FIG. 27 is another part of the arrangement process of all the sensors of the computer (CPU) shown in FIG. 1, and is a flowchart subsequent to FIG. 図28は図1に示すコンピュータ(CPU)のセンサ位置の調整処理を示すフロー図である。FIG. 28 is a flowchart showing sensor position adjustment processing of the computer (CPU) shown in FIG. 図29は図1に示すコンピュータ(CPU)の全体誤差の算出処理の一部を示すフロー図である。FIG. 29 is a flowchart showing a part of an overall error calculation process of the computer (CPU) shown in FIG. 図30は図1に示すコンピュータ(CPU)の全体誤差の算出処理の他の一部であって、図29に後続するフロー図である。FIG. 30 is another part of the calculation process of the total error of the computer (CPU) shown in FIG. 1, and is a flowchart subsequent to FIG. 図31は異なる2つのセンサで検出された移動軌跡を同定する他の方法を説明するための図解図である。FIG. 31 is an illustrative view for explaining another method for identifying a movement trajectory detected by two different sensors. 図32は異なる2つのセンサで検出された移動軌跡を同定するその他の方法を説明するための図解図である。FIG. 32 is an illustrative view for explaining another method for identifying a movement locus detected by two different sensors.

図1を参照して、この実施例の計測装置10は、コンピュータ12を含む。コンピュータ12は、汎用のコンピュータであり、人間を追跡(検出)する装置として機能するとともに、距離センサ(以下、単に「センサ」という)14のキャリブレーション装置としても機能する。図1からも分かるように、コンピュータ12には、複数(この実施例では、6台)のセンサ14a、14b、14c、14d、14e、14fが接続される。   With reference to FIG. 1, a measuring apparatus 10 of this embodiment includes a computer 12. The computer 12 is a general-purpose computer that functions as a device that tracks (detects) a human and also functions as a calibration device for a distance sensor (hereinafter simply referred to as “sensor”) 14. As can be seen from FIG. 1, a plurality of (six in this embodiment) sensors 14 a, 14 b, 14 c, 14 d, 14 e, and 14 f are connected to the computer 12.

以下、この実施例において、センサ14a−14fを識別する必要が無い場合には、単に「センサ14」と表記することにする。   Hereinafter, in this embodiment, when it is not necessary to identify the sensors 14a to 14f, they are simply referred to as “sensor 14”.

なお、この実施例の計測装置10では、或る領域(図3参照)における被験者を追跡するために、6つのセンサ14を設けるようにしてあるが、これは単なる例示である。したがって、領域の大きさ、形状、障害物の位置や個数に応じて、センサ14の数は適宜変更される。詳細な説明は省略するが、この実施例の計測装置10では、被験者の移動方向も計測するようにしてあるため、少なくとも2つのセンサ14が必要である。   In the measurement apparatus 10 of this embodiment, six sensors 14 are provided to track the subject in a certain region (see FIG. 3), but this is merely an example. Therefore, the number of sensors 14 is appropriately changed according to the size and shape of the region and the position and number of obstacles. Although detailed description is omitted, since the measuring apparatus 10 of this embodiment measures the moving direction of the subject, at least two sensors 14 are necessary.

コンピュータ12は、センサ14とはRS232Cのようなインターフェイスを介してシリアルに接続される。この実施例では、1台のコンピュータ12にすべてのセンサ14を接続するようにしてあるが、LANのようなネットワークで接続される2台以上のコンピュータで分担するようにしてもよい。かかる場合には、いずれか1台のコンピュータが統括コンピュータとして機能すればよい。   The computer 12 is serially connected to the sensor 14 via an interface such as RS232C. In this embodiment, all the sensors 14 are connected to one computer 12, but may be shared by two or more computers connected by a network such as a LAN. In such a case, any one computer may function as a central computer.

センサ14は、たとえば、レーザーレンジファインダであり、レーザーを照射し、物体に反射して戻ってくるまでの時間から当該物体までの距離を計測するものである。たとえば、レーザーレンジファインダ(センサ14)は、トランスミッタ(図示せず)から照射したレーザーを回転ミラー(図示せず)で反射させて、前方を扇状に一定角度(たとえば、0.5度)ずつスキャンする。   The sensor 14 is, for example, a laser range finder, and measures the distance to the object from the time it takes to irradiate the laser and reflect it back to the object. For example, the laser range finder (sensor 14) reflects a laser beam emitted from a transmitter (not shown) by a rotating mirror (not shown) and scans the front in a fan shape at a certain angle (for example, 0.5 degrees). To do.

ここで、センサ14としては、SICK社製の距離センサ(型式 LMS 200)を用いることができる。この距離センサを用いた場合には、距離8000mmを±15mm程度の誤差で計測可能である。具体的には、図2に示すように、センサ14の検出範囲は、半径R(R≒8000mm)の半円形状(扇形)で示される。つまり、センサ14は、その正面方向を中心とした場合に、左右90°の方向を所定の距離(R)以内で計測可能である。ただし、正面方向を0°として、正面方向から左向きが検出される角度のプラス方向であり、正面方向から右向きが検出される角度のマイナス方向である。   Here, a distance sensor (model LMS 200) manufactured by SICK can be used as the sensor 14. When this distance sensor is used, a distance of 8000 mm can be measured with an error of about ± 15 mm. Specifically, as shown in FIG. 2, the detection range of the sensor 14 is indicated by a semicircular shape (fan shape) having a radius R (R≈8000 mm). That is, the sensor 14 can measure a 90 ° right and left direction within a predetermined distance (R) when the front direction is the center. However, assuming that the front direction is 0 °, it is a positive direction of the angle at which the leftward direction is detected from the front direction, and is a negative direction of the angle at which the rightward direction is detected from the front direction.

また、使用しているレーザーは、日本工業規格 JIS C 6802 「レーザー製品の安全基準」におけるクラス1レーザーであり、人の眼に対して影響を及ぼさない安全なレベルである。たとえば、センサ14のサンプリングレートは、37Hzに設定される。これは、歩行するなどにより移動する人間を追跡(検出)するためである。   The laser used is a class 1 laser in the Japanese Industrial Standard JIS C 6802 “Safety Standards for Laser Products”, which is a safe level that does not affect human eyes. For example, the sampling rate of the sensor 14 is set to 37 Hz. This is for tracking (detecting) a person who moves by walking or the like.

さらに、後述するように、センサ14は、或る領域を検出可能な任意の位置に配置される。具体的には、センサ14の各々は、少なくとも2つ以上のセンサ14の検出領域が重なるように配置され、図示は省略するが、床面から約900mmの高さに固定される。この高さは、人間の胴体を検出可能とするためであり、たとえば、日本人の成人の平均身長から算出される。したがって、計測装置10を設ける場所(地域ないし国)や被験者(人間)の年齢ないし年代(たとえば、子供、大人)に応じて、センサ14を固定する高さを適宜変更するようにしてよい。   Further, as will be described later, the sensor 14 is disposed at an arbitrary position where a certain area can be detected. Specifically, each of the sensors 14 is arranged so that detection areas of at least two or more sensors 14 overlap each other, and although not illustrated, the sensors 14 are fixed to a height of about 900 mm from the floor surface. This height is for enabling detection of a human torso, and is calculated from, for example, the average height of a Japanese adult. Therefore, the height at which the sensor 14 is fixed may be appropriately changed according to the place (region or country) where the measurement device 10 is provided and the age or age of the subject (human) (for example, children or adults).

上述したように、センサ14は、或る領域を検出可能な任意の位置に配置される。通常、このような計測装置10では、各センサ14の位置や向きを実測することにより全体の検出範囲(全検出範囲)を設定したり、各センサ14を予め決定された位置および向きで配置したりするが、いずれの場合も手間である。さらに、人間を追跡する環境(計測装置10を適用する場所)を頻繁に変更したり、人間を追跡する環境が同じであっても、センサ14の位置や向きを頻繁に変更したりする場合には、きわめて面倒である。   As described above, the sensor 14 is disposed at an arbitrary position where a certain area can be detected. Usually, in such a measuring apparatus 10, the entire detection range (total detection range) is set by actually measuring the position and orientation of each sensor 14, or each sensor 14 is arranged at a predetermined position and orientation. In either case, it is troublesome. Furthermore, when the environment for tracking humans (where the measuring device 10 is applied) is frequently changed, or the position and orientation of the sensor 14 are frequently changed even if the environment for tracking humans is the same. Is extremely troublesome.

そこで、この実施例では、各センサ14の検出結果に基づいて、各センサ14の位置および向きを推定し、それらを調整(キャリブレーション)するようにしてある。   Therefore, in this embodiment, the position and orientation of each sensor 14 are estimated based on the detection result of each sensor 14, and they are adjusted (calibrated).

簡単に説明すると、各センサ14からの出力に基づいて、センサ14毎に、人間の位置(人観測点)を検出し、その人観測点の時間変化から当該人間の移動軌跡を算出(生成)する。次に、各センサ14の出力に基づいて生成された移動軌跡を、センサ14間で同定する(一致させる)。一致させた移動軌跡上の2つ以上の人観測点が所定のルールに従って抽出され、抽出された2つ以上の人観測点を用いて、この移動軌跡を生成したセンサ14間の制約(センサ制約)の平均およびその分散を算出する。ただし、センサ制約は、センサ14間の距離およびセンサ14間の相対的な角度(向き)である。また、分散は、センサ14間の距離の誤差である。このようなセンサ制約は、移動軌跡の同定が行われたセンサ14の各組について算出される。そして、算出されたセンサ制約の平均およびその分散を用いて、すべてのセンサ14の位置および向きが推定される。推定されたすべてのセンサ14の位置が調整され、最適化される。以下、詳細に説明する。   Briefly, based on the output from each sensor 14, a human position (human observation point) is detected for each sensor 14, and the movement trajectory of the human is calculated (generated) from the time change of the human observation point. To do. Next, the movement trajectory generated based on the output of each sensor 14 is identified (matched) between the sensors 14. Two or more human observation points on the matched movement trajectory are extracted according to a predetermined rule, and using the extracted two or more human observation points, a restriction (sensor restriction) between the sensors 14 that generate the movement trajectory is obtained. ) Average and its variance. However, the sensor constraint is a distance between the sensors 14 and a relative angle (orientation) between the sensors 14. Further, the variance is an error in the distance between the sensors 14. Such sensor constraints are calculated for each set of sensors 14 for which the movement trajectory has been identified. Then, the positions and orientations of all the sensors 14 are estimated using the calculated average of sensor constraints and the variance thereof. The estimated positions of all sensors 14 are adjusted and optimized. Details will be described below.

図3(A)は、センサ14a−14fが設置された環境を真上方向から見た地図を示す図解図である。この実施例では、図3(A)に示される環境は、或るショッピングモールである。図3(A)からも分かるように、センサ14a、14c、14dは、地図の上側に設置されており、センサ14b、14e、14fは地図の下側に設置されている。また、センサ14a−14fの各々から延びる矢印は、各センサ14a−14fの正面方向を示してある。そして、図3(B)に示すように、2台以上のセンサ14の検出範囲が重なる範囲(全検出範囲)は、斜線を付した範囲(領域)で示される。   FIG. 3A is an illustrative view showing a map in which the environment in which the sensors 14a to 14f are installed is viewed from directly above. In this embodiment, the environment shown in FIG. 3A is a shopping mall. As can be seen from FIG. 3A, the sensors 14a, 14c, and 14d are installed on the upper side of the map, and the sensors 14b, 14e, and 14f are installed on the lower side of the map. Moreover, the arrow extended from each of sensor 14a-14f has shown the front direction of each sensor 14a-14f. As shown in FIG. 3B, a range (total detection range) where the detection ranges of two or more sensors 14 overlap is indicated by a hatched range (region).

ただし、上述したように、センサ14の位置および向き(位置関係)についての初期値は与えられないため、コンピュータ12は、図3(A)および図3(B)に示すような位置関係や全検出範囲を予め知ることができない。   However, as described above, since the initial values for the position and orientation (positional relationship) of the sensor 14 are not given, the computer 12 does not have the positional relationship as shown in FIGS. The detection range cannot be known in advance.

したがって、コンピュータ12は、各センサ14で検出される情報(センサ情報)から背景を抽出する。つまり、図3(B)の斜線を付した範囲と、斜線を付していない範囲との境界を求めることにより、全検出範囲を画定する。これは、計測装置10によって、人間を検出ないし追跡するためである。したがって、扉や壁で遮られる範囲や柱などの固定物が配置されている範囲は背景として抽出される。このように、予め背景を抽出しておくことにより、センサ14によって背景の手前に検出されるものを、人間等の観測点として容易に判断することができる。   Therefore, the computer 12 extracts a background from information (sensor information) detected by each sensor 14. That is, the entire detection range is defined by obtaining the boundary between the hatched range and the hatched range in FIG. This is because the measuring device 10 detects or tracks a person. Accordingly, a range where a fixed object such as a range blocked by a door or a wall or a column is arranged is extracted as a background. Thus, by extracting the background in advance, what is detected in front of the background by the sensor 14 can be easily determined as an observation point of a person or the like.

この実施例では、コンピュータ12が背景を走査する処理(背景スキャン処理)を実行し、その結果から背景を抽出する。具体的には、各センサ14で検出されるセンサ情報から背景を抽出する。センサ情報の一例が図4(A)に示される。図4(A)に示すように、センサ情報は、フレーム毎に、―90°から90°の範囲において一定の角度(0.5°)毎に検出された距離(mm)についての情報である。   In this embodiment, the computer 12 executes a background scanning process (background scanning process), and extracts the background from the result. Specifically, the background is extracted from the sensor information detected by each sensor 14. An example of sensor information is shown in FIG. As shown in FIG. 4 (A), the sensor information is information about a distance (mm) detected at a certain angle (0.5 °) in a range of −90 ° to 90 ° for each frame. .

なお、簡単のため、図4(A)では、5°単位で距離を検出しているように記載してあるが、実際には、上述したように、0.5°単位で距離を検出する。   For simplicity, FIG. 4A shows that the distance is detected in units of 5 °, but actually, the distance is detected in units of 0.5 ° as described above. .

また、この実施例では、フレームは、センサ14がその検出範囲の全角度についての距離を検出する単位時間であり、たとえば27msに設定される。したがって、各センサ14では、1フレーム(27ms)の間に、0.5°単位で180°分の距離を検出するとともに、検出した距離をコンピュータ12に送信する。   Further, in this embodiment, the frame is a unit time for the sensor 14 to detect the distance for all the angles of the detection range, and is set to 27 ms, for example. Accordingly, each sensor 14 detects a distance of 180 ° in units of 0.5 ° and transmits the detected distance to the computer 12 during one frame (27 ms).

詳細な説明は省略するが、各センサ14のセンサ情報は、各センサ14の出力に基づいてコンピュータ12が生成するため、各センサ14のセンサ情報のフレーム数の同期は取られている。   Although detailed description is omitted, since the sensor information of each sensor 14 is generated by the computer 12 based on the output of each sensor 14, the number of frames of the sensor information of each sensor 14 is synchronized.

このような背景スキャン処理が或る程度長い時間(たとえば、10分)行われると、各角度についての検出可能な最大距離が分かる。図4(B)には、背景スキャン処理が実行された結果から得られる、或る角度について検出された距離の個数の分布を表したグラフが示される。このグラフから分かるように、最も検出された個数の多い距離が検出可能な最大距離すなわち境界に設定され、境界を超える距離については背景とみなされる。   If such a background scanning process is performed for a certain length of time (for example, 10 minutes), the maximum detectable distance for each angle is known. FIG. 4B shows a graph representing the distribution of the number of distances detected for a certain angle, which is obtained from the result of executing the background scanning process. As can be seen from this graph, the most detected distance is set as the maximum detectable distance, that is, the boundary, and the distance exceeding the boundary is regarded as the background.

したがって、図5(A)に示すように、背景スキャン処理を実行することにより、センサ14の検出範囲(図2参照)のうち、背景と重なる部分を除く範囲、すなわち実際に人間を検出することが可能な範囲(人検出可能範囲)が画定されるのである。図5(A)では、人検出可能範囲を、網掛模様を付することにより示してある。この人検出可能範囲が、上述した全検出範囲を構成することになる。   Therefore, as shown in FIG. 5 (A), by executing the background scanning process, the detection range of the sensor 14 (see FIG. 2) excluding the portion overlapping the background, that is, actually detecting a human being. A range (a human detectable range) is defined. In FIG. 5A, the human detectable range is shown by adding a shaded pattern. This human detectable range constitutes the entire detection range described above.

なお、図5(A)に示すように、背景スキャン処理の実行中に人間Hや他の物を検出したり、計測誤差が発生したりすることがあるため、図4(B)のグラフからも分かるように、境界とは異なる距離が検出されることがある。   As shown in FIG. 5A, human H or other objects may be detected or measurement errors may occur during the execution of the background scanning process. As can be seen, a distance different from the boundary may be detected.

また、図5(A)に示すように、センサ14と壁などの背景との距離が、センサ14の検出範囲(最大距離R)を超えている場合には、センサ情報としては、最大距離R(8000mm)が記述される。   As shown in FIG. 5A, when the distance between the sensor 14 and a background such as a wall exceeds the detection range (maximum distance R) of the sensor 14, the sensor information includes the maximum distance R. (8000 mm) is described.

さらに、ここでは、背景スキャン処理を或る程度長い時間実行して最も多く検出された距離を境界として決定するようにしてあるが、実際には、所定数(たとえば、100個)同じ距離が検出された場合に、当該距離を境界として決定するようにしてある。したがって、全てのセンサ14の全ての角度についての境界が得られたときに、背景スキャン処理が終了される。   Further, here, the background scanning process is executed for a certain length of time to determine the most detected distance as a boundary, but in reality, a predetermined number (for example, 100) of the same distance is detected. In such a case, the distance is determined as a boundary. Therefore, the background scanning process is terminated when the boundaries for all the angles of all the sensors 14 are obtained.

詳細な説明は省略するが、背景データ(図16参照)としては、センサ14毎に、各角度についての境界までの距離または最大距離Rのデータが記憶されるのである。   Although detailed description is omitted, as the background data (see FIG. 16), data of the distance to the boundary or the maximum distance R for each angle is stored for each sensor 14.

背景スキャン処理が終了されると、人間と思われる観測点(人観測点)との距離およびその角度についての情報を、各センサ14のセンサ情報から検出する。ただし、ここで検出される距離および角度は、各センサ14のローカル座標系における距離および角度である。たとえば、各センサ14のローカル座標は、自身の中心が原点Oに設定され、原点Oを通りセンサ14の正面方向と重なる軸がY軸に設定され、原点Oを通りY軸に直交する軸がX軸に設定される。また、センサ14の正面方向がY軸のプラス方向であり、その正面方向から左に90°回転した方向がX軸のプラス方向である。   When the background scanning process is completed, information about the distance to the observation point (human observation point) that seems to be a human and the angle thereof is detected from the sensor information of each sensor 14. However, the distance and angle detected here are the distance and angle of each sensor 14 in the local coordinate system. For example, as for the local coordinates of each sensor 14, the center of its own is set to the origin O, the axis passing through the origin O and overlapping the front direction of the sensor 14 is set as the Y axis, and the axis passing through the origin O and orthogonal to the Y axis is set. Set to X-axis. The front direction of the sensor 14 is the positive direction of the Y axis, and the direction rotated 90 ° to the left from the front direction is the positive direction of the X axis.

この実施例では、人検出可能範囲内で連続的に検出された観測点間の長さ(幅)が所定の範囲内であり、かつ観測点と当該観測点を検出した角度についての背景との間の長さ(深さ)が所定値以上である場合に、人間を検出したとみなし、そのときの距離と角度とをリスト(人観測点リスト)に記録(追加)する。この人観測点リストは、背景スキャン処理の実行により、背景が抽出された後に検出されるセンサ情報に基づいて生成される。   In this embodiment, the length (width) between observation points continuously detected within the human detectable range is within a predetermined range, and the background about the angle at which the observation point is detected When the length (depth) between them is equal to or greater than a predetermined value, it is considered that a person has been detected, and the distance and angle at that time are recorded (added) to a list (person observation point list). The human observation point list is generated based on sensor information detected after the background is extracted by executing the background scanning process.

ここで、図5(B)を用いて、或るセンサ14によって人間H(人観測点)が検出される場合について説明することにする。図5(B)に示すように、センサ14で、或るフレームにおいて或る5つの角度について、連続的に点P1、P2、P3、P4、P5との距離が計測されたと仮定する。ただし、簡単のため、他の角度で計測された距離については省略してある。   Here, a case where a human H (human observation point) is detected by a certain sensor 14 will be described with reference to FIG. As shown in FIG. 5B, it is assumed that the distance from the points P1, P2, P3, P4, and P5 is continuously measured by the sensor 14 for a certain five angles in a certain frame. However, for simplicity, distances measured at other angles are omitted.

図5(B)からも分かるように、点P1および点P5は、境界上の点であり、背景と判定され、観測点から排除される。点P2、点P3および点P4は、境界よりも手間であるため、観測点として抽出される。次に、抽出した観測点を用いて、両端の観測点間の長さ(幅)および各観測点とこの各観測点を検出した角度における境界との間の長さ(深さ)が算出される。   As can be seen from FIG. 5B, the point P1 and the point P5 are points on the boundary, are determined to be the background, and are excluded from the observation points. Since the point P2, the point P3, and the point P4 are more troublesome than the boundary, they are extracted as observation points. Next, using the extracted observation points, the length (width) between the observation points at both ends and the length (depth) between each observation point and the boundary at the angle at which each observation point was detected are calculated. The

上述したように、センサ14のローカル座標は、その中心を原点Oとして設定しているため、図5(B)に示す例では、センサ14で検出された点P2までの距離(第1距離L1)およびそのときの角度(第1角度φ)と、センサ14で検出された点P4までの距離(第2距離L2)およびそのときの角度(第2角度φ)とを用いて、点P2と点P4との距離(幅)Wが算出される。具体的には、数1に従って算出される。 As described above, since the local coordinates of the sensor 14 are set with the center as the origin O, in the example shown in FIG. 5B, the distance to the point P2 detected by the sensor 14 (first distance L1). ) And the angle at that time (first angle φ 1 ), the distance to the point P 4 detected by the sensor 14 (second distance L 2), and the angle at that time (second angle φ 2 ), A distance (width) W between P2 and point P4 is calculated. Specifically, it is calculated according to Equation 1.

[数1]
W=√{(x1−x2)+(y1−y2)}
ただし、x1=L1×sinφ、x2=L2×sinφ、y1=L1×cosφ、y2=L2×cosφである。
[Equation 1]
W = √ {(x1-x2) 2 + (y1-y2) 2 }
However, x1 = L1 × sinφ 1 , x2 = L2 × sinφ 2 , y1 = L1 × cosφ 1 , y2 = L2 × cosφ 2 .

また、各観測点について、当該各観測点を検出した角度における境界上の点との間の距離(深さ)depが検出される。つまり、図5(B)に示す点線の長さ(深さ)depが算出される。これは、背景スキャン処理で得られた背景までの距離または最大距離Rから観測点までの距離を減算することにより算出される。   For each observation point, the distance (depth) dep between the observation point and the point on the boundary at the angle at which the observation point is detected is detected. That is, the length (depth) dep of the dotted line shown in FIG. This is calculated by subtracting the distance to the observation point from the distance to the background or the maximum distance R obtained by the background scanning process.

そして、幅Wが所定の範囲内であり、かつ深さdepが所定距離以上であるかどうかを判断するのである。具体的には、数2を満たすかどうかを判断する。数2で示される条件は、1人の人間を判別するために設定したものである。つまり、センサ14の高さは、人間の胴体付近に設定されているため、数2に示す数値は、胴体かどうかを判別可能に設定される。また、幅Wについては、人間が正面を向いていたり、横を向いていたりすることがあるため、比較的広い範囲で設定してある。   Then, it is determined whether or not the width W is within a predetermined range and the depth dep is greater than or equal to a predetermined distance. Specifically, it is determined whether or not Expression 2 is satisfied. The condition expressed by Equation 2 is set to discriminate one person. That is, since the height of the sensor 14 is set in the vicinity of the human torso, the numerical value shown in Equation 2 is set so that it can be determined whether the body is a torso. Further, the width W is set in a relatively wide range because a human may face the front or the side.

[数2]
300(mm)≦W≦800(mm)
300(mm)≦dep
ただし、数2の数値は、計測する人間の年齢や体格に応じて適宜変更するようにしてもよい。ただし、夏と冬とでは、服装が全く異なり、その厚みが大幅に違うため、季節に応じて異なる数値を設定する必要もある。
[Equation 2]
300 (mm) ≤ W ≤ 800 (mm)
300 (mm) ≤ dep
However, the numerical value of Formula 2 may be appropriately changed according to the age and physique of the person to be measured. However, in summer and winter, clothes are completely different and their thickness is significantly different, so it is necessary to set different values depending on the season.

上述したように、幅Wを所定の範囲内に設定してあるのは、1人の人間を検出するためである。したがって、たとえば、センサ14から見て、2人以上の人間が並んでいたり、重なっていたりする場合については、個々の人間を区別する方法をさらに導入する必要がある。   As described above, the width W is set within the predetermined range in order to detect one person. Therefore, for example, when two or more humans are lined up or overlapped when viewed from the sensor 14, it is necessary to further introduce a method for distinguishing individual humans.

また、深さdepを所定距離以上にしているのは、或る程度の厚みが無い場合には人間と判断するべきではないからである。   The reason why the depth dep is set to be equal to or greater than the predetermined distance is that it should not be determined as a human if there is no certain thickness.

なお、図5(B)では、1つのセンサ14によって1人の人間Hが検出される場合について示してあるが、1つのセンサ14から見て重ならずに離れた場所に存在する2人以上の人間Hが検出される場合もある。   FIG. 5B shows a case where one human H is detected by one sensor 14, but two or more people present at a distance apart from each other when viewed from one sensor 14. Human H may be detected.

数2に示す条件を満たすと、人間Hを検出(観測)したと判断し、その観測点(人観測点)が各センサ14のローカル座標系における極座標(距離および角度)で記憶される。ただし、図5(B)からも分かるように、1フレームにおいて同一の人間Hについて、複数の人観測点が検出されるため、ここではその代表値(距離および角度の平均値、または、距離の最大値または最小値とそのときの角度)が記憶される。   When the condition shown in Equation 2 is satisfied, it is determined that the person H has been detected (observed), and the observation point (human observation point) is stored in polar coordinates (distance and angle) in the local coordinate system of each sensor 14. However, as can be seen from FIG. 5B, since a plurality of human observation points are detected for the same person H in one frame, the representative value (average value of distance and angle, or distance Maximum value or minimum value and angle at that time) are stored.

具体的には、図6(A)に示すような人観測点のリスト(人観測点リスト)が作成され、この人観測点リストに今回(現フレームで)検出された人観測点が記憶(追加)される。図6(A)に示すように、人観測点リストは、インデックスに対応して、フレーム数、距離、角度および速度が記述される。インデックスは、人観測点に付された識別情報であり、この実施例では、アルファベットと数字とによって表される。ただし、これに限定される必要は無く、インデックスは、アルファベットまたは数字のみで表しても良いし、人間が解読不能な情報で表してもよい。フレーム数は、当該人観測点を検出した時点のフレーム数(フレームの番目)である。距離(mm)は、当該センサ14によって検出され、対応するインデックスが示す人観測点までの距離である。角度(°)は、当該センサ14によって、対応するインデックスが示す人観測点を検出したときの当該センサ14の正面方向に対する角度である。速度(mm/s)は、対応するインデックスが示す人観測点の移動速度である。ただし、速度(mm/s)は、同一人物の移動速度であり、後述する移動軌跡(ローカル軌跡リスト)が生成されたときに、連続する人観測点間の単位時間当たりの距離(移動速度)が算出され、人観測点リストに記載される。したがって、人観測点リストの作成時には、速度(mm/s)としてはnullが記載される。   Specifically, a list of human observation points (human observation point list) as shown in FIG. 6A is created, and the human observation points detected this time (in the current frame) are stored in this human observation point list ( Added). As shown in FIG. 6A, the human observation point list describes the number of frames, the distance, the angle, and the speed corresponding to the index. The index is identification information attached to the human observation point, and is represented by an alphabet and a number in this embodiment. However, it is not necessary to be limited to this, and the index may be represented by only alphabets or numbers, or may be represented by information that cannot be deciphered by humans. The number of frames is the number of frames at the time when the person observation point is detected (frame number). The distance (mm) is a distance to the human observation point detected by the sensor 14 and indicated by the corresponding index. The angle (°) is an angle with respect to the front direction of the sensor 14 when the sensor 14 detects the human observation point indicated by the corresponding index. The speed (mm / s) is the moving speed of the human observation point indicated by the corresponding index. However, the speed (mm / s) is a movement speed of the same person, and when a movement trajectory (local trajectory list) described later is generated, a distance per unit time (movement speed) between consecutive human observation points. Is calculated and listed in the list of human observation points. Therefore, when creating the human observation point list, null is described as the velocity (mm / s).

このような人観測点リストを参照することにより、各センサ14で検出される人間Hの移動軌跡が生成される。この実施例では、所定時間(1フレーム)における人観測点間の距離が所定値(たとえば、500mm)以下である場合には、同一の移動軌跡上の点であると判定する。つまり、かかる場合には、同一の人間Hについての人観測点が時間に従って変化していると判断するのである。一方、人観測点間の距離が所定値を超える場合には、異なる移動軌跡上の点であると判定する。かかる場合には、異なる人間Hの移動軌跡も生成される。詳細な説明は省略するが、人観測点間の距離は、上述した数1に従って算出される。   By referring to such a human observation point list, the movement trajectory of the human H detected by each sensor 14 is generated. In this embodiment, when the distance between human observation points in a predetermined time (one frame) is a predetermined value (for example, 500 mm) or less, it is determined that the points are on the same movement locus. That is, in such a case, it is determined that the human observation points for the same person H are changing with time. On the other hand, when the distance between the human observation points exceeds a predetermined value, it is determined that the point is on a different movement locus. In such a case, a movement trajectory of a different person H is also generated. Although a detailed description is omitted, the distance between the human observation points is calculated according to the above-described formula 1.

このように、同一の移動軌跡上の人観測点であるかどうかが判定され、その判定結果に基づいて、図6(B)に示すようなローカル軌跡リストが生成される。つまり、移動軌跡が生成(検出)される。ローカル軌跡リストは、センサ14毎に作成される。つまり、人間Hの移動軌跡が各センサ14のローカル座標系のセンサ情報に基づいて生成され、それぞれのローカル軌跡リストが作成されるのである。   In this way, it is determined whether or not they are human observation points on the same moving locus, and a local locus list as shown in FIG. 6B is generated based on the determination result. That is, a movement trajectory is generated (detected). A local trajectory list is created for each sensor 14. That is, the movement trajectory of the person H is generated based on the sensor information of the local coordinate system of each sensor 14, and each local trajectory list is created.

図6(B)に示すように、ローカル軌跡リストでは、ローカルIDに対応して、人観測点リストのインデックスが記載される。ローカルIDは、当該センサ14で検出される移動軌跡を識別するための識別情報であり、アルファベットと数字とによって表される。ただし、ローカルIDは、アルファベットまたは数字のみで表されても良く、人間が解読不能な情報で表されてもよい。また、人観測点リストのインデックスは、対応するローカルIDが示す移動軌跡上の人観測点についてのインデックスであり、2つ以上のインデックスが時系列に従って記載される。   As shown in FIG. 6B, in the local trajectory list, the index of the human observation point list is described corresponding to the local ID. The local ID is identification information for identifying the movement locus detected by the sensor 14, and is represented by alphabets and numbers. However, the local ID may be represented by only alphabets or numbers, or may be represented by information that cannot be deciphered by humans. The index of the human observation point list is an index for the human observation point on the movement locus indicated by the corresponding local ID, and two or more indexes are described in time series.

すべてのセンサ14について、ローカル軌跡リストが作成されると、異なる2つのセンサ14の各々のセンサ情報に基づいて検出された移動軌跡のうち、同一であると考えられる2つの移動軌跡が互いに関連付けられる。つまり、異なる2つのセンサ14の出力に基づいて生成された移動軌跡のうち、同一の人間Hの移動軌跡であると考えられるものを同定するのである。   When the local trajectory list is created for all the sensors 14, two movement trajectories that are considered to be the same among the movement trajectories detected based on the sensor information of the two different sensors 14 are associated with each other. . That is, the movement trajectory generated based on the outputs of the two different sensors 14 is identified as being considered to be the movement trajectory of the same person H.

たとえば、図7に示すような場合には、センサ14aおよびセンサ14bのそれぞれにおいて、2つの移動軌跡が検出される。上述したように、各センサ14は、ローカル座標系で人観測点を検出しており、互いに他のセンサ14の存在を認識できていない。このため、各センサ14で生成された移動軌跡が、他のセンサ14で生成されたいずれの移動軌跡と一致するのかを直ぐに知ることはできない。したがって、この実施例では、移動軌跡から分かる人観測点の時間変化(人間の移動速度)に基づいて、異なる2つのセンサ14で検出された移動軌跡のうち、共通する(同一の)移動軌跡を検出するようにしてある。   For example, in the case shown in FIG. 7, two movement trajectories are detected in each of the sensor 14a and the sensor 14b. As described above, each sensor 14 detects a human observation point in the local coordinate system and cannot recognize the presence of another sensor 14 with each other. For this reason, it is impossible to immediately know which movement locus generated by each sensor 14 matches which movement locus generated by other sensors 14. Therefore, in this embodiment, a common (identical) movement locus among the movement loci detected by the two different sensors 14 based on the time change (human movement speed) of the human observation point that can be seen from the movement locus. It is designed to detect.

具体的には、一方のセンサ14で検出された移動軌跡のうちの着目する1つの移動軌跡(説明の都合上、「移動軌跡T」という)の速度変化と、他方のセンサ14で検出された全ての移動軌跡(説明の都合上、「移動軌跡T」という)の各々の速度変化とを比較し、速度変化の誤差(速度差)が最も小さい移動軌跡Tが移動軌跡Tと同一であると判定する。ただし、速度差(RMS誤差)は、数3に従って算出される。 Specifically, of the movement trajectories detected by one sensor 14, the speed change of one movement trajectory of interest (referred to as “movement trajectory T m ” for convenience of description) and the other sensor 14 detect the movement. Compared with the respective speed changes of all the movement trajectories (for convenience of explanation, referred to as “movement trajectory T n ”), the movement trajectory T n with the smallest speed change error (speed difference) is the movement trajectory T m . It is determined that they are the same. However, the speed difference (RMS error) is calculated according to Equation 3.

[数3]

Figure 2012088135
[Equation 3]

Figure 2012088135

ただし、この実施例では、速度差が最も小さい移動軌跡Tと同程度の速度差を有する他の移動軌跡Tが存在する場合には、速度差が最も小さい移動軌跡Tであっても、移動軌跡Tと同一であると判定しない。また、この実施例では、速度差が最も小さい移動軌跡Tが唯一存在する場合であっても、この速度差が一定値(この実施例では、100mm/s)以上である場合には、移動軌跡Tと同一であると判定しない。これらの場合には、速度差が最小であっても、移動軌跡Tと移動軌跡Tとが一致すると決定することは適切でないと考えられるからである。 However, in this embodiment, when another moving track T n having a speed difference of the same extent as the smallest movement track T n speed difference is present, the speed difference is even the smallest movement track T n , not determined to be the same as the movement track T m. In this embodiment, even if there is only a movement trajectory T n having the smallest speed difference, if this speed difference is a certain value (100 mm / s in this embodiment) or more, the movement not determined to be the same as the trajectory T m. In these cases, even the speed difference is a minimum, be determined and the movement track T m and movement track T n are coincident it is considered not appropriate.

図8(A)には、或るセンサ14で検出された移動軌跡のうちの着目する1つの移動軌跡Tの速度変化(実線)と、図面では分かり難いが、他のセンサ14で検出された7つの移動軌跡T(ここでは、n=1、2、…、7)の速度変化(破線等)とが記載される。 The FIG. 8 (A), the a focused to one speed change of the movement locus T m of a of the movement trajectory detected by the one sensor 14 (solid line), but difficult to understand in the drawing, is detected by the other sensors 14 The speed change (broken line etc.) of 7 movement locus | trajectories Tn (here n = 1, 2, ..., 7) is described.

図8(B)は、図8(A)に示した1つの移動軌跡Tと、7つの移動軌跡Tの各々との速度差を示すグラフである。たとえば、速度差は、速度変化における一定時間(この実施例では、5フレーム)毎のサンプル点での速度差の絶対値を累積したものである。図8(B)から分かるように、着目する1の移動軌跡Tでは、移動軌跡T(n=5)との速度差が最小である。また、この移動軌跡T(n=5)の速度差は、他の移動軌跡T(n=1−4、6、7)の速度差と同程度でない。さらに、移動軌跡T(n=5)の速度差は、一定値(この実施例では、100mm/s)未満である。したがって、移動軌跡Tと移動軌跡T(n=5)とは同一であると判定され、関連付けが行われる。 Figure 8 (B) is a graph showing one and movement track T m shown in FIG. 8 (A), the speed difference between each of the seven movement track T n. For example, the speed difference is obtained by accumulating the absolute values of the speed differences at the sample points every fixed time (5 frames in this embodiment) in the speed change. As can be seen from FIG. 8B, the speed difference from the movement trajectory T n (n = 5) is the smallest in the one movement trajectory T m of interest. Further, the speed difference of the movement trajectory T n (n = 5) is not comparable to the speed difference of the other movement trajectories T n (n = 1-4, 6, 7). Further, the speed difference of the movement trajectory T n (n = 5) is less than a certain value (100 mm / s in this embodiment). Therefore, it is determined that the movement trajectory T m and the movement trajectory T n (n = 5) are the same, and the association is performed.

このような判定処理が行われると、次に着目する移動軌跡Tとすべての移動軌跡Tとの間で、速度差が求められ、同一の移動軌跡が有るかどうかが判定される。すべての移動軌跡Tについてすべての移動軌跡Tとの判定処理が実行されると、センサ14の次の組についての判定処理が実行される。この実施例では、6個のセンサ14が用いられるため、全部で15()通りのセンサ14の組について判定処理が実行される。以下、この実施例において、センサ14の組という場合には、(A,B)、(A,C)、(A,D)、(A,E)、(A,F)、(B,C)、(B,D)、(B,E)、(B,F)、(C,D)、(C,E)、(C,F)、(D,E)、(D,F),(E,F)の各組を意味し、センサ14の各組について処理を実行する場合には、この順番に従って処理が実行されるものとする。ただし、括弧内のアルファベットはセンサ14の識別情報である。この実施例では、センサ14aの識別情報が「A」であり、センサ14bの識別情報が「B」であり、センサ14cの識別情報が「C」であり、センサ14dの識別情報が「D」であり、センサ14eの識別情報が「E」であり、そして、センサ14fの識別情報が「F」である。ただし、センサ14の識別情報はアルファベットで示す必要はなく、数字やアルファベットと数字との組み合わせで表してもよく、また、人間が解読できない情報で表してもよい。 If such determination processing is performed, then between the movement track T m and all movement track T n of interest, the speed difference is determined whether the same movement locus there are determined. When the determination process for all the movement trajectories T m and all the movement trajectories T n are executed, the determination process for the next set of sensors 14 is executed. In this embodiment, since six sensors 14 are used, the determination process is executed for a total of 15 ( 6 C 2 ) combinations of sensors 14. Hereinafter, in this embodiment, when referring to the set of sensors 14, (A, B), (A, C), (A, D), (A, E), (A, F), (B, C) ), (B, D), (B, E), (B, F), (C, D), (C, E), (C, F), (D, E), (D, F), It means each set of (E, F), and when processing is executed for each set of sensors 14, the processing is executed in this order. However, alphabets in parentheses are identification information of the sensor 14. In this embodiment, the identification information of the sensor 14a is “A”, the identification information of the sensor 14b is “B”, the identification information of the sensor 14c is “C”, and the identification information of the sensor 14d is “D”. The identification information of the sensor 14e is “E”, and the identification information of the sensor 14f is “F”. However, the identification information of the sensor 14 does not need to be indicated by alphabets, and may be expressed by numbers, a combination of alphabets and numbers, or may be expressed by information that cannot be deciphered by humans.

図9(A)には、同一の移動軌跡であることが判定され、関連付けが行われた移動軌跡についてのテーブル(関連付けテーブル)の例が示される。この関連付けテーブルでは、グローバルIDに対応して、第1センサID、第1ローカルID、第2センサIDおよび第2ローカルIDが記述される。   FIG. 9A shows an example of a table (association table) for movement loci that are determined to be the same movement locus and associated with each other. In this association table, a first sensor ID, a first local ID, a second sensor ID, and a second local ID are described corresponding to the global ID.

グローバルIDは、上述したように、同一であることが判定された移動軌跡すなわちグローバル座標系における1つの移動軌跡についての識別情報であり、数字で表される。ただし、グローバルIDは、アルファベットで表されも良く、数字とアルファベットとで表されても良く、人間が解読できない情報で表されても良い。   As described above, the global ID is identification information about a movement locus that is determined to be the same, that is, one movement locus in the global coordinate system, and is represented by a number. However, the global ID may be represented by alphabets, may be represented by numbers and alphabets, or may be represented by information that cannot be deciphered by humans.

第1センサIDは、同一の移動軌跡であると判定された場合の移動軌跡Tを検出したセンサ14の識別情報である。第1ローカルIDは、同一の移動軌跡と判定された場合の移動軌跡TについてのローカルIDである。第2センサIDは、同一の移動軌跡であると判定された場合の移動軌跡Tを検出したセンサ14の識別情報である。第2ローカルIDは、同一の移動軌跡と判定された場合の移動軌跡TについてのローカルIDである。 The first sensor ID is identification information of the sensor 14 which detects the movement track T m of a case where it is determined that the same movement locus. First local ID is a local ID of the movement track T m of a case where it is determined that the same movement locus. The second sensor ID is identification information of the sensor 14 that has detected the movement trajectory T n when it is determined that they are the same movement trajectory. The second local ID is a local ID for the movement trajectory T n when determined as the same movement trajectory.

たとえば、図9(A)に示すように、グローバルIDが「35」である移動軌跡は、第1センサIDが「A」であるセンサ14aで検出された第1ローカルIDが「T」の移動軌跡Tおよび第2センサIDが「B」であるセンサ14bで検出された第2ローカルIDが「T」の移動軌跡Tであることを意味する。説明は省略するが、他の場合についても同様である。 For example, as shown in FIG. 9A, the movement trajectory with the global ID “35” has the first local ID “T 1 ” detected by the sensor 14 a with the first sensor ID “A”. This means that the movement locus T n is the movement locus T n whose second local ID detected by the sensor 14b whose movement locus T m and the second sensor ID is “B” is “T 1 ”. Although the description is omitted, the same applies to other cases.

なお、第1ローカルIDと第2ローカルIDは、同じIDが付されている場合もあるが、第1センサIDおよび第2センサIDによって区別されるため、それらが示す移動軌跡は識別可能である。   The first local ID and the second local ID may be assigned the same ID, but are distinguished by the first sensor ID and the second sensor ID, so that the movement locus indicated by them can be identified. .

同一の移動軌跡が関連付けられると、つまり関連付けテーブルが作成されると、同一であると判定された移動軌跡T上および移動軌跡T上の人観測点であって、同じタイミング(同一フレーム)で検出された人観測点(共有の人観測点)をそれぞれの移動軌跡T、Tから抽出する。 When the same movement locus is associated, that is, when the association table is created, a human observation point on the movement track T m and on the movement track T n which are determined to be the same, the same timing (same frame) The human observation points (shared human observation points) detected in (1) are extracted from the respective movement trajectories T m and T n .

図9(B)は、抽出した共有の人観測点についてのリスト(共有の人観測点リスト)の例を示す。図9(B)に示すように、共有の人観測点リストは、第1センサIDおよび第2センサIDに対応して、第1距離、第1角度、第2距離および第2角度が記述される。   FIG. 9B shows an example of the extracted list of shared human observation points (shared human observation point list). As shown in FIG. 9B, in the shared human observation point list, the first distance, the first angle, the second distance, and the second angle are described corresponding to the first sensor ID and the second sensor ID. The

上述したように、第1センサIDは、同一の移動軌跡であると判定された移動軌跡Tを検出したセンサ14の識別情報である。同様に、第2センサIDは、同一の移動軌跡であると判定された移動軌跡Tを検出したセンサ14の識別情報である。 As described above, the first sensor ID is identification information of the sensor 14 which detects the movement track T m which is determined to be the same movement locus. Similarly, the second sensor ID is identification information of the sensor 14 which detects the movement track T n it is determined that the same movement locus.

第1距離は、第1センサIDが示すセンサ14と共有の人観測点OBSとの距離(mm)である。第1角度は、第1センサIDが示すセンサ14の正面方向に対する、当該センサ14から見た共有の人観測点OBSの角度(°)である。   The first distance is a distance (mm) between the sensor 14 indicated by the first sensor ID and the shared human observation point OBS. The first angle is an angle (°) of the shared human observation point OBS viewed from the sensor 14 with respect to the front direction of the sensor 14 indicated by the first sensor ID.

第2距離は、第2センサIDが示すセンサ14と共有の人観測点OBSとの距離(mm)である。第2角度は、第2センサIDが示すセンサ14の正面方向に対する、当該センサ14から見た共有の人観測点OBSの角度(°)である。   The second distance is a distance (mm) between the sensor 14 indicated by the second sensor ID and the shared human observation point OBS. The second angle is an angle (°) of the shared human observation point OBS viewed from the sensor 14 with respect to the front direction of the sensor 14 indicated by the second sensor ID.

たとえば、図9(B)に示すように、第1センサIDが「A」であるセンサ14aと、第2センサIDが「B」であるセンサ14bとの共有の人観測点OBSは、センサ14aとの第1距離が3500mmであり、センサ14aの正面方向に対する第1角度が45°であり、センサ14bとの第2距離が2000mmであり、そして、センサ14bの正面方向に対する第2角度が30°である。説明は省略するが、他の場合についても同様である。   For example, as shown in FIG. 9B, the shared human observation point OBS between the sensor 14a whose first sensor ID is “A” and the sensor 14b whose second sensor ID is “B” is the sensor 14a. The first distance to the front direction of the sensor 14a is 45 °, the second distance to the sensor 14b is 2000mm, and the second angle to the front direction of the sensor 14b is 30mm. °. Although the description is omitted, the same applies to other cases.

ただし、人観測点OBSは、上述したように、センサ14毎の人観測点リストに登録されている人観測点(H1,H2,H3,H4,H5,…)である。   However, the human observation point OBS is a human observation point (H1, H2, H3, H4, H5,...) Registered in the human observation point list for each sensor 14 as described above.

図10(A)には、第1センサIDが示すセンサ14(センサS)と第2センサIDが示すセンサ14(センサS)とによって検出され、同一であると判定された移動軌跡上の共有の人観測点OBSと、センサSおよびセンサSとの位置関係(距離および角度)を示す図解図である。ただし、図10(A)においては(後述する図10(B)も同様)、第1距離を「d」、第1角度を「θ」、第2距離を「d」、そして第2角度を「θ」で示してある。 FIG. 10A shows a movement locus detected by the sensor 14 (sensor S 1 ) indicated by the first sensor ID and the sensor 14 (sensor S 2 ) indicated by the second sensor ID and determined to be the same. FIG. 6 is an illustrative view showing a positional relationship (distance and angle) between the shared human observation point OBS and the sensors S 1 and S 2 . However, in FIG. 10A (the same applies to FIG. 10B described later), the first distance is “d 1 ”, the first angle is “θ 1 ”, the second distance is “d 2 ”, and Two angles are indicated by “θ 2 ”.

なお、図10(A)では、1つの共有の人観測点OBSを示してあるが、実際には、同一と判定された移動軌跡上には、複数の共有の人観測点OBSが存在する。   In FIG. 10A, one shared person observation point OBS is shown, but actually, there are a plurality of shared person observation points OBS on the movement trajectory determined to be the same.

次に、センサ14間の制約(位置関係)を算出方法について説明する。ただし、センサ14間の制約とは、2つのセンサ14間の距離Dとこの2つのセンサ14間の相対的な向き(α、β)とを意味する(図11(A)、(B)参照)。   Next, a method for calculating the constraint (positional relationship) between the sensors 14 will be described. However, the restriction between the sensors 14 means the distance D between the two sensors 14 and the relative orientation (α, β) between the two sensors 14 (see FIGS. 11A and 11B). ).

上述したように、人観測点OBSは各センサ14のローカル座標系における極座標で表されるため、たとえば、図10(B)に示すように、センサSが距離dと角度θとを保ったまま任意の角度γだけ回転した場合には、角度γだけ回転しない場合と比較して、センサSとセンサSとの制約が全く異なってしまう。つまり、共有の人観測点OBSが1つの場合には、当該人観測点OBSと、センサSおよびセンサSとの位置関係(極座標)から、それらのセンサ間の制約(位置関係)を正しく算出することができない。 As described above, because the human observation point OBS represented by polar coordinates in the local coordinate system of each sensor 14, for example, as shown in FIG. 10 (B), the sensor S 1 is a distance d 1 and the angle theta 1 When the rotation is performed by an arbitrary angle γ while maintaining, the restrictions on the sensor S 1 and the sensor S 2 are completely different from the case where the rotation is not performed by the angle γ. That is, when a shared human observation point OBS is one, and the person observation point OBS, from the positional relationship between the sensor S 1 and the sensor S 2 (polar), the constraint between the sensors (positional relationship) correctly It cannot be calculated.

なお、図示は省略するが、センサSが距離dと角度θとを保ったまま任意の角度だけ回転した場合も、図10(B)に示した場合と同様である。 Although illustration is omitted, the case where the sensor S 2 rotates by an arbitrary angle while maintaining the distance d 2 and the angle θ 2 is the same as that shown in FIG.

したがって、この実施例では、2つの共有の人観測点OBS、OBSと、センサSおよびセンサSとの位置関係から、センサSとセンサSとの制約(位置関係)を算出するようにしてある。 Thus, in this embodiment, calculates human observation points of the two shared OBS p, and OBS q, from the positional relationship between the sensor S 1 and the sensor S 2, constraint between the sensor S 1 and the sensor S 2 (positional relationship) I have to do it.

図11(A)は、2つの共有の人観測点OBS、OBSと、センサSおよびセンサSとの位置関係を示す図解図である。図示は省略するが、人観測点OBSおよび人観測点OBSは、同一であると判定された移動軌跡上の点である。 FIG. 11A is an illustrative view showing a positional relationship between two shared human observation points OBS p and OBS q and the sensors S 1 and S 2 . Although illustration is omitted, the human observation point OBS p and the human observation point OBS q are points on the movement trajectory determined to be the same.

ここで、図11(A)および図11(B)を用いて、センサ間の制約の算出方法について説明する。ただし、図11(B)では、図11(A)で示した2つのセンサS、センサSの位置を点Aおよび点Bで示すとともに、2つの共有の人観測点OBS、OBSの位置を点Pおよび点Qで示してある。また、上述した2つのセンサ間の距離Dおよび2つのセンサ間の相対的な角度α、βが示される。具体的には、図11(B)に示す、線分ABの長さが距離Dであり、線分ABとセンサSの正面方向が為す角度が角度αであり、そして、線分ABとセンサS正面方向が為す角度が角度βである。 Here, a method for calculating the constraint between sensors will be described with reference to FIGS. 11 (A) and 11 (B). However, in FIG. 11B, the positions of the two sensors S 1 and S 2 shown in FIG. 11A are indicated by points A and B, and two shared human observation points OBS p and OBS q Are indicated by points P and Q. Further, the distance D between the two sensors described above and the relative angles α and β between the two sensors are shown. Specifically, shown in FIG. 11 (B), the length of the line segment AB is the distance D, the line segment AB and the front direction angle between the sensor S 1 is the angle alpha, and the segment AB sensor S 2 front direction angle formed is an angle beta.

上述したように、図11(A)に示す2つの共有の人観測点OBS、OBSは、所定のルールに従って抽出(選択)される。たとえば、共有の人観測点OBSは時間的に最も新しい(最後に検出された)人観測点であり、共有の人観測点OBSは、共有の人観測点OBSよりも古い(時間的に前に検出された)人観測点であり、任意(ランダム)に選択される。ただし、2つの共有の人観測点OBS、OBSをランダムに選択するようにしてもよい。 As described above, the two shared human observation points OBS p and OBS q shown in FIG. 11A are extracted (selected) according to a predetermined rule. For example, the shared human observation point OBS p is the newest (last detected) human observation point in time, and the shared human observation point OBS q is older than the shared human observation point OBS p (temporal). (Observed previously) and selected arbitrarily (randomly). However, two shared human observation points OBS p and OBS q may be selected at random.

(1)まず、余弦定理を用いて、線分PQの長さdPQが算出される。ここで、図11(A)に示す第1角度θおよび第3角度θは、共有の人観測点リストに含まれるため、既知の値である。したがって、図11(B)に示す角度∠PAQは、第1角度θの大きさと第3角度θの大きさとを用いて算出することができる。ただし、センサSの向きによって第1角度θと第3角度θとの符号(+,−)が変わるため、基準の人観測点OBSに対する第1角度θ1から他の人観測点OBSに対する第3角度θを減算することにより算出される。具体的には、角度∠PAQは、数4に従って算出される。同様にして、角度∠PBQは、第2角度θと第4角度θとを用いることにより、数5に従って算出される。ただし、数4および数5において、|・|は絶対値を意味する。以下、この実施例において同じ。また、図11(A)に示す第2角度θおよび第4角度θは、センサSで検出されたセンサ情報に含まれるため、既知の値である。以下、同様である。 (1) First, the length d PQ of the line segment PQ is calculated using the cosine theorem. Here, since the first angle θ 1 and the third angle θ 3 shown in FIG. 11A are included in the shared human observation point list, they are known values. Therefore, the angle ∠PAQ shown in FIG. 11B can be calculated using the magnitude of the first angle θ 1 and the magnitude of the third angle θ 3 . However, since the signs (+, −) of the first angle θ 1 and the third angle θ 3 change depending on the orientation of the sensor S 1 , another person observation point OBS from the first angle θ1 with respect to the reference person observation point OBS p . It is calculated by subtracting the third angle θ 3 with respect to q . Specifically, the angle ∠PAQ is calculated according to Equation 4. Similarly, the angle ∠PBQ is calculated according to Equation 5 by using the second angle θ 2 and the fourth angle θ 4 . However, in Equations 4 and 5, | · | means an absolute value. Hereinafter, this is the same in this embodiment. Further, the second angle θ 2 and the fourth angle θ 4 shown in FIG. 11A are known values because they are included in the sensor information detected by the sensor S 2 . The same applies hereinafter.

[数4]
∠PAQ=|θ−θ
[数5]
∠PBQ=|θ−θ
(2)次に、三角形△APQについて余弦定理を用いることにより、線分PQの長さを算出する。ここで、線分APの長さdAPおよび線分AQの長さdAQは、図11(A)に示す第1距離dおよび第3距離dの各々に相当し、これらは共有の人観測点リストに含まれるため、既知である。したがって、数6に示すように、余弦定理を用いて、線分PQの長さdPQが求められる。
[Equation 4]
∠PAQ = | θ 1 −θ 3 |
[Equation 5]
∠PBQ = | θ 2 −θ 4 |
(2) Next, the length of the line segment PQ is calculated by using the cosine theorem for the triangle ΔAPQ. Here, the length d AP of the line segment AP and the length d AQ of the line segment AQ correspond to the first distance d 1 and the third distance d 3 shown in FIG. 11A, respectively. It is known because it is included in the list of human observation points. Therefore, as shown in Equation 6, the length d PQ of the line segment PQ is obtained using the cosine theorem.

[数6]
PQ=√((dAP+(dAQ−2×dAP×dAQ×cos∠PAQ)
なお、詳細な説明は省略するが、角度∠PBQを数5に従って算出してあるため、三角形△BPQについて余弦定理を用いることにより、線分PQの長さを算出することも可能である。
[Equation 6]
d PQ = √ ((d AP ) 2 + (d AQ ) 2 −2 × d AP × d AQ × cos∠PAQ)
Although detailed description is omitted, since the angle ∠PBQ is calculated according to Equation 5, the length of the line segment PQ can be calculated by using the cosine theorem for the triangle ΔBPQ.

(3)次に、角度∠APQおよび角度∠BPQが算出され、さらに、角度∠APBが算出される。角度∠APQは、三角形△APQについて正弦定理を用いることにより、数7に従って算出される。また、角度∠BPQは、三角形△BPQについて正弦定理を用いることにより、数8に従って算出される。ただし、角度∠APBは、角度∠APQと角度∠BPQとの和であるため、数式は省略する。また、線分BQの長さdBQは、図11(A)に示す第4距離dに相当し、共有の人観測点リストに含まれるため、既知である。 (3) Next, the angle ∠APQ and the angle QBPQ are calculated, and further, the angle ∠APB is calculated. The angle ∠APQ is calculated according to Equation 7 by using the sine theorem for the triangle ΔAPQ. Further, the angle ∠BPQ is calculated according to Equation 8 by using the sine theorem for the triangle ΔBPQ. However, since the angle ∠APB is the sum of the angle ∠APQ and the angle ∠BPQ, the mathematical formula is omitted. The length d BQ line segment BQ, since corresponds to the fourth distance d 4 shown in FIG. 11 (A), included in the shared human observation point list, is known.

[数7]
∠APQ=sin−1(dAQ/dPQ×sin∠PAQ)
[数8]
∠BPQ=sin−1(dBQ/dPQ×sin∠PBQ)
(4)続いて、線分ABの長さdABが、三角形△PABについて余弦定理を用いることにより、数9に従って算出される。ただし、線分BPの長さdBPは、図11(A)に示す第3距離dに相当し、共有の人観測点リストに含まれるため、既知である。
[Equation 7]
∠APQ = sin −1 (d AQ / d PQ × sin ∠PAQ)
[Equation 8]
∠BPQ = sin −1 (d BQ / d PQ × sin∠PBQ)
(4) Subsequently, the length dAB of the line segment AB is calculated according to Equation 9 by using the cosine theorem for the triangle ΔPAB. However, the length d BP line segment BP, since corresponds to a third distance d 3 shown in FIG. 11 (A), included in the shared human observation point list, is known.

[数9]
AB=√((dAP+(dPB−2×dAP×dPB×cos∠APB)
(5)さらに、角度∠PABおよび∠PBAが、三角形△PABについて正弦定理を用いることにより、数10および数11に従ってそれぞれ算出される。
[Equation 9]
d AB = √ ((d AP ) 2 + (d PB ) 2 −2 × d AP × d PB × cos∠APB)
(5) Further, the angles ∠PAB and ∠PBA are calculated according to Equations 10 and 11 by using the sine theorem for the triangle ΔPAB, respectively.

[数10]
∠PAB=sin−1(dBP/dAB×sin∠APB)
[数11]
∠PBA=sin−1(dAP/dAB×sin∠APB)
角度∠PABと角度∠PBAが算出されると、センサSと人観測点OBSとの角度θおよびセンサSと人観測点OBSとの角度θは既知であるため、センサSの正面方向と線分ABとの為す角度α(∠PAB−|θ1|)およびセンサSの正面方向と線分ABとの為す角度β(∠PBA−|θ2|)は簡単に求めることができる。
[Equation 10]
∠PAB = sin −1 (d BP / d AB × sin ∠APB)
[Equation 11]
∠PBA = sin -1 (d AP / d AB × sin∠APB)
The angle ∠PAB and angle ∠PBA are calculated, for the sensor S 1 and the angle theta 1 and sensor S 2 and the human observation point angle theta 2 between the OBS p of the human observation point OBS p is known, the sensor S the angle formed between the first front direction and the line segment AB α (∠PAB- | θ1 |) and the sensor angle formed between the front direction and the line segment AB of S 2 β (∠PBA- | θ2 | ) is easily determined that Can do.

このように、数9−数11を用いて、2つのセンサ間の制約(D、α、β)が算出される。ただし、上述したように、観測点OBSはランダムに選択されるため、複数(この実施例では、3つ)の観測点OBSをランダムに選択し、それぞれの場合について、2つのセンサ間の制約を算出するようにしてある。観測点OBSと複数の観測点OBSについて、2つのセンサ間の制約が算出されると、それらについての平均およびその推定値の分散(誤差)が算出される。この実施例では、センサ間の制約の平均およびその推定値の分散は、カルマンフィルタによって算出される。ここで、その算出方法について簡単に説明する。 In this way, the constraints (D, α, β) between the two sensors are calculated using Equation 9 to Equation 11. However, since the observation point OBS q is selected at random as described above, a plurality (three in this embodiment) of observation points OBS q are selected at random, and in each case, between the two sensors. The constraint is calculated. When the constraints between the two sensors are calculated for the observation point OBS p and the plurality of observation points OBS q , the average and the variance (error) of the estimated values are calculated. In this embodiment, the average of the constraints between the sensors and the variance of the estimated values are calculated by a Kalman filter. Here, the calculation method will be briefly described.

まず、共有の人観測点OBSから生成された2つのセンサ(ここでは、センサiとセンサj)についての新しい制約(dij,θij)は、数12に示すように、センサ間の相対座標系において、座標デカルトの差Zijに変換される。 First, a new constraint (d ij , θ ij ) on two sensors (here, sensor i and sensor j) generated from a shared human observation point OBS is a relative coordinate between the sensors as shown in Equation 12. In the system, the coordinate Cartesian difference Zij is converted.

[数12]

Figure 2012088135
[Equation 12]

Figure 2012088135

Figure 2012088135
Figure 2012088135

[数13]

Figure 2012088135
[Equation 13]

Figure 2012088135

[数14]

Figure 2012088135
[Equation 14]

Figure 2012088135

[数15]

Figure 2012088135
[Equation 15]

Figure 2012088135

Figure 2012088135
Figure 2012088135

このように算出されたセンサ14の各組についてのセンサ間の制約および推定値の分散は、図12に示すようなリスト(制約リスト)に登録(追加)される。図12に示すように、制約リストは、第1センサID、第2センサID、センサ間の距離、角度、および推定値の分散が記述されている。   The restrictions between sensors and the variance of estimated values for each set of sensors 14 thus calculated are registered (added) in a list (constraint list) as shown in FIG. As shown in FIG. 12, the restriction list describes the first sensor ID, the second sensor ID, the distance between the sensors, the angle, and the variance of the estimated value.

なお、図11(A)および(B)では、センサ間の制約は、センサSとセンサSとの距離Dおよびそれらの相対角度α、βとして、その算出方法を説明した。ただし、相対角度αは、着目するセンサSからセンサSを見た場合のセンサSの正面方向の向きであり、相対角度βは、着目するセンサSからセンサSを見た場合のセンサSの正面方向の向きである。したがって、制約リストでは、それぞれの場合を別のセンサ制約として記載してある。 In FIGS. 11A and 11B, the calculation method is described as the distance D between the sensors S 1 and S 2 and the relative angles α and β of the constraints between the sensors. However, the relative angle α is the front direction of the orientation of the sensor S 1 in the case where the sensor S 1 of interest viewed sensor S 2, the relative angle beta, when viewed sensor S 1 from the sensor S 2 of interest which is the front direction of the orientation of the sensor S 2. Therefore, in the constraint list, each case is described as another sensor constraint.

第1センサIDは、着目するセンサ14の識別情報であり、第2センサIDは、第1センサIDが示すセンサ14から見たセンサ14の識別情報である。センサ間距離、上述のようにして算出された、第1センサIDが示すセンサ14と第2センサIDが示すセンサ14との距離(mm)である。角度は、上述のようにして算出された角度(°)であり、具体的には、第1センサIDが示すセンサ14から第2センサIDが示すセンサ14を見た場合の第1センサIDが示すセンサ14の正面方向の向きである。推定値の分散は、上述のようにして算出された推定値の分散σであり、ここでは、対応する第1センサIDと第2センサIDとを添えて示してある。   The first sensor ID is identification information of the sensor 14 of interest, and the second sensor ID is identification information of the sensor 14 viewed from the sensor 14 indicated by the first sensor ID. The inter-sensor distance is the distance (mm) between the sensor 14 indicated by the first sensor ID and the sensor 14 indicated by the second sensor ID, calculated as described above. The angle is an angle (°) calculated as described above. Specifically, when the sensor 14 indicated by the second sensor ID is viewed from the sensor 14 indicated by the first sensor ID, the first sensor ID is It is the direction of the front direction of the sensor 14 shown. The variance of the estimated value is the variance σ of the estimated value calculated as described above, and is shown here with the corresponding first sensor ID and second sensor ID.

制約リストが作成されると、この制約リストを用いて、すべてのセンサ14の位置が推定される。たとえば、仮想のマップ上に、すべてのセンサ14が配置される。そして、センサ間の制約について緩和計算を繰り返すことにより、それらの推定を精錬する。   When the constraint list is created, the positions of all the sensors 14 are estimated using the constraint list. For example, all the sensors 14 are arranged on a virtual map. Then, by repeating the relaxation calculation for the constraints between the sensors, those estimates are refined.

まず、制約リストは、分散σが小さい順(信頼度の高い順番)に並べ替えられる(ソートされる)。そして、最も信頼度の高い場合におけるセンサ間の制約に従って2つのセンサ14を仮想のマップ上に配置する。このとき、一方のセンサ14が基準として設定される。たとえば、2つのセンサ14のうち、括弧書きのセンサ14の組において左側(または右側でもよい)に記載されたセンサ14が基準として設定される。つまり、基準として設定されたセンサ14の位置および角度を基準値に設定する。この実施例では、基準値として、(X座標,Y座標,角度)=(0,0,0)が設定される。つまり、基準のセンサ14の位置が仮想のマップ上の原点に設定される。ただし、センサ14の正面方向が仮想のマップ上のY軸のプラス方向に設定される。そして、他方のセンサ14が、上述のようにして算出したセンサの制約の平均に従って仮想のマップ上に配置される。   First, the constraint list is rearranged (sorted) in the order of decreasing variance σ (in order of high reliability). Then, the two sensors 14 are arranged on the virtual map according to the restriction between the sensors in the case of the highest reliability. At this time, one sensor 14 is set as a reference. For example, of the two sensors 14, the sensor 14 described on the left side (or the right side) in the group of sensors 14 in parentheses may be set as a reference. That is, the position and angle of the sensor 14 set as a reference are set as reference values. In this embodiment, (X coordinate, Y coordinate, angle) = (0, 0, 0) is set as the reference value. That is, the position of the reference sensor 14 is set to the origin on the virtual map. However, the front direction of the sensor 14 is set to the positive direction of the Y axis on the virtual map. The other sensor 14 is arranged on the virtual map according to the average of the sensor constraints calculated as described above.

たとえば、最も信頼度の高いセンサ14の組が(A,C)であると仮定すると、図13(A)に示すように、初めに、センサ14aを基準として、センサ14aおよびセンサ14cがグローバル座標系の仮想のマップ上に配置される。図13(A)からも分かるように、センサ14aが原点O(0,0)に配置され、その向きがY軸のプラス方向に設定される。次に、センサ14cが、センサ14aとの間におけるセンサ間の制約(ここでは、距離D、制約角度αおよびβ)を用いて配置される。したがって、センサ14cの位置が(D×sin|α|,D×cos|α|)で表される。ただし、上述したように、センサ間の制約には偏差すなわち誤差(センサ間の誤差)が含まれる。したがって、センサ14cが配置された位置は推定位置と言える。また、センサ14cの向きが−(180°−|α|−|β|)に決定される。 For example, assuming that the most reliable set of sensors 14 is (A, C), as shown in FIG. 13A, first, the sensors 14a and 14c are set to the global coordinates with reference to the sensor 14a. It is placed on the virtual map of the system. As can be seen from FIG. 13A, the sensor 14a is disposed at the origin O (0, 0), and the direction thereof is set in the positive direction of the Y axis. Next, the sensor 14c is arranged using the constraints between the sensors (here, the distance D 1 , the constraint angles α 1 and β 1 ) with the sensor 14a. Therefore, the position of the sensor 14c is represented by (D 1 × sin | α 1 |, D 1 × cos | α 1 |). However, as described above, the constraint between sensors includes a deviation, that is, an error (an error between sensors). Therefore, it can be said that the position where the sensor 14c is arranged is an estimated position. Further, the direction of the sensor 14c is determined to be − (180 ° − | α | − | β |).

なお、この実施例では、角度については分散(誤差)は算出していない。   In this embodiment, the variance (error) is not calculated for the angle.

また、グローバル座標系においては、Y軸方向を基準とした場合に、右側(第1象限、第4象限側)がセンサ14の向き(角度)のプラス方向であり、左側(第2象限、第3象限側)がセンサ14の角度のマイナス方向である。   In the global coordinate system, when the Y-axis direction is used as a reference, the right side (first quadrant, fourth quadrant side) is the plus direction of the direction (angle) of the sensor 14, and the left side (second quadrant, second quadrant). (3 quadrant side) is the minus direction of the angle of the sensor 14.

信頼度の最も高い組についての2つのセンサ14(ここでは、A,C)が配置されると、配置されたセンサ14(A,C)のいずれか一方とセンサ間の制約を有する他のセンサ14が当該センサ間の制約に従って配置される。図13(A)に示す例では、センサ14aまたはセンサ14cとのセンサ間の制約を有するセンサ14が、次に仮想のマップ上に配置されるのである。ただし、次に配置するセンサ14を決定する際には、制約リストを参照することにより、信頼度の高い順にセンサ間の制約が読み出される。   When the two sensors 14 (here, A and C) for the set having the highest reliability are arranged, any one of the arranged sensors 14 (A and C) and another sensor having a restriction between the sensors 14 is arranged according to the constraints between the sensors. In the example shown in FIG. 13A, the sensor 14 having a restriction between the sensor 14a or the sensor 14c is next placed on a virtual map. However, when determining the sensor 14 to be placed next, by referring to the restriction list, the restriction between the sensors is read out in descending order of reliability.

図13(B)は、図13(A)に示す状態から次のセンサ14(ここでは、B)を配置する場合についての例を示す。ここでは、並べ替えられた制約リストを一列目からサーチした際に、センサ14aまたはセンサ14cのうち、センサ14aとのセンサ間の制約を有するセンサ14bが検出され、このセンサ14bが配置されるのである。   FIG. 13B shows an example of a case where the next sensor 14 (here, B) is arranged from the state shown in FIG. Here, when the sorted restriction list is searched from the first column, the sensor 14b having the restriction between the sensor 14a and the sensor 14a is detected from the sensors 14a or 14c, and this sensor 14b is arranged. is there.

図13(B)に示すように、すでに配置されているセンサ14aとのセンサ間の制約に従ってセンサ14bが仮想のマップ上に配置される。グローバル座標系において、センサ14bの推定位置は(−D×sin|α|,D2×cos|α|)で表される。また、センサ14bの角度は、180°−|α|−|β|で表される。 As shown in FIG. 13B, the sensor 14b is arranged on the virtual map in accordance with the restriction between the sensor 14a and the already arranged sensor 14a. In the global coordinate system, the estimated position of the sensor 14b is represented by (−D 2 × sin | α 2 |, D2 × cos | α 2 |). The angle of the sensor 14b is represented by 180 ° − | α 2 | − | β 2 |.

このようにして、既に配置されたセンサ14とのセンサ間の制約を有するセンサ14が仮想のマップ上に順番に配置される。また、センサ14が仮想のマップ上に配置されると、図14に示すようなセンサ位置リストに、配置された情報が登録(追加)される。図14に示すように、センサ位置リストは、配置センサIDに対応して、対センサID、推定位置、角度およびセンサ間の制約誤差が記述される。配置センサIDは、今回配置したセンサ14についての識別情報である。対センサIDは、配置センサIDが示すセンサ14を配置する際に用いたセンサ間の制約が示す他方の(対となる)センサ14の識別情報を示す。   In this manner, the sensors 14 having the constraints between the sensors already arranged are arranged in order on the virtual map. Further, when the sensor 14 is arranged on the virtual map, the arranged information is registered (added) in the sensor position list as shown in FIG. As illustrated in FIG. 14, the sensor position list describes a sensor ID, an estimated position, an angle, and a constraint error between sensors, corresponding to the arrangement sensor ID. The placement sensor ID is identification information about the sensor 14 placed this time. The pair sensor ID indicates identification information of the other (paired) sensor 14 indicated by the restriction between the sensors used when the sensor 14 indicated by the placement sensor ID is placed.

なお、基準のセンサ14は、位置が原点Oに設定されるため、(x1,y1)=(0,0)であり、基準のセンサ14の正面方向がY軸方向に設定されるため、角度は0°である。   Since the position of the reference sensor 14 is set to the origin O, (x1, y1) = (0, 0), and the front direction of the reference sensor 14 is set to the Y-axis direction. Is 0 °.

推定位置は、今回配置されたセンサ14のグローバル座標系における位置を示す2次元座標である。角度は、今回配置されたセンサ14のグローバル座標系における正面方向のY軸のプラス方向に対する角度である。センサ間の誤差は、センサ間の制約リストに記述された分散(誤差)σijであり、今回配置したセンサ14(センサj)と対となるセンサ14(センサi)についての誤差σijの数値が記述される。 The estimated position is a two-dimensional coordinate indicating the position of the sensor 14 arranged this time in the global coordinate system. The angle is an angle with respect to the plus direction of the Y axis in the front direction in the global coordinate system of the sensor 14 arranged this time. The error between the sensors is the variance (error) σ ij described in the restriction list between the sensors, and the numerical value of the error σ ij for the sensor 14 (sensor i) paired with the sensor 14 (sensor j) arranged this time. Is described.

このセンサ位置リストの配置センサIDの欄にすべてのセンサ14の識別情報(ここでは、A−F)が記述されると、すべてのセンサ14が仮想のマップ上に配置されたことになる。すべてのセンサ14が配置されると、全体についての配置位置の誤差(全体誤差)が所定の閾値以下になるように、緩和計算によって、各センサ14の位置が調整される。つまり、緩和計算によって、センサの推定位置が精錬される。   If identification information (here, A-F) of all the sensors 14 is described in the placement sensor ID column of this sensor position list, all the sensors 14 are placed on a virtual map. When all the sensors 14 are arranged, the position of each sensor 14 is adjusted by the relaxation calculation so that the error (overall error) of the arrangement position for the whole is equal to or less than a predetermined threshold value. That is, the estimated position of the sensor is refined by the relaxation calculation.

緩和計算の方法および収束(精錬)の証明は、文献(T. Duckett, S. Marsland, and J. Shapiro, Learning globally consistent maps by relaxaTmon, in Proc. IEEE InternaTmonal Conference on RoboTmcs & AutomaTmon (ICRA), San Francisco, CA, April 2000.)に詳細に説明されている。   Relaxation calculation methods and proof of convergence (refining) are described in the literature (T. Duckett, S. Marsland, and J. Shapiro, Learning globally consistent maps by relaxaTmon, in Proc. IEEE Interna Tmonal Conference on RoboTmcs & AutomaTmon (ICRA), San Francisco, CA, April 2000.).

簡単に説明すると、緩和計算では、推定位置は、各センサiと、それに関連する近傍の位置(x,y)に配置されるセンサjとについて、数16に従って生成される。ただし、センサiとセンサjとは共有の観測点OBSを検出した2つのセンサ14である。また、これらの算出では、絶対座標系における角度の制約θjiを算出するために、数17に示すように、推定された角度の制約が用いられる。 Briefly, in the relaxation calculation, the estimated position is generated according to the equation 16 for each sensor i and the sensor j arranged at the neighboring position (x j , y j ) related thereto. However, the sensor i and the sensor j are the two sensors 14 that have detected the common observation point OBS. In these calculations, in order to calculate the angle constraint θ ji in the absolute coordinate system, the estimated angle constraint is used as shown in Equation 17.

[数16]

Figure 2012088135
[Equation 16]

Figure 2012088135

[数17]

Figure 2012088135
[Equation 17]

Figure 2012088135

次に、各推定位置の誤差νjiが、近傍のセンサjの推定位置の誤差νと2つのセンサ間の制約の推定についての誤差ujiとの合計として、数18に従って算出される。 Next, the error [nu ji of each estimated position, as the sum of the error u ji for estimation of constraints between the error [nu j and two sensors of the estimated position of the sensor j in the neighborhood, is calculated according to Equation 18.

[数18]

Figure 2012088135
[Equation 18]

Figure 2012088135

これらの推定位置を組み合わせることにより、数19に従って、センサ14の新しい推定位置(x,y)とその誤差νとが算出される。ただし、数19においてNは、センサi以外のすべてのセンサjのセットを表す。ただし、i≠jである。 By combining these estimated positions, a new estimated position (x i , y i ) of the sensor 14 and its error ν j are calculated according to Equation 19. In Equation 19, N i represents a set of all sensors j other than the sensor i. However, i ≠ j.

[数19]

Figure 2012088135
[Equation 19]

Figure 2012088135

そして、すべてのセンサ14の角度が、数20を用いて、角度の制約と推定されたセンサ14の位置との間の誤差の平均値が最小になるように調整される。   Then, the angles of all the sensors 14 are adjusted using Equation 20 so that the average error between the angle constraint and the estimated position of the sensor 14 is minimized.

[数20]

Figure 2012088135
[Equation 20]

Figure 2012088135

このような手順が任意の停止点まで繰り返される。この実施例の計測装置10では、上述したような手順を所定回数(たとえば、3回)繰り返すと、正確に収束する傾向にある。ただし、この実施例では、全体誤差の最小値が得られるまで、上述した手順を繰り返すようにしてある。ここで、全体誤差は、センサ間の制約に従ってすべのセンサ14を仮想のマップ上に配置した場合に得られるセンサ間の距離と、算出したセンサ間の制約におけるセンサ間の距離との差の合計である。ただし、仮想のマップ上に配置したセンサ14間の距離は、センサ間の制約を有しているセンサ14間についてのみ算出される。このようにして、すべてのセンサ14の位置が調整される。このようにして、或る環境に配置された各センサ14の位置および角度が同一の座標系(グローバル座標系)において認識される。つまり、センサ14の位置および角度がキャリブレーションされる。   Such a procedure is repeated up to an arbitrary stop point. In the measuring apparatus 10 of this embodiment, when the above-described procedure is repeated a predetermined number of times (for example, three times), the measuring apparatus 10 tends to converge accurately. However, in this embodiment, the above-described procedure is repeated until the minimum value of the overall error is obtained. Here, the total error is the sum of the difference between the distance between the sensors obtained when all the sensors 14 are arranged on the virtual map according to the restriction between the sensors and the distance between the sensors in the calculated restriction between the sensors. It is. However, the distance between the sensors 14 arranged on the virtual map is calculated only between the sensors 14 having the restriction between the sensors. In this way, the positions of all the sensors 14 are adjusted. In this way, the position and angle of each sensor 14 arranged in a certain environment are recognized in the same coordinate system (global coordinate system). That is, the position and angle of the sensor 14 are calibrated.

ただし、すべてのセンサ14についての位置誤差の平均値が所定値(この実施例では、50mm−100mm)を超えている場合には、位置誤差の平均値が所定値以下になるまで、人間の位置検出処理からセンサ位置の調整処理までが繰り返し実行される。ここで、センサ14の位置誤差は、推定されたセンサ14の位置に含まれる誤差を意味する。図14を参照して説明すると、センサ14aとセンサ14cとを配置した際、これらはセンサ間の制約を算出した際の分差σAC,σCA(=200mm)を含むため、センサ14aおよびセンサ14cの位置には、その誤差(位置誤差)が含まれることになる。次に、センサ14bを配置する場合には、センサ14aの位置誤差に加えて、センサ14aとセンサ14bとのセンサ間の制約の分差σAB(=500mm)が含まれるため、センサ14bの位置誤差は200mm+500mmとなる。このように、センサ14を配置する度に、位置誤差が増大されるのである。この位置誤差の平均値を所定値以下にして、複数のセンサ14の位置を最適化しているのである。 However, if the average value of the position errors for all the sensors 14 exceeds a predetermined value (in this embodiment, 50 mm-100 mm), the human position is maintained until the average value of the position errors is equal to or less than the predetermined value. The process from the detection process to the sensor position adjustment process is repeatedly executed. Here, the position error of the sensor 14 means an error included in the estimated position of the sensor 14. Referring to FIG. 14, when the sensor 14a and the sensor 14c are arranged, these include the difference σ AC and σ CA (= 200 mm) when the constraint between the sensors is calculated. The position (14c) includes the error (position error). Next, in the case of arranging the sensor 14b, in addition to the positional error of the sensor 14a, a difference σ AB (= 500 mm) of the restriction between the sensors 14a and 14b is included, so the position of the sensor 14b The error is 200 mm + 500 mm. In this way, the position error is increased each time the sensor 14 is arranged. The average value of the position errors is set to a predetermined value or less to optimize the positions of the plurality of sensors 14.

図15は、図1に示したコンピュータ12に内蔵されるメモリ(RAM)12aのメモリマップ300の一例を示す。図15に示すように、メモリ12aは、プログラム記憶領域302およびデータ記憶領域304を含む。プログラム記憶領域302には、キャリブレーションプログラムが記憶され、このキャリブレーションプログラムは、メイン処理プログラム312、背景スキャンプログラム314、人間位置検出プログラム316、軌跡生成プログラム318、軌跡一致処理プログラム320、共有人観測点リスト作成プログラム322、センサ間制約算出プログラム324、センサ間制約平均プログラム326、センサ位置推定プログラム328およびセンサ位置調整プログラム330などによって構成される。   FIG. 15 shows an example of a memory map 300 of the memory (RAM) 12a built in the computer 12 shown in FIG. As shown in FIG. 15, the memory 12 a includes a program storage area 302 and a data storage area 304. A calibration program is stored in the program storage area 302. The calibration program includes a main processing program 312, a background scanning program 314, a human position detection program 316, a trajectory generation program 318, a trajectory matching processing program 320, a shared person observation. A point list creation program 322, an inter-sensor constraint calculation program 324, an inter-sensor constraint average program 326, a sensor position estimation program 328, a sensor position adjustment program 330, and the like.

メイン処理プログラム312は、この実施例のキャリブレーション処理のメインルーチンを処理するためのプログラムである。背景スキャンプログラム314は、センサ14a−14fの各々の出力(センサ情報)から背景となる壁や柱などを検出範囲から除外し、センサ14a−14fの各々について、所定角度(この実施例では、0.5°)毎の検出可能な最大距離を抽出するためのプログラムである。   The main processing program 312 is a program for processing the main routine of the calibration processing of this embodiment. The background scanning program 314 excludes background walls and pillars from the detection ranges from the outputs (sensor information) of the sensors 14a-14f, and sets a predetermined angle (in this embodiment, 0 for each sensor 14a-14f). .5 °) is a program for extracting the maximum detectable distance.

人間位置検出プログラム316は、背景スキャンの結果を用いて、センサ14a−14fの各々の出力(センサ情報)から人間を検出するとともに、その位置(人観測点OBS)を検出するためのプログラムである。ただし、人間の位置は、センサ14a−14fの各々のローカル座標系における距離および角度で表され、図6(A)に示したように、センサ14a−14fの各々について作成される人観測点リストに登録(追加)される。   The human position detection program 316 is a program for detecting a person from each output (sensor information) of the sensors 14a to 14f and detecting the position (human observation point OBS) using the result of the background scan. . However, the human position is represented by a distance and an angle in each of the local coordinate systems of the sensors 14a-14f, and as shown in FIG. 6A, a human observation point list created for each of the sensors 14a-14f. Registered (added).

軌跡生成プログラム318は、センサ14a−14fの各々について、人観測点リストを参照して、連続する人観測点であると判断される人観測点を時系列に並べることにより、ローカル座標系における移動軌跡を生成し、それぞれのローカル軌跡リストを作成するためのプログラムである。軌跡一致処理プログラム320は、異なる2つのセンサ14の出力に基づいてそれぞれ生成された移動軌跡を、移動軌跡の速度変化に基づいて一致するかどうかを判断し、一致する2つの移動軌跡を関連付ける関連付けテーブルを作成するためのプログラムである。   The trajectory generation program 318 refers to the human observation point list for each of the sensors 14a to 14f, and arranges the human observation points determined to be continuous human observation points in time series, thereby moving in the local coordinate system. This is a program for generating a trajectory and creating each local trajectory list. The trajectory matching processing program 320 determines whether or not the movement trajectories generated based on the outputs of the two different sensors 14 match based on the speed change of the movement trajectory, and associates the two corresponding movement trajectories with each other. It is a program for creating a table.

共有人観測点リスト作成プログラム322は、関連付けられた2つのローカル軌跡上の人観測点OBSのうち、同時(同じフレーム)に検出された人観測点OBSが共有の人観測点OBSであると判断し、共有の人観測点リストを作成するためのプログラムである。   The shared person observation point list creation program 322 determines that the human observation point OBS detected at the same time (same frame) among the two associated human observation points OBS on the local locus is the shared person observation point OBS. It is a program for creating a list of shared human observation points.

センサ間制約算出プログラム324は、2つのセンサ14の距離および2つのセンサ14の相対的な角度(センサ間の制約)を算出するためのプログラムである。センサ間制約平均プログラム326は、センサ間制約算出プログラム324に従って算出された各センサ14間の複数の制約についての平均およびその分散をそれぞれ算出するためのプログラムである。この実施例では、上述したように、カルマンフィルタを用いて、各センサ14間の制約の平均およびその分散が算出される。   The inter-sensor constraint calculation program 324 is a program for calculating the distance between the two sensors 14 and the relative angle between the two sensors 14 (the constraint between the sensors). The inter-sensor constraint average program 326 is a program for calculating an average and a variance of a plurality of constraints between the sensors 14 calculated according to the inter-sensor constraint calculation program 324, respectively. In this embodiment, as described above, the average of the constraints between the sensors 14 and the variance thereof are calculated using the Kalman filter.

センサ位置推定プログラム328は、センサ間制約平均プログラム326に従って算出された各センサ間の制約の平均およびその分散を用いて、全センサ14を同一の座標系(グローバル座標系)に配置するためのプログラムである。センサ位置調整プログラム330は、センサ位置推定プログラム328によって配置された全センサ14の位置および角度を、緩和計算により、調整(精錬)するためのプログラムである。   The sensor position estimation program 328 is a program for arranging all the sensors 14 in the same coordinate system (global coordinate system) using the average of the constraints between the sensors calculated according to the inter-sensor constraint average program 326 and the variance thereof. It is. The sensor position adjustment program 330 is a program for adjusting (refining) the positions and angles of all the sensors 14 arranged by the sensor position estimation program 328 by relaxation calculation.

図16は、図15に示したデータ記憶領域304の具体的な内容を示す図解図である。図16に示すように、データ記憶領域304には、センサ情報データ350、背景データ352、人観測点リストデータ354、ローカル軌跡リストデータ356、関連付けテーブルデータ358、共有の人観測点リストデータ360、制約リストデータ362、センサ位置リストデータ364およびセンサ位置誤差データ366などが記憶される。   FIG. 16 is an illustrative view showing specific contents of the data storage area 304 shown in FIG. As shown in FIG. 16, the data storage area 304 includes sensor information data 350, background data 352, human observation point list data 354, local trajectory list data 356, association table data 358, shared human observation point list data 360, Restriction list data 362, sensor position list data 364, sensor position error data 366, and the like are stored.

センサ情報データ350は、図4に示したように、各フレームで一定の角度毎に検出された距離を記述したセンサ情報(テーブル)のデータであって、各センサ14について作成および記憶されている。背景データ352は、一定の角度毎の境界までの距離または最大距離Rについての数値データであって、センサ14毎に作成および記憶される。   As shown in FIG. 4, the sensor information data 350 is sensor information (table) data describing distances detected at fixed angles in each frame, and is created and stored for each sensor 14. . The background data 352 is numerical data about the distance to the boundary or the maximum distance R for each constant angle, and is created and stored for each sensor 14.

人観測点リストデータ354は、図6(A)に示したように、センサ情報に基づいて検出された人間の位置(人観測点OBS)を記述した人観測点リストについてのデータであって、各センサ14について作成および記憶される。ローカル軌跡リストデータ356は、図6(B)に示したように、人観測点リストに基づいて生成(検出)された移動軌跡のリストのデータであって、各センサ14について作成および記憶される。   As shown in FIG. 6A, the human observation point list data 354 is data on a human observation point list describing a human position (human observation point OBS) detected based on sensor information. Created and stored for each sensor 14. As shown in FIG. 6B, the local trajectory list data 356 is a list of moving trajectories generated (detected) based on the human observation point list, and is created and stored for each sensor 14. .

関連付けテーブルデータ358は、図9(A)に示したように、異なるセンサ14で生成(検出)された2つの移動軌跡であって、一致すると判定された(同定された)移動軌跡について、互いに関連付けた関連付けテーブルについてのデータである。共有の人観測点リストデータ360は、図9(B)に示したように、関連付けされた2つの移動軌跡上の人観測点OBSのうち、同時(同じフレーム)に検出された人観測点OBSを共有の人観測点OBSとして登録したリストについてのデータである。制約リストデータ362は、図12に示したように、センサ間の制約(センサ14間の距離および相対的な角度)およびその推定値の分散についての制約リストのデータである。   As shown in FIG. 9A, the association table data 358 includes two movement trajectories generated (detected) by different sensors 14 and each of the movement trajectories determined (identified) to match each other. This is data about the association table associated. As shown in FIG. 9B, the shared human observation point list data 360 includes the human observation points OBS detected simultaneously (in the same frame) among the two human observation points OBS on the associated movement trajectories. Is a list of data registered as a shared person observation point OBS. As shown in FIG. 12, the restriction list data 362 is data of a restriction list regarding restrictions between sensors (distance and relative angle between sensors 14) and dispersion of estimated values thereof.

センサ位置リストデータ364は、複数のセンサ14を仮想のマップ上に配置する際に、当該仮想マップに配置したセンサ14についての情報(推定位置、角度、センサ間の誤差など)を示すリストについてのデータである。センサ位置誤差データ316は、仮想のマップ上に配置された複数のセンサ14のそれぞれについての位置誤差を示す数値データである。   The sensor position list data 364 is information about a list indicating information (estimated position, angle, error between sensors, etc.) about the sensors 14 arranged on the virtual map when a plurality of sensors 14 are arranged on the virtual map. It is data. The sensor position error data 316 is numerical data indicating the position error for each of the plurality of sensors 14 arranged on the virtual map.

なお、図示は省略するが、データ記憶領域304には、キャリブレーションプログラムの実行に必要な、他のデータが記憶されたり、カウンタ(タイマ)やレジスタが設けられたりする。   Although not shown, the data storage area 304 stores other data necessary for execution of the calibration program, and is provided with a counter (timer) and a register.

図17は、図1に示したコンピュータ12(CPU)のキャリブレーション処理を示すフロー図である。図17に示すように、コンピュータ12は、キャリブレーション処理を開始すると、ステップS1で、後述する背景スキャン処理(図18参照)を実行し、次のステップS3で、後述する人間の位置検出処理(図19参照)を実行する。   FIG. 17 is a flowchart showing calibration processing of the computer 12 (CPU) shown in FIG. As shown in FIG. 17, when starting the calibration process, the computer 12 executes a background scan process (see FIG. 18) described later in step S1, and a human position detection process (described later) (step S3). (See FIG. 19).

なお、図示は省略するが、キャリブレーション処理が開始されると同時またはほぼ同時に、各センサ14からのスキャンデータの検出処理が開始される。この検出処理は、キャリブレーション処理を並列的に実行される。   Although illustration is omitted, detection processing of scan data from each sensor 14 is started at the same time or almost simultaneously with the start of the calibration processing. In this detection process, calibration processes are executed in parallel.

続いて、ステップS5で、後述するローカル軌跡の生成処理(図20参照)を実行し、ステップS7で、後述する軌跡一致処理(図21および図22)を実行する。さらに、ステップS9で、後述する共有の人観測点リストの作成処理(図23および図24参照)を実行し、ステップS11で、後述するセンサ間の制約の算出処理(図25参照)を実行して、ステップS13で、すべてのセンサ14を接続するためのセンサ間の制約を表せたかどうかを判断する。つまり、コンピュータ12は、センサ間の制約を算出していないセンサ14が存在しないかどうかを判断する。   Subsequently, in step S5, a local locus generation process (see FIG. 20), which will be described later, is executed. In step S7, a locus matching process, which will be described later (FIGS. 21 and 22), is executed. In step S9, a shared human observation point list creation process (see FIG. 23 and FIG. 24), which will be described later, is executed. In step S11, a calculation process for constraints between sensors (see FIG. 25), which will be described later, is executed. In step S13, it is determined whether the restriction between the sensors for connecting all the sensors 14 can be expressed. In other words, the computer 12 determines whether or not there is a sensor 14 for which a restriction between sensors is not calculated.

ステップS13で“NO”であれば、つまりすべてのセンサ14を接続するためのセンサ間の制約を表せていない場合には、ステップS3に戻って、ステップS3−S11の処理を再度実行する。一方、ステップS13で“YES”であれば、つまりすべてのセンサ14を接続するためのセンサ間の制約を表せている場合には、ステップS15で、後述する全センサの配置処理(図26および図27参照)を実行し、ステップS17で、後述するセンサ位置の調整処理(図28参照)を実行する。   If “NO” in the step S13, that is, if the restriction between the sensors for connecting all the sensors 14 cannot be expressed, the process returns to the step S3, and the processes of the steps S3-S11 are executed again. On the other hand, if “YES” in the step S13, that is, if the restriction between the sensors for connecting all the sensors 14 can be expressed, an arrangement process of all the sensors described later (FIGS. 26 and 26) is performed in a step S15. 27), and a sensor position adjustment process (see FIG. 28) described later is executed in step S17.

そして、ステップS19で、推定された位置誤差の平均が閾値(たとえば、50mm−100mm)以内であるかどうかを判断する。ステップS19で“NO”であれば、つまり推定された位置誤差の平均が閾値以内でなければ、ステップS3に戻る。一方、ステップS19で“YES”であれば、つまり推定された位置誤差の平均が閾値以内であれば、キャリブレーション処理を終了する。   Then, in step S19, it is determined whether or not the estimated average position error is within a threshold value (for example, 50 mm-100 mm). If “NO” in the step S19, that is, if the average of the estimated position errors is not within the threshold value, the process returns to the step S3. On the other hand, if “YES” in the step S19, that is, if the average of the estimated position errors is within the threshold value, the calibration process is ended.

図18は、図17のステップS1に示した背景スキャン処理のフロー図である。この背景スキャン処理は、マルチタスクによって、センサ14毎に実行される。コンピュータ12(CPU)は、背景スキャン処理を開始すると、ステップS31で、時間の経過に従って、スキャンデータを収集する。つまり、フレーム毎に、一定の角度毎の距離が検出される。次のステップS33では、角度毎にスキャンデータが示す距離の代表値を算出する。この実施例では、代表値は、最頻出のスキャンデータが示す距離の値である。そして、ステップS35では、代表値についての距離を示すスキャンデータの個数が所定値(この実施例では、100個)以上かどうかを判断する。   FIG. 18 is a flowchart of the background scanning process shown in step S1 of FIG. This background scanning process is executed for each sensor 14 by multitasking. When the background scanning process is started, the computer 12 (CPU) collects scan data as time passes in step S31. That is, the distance for every fixed angle is detected for every frame. In the next step S33, a representative value of the distance indicated by the scan data is calculated for each angle. In this embodiment, the representative value is a distance value indicated by the most frequently scanned data. In step S35, it is determined whether or not the number of scan data indicating the distance for the representative value is greater than or equal to a predetermined value (100 in this embodiment).

ステップS35で“NO”であれば、つまり代表値についての距離を示すスキャンデータの個数が所定値未満であれば、ステップS31に戻る。一方、ステップS35で“YES”であれば、つまり代表値についての距離を示すスキャンデータの個数が所定値以上であれば、ステップS37で、角度毎の代表値の数値データを当該センサ14の背景データとしてデータ記憶領域304に記憶して、図17に示したキャリブレーション処理にリターンする。この背景処理が各センサ14について実行され、図16に示した背景データ352が生成される。   If “NO” in the step S35, that is, if the number of scan data indicating the distance with respect to the representative value is less than the predetermined value, the process returns to the step S31. On the other hand, if “YES” in the step S35, that is, if the number of scan data indicating the distance with respect to the representative value is equal to or larger than the predetermined value, the numerical value data of the representative value for each angle is obtained as the background of the sensor 14 in a step S37. Data is stored in the data storage area 304, and the process returns to the calibration process shown in FIG. This background processing is executed for each sensor 14, and the background data 352 shown in FIG. 16 is generated.

図19は、図17に示したステップS3の人間の位置検出処理のフロー図である。この人間の位置検出処理もまた、マルチタスクによって、センサ14毎に実行される。図19に示すように、コンピュータ12(CPU)は、人間の位置検出処理を開始すると、ステップS51で、1フレーム分のスキャンデータを収集する。つまり、1フレームにおける、各角度の距離が検出される。次のステップS53では、背景との差分を検出する。つまり、コンピュータ12は、背景データ352を参照して、当該センサ14の背景データが示す各角度の距離と、ステップS51で検出した現フレームの各角度の距離との差分をそれぞれ算出するのである。   FIG. 19 is a flowchart of the human position detection process in step S3 shown in FIG. This human position detection process is also executed for each sensor 14 by multitasking. As shown in FIG. 19, when the computer 12 (CPU) starts human position detection processing, it collects scan data for one frame in step S51. That is, the distance of each angle in one frame is detected. In the next step S53, a difference from the background is detected. That is, the computer 12 refers to the background data 352 and calculates the difference between the distance of each angle indicated by the background data of the sensor 14 and the distance of each angle of the current frame detected in step S51.

続くステップS55では、人間幅の閾値以内(この実施例では、数2で示した範囲内)で、背景とは異なるセグメントを特定する。つまり、人間が特定される。続くステップS57では、特定されたセグメントについての位置(人観測点)を人観測点リストに登録(追加)して、図17に示したキャリブレーション処理にリターンする。ただし、上述したように、人観測点として、距離と角度とが人観測点リストに登録される。この人間の位置検出処理が各センサ14について実行されることにより、人観測点リストデータ354が作成ないし更新される。   In the subsequent step S55, a segment different from the background is specified within the human width threshold value (in this embodiment, within the range indicated by Formula 2). That is, a human is specified. In the subsequent step S57, the position (human observation point) for the identified segment is registered (added) to the human observation point list, and the process returns to the calibration process shown in FIG. However, as described above, distances and angles are registered in the human observation point list as human observation points. By executing this human position detection process for each sensor 14, the human observation point list data 354 is created or updated.

図20は、図17に示したステップS5のローカル軌跡の生成処理のフロー図である。このローカル軌跡の生成処理もまた、マルチタスクによって、センサ14毎に実行される。図20に示すように、コンピュータ12は、ローカル軌跡の生成処理を開始すると、ステップS71で、今回検出された人観測点OBSのうち、或る1つの人観測点OBSを読み出す。   FIG. 20 is a flowchart of the local locus generation process in step S5 shown in FIG. This local locus generation process is also executed for each sensor 14 by multitasking. As shown in FIG. 20, when starting the local locus generation process, the computer 12 reads one human observation point OBS among the human observation points OBS detected this time in step S71.

次のステップS73では、今回検出された人観測点OBSが、前回(直前のフレーム以前のフレームで)検出されたいずれかの人観測点OBSの500mm以内であるかどうかを判断する。ステップS73で“NO”であれば、つまり今回検出された人観測点OBSが、前回検出されたいずれかの人観測点OBSの500mm以内でなければ、そのままステップS81に進む。一方、ステップS73で“YES”であれば、つまり今回検出された人観測点OBSが、前回検出されたいずれかの人観測点OBSの500mm以内であれば、ステップS75で、当該前回検出された人観測点OBSがローカル軌跡リストに記載されているかどうかを判断する。このとき、コンピュータ12は、ローカル軌跡リストデータ356を参照する。   In the next step S73, it is determined whether or not the human observation point OBS detected this time is within 500 mm of any one of the human observation points OBS detected last time (in the frame before the previous frame). If “NO” in the step S73, that is, if the human observation point OBS detected this time is not within 500 mm of any of the previously detected human observation points OBS, the process proceeds to a step S81 as it is. On the other hand, if “YES” in the step S73, that is, if the human observation point OBS detected this time is within 500 mm of any one of the previously detected human observation points OBS, the previous detection is made in the step S75. It is determined whether the human observation point OBS is listed in the local trajectory list. At this time, the computer 12 refers to the local trajectory list data 356.

ステップS75で“YES”であれば、つまり当該前回検出された人観測点OBSがローカル軌跡リストに記載されている場合には、ステップS77で、今回検出された人観測点OBSを、既存のローカル軌跡に追加して、ステップS81に進む。つまり、ステップS77では、ローカル軌跡リストデータ356が示すローカル軌跡リストにおいて、既に存在するローカルIDに対応して、今回検出された人観測点OBSのインデックスを記載する。   If “YES” in the step S75, that is, if the previously detected human observation point OBS is listed in the local trajectory list, in the step S77, the human observation point OBS detected this time is changed to an existing local observation point. It adds to a locus | trajectory and progresses to step S81. That is, in step S77, the index of the human observation point OBS detected this time is described corresponding to the existing local ID in the local trajectory list indicated by the local trajectory list data 356.

一方、ステップS75で“NO”であれば、つまり当該前回検出された人観測点OBSがローカル軌跡リストに記載されていない場合には、当該前回検出された人観測点OBSと今回の検出された人観測点OBSとを含む新しい移動軌跡を生成して、ステップS81に進む。つまり、ステップS79では、ローカル軌跡リストデータ356が示すローカル軌跡リストに、ローカルIDを追加するとともに、当該ローカルIDに対応して、当該前回検出された人観測点OBSのインデックスと今回の検出された人観測点OBSのインデックスとを記載する。   On the other hand, if “NO” in the step S75, that is, if the previously detected human observation point OBS is not listed in the local trajectory list, the previously detected human observation point OBS and the current detection point are detected. A new movement trajectory including the human observation point OBS is generated, and the process proceeds to step S81. That is, in step S79, the local ID is added to the local trajectory list indicated by the local trajectory list data 356, and the index of the human observation point OBS detected last time and the current detection are detected corresponding to the local ID. The index of the human observation point OBS is described.

ステップS81では、今回検出されたすべて人観測点OBSについて、ローカル軌跡を生成するための処理(ステップS73−S79)を実行したかどうかを判断する。ステップS81で“NO”であれば、つまり今回検出された人観測点OBSのうち、ローカル軌跡を生成するための処理を実行していない人観測点OBSが存在する場合には、ステップS83で、今回検出された人観測点OBSのうち、次の人観測点OBSを読み出して、ステップS73に戻る。ステップS83では、人観測点リストにおいて、次に(下側に)記載された人観測点OBSが読み出される。一方、ステップS81で“YES”であれば、つまり今回検出されたすべての人観測点OBSについて、ローカル軌跡を生成するための処理を実行した場合には、図17に示したキャリブレーション処理にリターンする。   In step S81, it is determined whether or not the process (steps S73 to S79) for generating the local trajectory has been executed for all the observation points OBS detected this time. If “NO” in the step S81, that is, if there is a human observation point OBS that has not been subjected to the process for generating the local trajectory among the human observation points OBS detected this time, in a step S83, Of the human observation points OBS detected this time, the next human observation point OBS is read out, and the flow returns to step S73. In step S83, the human observation point OBS described next (below) in the human observation point list is read out. On the other hand, if “YES” in the step S81, that is, if the process for generating the local locus is executed for all the human observation points OBS detected this time, the process returns to the calibration process shown in FIG. To do.

図21および図22は、図17に示したステップS7の軌跡一致処理のフロー図である。この軌跡一致処理は、マルチタスクによって、センサ14の組毎に実行される。図21に示すように、コンピュータ12(CPU)は、軌跡一致処理を開始すると、ステップS101で、変数mを初期化する(m=1)。mは、センサ14の組のうちの一方のセンサ14の出力に基づいて生成されたローカル軌跡を個別に識別するものである。また、この軌跡一致処理では、一方のセンサ14についてのローカル軌跡リストの一列目から順に参照される。   21 and 22 are flowcharts of the locus matching process in step S7 shown in FIG. This trajectory matching process is executed for each set of sensors 14 by multitasking. As shown in FIG. 21, when the computer 12 (CPU) starts the trajectory matching process, in step S101, the computer 12 initializes a variable m (m = 1). m individually identifies the local trajectory generated based on the output of one of the sensors 14 in the set of sensors 14. In the locus matching process, the local locus list for one sensor 14 is referred to in order from the first column.

続くステップS103では、変数nを初期化する(n=1)。nは、センサ14の組のうちの他方のセンサ14の出力に基づいて生成されたローカル軌跡を個別に識別するものである。また、この軌跡一致処理では、他方のセンサ14についてのローカル軌跡リストの一列目から順に参照される。   In the subsequent step S103, the variable n is initialized (n = 1). n individually identifies a local locus generated based on the output of the other sensor 14 in the set of sensors 14. In the locus matching process, the local sensor list for the other sensor 14 is referred to in order from the first column.

続いて、ステップS105では、移動軌跡Tと移動軌跡TとのRMS誤差を数3に従って算出する。次のステップS107では、移動軌跡Tと移動軌跡Tとの速度が最低速度の閾値よりも大きいかどうかを判断する。この最低速度の閾値は、人間が歩いている(移動している)と判断するための速度に設定される。ただし、観測する領域(環境)において、人間の数が多い場合には、この最低速度の閾値は比較的小さく設定され、人間の数が少ない場合やセンサの計測結果にノイズが多く含まれるには、この最低速度の閾値は比較的大きく設定される。このように、人間の数が多い場合には、最低速度の閾値を小さくして、人間が移動しているかどうかを判断し易くしてある。逆に、人間の数が少ない場合には、最低速度の閾値を或る程度大きくしても、人間が移動しているかどうかを判断することができる。また、ノイズの影響を受けないようにするためには、フィルタリングのために、最低速度の閾値を大きくする必要がある。 Then, in step S105, it is calculated according to Equation 3 the RMS error between the movement trajectory T m and movement track T n. In the next step S107, the speed of the movement track T m and movement track T n determines whether greater than a threshold of minimum speed. The threshold for the minimum speed is set to a speed for determining that a human is walking (moving). However, if the number of people in the observation area (environment) is large, the threshold for this minimum speed is set to a relatively small value. If the number of people is small or the sensor measurement results include a lot of noise. The threshold value for the minimum speed is set to be relatively large. As described above, when the number of humans is large, the threshold value of the minimum speed is reduced to make it easy to determine whether or not the human is moving. Conversely, when the number of humans is small, it can be determined whether or not humans are moving even if the minimum speed threshold is increased to some extent. In order not to be affected by noise, it is necessary to increase the minimum speed threshold for filtering.

ステップS107で“NO”であれば、つまり移動軌跡Tおよび移動軌跡Tの速度の少なくとも一方が最低速度の閾値以下であれば、そのままステップS113に進む。一方、ステップS107で“YES”であれば、つまり移動軌跡Tおよび移動軌跡Tの速度がいずれも最低速度の閾値よりも大きい場合には、ステップS109で、RMS誤差が誤差閾値(この実施例では、100mm/s)よりも小さいかどうかを判断する。 If "NO" in the step S107, that is, if at least one of the speed of the movement track T m and movement track T n is less than or equal to the threshold value of the minimum speed, the process proceeds to step S113. On the other hand, if "YES" in the step S107, that is, if the speed of the movement track T m and movement track T n is larger than the threshold value of either minimum speed, at step S109, RMS error is error threshold (this embodiment In the example, it is determined whether it is smaller than 100 mm / s).

ステップS109で“NO”であれば、つまりRMS誤差が誤差閾値以上であれば、そのままステップS113に進む。一方、ステップS109で“YES”であれば、つまりRMS誤差が誤差閾値よりも小さければ、移動軌跡Tと移動軌跡Tとが一致する可能性があると判断して、ステップS111で、RMS誤差に対応して移動軌跡Tをメモリ12aのワーク領域(図示せず)に記憶する。 If “NO” in the step S109, that is, if the RMS error is not less than the error threshold value, the process proceeds to a step S113 as it is. On the other hand, if "YES" in the step S109, that is, the RMS error is less than the error threshold value, it is determined that the movement track T m and movement track T n can match, at step S 111, RMS Corresponding to the error, the movement trajectory Tn is stored in a work area (not shown) of the memory 12a.

ステップS113では、変数nを1加算する(n=n+1)。続くステップS115では、変数nが最大数を超えたかどうかを判断する。つまり、コンピュータ12は、他方のセンサ14についてのローカル軌跡リストに記述されたすべての移動軌跡Tについて、移動軌跡Tと一致するかどうかを判定する処理(判定処理)を実行したかどうかを判断する。 In step S113, the variable n is incremented by 1 (n = n + 1). In a succeeding step S115, it is determined whether or not the variable n exceeds the maximum number. That is, the computer 12 determines whether or not the process (determination process) for determining whether or not all the movement trajectories T n described in the local trajectory list for the other sensor 14 match the movement trajectory T m is performed. to decide.

ステップS115で“NO”であれば、つまり変数nが最大数を超えていなければ、次の移動軌跡Tについての判定処理に移行する。一方、ステップS115で“YES”であれば、つまり変数nが最大数を超えていれば、図22に示すステップS117で、移動軌跡Tに一致する唯一の移動軌跡Tが有るかどうかを判断する。つまり、コンピュータ12は、メモリ12aのワーク領域を参照して、1つのRMS誤差に対応して移動軌跡Tが記載されているかどうかを判断する。 If in step S115 "NO", that is the variable n does not exceed the maximum number, the flow proceeds to a determination process of the next movement track T n. On the other hand, if "YES" in the step S115, that is, if the variable n exceeds the maximum number, in step S117 shown in FIG. 22, whether only movement track T n that matches the movement locus T m there to decide. That is, the computer 12 refers to the work area of the memory 12a and determines whether or not the movement locus Tn is described corresponding to one RMS error.

ステップS117で“NO”であれば、つまりメモリ12aのワーク領域に、RMS誤差に対応して移動軌跡Tが記載されていない場合や2つ以上のRMS誤差のそれぞれに対応して移動軌跡Tが記載されている場合には、移動軌跡Tに一致する唯一の移動軌跡Tが無いと判断して、そのままステップS121に進む。一方、ステップS117で“YES”であれば、つまりメモリ12aのワーク領域に、1つのRMS誤差に対応して移動軌跡Tが記載されている場合には、移動軌跡Tに一致する唯一の移動軌跡Tが有ると判断して、移動軌跡Tと移動軌跡Tとを関連付けテーブルに登録(追加)して、ステップS121に進む。 If “NO” in the step S117, that is, if the movement locus Tn is not described in the work area of the memory 12a corresponding to the RMS error, or if the movement locus Tn corresponds to each of two or more RMS errors. if n is described, it is determined that there is no unique movement track T n that matches the movement locus T m is, the process proceeds to step S121. On the other hand, if “YES” in the step S117, that is, if the movement trajectory T n is described corresponding to one RMS error in the work area of the memory 12a, it is the only one that matches the movement trajectory T m. It is determined that there is a movement locus T n , the movement locus T m and the movement locus T n are registered (added) in the association table, and the process proceeds to step S121.

ステップS121では、変数mを1加算する(m=m+1)。続くステップS123では、変数mが最大数を超えたかどうかを判断する。つまり、コンピュータ12は、一方のセンサ14についてのローカル軌跡リストに記述されたすべての移動軌跡Tについて、他方のセンサ14についてのローカル軌跡リストに記述されたすべての移動軌跡Tと一致するかどうかの判定処理を実行したかどうかを判断するのである。 In step S121, the variable m is incremented by 1 (m = m + 1). In a succeeding step S123, it is determined whether or not the variable m exceeds the maximum number. In other words, the computer 12, or for all of the movement track T m described in the local trajectory list for one of the sensors 14, consistent with all movement track T n described in the local trajectory list for the other sensor 14 It is determined whether or not the determination process is executed.

ステップS123で“NO”であれば、つまり変数mが最大数以下であれば、図21に示したステップS103に戻る。つまり、コンピュータ12は、一方のセンサ14についてのローカル軌跡リストに記述された次のローカル軌跡Tと他方のセンサ14についてのローカル軌跡リストに記述された移動軌跡Tのそれぞれとが一致するかどうかの判定処理に移行するのである。一方、ステップS123で“YES”であれば、つまり変数mが最大数を超えていれば、図17に示したキャリブレーション処理にリターンする。 If “NO” in the step S123, that is, if the variable m is equal to or less than the maximum number, the process returns to the step S103 illustrated in FIG. That is, whether the computer 12, respectively of the movement track T n described in the local trajectory list for the next local trajectory T m and the other sensor 14 described in the local trajectory list for one of the sensors 14 matches The process proceeds to the determination process. On the other hand, if “YES” in the step S123, that is, if the variable m exceeds the maximum number, the process returns to the calibration process shown in FIG.

図23および図24は、図17に示したステップS9の共有の人観測点リストの作成処理のフロー図である。この共有の人観測点リストの作成処理もまた、マルチタスクによって、センサ14の組毎に実行される。図23に示すように、コンピュータ12(CPU)は、共有の人観測点リストの作成処理を開始すると、ステップS141で、関連付けテーブルに存在する最初の移動軌跡Tと移動軌跡Tとのそれぞれを構成する人観測点OBS(OBS、OBS)およびその人観測点OBSを検出したフレーム数を読み込む。 23 and 24 are flowcharts of the process for creating the shared human observation point list in step S9 shown in FIG. The shared human observation point list creation process is also executed for each set of sensors 14 by multitasking. As shown in FIG. 23, the computer 12 (CPU) starts the process of creating a shared human observation point list, in step S141, each of the first movement track T m present in the association table and movement track T n make up the human observation point OBS (OBS v, OBS w) read and the number of frames that detected the person observation point OBS.

次のステップS143では、変数fに初期値を設定する(f=1)。ただし、fはフレーム数である。次のステップS145では、このフレームにおいて、移動軌跡Tを構成する人観測点OBSが有るかどうかを判断する。つまり、コンピュータ12は、移動軌跡Tを構成する人観測点OBSのうち、変数fが示すフレーム数の人観測点OBSが存在するかどうかを、人観測点リストデータ354およびローカル軌跡リストデータ356を参照して判断する。この処理は、次のステップS147も同様である。 In the next step S143, an initial value is set in the variable f c (f c = 1). However, f c is the number of frames. In the next step S145, in this frame, to determine whether human observation points OBS v constituting the movement track T m there. That is, the computer 12 determines whether or not the human observation point OBS v having the number of frames indicated by the variable f c exists among the human observation points OBS v constituting the movement locus T m , and the human observation point list data 354 and the local locus. The determination is made with reference to the list data 356. This process is the same in the next step S147.

ステップS145で“NO”であれば、つまりこのフレームにおいて、移動軌跡Tを構成する人観測点OBSが無い場合には、そのままステップS151に進む。一方、ステップS147で“YES”であれば、つまりこのフレームにおいて、移動軌跡Tを構成する人観測点OBSが有る場合には、ステップS147で、このフレームにおいて、移動軌跡Tを構成する人観測点OBSが有るかどうかを判断する。 If in step S145 "NO", that is, in this frame, when human observation point OBS v constituting the movement track T m is not, the process proceeds to step S151. On the other hand, if "YES" in the step S147, that is, in this frame, when the human observation point OBS v constituting the movement track T m is present, in step S147, in this frame, constituting the movement trajectory T n It is determined whether or not there is a human observation point OBS w .

ステップS147で“NO”であれば、つまりこのフレームにおいて、移動軌跡Tを構成する人観測点OBSが無い場合には、そのままステップS151に進む。一方、ステップS147で“YES”であれば、つまりこのフレームにおいて、移動軌跡Tを構成する人観測点OBSが有る場合には、ステップS149で、このフレームにおける人観測点OBS、OBSを、図9(B)に示したような、共有の人観測点リストに登録(追加)して、ステップS151に進む。 If "NO" in the step S147, that is, in this frame, when no human observation point OBS w constituting the movement track T n is directly proceeds to step S151. On the other hand, if “YES” in the step S147, that is, if there is a human observation point OBS w constituting the movement trajectory T n in this frame, the human observation points OBS v , OBS w in this frame in the step S149. Is registered (added) to the shared human observation point list as shown in FIG. 9B, and the process proceeds to step S151.

ステップS151では、このフレームが最大フレーム(現時点の最終フレーム)であるかどうかを判断する。ステップS151で“NO”であれば、つまりこのフレームが最大フレームでなければ、ステップS153で、変数fを1加算して(f=f+1)、ステップS145に戻る。つまり、コンピュータ12は、次のフレームにおいて、共有の人観測点OBSが有るかどうかの判断処理を実行するのである。 In step S151, it is determined whether this frame is the maximum frame (current final frame). If “NO” in the step S151, that is, if this frame is not the maximum frame, the variable f c is incremented by 1 (f c = f c +1) in a step S153, and the process returns to the step S145. That is, the computer 12 executes a process for determining whether or not there is a shared human observation point OBS in the next frame.

一方、ステップS151で“YES”であれば、つまりこのフレームが最大フレームであれば、図24に示すステップS155で、次の移動軌跡Tと移動軌跡Tとが関連付けテーブルに存在するかどうかを判断する。つまり、コンピュータ12は、関連付けテーブルデータ358を参照して、このセンサの組において、一致することが判断された他の移動軌跡Tおよび移動軌跡Tが有るかどうかを判断するのである。 On the other hand, if "YES" in step S151, the that is, if the frame is the maximum frame, in step S155 shown in FIG. 24, whether or not the next movement track T m and movement track T n exists in the association table Judging. In other words, the computer 12 refers to the table data 358 associated, in this set of sensors, than it is determined whether or not been another movement trajectory T m and movement track T n determined there to be consistent.

ステップS155で“NO”であれば、つまり次の移動軌跡Tと移動軌跡Tとが関連付けてテーブルに無い場合には、図17に示したキャリブレーション処理にリターンする。一方、ステップS155で“YES”であれば、つまり次の移動軌跡Tと移動軌跡Tとが関連付けテーブルに有る場合には、ステップS157で、関連付けてテーブルに存在する次の移動軌跡Tと移動軌跡Tとのそれぞれを構成する人観測点OBS(OBS、OBS)およびその人観測点OBSを検出したフレーム数を読み込み、図23に示したステップS143に戻る。 If "NO" in the step S155, that is, if and the movement track T n and the next movement track T m not in the table in association with, and then returns to the calibration process shown in FIG. 17. On the other hand, if "YES" in the step S155, i.e. when the the next movement track T m and movement track T n is in the association table, in step S157, the next movement track present in the table in association with T m the movement track T n and the constituting each human observation points OBS (OBS v, OBS w) and reads the number of frames detected that person observation point OBS, the flow returns to step S143 of FIG. 23.

図25は、図17に示したステップS11のセンサ間の制約の算出処理のフロー図である。このセンサ間の制約の算出処理は、マルチタスクによって、センサ14の組毎に実行される。図25に示すように、コンピュータ12(CPU)はセンサ間の制約の算出処理を開始すると、ステップS161で、最新の共有の人観測点OBSと、1つ以上(たとえば、3つ)の古い共有の人観測点OBSとを抽出する。ただし、上述したように、古い共有の人観測点OBSについては、ランダムに抽出される。 FIG. 25 is a flowchart of the calculation processing of the constraint between the sensors in step S11 shown in FIG. The calculation processing of the constraints between sensors is executed for each set of sensors 14 by multitasking. As shown in FIG. 25, when the computer 12 (CPU) starts the calculation processing of the constraints between the sensors, in step S161, the latest shared human observation point OBS p and one or more (for example, three) old ones. The shared human observation point OBS q is extracted. However, as described above, the old shared human observation point OBS q is extracted at random.

次のステップS163では、三角形の幾何学を用いて、センサ間の制約(距離および角度)を算出する。つまり、コンピュータ12は、数4−数11に従ってセンサ間の制約を算出する。これは、最新の共有の人観測点OBSと、1つ以上(この実施例では、3つ)の古い共有の人観測点OBSのそれぞれとについて算出する。そして、ステップS165で、数12−数15を繰り返し用いて、ステップS163で算出した複数のセンサ間の制約の平均とその推定値の分散(誤差)とを算出する。そして、ステップS167で、センサ間の制約の平均およびその推定値の分散を図11に示した制約リストに記憶(追加)して、図17に示したキャリブレーション処理にリターンする。 In the next step S163, the constraints (distance and angle) between the sensors are calculated using the triangle geometry. That is, the computer 12 calculates the constraints between the sensors according to Equation 4 to Equation 11. This is calculated for the latest shared human observation point OBS p and each of one or more (three in this example) old shared human observation point OBS q . In step S165, the average of the constraints between the plurality of sensors calculated in step S163 and the variance (error) of the estimated values are calculated by repeatedly using Equations 12 to 15. In step S167, the average of the constraints between the sensors and the variance of the estimated values are stored (added) in the constraint list shown in FIG. 11, and the process returns to the calibration process shown in FIG.

図26および図27は、図17に示したステップS15の全センサの配置処理のフロー図である。図26に示すように、コンピュータ12(CPU)は、全センサの配置処理を開始すると、ステップS181で、信頼度の高い順に制約リストを並べ替える。つまり、コンピュータ12は、推定値の分散(誤差)の小さい順に制約リストを並べ替える。   26 and 27 are flowcharts of the arrangement processing of all the sensors in step S15 shown in FIG. As shown in FIG. 26, when the computer 12 (CPU) starts the arrangement process of all the sensors, the restriction list is rearranged in descending order of reliability in step S181. That is, the computer 12 rearranges the constraint list in ascending order of estimated value variance (error).

次のステップS183では、最も高い信頼度の制約に従って、基準のセンサ14と対のセンサ14とを図14に示したようなセンサ位置リストに登録する。このとき、図13(A)を用いて説明したように、仮想のマップ上に、基準のセンサ14および対のセンサ14が配置される。次のステップS185では、位置誤差に、センサ間の制約誤差すなわち最も高い信頼度の制約についての推定値の分散(誤差)を設定する。図示は省略するが、このとき、最も高い信頼度の制約についての推定値の分散がセンサ間の誤差として、センサ位置リストの基準のセンサ14および対のセンサ14に対応して登録される。つまり、図14に示したセンサ位置リストのセンサ間の誤差の項目の1行目および2行目に、最も高い信頼度の制約についての推定値の分散が登録される。したがって、基準のセンサ14と対のセンサ14とのそれぞれに対応する位置誤差のデータがセンサ位置誤差データ366として記憶される。   In the next step S183, the reference sensor 14 and the pair of sensors 14 are registered in the sensor position list as shown in FIG. 14 according to the highest reliability constraint. At this time, as described with reference to FIG. 13A, the reference sensor 14 and the pair of sensors 14 are arranged on the virtual map. In the next step S185, the variance (error) of the estimated value for the constraint error between sensors, that is, the constraint with the highest reliability is set in the position error. Although illustration is omitted, at this time, the variance of the estimated value for the highest reliability constraint is registered as an error between sensors corresponding to the reference sensor 14 and the pair of sensors 14 in the sensor position list. That is, the variance of the estimated value for the highest reliability constraint is registered in the first and second lines of the item of error between sensors in the sensor position list shown in FIG. Therefore, position error data corresponding to each of the reference sensor 14 and the pair of sensors 14 is stored as sensor position error data 366.

続いて、ステップS187では、変数kを初期化する(k=1)。ここで、kはセンサ14の各組を個別に識別するとともに、センサ14の各組について順次ステップS189以降の処理を実行するための変数である。図27に示す次のステップS189では、センサiの推定位置が有るかどうかを判断する。ここで、センサiは、上述したように、括弧書きで示すセンサ14の組のうち、左側に記載された識別情報が割り当てられたセンサ14を意味する。また、後述するセンサjは、括弧書きで示すセンサ14の組のうち、右側に記載された識別情報が割り当てられたセンサ14を意味する。このステップS189では、コンピュータ12は、センサ位置リストにセンサiの推定位置が登録されているかどうかを判断しているのである。このことは、後述するステップS191についても同様である。   Subsequently, in step S187, the variable k is initialized (k = 1). Here, k is a variable for individually identifying each set of sensors 14 and sequentially executing the processing from step S189 on for each set of sensors 14. In the next step S189 shown in FIG. 27, it is determined whether there is an estimated position of the sensor i. Here, as described above, the sensor i means the sensor 14 to which the identification information described on the left side is assigned in the set of the sensors 14 shown in parentheses. The sensor j described later means a sensor 14 to which identification information described on the right side is assigned in a set of sensors 14 indicated in parentheses. In step S189, the computer 12 determines whether or not the estimated position of the sensor i is registered in the sensor position list. The same applies to step S191 described later.

ステップS189で“NO”であれば、つまりセンサiの推定位置が無ければ、センサjの位置を推定するために使用するセンサiが配置されていないため、そのままステップS201に進む。一方、ステップS189で“YES”であれば、つまりセンサiの推定位置が有れば、ステップS191で、センサjの推定位置が有るかどうかを判断する。ステップS191で“YES”であれば、つまりセンサjの推定位置が有れば、当該センサjの位置を推定する必要が無いため、そのままステップS201に進む。   If “NO” in the step S189, that is, if there is no estimated position of the sensor i, the sensor i used for estimating the position of the sensor j is not arranged, and the process proceeds to a step S201 as it is. On the other hand, if “YES” in the step S189, that is, if there is an estimated position of the sensor i, it is determined whether or not there is an estimated position of the sensor j in a step S191. If “YES” in the step S191, that is, if there is an estimated position of the sensor j, it is not necessary to estimate the position of the sensor j, so the process proceeds to a step S201 as it is.

一方、ステップS191で“NO”であれば、つまりセンサjの推定位置が無ければ、ステップS193で、センサiとセンサjとの間の制約が制約リストにあるかどうかを判断する。ステップS193で“NO”であれば、つまりセンサiとセンサjとの間の制約が制約リストに無ければ、センサjを配置できないと判断して、そのままステップS201に進む。一方、ステップS193で“YES”であれば、つまりセンサiとセンサjとの間の制約が制約リストに有れば、ステップS195で、センサiとの制約に従って、センサjの位置を推定し、センサjの推定位置をセンサ位置リストに追加する。図示は省略するが、このとき、センサjの角度も算出され、センサ位置リストに登録される。   On the other hand, if “NO” in the step S191, that is, if there is no estimated position of the sensor j, it is determined whether or not there is a restriction between the sensor i and the sensor j in the restriction list in a step S193. If “NO” in the step S193, that is, if there is no restriction between the sensor i and the sensor j in the restriction list, it is determined that the sensor j cannot be arranged, and the process proceeds to a step S201 as it is. On the other hand, if “YES” in the step S193, that is, if the restriction between the sensor i and the sensor j is in the restriction list, the position of the sensor j is estimated in a step S195 according to the restriction with the sensor i, Add the estimated position of sensor j to the sensor position list. Although illustration is omitted, at this time, the angle of the sensor j is also calculated and registered in the sensor position list.

続くステップS197では、センサiの位置誤差に、センサ間の誤差を加えて、センサjの位置誤差として設定する。ただし、センサ間の誤差は、上述したように、センサiとセンサjとの間の推定値の偏差σijである。なお、ステップS185およびS197で算出された位置誤差は、後述のセンサ位置の調整処理(図28参照)等で用いられる。 In the subsequent step S197, an error between the sensors is added to the position error of the sensor i to set it as the position error of the sensor j. However, the error between the sensors is the deviation σ ij of the estimated value between the sensors i and j as described above. The position error calculated in steps S185 and S197 is used in a sensor position adjustment process (see FIG. 28) described later.

続いて、ステップS199では、すべてのセンサ14についての位置を推定したかどうかを判断する。つまり、コンピュータ12(CPU)は、センサ位置リストの配置センサIDの欄にすべてのセンサ14の識別情報(この実施例では、A−F)が記述されたかどうかを判断する。または、コンピュータ12は、センサ位置リストに記載された識別情報がセンサ14の総数(この実施例では、6)になったかどうかを判断する。   Subsequently, in step S199, it is determined whether the positions for all the sensors 14 have been estimated. That is, the computer 12 (CPU) determines whether or not the identification information (A to F in this embodiment) of all the sensors 14 is described in the placement sensor ID column of the sensor position list. Alternatively, the computer 12 determines whether or not the identification information described in the sensor position list has reached the total number of sensors 14 (6 in this embodiment).

ステップS199で“YES”であれば、つまりすべてのセンサ14の位置を推定した場合には、図17に示したキャリブレーション処理にリターンする。一方、ステップS199で“NO”であれば、つまり位置を推定していないセンサ14が有る場合には、ステップS201で、変数kを1加算する(k=k+1)。そして、ステップS203で、変数kが最大数(この実施例では、15)を超えたかどうかを判断する。つまり、センサ14のすべての組について、ステップS189以降の処理を実行したかどうかを判断するのである。   If “YES” in the step S199, that is, if the positions of all the sensors 14 are estimated, the process returns to the calibration process shown in FIG. On the other hand, if “NO” in the step S199, that is, if there is a sensor 14 whose position is not estimated, the variable k is incremented by 1 (k = k + 1) in a step S201. In step S203, it is determined whether or not the variable k exceeds the maximum number (15 in this embodiment). That is, it is determined whether or not the processing after step S189 has been executed for all the sets of sensors 14.

ステップS203で“YES”であれば、つまり変数kが最大数を超えた場合には、キャリブレーション処理にリターンする。一方、ステップS203で“NO”であれば、つまり変数kが最大数以下である場合には、ステップS189に戻って、センサ14の次の組について、ステップS189以降の処理を実行する。   If “YES” in the step S203, that is, if the variable k exceeds the maximum number, the process returns to the calibration process. On the other hand, if “NO” in the step S203, that is, if the variable k is equal to or less than the maximum number, the process returns to the step S189, and the process after the step S189 is executed for the next set of the sensors 14.

図28は図17に示したステップS17のセンサ位置の調整処理のフロー図である。図28に示すように、コンピュータ12は、センサ位置の調整処理を開始すると、ステップS211で、後述する全体誤差の算出処理(図29)を実行する。次のステップS213では、変数iを初期化する(i=1)。この変数iは、センサ14を個別に識別するための変数である。   FIG. 28 is a flowchart of the sensor position adjustment process in step S17 shown in FIG. As shown in FIG. 28, when the computer 12 starts the sensor position adjustment process, in step S211, the computer 12 executes an overall error calculation process (FIG. 29) described later. In the next step S213, the variable i is initialized (i = 1). This variable i is a variable for individually identifying the sensors 14.

次に、ステップS215では、他のすべてのセンサj(j≠i)の推定位置とセンサ間の制約とを用いて、センサiの新しい位置および位置誤差を算出する。つまり、コンピュータ12は、上述した数16−数19に従って、新しいセンサiの位置(x,y)および位置誤差νを算出するのである。次のステップS217では、他のすべてのセンサjの推定位置に対する現実角度と、制約によって推測される角度との最小誤差をセンサiの角度に設定する。つまり、コンピュータ12は、上述した数20に従って、センサiの角度θを算出するのである。 Next, in step S215, the new position and position error of sensor i are calculated using the estimated positions of all other sensors j (j ≠ i) and the constraints between the sensors. In other words, the computer 12 calculates the position (x i , y i ) and the position error ν i of the new sensor i according to the above-described equations 16 to 19. In the next step S217, the minimum error between the actual angle with respect to the estimated positions of all the other sensors j and the angle estimated by the constraint is set as the angle of the sensor i. That is, the computer 12 calculates the angle θ i of the sensor i according to the equation 20 described above.

続いて、ステップS219では、変数iを1加算する(i=i+1)。そして、ステップS221で、変数iが最大数(この実施例では、6)を超えたかどうかを判断する。ステップS221で“NO”であれば、つまり変数iが最大数以下であれば、ステップS215に戻って、次のセンサiについてステップS215およびS217の処理を実行する。一方、ステップS221で“YES”であれば、つまり変数iが最大数を超えていれば、ステップS223で、全体誤差の算出処理を実行し、ステップS225で、今回算出された全体誤差が前回算出された全体誤差(初回では、ステップS211で算出された全体誤差)よりも小さいかどうかを判断する。   Subsequently, in step S219, the variable i is incremented by 1 (i = i + 1). In step S221, it is determined whether or not the variable i exceeds the maximum number (6 in this embodiment). If “NO” in the step S221, that is, if the variable i is equal to or less than the maximum number, the process returns to the step S215, and the processes of the steps S215 and S217 are executed for the next sensor i. On the other hand, if “YES” in the step S221, that is, if the variable i exceeds the maximum number, a calculation process of the total error is executed in a step S223, and the total error calculated this time is calculated last time in a step S225. It is determined whether or not it is smaller than the overall error (the first time, the overall error calculated in step S211).

ステップS225で“YES”であれば、つまり今回算出された全体誤差が前回算出された全体誤差よりも小さい場合には、ステップS213に戻る。つまり、コンピュータ12は、さらにセンサ位置の調整を行うのである。一方、ステップS225で“NO”であれば、つまり今回算出された全体誤差が前回算出された全体誤差以上であれば、ステップS227で、前回算出(推定)したセンサ位置を採用して、図17に示したキャリブレーション処理にリターンする。   If “YES” in the step S225, that is, if the total error calculated this time is smaller than the total error calculated last time, the process returns to the step S213. That is, the computer 12 further adjusts the sensor position. On the other hand, if “NO” in the step S225, that is, if the total error calculated this time is equal to or larger than the total error calculated last time, the sensor position calculated (estimated) in the previous time is adopted in the step S227, and FIG. Return to the calibration process shown in.

図29および図30は、図28に示したステップS211、S223の全体誤差の算出処理を示すフロー図である。図29に示すように、コンピュータ12(CPU)は、全体誤差の算出処理を開始すると、ステップS241で、全体誤差値を0(初期値)に設定する。続くステップS243では、変数rを初期化する(r=1)。次のステップS245では、変数sを初期化する(s=1)。ただし、変数rおよび変数sは、各センサ14を個別に識別するための変数である。   29 and 30 are flowcharts showing the overall error calculation processing in steps S211 and S223 shown in FIG. As shown in FIG. 29, when the computer 12 (CPU) starts the calculation process of the total error, the computer 12 (CPU) sets the total error value to 0 (initial value) in step S241. In the subsequent step S243, the variable r is initialized (r = 1). In the next step S245, the variable s is initialized (s = 1). However, the variable r and the variable s are variables for identifying each sensor 14 individually.

次のステップS247では、変数rと変数sとが一致するかどうかを判断する。ステップS247で“YES”であれば、つまり変数rと変数sとが一致する場合には、そのまま図30に示すステップS257に進む。一方、ステップS247で“NO”であれば、つまり変数rと変数sと一致しない場合には、ステップS249で、センサrとセンサsとの間のセンサ制約の平均が制約リストに有るかどうかを判断する。   In the next step S247, it is determined whether or not the variable r and the variable s match. If “YES” in the step S247, that is, if the variable r and the variable s match, the process proceeds to a step S257 shown in FIG. 30 as it is. On the other hand, if “NO” in the step S247, that is, if the variables r and s do not match, it is determined whether or not the average sensor constraint between the sensor r and the sensor s is in the constraint list in a step S249. to decide.

ステップS249で“NO”であれば、つまりセンサrとセンサsとの間のセンサ制約の平均が制約リストに無ければ、後述する誤差(dest−dcstr)を算出することができないと判断して、そのままステップS257に進む。一方、ステップS249で“YES”であれば、つまりセンサrとセンサsとの間のセンサ制約の平均が制約リストに有れば、ステップS251で、変数destにセンサrの推定位置とセンサsの推定位置との距離を設定する。続くステップS253では、変数dcstrをセンサrとセンサsとのセンサ制約の平均によって特定された距離で定義する。そして、ステップS255で、全体誤差に誤差(dest−dcstr)を加算して、ステップS257に進む。 If “NO” in the step S249, that is, if the average sensor constraint between the sensor r and the sensor s is not in the constraint list, it is determined that an error (d est −d cstr ) described later cannot be calculated. Then, the process proceeds to step S257 as it is. On the other hand, if “YES” in the step S249, that is, if the average of the sensor constraints between the sensor r and the sensor s is in the constraint list, the estimated position of the sensor r and the sensor s in the variable d est in the step S251. Set the distance to the estimated position. In the subsequent step S253, the variable d cstr is defined by the distance specified by the average of the sensor constraints between the sensor r and the sensor s. In step S255, an error (d est −d cstr ) is added to the overall error, and the process proceeds to step S257.

図30に示すように、ステップS257では、変数sを1加算する(s=s+1)。そして、ステップS259で、変数sが最大数(この実施例では、6)を超えたかどうかを判断する。ステップS259で“NO”であれば、ステップS247に戻る。つまり、センサrと次のセンサsとについての誤差(dest−dcstr)を算出し、全体誤差を更新する。 As shown in FIG. 30, in step S257, the variable s is incremented by 1 (s = s + 1). In step S259, it is determined whether the variable s exceeds the maximum number (6 in this embodiment). If “NO” in the step S259, the process returns to the step S247. That is, an error (d est −d cstr ) between the sensor r and the next sensor s is calculated, and the overall error is updated.

一方、ステップS259で“YES”であれば、ステップS261で、変数rを1加算する(r=r+1)。そして、S263で、変数rが最大数(この実施例では6)を超えたかどうかを判断する。ステップS263で“NO”であれば、図29に示したステップS245に戻る。つまり、次のセンサrと各センサsとの誤差(dest−dcstr)を算出し、全体誤差を更新する。一方、ステップS263で“YES”であれば、つまり変数rが最大数を超えると、全体誤差の算出処理を終了したと判断して、図28に示したセンサ位置の調整処理にリターンする。 On the other hand, if “YES” in the step S259, the variable r is incremented by 1 (r = r + 1) in a step S261. In step S263, it is determined whether the variable r has exceeded the maximum number (6 in this embodiment). If “NO” in the step S263, the process returns to the step S245 shown in FIG. That is, an error (d est −d cstr ) between the next sensor r and each sensor s is calculated, and the overall error is updated. On the other hand, if “YES” in the step S263, that is, if the variable r exceeds the maximum number, it is determined that the calculation process of the entire error is finished, and the process returns to the sensor position adjustment process shown in FIG.

この実施例によれば、或る環境に配置した複数の距離センサの出力に基づいて、各距離センサの位置および角度を推定するので、初期値を与えなくても、距離センサの位置および向きをキャリブレーションすることができる。したがって、計測する環境が変化したり、距離センサの配置位置を変えたりしても、ユーザの手を煩わすことが無い。   According to this embodiment, since the position and angle of each distance sensor are estimated based on the outputs of a plurality of distance sensors arranged in a certain environment, the position and orientation of the distance sensor can be determined without giving an initial value. Can be calibrated. Therefore, even if the measurement environment is changed or the arrangement position of the distance sensor is changed, the user's hand is not bothered.

なお、この実施例では、センサ間の制約の平均および分散(誤差)をカルマンフィルタを用いて算出するようにしたが、これに限定される必要はない。他の例として、算術平均(Arithmetic mean)やメジアンフィルタを用いるようにしてもよい。算術平均を用いる場合には、標準分散を算出することにより、分散(誤差)を得ることができる。また、メジアンフィルタを用いる場合には、中央絶対偏差(median absolute deviation)を算出することにより、近似値として分散(誤差)を得ることができる。たとえば、カルマンフィルタ、算術平均またはメジアンフィルタのいずれを用いるかは、環境(人の数の大小、人の歩く速度など)に応じて選択するようにしてもよい。   In this embodiment, the average and variance (error) of the constraints between the sensors are calculated using the Kalman filter. However, the present invention is not limited to this. As another example, an arithmetic mean or a median filter may be used. When the arithmetic mean is used, the variance (error) can be obtained by calculating the standard variance. When a median filter is used, the variance (error) can be obtained as an approximate value by calculating the median absolute deviation. For example, whether to use a Kalman filter, an arithmetic average, or a median filter may be selected according to the environment (the number of people, the walking speed of people, etc.).

また、この実施例では、距離センサとして、レーザーレンジファインダ(レーザー距離計)を用いた場合についてのみ説明したが、これに限定される必要はない。角度毎の距離が検出可能であれば、超音波、赤外線、マイクロ波、音波(指向性有り)を用いた距離センサを適用することも可能である。   In this embodiment, only the case where a laser range finder (laser distance meter) is used as the distance sensor has been described. However, the present invention is not limited to this. If the distance for each angle can be detected, a distance sensor using ultrasonic waves, infrared rays, microwaves, and sound waves (with directivity) can be applied.

さらに、この実施例では、2次元方向(XY平面)におけるセンサの位置および角度についてのみキャリブレーションするようにしてある。これは、上下方向(Z方向)については、たとえば加速度センサやジャイロセンサをセンサに設けることにより、他のセンサとは無関係に調整することができるためである。   Furthermore, in this embodiment, only the position and angle of the sensor in the two-dimensional direction (XY plane) are calibrated. This is because the vertical direction (Z direction) can be adjusted independently of other sensors by providing an acceleration sensor or gyro sensor, for example.

さらにまた、この実施例では、移動軌跡の特徴として、速度変化を用いることにより、その差に基づいて、異なるセンサで検出された移動軌跡が同一であるかどうかを判定するようにしたが、これに限定される必要はない。   Furthermore, in this embodiment, by using a speed change as a feature of the movement trajectory, it is determined whether the movement trajectories detected by different sensors are the same based on the difference. It is not necessary to be limited to.

たとえば、速度に代えて、加速度(フレーム毎の加速度)を用いて、その差に基づいて、異なる2つのセンサで検出された移動軌跡が同一であるかどうかを判定してもよい。ただし、加速度は、移動軌跡の速度を微分することにより得ることができる。また、移動軌跡が同一であるかどうかの判定方法は、上述の実施例と同様である。   For example, instead of speed, acceleration (acceleration for each frame) may be used to determine whether or not the movement trajectories detected by two different sensors are the same based on the difference. However, the acceleration can be obtained by differentiating the speed of the movement trajectory. Moreover, the determination method of whether a movement locus | trajectory is the same is the same as that of the above-mentioned Example.

また、移動軌跡の曲率に基づいて、異なる2つのセンサで検出された移動軌跡が同一であるかどうかを判定してもよい。かかる場合には、移動軌跡を構成する複数の点を、ICP(Iterative Closest Point)のようなアルゴリズムを用いて抽出し、抽出した複数の点から、移動軌跡の進行方向に向かう順番で曲率を算出する。すると、進行方向を基準とした場合に、移動軌跡の曲がっている方向(右または左)を時系列に従って抽出(ラべリング)することができる。たとえば、図31(A)に示すように、或るセンサで検出した或る移動軌跡から、複数の点Z1、Z2、…、Z15が抽出される。ただし、点Z1が時間的に最も古く、点Z15が時間的に最も新しい。抽出された点Z1−Z15を用いて、時系列に従って、局部の曲率が算出され、進行方向に対する方向が決定される。したがって、移動軌跡に対して、「右、右、右、右、左、左、右、左、左、右、左」のように、ラベリングすることができる。ただし、曲率は、抽出された複数の点のうち、連続する3点が時系列に従う順序(Z1−Z3、Z2−Z4、Z3−Z5、…、Z13−Z15)で着目され、その着目される3点で形成される三角形の外接円に基づいて算出される。また、たとえば、図31(A)に示すうように、進行方向は、抽出された複数の点のうち、時間的に最も古い(最初の)点(ここでは、点Z1)から、時間的に最も新しい(最後の)点(ここでは、点Z15)に向かう方向に決定される。他のセンサについても、同様に、移動軌跡に対してラベリングされる。そして、異なる2つのセンサにおいて、同じラベリングの移動軌跡が唯一存在する場合に、それらを同一の移動軌跡であると判定することができる。   Moreover, you may determine whether the movement locus | trajectory detected by two different sensors is the same based on the curvature of a movement locus | trajectory. In such a case, a plurality of points constituting the movement trajectory are extracted using an algorithm such as ICP (Iterative Closest Point), and the curvature is calculated in the order of the moving trajectory from the extracted points. To do. Then, when the traveling direction is used as a reference, the direction (right or left) in which the movement locus is bent can be extracted (labeled) in time series. For example, as shown in FIG. 31A, a plurality of points Z1, Z2,..., Z15 are extracted from a certain movement locus detected by a certain sensor. However, the point Z1 is the oldest in time and the point Z15 is the newest in time. Using the extracted points Z1-Z15, the local curvature is calculated according to the time series, and the direction with respect to the traveling direction is determined. Therefore, the movement trajectory can be labeled as “right, right, right, right, left, left, right, left, left, right, left”. However, the curvature is noted in the order (Z1-Z3, Z2-Z4, Z3-Z5,..., Z13-Z15) in which three consecutive points out of a plurality of extracted points follow a time series, and attention is paid to this. It is calculated based on a circumscribed circle of a triangle formed by three points. Further, for example, as shown in FIG. 31A, the traveling direction is temporally from the oldest (first) point (here, the point Z1) among the extracted points. It is determined in the direction toward the newest (last) point (here, the point Z15). Similarly, other sensors are labeled with respect to the movement trajectory. When two different sensors have the same labeling movement locus, they can be determined to be the same movement locus.

なお、上述の実施例と同様に、異なる2つのセンサにおいて、3つ以上同じラベリングの移動軌跡が存在する場合には、同一の移動軌跡とは判定しない。共通の移動軌跡とは言えないからである。   As in the above-described embodiment, when two or more different sensors have the same labeling movement locus, they are not determined as the same movement locus. It is because it cannot be said that it is a common movement locus.

さらに、移動軌跡の特徴として、人間の行動を抽出(ラベリング)することもできる。この場合には、移動軌跡に含まれる人観測点の時間変化に基づいて、人間の局所行動を判定することができる。局所行動を判定する方法としては、本件出願人が先に出願し、既に公開された特開2010−231359号に開示された方法を採用することができる。この先行技術文献に従えば、「歩き方」、「歩く速さ」、「短時間の歩き方」および「短時間の歩く速さ」の4つのクラスが定義され、各クラスにおいて、複数のカテゴリ(局所行動)に分類される。「歩き方」のクラス(「短時間の歩き方」のクラスも同様)では、「まっすぐ」、「右に曲がる」、「左に曲がる」、「うろうろする」、「Uターン」および「不明」の6つのカテゴリに分類される。また、「歩く速さ」のクラス(「短時間の歩く速さ」のクラスも同様)では、「走っている」、「忙しく歩く」、「ゆっくり歩く」、「止まっている」および「待っている」の5つのカテゴリに分類される。移動軌跡から特徴量(特徴量データ)が抽出され、抽出された特徴量データに対してカテゴリがラベル付けされ、ラベル付けされた特徴量データをSVM(Support Vector Machine)に学習させることにより、移動軌跡から人間の歩き方が判別される。そして、異なる2つのセンサにおいて、同じ歩き方と判定される移動軌跡が唯一存在する場合に、それらを同一の移動軌跡であると判定することができる。   Furthermore, human behavior can be extracted (labeled) as a feature of the movement trajectory. In this case, it is possible to determine the human local behavior based on the time change of the human observation point included in the movement trajectory. As a method for determining local behavior, a method disclosed in Japanese Patent Application Laid-Open No. 2010-231359, which has been filed by the present applicant and has been published, can be employed. According to this prior art document, four classes of “how to walk”, “speed of walking”, “how to walk for a short time”, and “speed of walking for a short time” are defined, and each class includes a plurality of categories. Classified as (local action). In the “Walking” class (also the “Short Walking” class), “Straight”, “Turn right”, “Turn left”, “Wander”, “U-turn” and “Unknown” Are classified into six categories. Also, in the “walking speed” class (as well as the “short walking speed” class), “running”, “busy walking”, “slow walking”, “stopping” and “waiting” Are classified into five categories. Feature quantities (feature quantity data) are extracted from the movement trajectory, categories are labeled on the extracted feature quantity data, and movement is performed by causing the SVM (Support Vector Machine) to learn the labeled feature quantity data. The way a person walks is determined from the trajectory. And in two different sensors, when the movement locus | trajectory determined with the same way of walking exists only, it can determine with those being the same movement locus | trajectory.

なお、かかる場合にも、上述の実施例と同様に、異なる2つのセンサにおいて、3つ以上同じ歩き方と判定される移動軌跡が存在する場合には、同一の移動軌跡とは判定しない。   Even in such a case, as in the above-described embodiment, if there are three or more moving loci determined to be the same way of walking in two different sensors, the same moving loci are not determined.

さらに、移動軌跡の特徴として、その大きさに基づいて、異なる2つのセンサで検出された移動軌跡が同一であるかどうかを判定してもよい。たとえば、図31(B)に示すように、移動軌跡を囲む円が描画され、異なるセンサにおいて、円の大きさが同じまたは略同じと判定される移動軌跡が唯一存在する場合に、それらを同一の移動軌跡であると判定することができる。詳細な説明は省略するが、移動軌跡を囲む円は、移動軌跡を構成する複数の点の中央値を算出し、移動軌跡のうち、中央値と、この中央値から最も遠い点(基本的には、移動軌跡の端点のいずれか一方が選択される)との距離を半径とする円である。ただし、中央値は、複数の点についてのローカル座標系におけるXY座標の平均値である。また、実際に円を描画する必要は無く、半径の長さが同じまたは略同じであるか否かを判定すればよい。   Furthermore, as a feature of the movement trajectory, it may be determined whether the movement trajectories detected by two different sensors are the same based on the size. For example, as shown in FIG. 31B, when a circle surrounding the movement trajectory is drawn and there is only one movement trajectory in which different circles are determined to have the same or substantially the same size, they are the same. It can be determined that the movement trajectory is. Although a detailed description is omitted, the circle surrounding the movement trajectory calculates the median value of a plurality of points constituting the movement trajectory, and among the movement trajectories, the median and the point farthest from this median value (basically Is a circle whose radius is the distance from one of the end points of the movement trajectory. However, the median is an average value of XY coordinates in the local coordinate system for a plurality of points. In addition, it is not necessary to actually draw a circle, and it may be determined whether or not the lengths of the radii are the same or substantially the same.

なお、かかる場合にも、上述の実施例と同様に、異なる2つのセンサにおいて、円の大きさが同じまたは略同じであると判定される移動軌跡が3つ以上存在する場合には、同一の移動軌跡とは判定しない。   Even in such a case, as in the above-described embodiment, if there are three or more moving loci in which two different sensors are determined to have the same or substantially the same size, the same It is not determined as a movement trajectory.

ただし、図31(C)に示すように、円の大きさだけでは、異なる移動軌跡であっても、同じ移動軌跡であると判定されてしまうことがある。このため、移動軌跡の大きさのみならず、移動軌跡を構成する複数の点の分散も考慮するために、図32(A)に示すように、移動軌跡の大きさを近似する楕円を描画するようにしてもよい。たとえば、中央値が算出され、この中央値から最も遠い点(第1点)が検出される。ただし、中央値は、上述した方法により、求められる。さらに、中央値を中心として第1点と点対称となる点(第2点)が検出され、第1点と第2点とを結ぶ線分が楕円の長軸に決定される。また、長軸と直交する方向で、長軸から最も遠い点までの距離が検出され、中央値を通り、長軸と直交する方向に当該距離だけ離れた点(第3点)が算出される。さらに、中央値を中心として第3点と点対象となる点(第4点)が検出され、第3点と第4点とを結ぶ線分が短軸に決定される。異なる2つのセンサにおいて、楕円の大きさ、すなわち長軸および短軸の長さが同じまたはほぼ同じと判定される移動軌跡が唯一存在する場合には、それらの移動軌跡は同一であると判定される。   However, as shown in FIG. 31C, it may be determined that the movement trajectories are the same even if the movement trajectories are different based on the size of the circle alone. For this reason, in order to consider not only the size of the moving track but also the dispersion of a plurality of points constituting the moving track, an ellipse that approximates the size of the moving track is drawn as shown in FIG. You may do it. For example, a median value is calculated, and a point (first point) farthest from the median value is detected. However, the median is obtained by the method described above. Further, a point (second point) that is symmetric with respect to the first point around the median is detected, and a line segment connecting the first point and the second point is determined as the major axis of the ellipse. Further, the distance from the long axis to the farthest point in the direction orthogonal to the long axis is detected, and a point (third point) that passes through the median and is separated by the distance in the direction orthogonal to the long axis is calculated. . Further, the third point and the point point (fourth point) are detected with the median as the center, and a line segment connecting the third point and the fourth point is determined as the short axis. In two different sensors, if there is only one moving locus in which the size of the ellipse, that is, the major axis and the minor axis are determined to be the same or substantially the same, the moving tracks are determined to be the same. The

なお、かかる場合にも、上述の実施例と同様に、異なる2つのセンサにおいて、楕円の大きさが同じまたは略同じであると判定される移動軌跡が3つ以上存在する場合には、同一の移動軌跡とは判定しない。   Even in such a case, as in the above-described embodiment, if there are three or more moving trajectories in which two different sensors are determined to have the same or substantially the same size, the same It is not determined as a movement trajectory.

また、図32(A)からも分かるように、移動軌跡の大きさを楕円で近似する場合には、円で囲む場合とは異なり、楕円内に移動軌跡が収まらない場合がある。   Further, as can be seen from FIG. 32A, when the size of the movement trajectory is approximated by an ellipse, the movement trajectory may not be contained within the ellipse, unlike the case where it is enclosed by a circle.

さらに、移動軌跡の形状に基づいて、異なる2つのセンサで検出された移動軌跡が同一であるかどうかを判定してもよい。たとえば、図32(B)の上側に示すように、図31(A)に示した場合と同様に、ICPのアルゴリズムを用いて移動軌跡から複数の点Z1−Z15を抽出する。次に、図32(B)の下側に示すように、抽出した複数の点を用いて、時系列に従って、隣接する2点の間の距離(ここでは、dZ1、dZ2、…、dZ14)を算出する。距離は、上述の実施例で示した数1を用いて算出することができる。ただし、隣接する2点の座標を(x1,y1)および(x2,y2)とする。異なるなる2つのセンサにおいて、時系列に従って算出される距離の差を求め、その差の累積値が最も近似する移動軌跡が唯一存在する場合に、それらの移動軌跡が同一であると判定する。ただし、ICPのアルゴリズムを用いずに、フレーム間の距離を算出する場合には、移動軌跡の速度を積分することにより得ることもできる。かかる場合には、フレーム間の距離を算出するため、差を求めるための演算量が膨大であるが、移動軌跡の形状を正しく比較することができると考えられる。 Furthermore, based on the shape of the movement trajectory, it may be determined whether the movement trajectories detected by two different sensors are the same. For example, as shown in the upper side of FIG. 32B, similarly to the case shown in FIG. 31A, a plurality of points Z1-Z15 are extracted from the movement locus using the ICP algorithm. Next, as shown on the lower side of FIG. 32 (B), using a plurality of extracted points, the distance between two adjacent points (here, d Z1 , d Z2,. Z14 ) is calculated. The distance can be calculated using Equation 1 shown in the above-described embodiment. However, the coordinates of two adjacent points are (x1, y1) and (x2, y2). In two different sensors, the difference between the distances calculated according to the time series is obtained, and when there is only one moving locus whose accumulated value of the difference is closest, it is determined that the moving locus is the same. However, when calculating the distance between frames without using the ICP algorithm, it can also be obtained by integrating the speed of the movement trajectory. In such a case, since the distance between frames is calculated, the amount of calculation for obtaining the difference is enormous, but it is considered that the shapes of the movement trajectories can be compared correctly.

10 …計測装置
12 …コンピュータ
14 …距離センサ
DESCRIPTION OF SYMBOLS 10 ... Measuring device 12 ... Computer 14 ... Distance sensor

Claims (7)

或る環境に配置され、一定の角度毎の距離を検出する複数の距離センサの位置および向きをキャリブレーションする、距離センサのキャリブレーション装置であって、
前記複数の距離センサの出力に基づいて、当該距離センサ毎に、前記或る環境内の人間の位置を検出する人間位置検出手段、
前記人間位置検出手段によって検出された人間の位置に基づいて、前記距離センサ毎に、当該人間の移動軌跡を生成する軌跡生成手段、
前記軌跡生成手段によって前記距離センサ毎に生成された移動軌跡を、当該移動軌の特徴に基づいて、異なる2つの前記距離センサ間で同定する軌跡同定手段、
前記軌跡同定手段によって同定された移動軌跡において、任意に選択された2つの人間の位置に基づいて、前記2つの距離センサ間の距離および当該2つの距離センサの相対的な向きについてのセンサ制約を、当該同定された移動軌跡を生成した前記2つの距離センサの組毎に算出するセンサ制約算出手段、および
前記センサ制約算出手段によって算出されたセンサ制約を用いて、前記或る環境における前記複数の距離センサの位置および向きを推定する推定手段を備える、距離センサのキャリブレーション装置。
A distance sensor calibration device that is arranged in a certain environment and calibrates the position and orientation of a plurality of distance sensors that detect a distance at a certain angle.
Human position detecting means for detecting the position of a human in the certain environment for each distance sensor based on the outputs of the plurality of distance sensors;
A trajectory generating means for generating a human trajectory for each of the distance sensors based on the human position detected by the human position detecting means;
Trajectory identification means for identifying the movement trajectory generated for each of the distance sensors by the trajectory generation means between two different distance sensors based on the characteristics of the movement trajectory,
In the movement locus identified by the locus identification means, the sensor constraints on the distance between the two distance sensors and the relative orientation of the two distance sensors are based on the positions of two arbitrarily selected humans. A sensor constraint calculation unit that calculates each set of the two distance sensors that generated the identified movement locus, and the sensor constraint calculated by the sensor constraint calculation unit, A distance sensor calibration device comprising an estimation means for estimating the position and orientation of a distance sensor.
前記センサ制約算出手段は、前記軌跡同定手段によって同定された移動軌跡において、任意に選択される2つの人間の位置のうちの少なくとも一方を変化させることにより、前記2つの距離センサの組毎に、複数の前記センサ制約を算出し、複数のセンサ制約を平均するセンサ制約平均手段を含む、請求項1記載の距離センサのキャリブレーション装置。   The sensor constraint calculation unit changes at least one of two arbitrarily selected human positions in the movement trajectory identified by the trajectory identification unit, for each set of the two distance sensors. The distance sensor calibration device according to claim 1, further comprising a sensor constraint averaging unit that calculates a plurality of the sensor constraints and averages the plurality of sensor constraints. 前記複数のセンサ制約の分散を算出する分散算出手段をさらに備え、
前記推定手段は、
前記分散算出手段によって算出された分散が最小となる2つの距離センサを当該2つの距離センサのセンサ制約の平均に従って仮想のマップ上に配置する基準センサ配置手段、および
前記基準センサ配置手段によって配置された2つの距離センサに続いて、前記分散の小さい順に、既に配置された距離センサとのセンサ制約の平均を有する距離センサを当該センサ制約の平均に従って前記仮想のマップ上に順次配置する順次配置手段を含む、請求項2記載の距離センサのキャリブレーション装置。
A variance calculating means for calculating a variance of the plurality of sensor constraints;
The estimation means includes
Reference sensor placement means for placing two distance sensors having the smallest dispersion calculated by the dispersion calculation means on a virtual map according to an average of sensor constraints of the two distance sensors, and placed by the reference sensor placement means In addition to the two distance sensors, the sequential arrangement means sequentially arranges the distance sensors having an average of sensor constraints with the already arranged distance sensors on the virtual map according to the average of the sensor constraints in order of increasing dispersion. The distance sensor calibration device according to claim 2, comprising:
前記センサ制約が示す前記距離センサの各組の距離のそれぞれと、前記推定手段によって推定された前記複数の距離センサの位置に基づく当該距離センサの各組の距離のそれぞれとの差分を算出する差分算出手段、
前記差分算出手段によって算出された差分の合計値が最小値であるかどうかを判断する最小値判断手段、および
前記最小値判断手段によって前記差分の合計値が最小値になるまで、前記複数の距離センサの各々の位置を、前記推定手段によって推定された他の前記複数の距離センサの各々の位置および前記センサ制約に基づいて調整する位置調整手段をさらに備える、請求項1ないし3のいずれかに記載の距離センサのキャリブレーション装置。
A difference for calculating a difference between each distance of each pair of the distance sensors indicated by the sensor constraint and each distance of each pair of the distance sensors based on the positions of the plurality of distance sensors estimated by the estimation unit. Calculation means,
A minimum value determining means for determining whether or not a total value of differences calculated by the difference calculating means is a minimum value; and the plurality of distances until the total value of the differences becomes a minimum value by the minimum value determining means. 4. The apparatus according to claim 1, further comprising a position adjusting unit that adjusts the position of each sensor based on the position of each of the other plurality of distance sensors estimated by the estimating unit and the sensor constraint. The distance sensor calibration device described.
前記分散算出手段によって算出された分散に基づいて、前記推定手段によって推定された前記複数の距離センサの各々の位置の誤差を算出する位置誤差算出手段、
前記位置誤差算出手段によって算出された前記複数の距離センサの各々の位置の誤差の平均値を算出する誤差平均値算出手段、
前記誤差平均値算出手段によって算出された平均値が所定値以下であるかどうかを判断する位置誤差判断手段、および
前記位置誤差判断手段によって前記平均値が所定値以下であると判断されるまで、前記人間位置検出手段、前記軌跡生成手段、前記軌跡同定手段、前記センサ制約算出手段、および前記推定手段を繰り返し機能させる繰り返し制御手段をさらに備える、請求項3記載の距離センサのキャリブレーション装置。
Position error calculating means for calculating an error of the position of each of the plurality of distance sensors estimated by the estimating means based on the variance calculated by the dispersion calculating means;
An error average value calculating means for calculating an average value of errors of the respective positions of the plurality of distance sensors calculated by the position error calculating means;
Position error determination means for determining whether the average value calculated by the error average value calculation means is less than or equal to a predetermined value; and until the position error determination means determines that the average value is less than or equal to a predetermined value. 4. The distance sensor calibration apparatus according to claim 3, further comprising a repeat control unit that repeatedly functions the human position detection unit, the track generation unit, the track identification unit, the sensor constraint calculation unit, and the estimation unit.
或る環境に配置され、一定の角度毎の距離を検出する複数の距離センサの位置および向きをキャリブレーションする、距離センサのキャリブレーション装置のキャリブレーションプログラムであって、
前記キャリブレーション装置のプロセッサに、
前記複数の距離センサの出力に基づいて、当該距離センサ毎に、前記或る環境内の人間の位置を検出する人間位置検出ステップ、
前記人間位置検出ステップによって検出された人間の位置に基づいて、前記距離センサ毎に、当該人間の移動軌跡を生成する軌跡生成ステップ、
前記軌跡生成ステップによって前記距離センサ毎に生成された移動軌跡を、当該移動軌跡の特徴に基づいて、異なる2つの前記距離センサ間で同定する軌跡同定ステップ、
前記軌跡同定ステップによって同定された移動軌跡において、任意に選択された2つの人間の位置に基づいて、前記2つの距離センサ間の距離および当該2つの距離センサの相対的な向きについてのセンサ制約を、当該同定された移動軌跡を生成した前記2つの距離センサの組毎に算出するセンサ制約算出ステップ、および
前記センサ制約算出ステップによって算出されたセンサ制約を用いて、前記或る環境における前記複数の距離センサの位置および向きを推定する推定ステップを実行させる、キャリブレーションプログラム。
A calibration program for a calibration apparatus for a distance sensor, which is arranged in a certain environment and calibrates the positions and orientations of a plurality of distance sensors that detect a distance at a certain angle,
In the processor of the calibration device,
A human position detecting step for detecting a human position in the certain environment for each distance sensor based on outputs of the plurality of distance sensors;
A trajectory generating step for generating a human trajectory for each of the distance sensors based on the human position detected by the human position detecting step;
A trajectory identification step for identifying the movement trajectory generated for each of the distance sensors by the trajectory generation step between two different distance sensors based on the characteristics of the movement trajectory;
In the movement locus identified by the locus identification step, sensor constraints on the distance between the two distance sensors and the relative orientation of the two distance sensors are set based on the positions of two arbitrarily selected humans. A sensor constraint calculation step that calculates each set of the two distance sensors that generated the identified movement trajectory, and the sensor constraint calculated by the sensor constraint calculation step. A calibration program for executing an estimation step for estimating the position and orientation of a distance sensor.
或る環境に配置され、一定の角度毎の距離を検出する複数の距離センサの位置および向きをキャリブレーションする、距離センサのキャリブレーション方法であって、
(a)前記複数の距離センサの出力に基づいて、当該距離センサ毎に、前記或る環境内の人間の位置を検出し、
(b)前記ステップ(a)によって検出された人間の位置に基づいて、前記距離センサ毎に、当該人間の移動軌跡を生成し、
(c)前記ステップ(b)によって前記距離センサ毎に生成された移動軌跡を、当該移動軌跡の特徴に基づいて、異なる2つの前記距離センサ間で同定し、
(d)前記ステップ(c)によって同定された移動軌跡において、任意に選択された2つの人間の位置に基づいて、前記2つの距離センサ間の距離および当該2つの距離センサの相対的な向きについてのセンサ制約を、当該同定された移動軌跡を生成した前記2つの距離センサの組毎に算出し、そして、
(e)前記ステップ(d)によって算出されたセンサ制約を用いて、前記或る環境における前記複数の距離センサの位置および向きを推定する推定手段を備える、距離センサのキャリブレーション方法。
A distance sensor calibration method for calibrating positions and orientations of a plurality of distance sensors that are arranged in a certain environment and detect a distance at a certain angle,
(A) detecting the position of a person in the certain environment for each distance sensor based on the outputs of the plurality of distance sensors;
(B) Based on the position of the person detected in step (a), for each distance sensor, generate a movement trajectory of the person,
(C) identifying the movement trajectory generated for each of the distance sensors by the step (b) between two different distance sensors based on the characteristics of the movement trajectory;
(D) About the distance between the two distance sensors and the relative orientation of the two distance sensors based on the positions of two arbitrarily selected humans in the movement trajectory identified in the step (c). For each set of the two distance sensors that generated the identified movement trajectory, and
(E) A distance sensor calibration method comprising: estimation means for estimating the positions and orientations of the plurality of distance sensors in the certain environment using the sensor constraint calculated in the step (d).
JP2010234159A 2010-10-19 2010-10-19 Distance sensor calibration apparatus, calibration program, and calibration method Active JP5712373B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010234159A JP5712373B2 (en) 2010-10-19 2010-10-19 Distance sensor calibration apparatus, calibration program, and calibration method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010234159A JP5712373B2 (en) 2010-10-19 2010-10-19 Distance sensor calibration apparatus, calibration program, and calibration method

Publications (2)

Publication Number Publication Date
JP2012088135A true JP2012088135A (en) 2012-05-10
JP5712373B2 JP5712373B2 (en) 2015-05-07

Family

ID=46259909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010234159A Active JP5712373B2 (en) 2010-10-19 2010-10-19 Distance sensor calibration apparatus, calibration program, and calibration method

Country Status (1)

Country Link
JP (1) JP5712373B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015098971A1 (en) * 2013-12-27 2015-07-02 株式会社国際電気通信基礎技術研究所 Calibration device, calibration method, and calibration program
JP2016009281A (en) * 2014-06-24 2016-01-18 株式会社日立製作所 Human flow analysis system
JP2017040530A (en) * 2015-08-19 2017-02-23 株式会社日立製作所 Moving body measurement system
CN107314758A (en) * 2017-09-01 2017-11-03 贵州省质安交通工程监控检测中心有限责任公司 A kind of side slope skew monitoring device and monitoring method
KR101932041B1 (en) * 2017-03-02 2018-12-24 충북대학교 산학협력단 Method and apparatus for calibration of dual Lidar sensors
WO2020042426A1 (en) * 2018-08-27 2020-03-05 珠海市一微半导体有限公司 Method for detecting straight side by robot, and method for screening reference wall side by cleaning robot
JP2021179376A (en) * 2020-05-14 2021-11-18 株式会社日立エルジーデータストレージ Ranging system, and ranging sensor calibration method
US11410059B2 (en) 2014-09-17 2022-08-09 Kabushiki Kaisha Toshiba Bias estimation apparatus and method and failure diagnosis apparatus and method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07110376A (en) * 1993-10-13 1995-04-25 Mitsubishi Electric Corp Method for identifying position measurement systems
JPH08271619A (en) * 1995-03-28 1996-10-18 Oki Electric Ind Co Ltd Radar information calibration apparatus
JPH10319108A (en) * 1997-05-20 1998-12-04 Mitsubishi Electric Corp Bias error estimation device of sensor posture and position
JP2006007940A (en) * 2004-06-24 2006-01-12 Fujitsu Ltd Calibration method of radar device, radar device, monitoring system, and program
JP2007309747A (en) * 2006-05-17 2007-11-29 Mitsubishi Electric Corp Radar disposition calculator and method
JP2008525799A (en) * 2004-12-22 2008-07-17 レイセオン・カンパニー Systems and techniques for calibrating radar arrays
JP2008275442A (en) * 2007-04-27 2008-11-13 Univ Of Tokyo Laser measurement system and method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07110376A (en) * 1993-10-13 1995-04-25 Mitsubishi Electric Corp Method for identifying position measurement systems
JPH08271619A (en) * 1995-03-28 1996-10-18 Oki Electric Ind Co Ltd Radar information calibration apparatus
JPH10319108A (en) * 1997-05-20 1998-12-04 Mitsubishi Electric Corp Bias error estimation device of sensor posture and position
JP2006007940A (en) * 2004-06-24 2006-01-12 Fujitsu Ltd Calibration method of radar device, radar device, monitoring system, and program
JP2008525799A (en) * 2004-12-22 2008-07-17 レイセオン・カンパニー Systems and techniques for calibrating radar arrays
JP2007309747A (en) * 2006-05-17 2007-11-29 Mitsubishi Electric Corp Radar disposition calculator and method
JP2008275442A (en) * 2007-04-27 2008-11-13 Univ Of Tokyo Laser measurement system and method

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10324172B2 (en) 2013-12-27 2019-06-18 Advanced Telecommunications Research Institute International Calibration apparatus, calibration method and calibration program
JP2015127664A (en) * 2013-12-27 2015-07-09 株式会社国際電気通信基礎技術研究所 Calibration device, calibration method, and calibration program
CN105874350A (en) * 2013-12-27 2016-08-17 株式会社国际电气通信基础技术研究所 Calibration device, calibration method, and calibration program
WO2015098971A1 (en) * 2013-12-27 2015-07-02 株式会社国際電気通信基礎技術研究所 Calibration device, calibration method, and calibration program
JP2016009281A (en) * 2014-06-24 2016-01-18 株式会社日立製作所 Human flow analysis system
US11410059B2 (en) 2014-09-17 2022-08-09 Kabushiki Kaisha Toshiba Bias estimation apparatus and method and failure diagnosis apparatus and method
JP2017040530A (en) * 2015-08-19 2017-02-23 株式会社日立製作所 Moving body measurement system
KR101932041B1 (en) * 2017-03-02 2018-12-24 충북대학교 산학협력단 Method and apparatus for calibration of dual Lidar sensors
CN107314758A (en) * 2017-09-01 2017-11-03 贵州省质安交通工程监控检测中心有限责任公司 A kind of side slope skew monitoring device and monitoring method
WO2020042426A1 (en) * 2018-08-27 2020-03-05 珠海市一微半导体有限公司 Method for detecting straight side by robot, and method for screening reference wall side by cleaning robot
JP2021179376A (en) * 2020-05-14 2021-11-18 株式会社日立エルジーデータストレージ Ranging system, and ranging sensor calibration method
CN113671513A (en) * 2020-05-14 2021-11-19 日立乐金光科技株式会社 Distance measuring system and calibration method of distance measuring sensor
JP7286586B2 (en) 2020-05-14 2023-06-05 株式会社日立エルジーデータストレージ Ranging system and ranging sensor calibration method
CN113671513B (en) * 2020-05-14 2024-02-23 日立乐金光科技株式会社 Ranging system and calibration method of ranging sensor

Also Published As

Publication number Publication date
JP5712373B2 (en) 2015-05-07

Similar Documents

Publication Publication Date Title
JP5712373B2 (en) Distance sensor calibration apparatus, calibration program, and calibration method
KR100877072B1 (en) Method and apparatus of building map for a mobile robot and cleaning simultaneously
Lindstrom et al. Detecting and tracking moving objects from a mobile platform using a laser range scanner
Glas et al. Laser tracking of human body motion using adaptive shape modeling
KR20190082069A (en) Method, apparatus and device for determining lane lines in road
JP5950122B2 (en) Calibration apparatus, calibration method, and calibration program
JP6296043B2 (en) Measuring device, measuring method and measuring program
KR101789217B1 (en) Apparatus and Method for Building Indoor Map using Geometric Features and Probability Method
JP2015519624A5 (en)
JP5728815B2 (en) Object detection device
JP5278721B2 (en) Laser measurement system and method
CN105283775A (en) Mobile robot and sound source position estimation system
JPH07116981A (en) Guiding device for mobile robot
JP2009168578A (en) Measurement device and measurement method
CN109917788A (en) A kind of control method and device of Robot wall walking
JP2013109325A (en) Map creation method using group of intelligent robots and device for the same
TWI772743B (en) Information processing device and mobile robot
CN111164380A (en) Method for determining orientation of robot, orientation determining apparatus for robot, and robot
CN108873014A (en) Mirror surface detection method and device based on laser radar
CN114442625A (en) Environment map construction method and device based on multi-strategy joint control agent
Amigoni et al. A mobile robot mapping system with an information-based exploration strategy
US11911213B2 (en) Techniques for determining ultrasound probe motion
Mitsugami et al. Estimation of 3D gazed position using view lines
KR102537328B1 (en) Lidar sensor-based breast modeling and breast measurement method and device
Norazman et al. Landmark scanning by using infrared sensor for simultaneous localization and mapping application

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150123

R150 Certificate of patent or registration of utility model

Ref document number: 5712373

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250