JP6035671B2 - Device state identification method and apparatus - Google Patents

Device state identification method and apparatus Download PDF

Info

Publication number
JP6035671B2
JP6035671B2 JP2012214097A JP2012214097A JP6035671B2 JP 6035671 B2 JP6035671 B2 JP 6035671B2 JP 2012214097 A JP2012214097 A JP 2012214097A JP 2012214097 A JP2012214097 A JP 2012214097A JP 6035671 B2 JP6035671 B2 JP 6035671B2
Authority
JP
Japan
Prior art keywords
state
devices
covariance
state quantity
itself
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012214097A
Other languages
Japanese (ja)
Other versions
JP2014066679A (en
Inventor
周平 江本
周平 江本
肇 坂野
肇 坂野
光治 曽根原
光治 曽根原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2012214097A priority Critical patent/JP6035671B2/en
Publication of JP2014066679A publication Critical patent/JP2014066679A/en
Application granted granted Critical
Publication of JP6035671B2 publication Critical patent/JP6035671B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、複数のデバイス(例えば移動ロボット)の状態を同定するデバイスの状態同定方法と装置に関する。   The present invention relates to a device state identification method and apparatus for identifying states of a plurality of devices (for example, mobile robots).

複数の移動デバイス(例えば移動ロボット)を制御したり、人を誘導したりするために、移動デバイスや目標物の位置や姿勢などの状態を同定する技術が知られている。一般的な位置同定手段では、以下のように、移動デバイスの位置や姿勢に関する様々な情報を計測する。   In order to control a plurality of mobile devices (for example, mobile robots) or to guide a person, there is known a technique for identifying states such as the positions and postures of mobile devices and targets. In general position identification means, various information relating to the position and orientation of the mobile device are measured as follows.

手段A:移動デバイス上に設置したGPS、エンコーダ、ジャイロセンサによって、移動デバイスの位置、速度、加速度などを計測する。
手段B:移動デバイス上の外界センサ(カメラやレーザセンサなど)によって、周囲の物体の方向や距離を計測する。或いは、移動デバイスの外部にある外界センサによって移動デバイスの方向や距離を計測する。
これらの情報を、ベイズフィルタ(カルマンフィルタ、パーティクルフィルタなど)を用いて統合し移動デバイスの位置や姿勢を同定する。
Means A: The position, speed, acceleration, and the like of the mobile device are measured by a GPS, encoder, and gyro sensor installed on the mobile device.
Means B: The direction and distance of surrounding objects are measured by an external sensor (such as a camera or a laser sensor) on the moving device. Alternatively, the direction and distance of the moving device are measured by an external sensor outside the moving device.
These pieces of information are integrated using a Bayes filter (Kalman filter, particle filter, etc.) to identify the position and orientation of the mobile device.

また、手段Bは、計測側から見た計測対象の方向や距離といった相対関係を計測する。そのため、手段Bにおいて移動デバイスの位置を同定するには、周囲の物体の位置や、外部センサの位置や姿勢といった情報も必要となる。そこで、ベイズフィルタによって、これらの情報も含めて同定する同定手段1〜3がある。   The means B measures a relative relationship such as the direction and distance of the measurement object viewed from the measurement side. Therefore, in order to identify the position of the moving device in the means B, information such as the positions of surrounding objects and the positions and orientations of external sensors are also required. Therefore, there are identification means 1 to 3 for identifying with the Bayes filter including these pieces of information.

同定手段1は、移動デバイス上の外界センサを使って、周囲の物体(抽出したランドマーク、マーカーなど)の位置と、移動デバイスの位置を同時に推定するSLAM技術であり、例えば特許文献1に開示されている。
同定手段2は、同定手段1のSLAM技術を複数の移動デバイスで同時に行い、ランドマークの位置情報(マップ情報)を移動デバイス間で共有するものである。
同定手段3は、複数の移動デバイスが、互いに相対関係を計測し合い、双方の位置や姿勢を推定するものである。
The identification unit 1 is SLAM technology that simultaneously estimates the position of surrounding objects (extracted landmarks, markers, etc.) and the position of the moving device using an external sensor on the moving device. Has been.
The identification unit 2 performs the SLAM technique of the identification unit 1 simultaneously with a plurality of mobile devices, and shares landmark position information (map information) between the mobile devices.
The identification unit 3 is a device in which a plurality of mobile devices measure relative relationships with each other and estimate both positions and postures.

ここで、同定手段2や同定手段3では、エリア内に複数の移動センサや固定センサを配置する。このように、分散配置されたセンサの情報を、ベイズフィルタを用いて統合する場合、以下のような統合手段1〜3が考えられる。   Here, the identification means 2 and the identification means 3 arrange a plurality of movement sensors and fixed sensors in the area. Thus, when integrating the information of the sensors arranged in a distributed manner using a Bayes filter, the following integration means 1 to 3 are conceivable.

統合手段1は、各センサの情報を、1ヶ所の処理装置に集約して処理するものである。
統合手段2は、各センサがベイズフィルタによって処理し、処理した結果(推定した確率分布)を上位の統合ノードに送信する。統合ノードでは、確率分布の重ね合わせによって推定結果を統合するものである。この統合手段は、例えば特許文献2に開示されている。
統合手段3は、各センサ上で、情報型のカルマンフィルタ(情報フィルタ)による処理を行い、処理の際に算出した修正量を周囲のデバイス間で通信して統合するものである。この統合手段における情報フィルタは、ベイズフィルタにおける予測処理、修正処理のうち、修正処理が簡易になる手段である。すなわち各センサ上で算出した修正量を加算していくだけで、修正処理できる特徴がある。この統合手段は、例えば非特許文献1に開示されている。
The integration unit 1 collects and processes the information of each sensor in one processing device.
The integration unit 2 processes each sensor using a Bayes filter, and transmits the processing result (estimated probability distribution) to an upper integrated node. The integration node integrates the estimation results by overlapping probability distributions. This integration means is disclosed in Patent Document 2, for example.
The integration unit 3 performs processing by an information type Kalman filter (information filter) on each sensor, and communicates and integrates the correction amount calculated at the time of processing between peripheral devices. The information filter in the integration unit is a unit that simplifies the correction process among the prediction process and the correction process in the Bayes filter. That is, there is a feature that correction processing can be performed only by adding the correction amount calculated on each sensor. This integration means is disclosed in Non-Patent Document 1, for example.

特開2008−304268号公報JP 2008-304268 A 特開2011−197964号公報JP 2011-197964 A

H. Durrant−Whyte、M. Stevens.“Data Fusion in Decentralized Sensing Networks” Proceedings of the International Conference on Information Fusion、2001、pp.WeA3−19−24.H. Durrant-Whyte, M.M. Stevens. “Data Fusion in Decentralized Sensing Networks”, Proceedings of the International Conference on Information Fusion, 2001, pp. 199 WeA3-19-24.

統合手段1のように、センサの情報を1ヶ所に集約して統合処理する場合、以下のような問題がある。
(1)位置同定する移動デバイスの数が増えると、ベイズフィルタ処理における、1回あたりの観測更新の計算量が増加する。
(2)移動デバイスの数が増えると、統合する観測値が増える。そのため、観測更新の回数が増えて、計算負荷が高くなる。
(3)移動デバイスの数が増えると、計測結果を集約するための通信負荷が大きくなる。特に無線通信の場合、電波が直接届かないデバイス間で通信するには、中継機による転送処理(アドホック通信)が必要となり、通信負荷がさらに増える。
When integrating the sensor information in one place as in the integration unit 1, there are the following problems.
(1) When the number of mobile devices for position identification increases, the amount of calculation of observation update per time in Bayesian filter processing increases.
(2) As the number of mobile devices increases, the integrated observation values increase. As a result, the number of observation updates increases and the calculation load increases.
(3) When the number of mobile devices increases, the communication load for collecting the measurement results increases. In particular, in the case of wireless communication, in order to communicate between devices where radio waves do not reach directly, transfer processing (ad hoc communication) by a relay device is required, which further increases the communication load.

統合手段2では、各センサがベイズフィルタ処理をする分、統合ノードにおける計算量は軽減される。しかし、(2)に挙げた観測更新の回数については、解決されない。また、特許文献2では、統合ノードに情報を集約する通信が必要となる。従って、センサ数が多い場合や、センサと統合ノード間の通信に転送処理が必要な場合は、(3)の通信負荷が問題となる可能性がある。   In the integration unit 2, the amount of calculation in the integration node is reduced as much as each sensor performs Bayes filter processing. However, the number of observation updates listed in (2) is not solved. Moreover, in patent document 2, the communication which collects information on an integration node is required. Therefore, when the number of sensors is large or when transfer processing is necessary for communication between the sensors and the integration node, the communication load of (3) may be a problem.

統合手段3では、各センサ上でベイズフィルタ処理し、付近のデバイスとの通信(転送処理の要らない通信)のみで情報を統合する。しかし、情報フィルタの場合、予測処理が複雑となる。同定手段2のように、マップ情報のみ共有する場合は、各センサが予測するのは自身の状態(位置、速度など)のみで良い。一方、同定手段3では、他のセンサの状態も予測する必要がある。従って、移動デバイスが増えるにつれて、(1)に挙げた計算量が増加する。   The integration unit 3 performs Bayesian filter processing on each sensor and integrates information only by communication with nearby devices (communication that does not require transfer processing). However, in the case of an information filter, the prediction process is complicated. When only map information is shared as in the identification unit 2, each sensor may only predict its own state (position, speed, etc.). On the other hand, the identification means 3 needs to predict the states of other sensors. Therefore, as the number of mobile devices increases, the amount of calculation listed in (1) increases.

以上のように、同定手段3のような事例に対しては、全センサの状態を同時に予測、修正するようなベイズフィルタの枠組みしかなく、計算量や通信量の点で、デバイス(例えば移動ロボット)の増加に対応できない問題点があった。   As described above, for the case of the identification means 3, there is only a Bayesian filter framework that simultaneously predicts and corrects the state of all the sensors, and the device (for example, mobile robot) in terms of calculation amount and communication amount. ) Could not cope with the increase.

本発明は上述した問題点を解決するために創案されたものである。すなわち本発明の目的は、位置同定するデバイス(例えば移動ロボット)の数が増えても、計算負荷及び通信負荷の増加を大幅に抑制することができるデバイスの状態同定方法と装置を提供することにある。   The present invention has been developed to solve the above-described problems. That is, an object of the present invention is to provide a device state identification method and apparatus that can significantly suppress an increase in calculation load and communication load even if the number of devices (for example, mobile robots) for position identification increases. is there.

本発明によれば、位置、姿勢、速度、角速度又は加速度を状態量とする複数のデバイスを備え、
各デバイスは、他のデバイスの方向又は距離を観測する外界センサと、それ自身の状態量を推定し管理する状態推定部とを有し、各状態推定部により、
(A)自身の状態量とその分散及び共分散とを管理し、
(B)他のデバイスの状態量と自身の状態量との相関が高い相関情報に限定して管理し、
(C1)外界センサによる観測値に基づき、他のデバイスとの間で通信し、観測時刻における自身及び他のデバイスの状態量、その分散及び共分散、及び両者間の共分散を予測し、
(C2)予測された値と外界センサの観測値から自身及び他のデバイスの状態量、その分散及び共分散、及び両者間の共分散を修正し、
(C3)修正した結果を自身及び他のデバイスで共有する、ことを特徴とするデバイスの状態同定方法が提供される。
According to the present invention, it comprises a plurality of devices whose state quantity is position, posture, speed, angular velocity or acceleration,
Each device has an external sensor that observes the direction or distance of the other device, and a state estimation unit that estimates and manages its own state quantity.
(A) managing its own state quantity and its variance and covariance;
(B) Only the correlation information having a high correlation between the state quantity of another device and its own state quantity is managed,
(C1) Based on the observation value by the external sensor, communicate with other devices, predict the state quantity of itself and other devices at the observation time, their variance and covariance, and the covariance between them,
(C2) Correct the state quantity of itself and other devices, its variance and covariance, and the covariance between them from the predicted value and the observation value of the external sensor,
(C3) A device state identification method is provided, in which the corrected result is shared by itself and other devices.

本発明の実施形態によれば、前記デバイスは、移動可能な移動デバイスと、固定又は可搬な固定デバイスとからなり、
移動デバイス又は固定デバイスは、それ自身の位置、速度又は加速度を観測する内界センサを有し、各状態推定部により、
(D1)内界センサによる観測値が得られた観測時刻における自身の内部状態と分散及び共分散を予測し、
(D2)予測した予測値と内界センサの観測値から自身の状態量とその分散及び共分散を修正する。
According to an embodiment of the present invention, the device consists of a mobile device movable, fixed or portable fixing devices,
The mobile device or fixed device has an internal sensor for observing its own position, velocity or acceleration, and each state estimation unit
(D1) Predicting the internal state, variance and covariance of the own time at the observation time when the observed value by the internal sensor was obtained,
(D2) It modifies its own state quantity and its variance and covariance from the predicted value predicted and the observed value of the internal sensor.

また、前記相関が高い相関情報は、相関係数の絶対値の高い複数の相関情報である。   The correlation information having a high correlation is a plurality of correlation information having a high absolute value of the correlation coefficient.

また、各状態推定部は、相関情報を記憶する複数のメモリを有しており、
前記相関情報の相関係数を絶対値の高い順位の順で前記メモリに記憶し、
前記(B)において、前記順位の高い1又は複数のメモリ内の相関情報のみを管理する。
Each state estimating unit has a plurality of memories for storing correlation information,
Storing the correlation coefficient of the correlation information in the memory in the descending order of absolute value;
In (B), only the correlation information in the one or more memories having the higher rank is managed.

また、前記相関が高い相関情報は、
(A)外界センサによって観測したことのある他のデバイスとの相関情報、又は、
(B)外界センサによって自身を観測したことのある他のデバイスとの相関情報を含む。
The correlation information having a high correlation is
(A) Correlation information with other devices that have been observed by external sensors, or
(B) It includes correlation information with other devices that have observed themselves with external sensors.

また、前記相関が高い相関情報は、
(A)絶対値の小さい共分散、
(B)一定時間、外界センサ16によって計測していないデバイスのうち、相手の外界センサ16によって自身が計測されていないデバイスとの共分散、
(C)自身の内部状態を修正した時、同時に修正しなかったデバイスとの共分散、又は、
(D)通信不能、或いはアドホック通信の場合に通信ホップ数が予め設定した数より多いデバイスとの共分散、を除外する。
The correlation information having a high correlation is
(A) a covariance with a small absolute value,
(B) Covariance with devices that are not measured by the external sensor 16 among the devices that are not measured by the external sensor 16 for a certain period of time,
(C) When the internal state of the device is modified, covariance with the device that is not modified at the same time, or
(D) In the case of communication failure or ad hoc communication, covariance with a device having a communication hop count greater than a preset number is excluded.

また本発明によれば、位置、姿勢、速度、角速度又は加速度を状態量とする複数のデバイスを備え、
各デバイスは、他のデバイスの方向又は距離を観測する外界センサと、それ自身の状態量を推定し管理する状態推定部とを有し、各状態推定部により、
(A)自身の状態量とその分散及び共分散とを管理し、
(B)他のデバイスの状態量と自身の状態量との相関が高い相関情報に限定して管理し、
(C1)外界センサによる観測値に基づき、他のデバイスとの間で通信し、観測時刻における自身及び他のデバイスの状態量、その分散及び共分散、及び両者間の共分散を予測し、
(C2)予測された値と外界センサの観測値から自身及び他のデバイスの状態量、その分散及び共分散、及び両者間の共分散を修正し、
(C3)修正した結果を自身及び他のデバイスで共有する、ことを特徴とするデバイスの状態同定装置が提供される。
In addition, according to the present invention, it comprises a plurality of devices having a state quantity of position, posture, speed, angular velocity or acceleration,
Each device has an external sensor that observes the direction or distance of the other device, and a state estimation unit that estimates and manages its own state quantity.
(A) managing its own state quantity and its variance and covariance;
(B) Only the correlation information having a high correlation between the state quantity of another device and its own state quantity is managed,
(C1) Based on the observation value by the external sensor, communicate with other devices, predict the state quantity of itself and other devices at the observation time, their variance and covariance, and the covariance between them,
(C2) Correct the state quantity of itself and other devices, its variance and covariance, and the covariance between them from the predicted value and the observation value of the external sensor,
(C3) A device state identification apparatus is provided, in which the corrected result is shared by itself and other devices.

上記本発明の方法と装置によれば、(C1)(C2)の更新処理の際、観測に関与した(自身及び他の)デバイスの状態のみ予測し修正するため、デバイス(例えば移動ロボット)の総数が増えても、計算量が増加しない。   According to the above-described method and apparatus of the present invention, during the update process of (C1) and (C2), only the state of the device (self and other) involved in the observation is predicted and corrected. Even if the total number increases, the calculation amount does not increase.

また外界センサで計測したデバイスがそれぞれ更新処理するため、システム全体で観測値が得られる頻度が増えても、各デバイスが更新処理する頻度は増加しない。   In addition, since the devices measured by the external sensor are each updated, the frequency at which each device performs the update processing does not increase even if the frequency at which the observation value is obtained in the entire system increases.

また(C1)において観測に関与した(自身及び他の)デバイスとの間でのみ通信するため、通信負荷が1ヶ所に集中しない。また、外界センサで観測したデバイスと、観測されたデバイスとの間は、物理的な距離が近く、間に遮蔽物がない状況にある。そのため、両者は直接電波が届く可能性が高く、転送処理の要らない通信になりやすい。従って、アドホック通信の場合は、通信負荷が少ない。   In addition, since communication is performed only with (self and other) devices involved in the observation in (C1), the communication load is not concentrated in one place. Moreover, the physical distance between the device observed by the external sensor and the observed device is close, and there is no shield between them. For this reason, there is a high possibility that both of them will receive radio waves directly, and communication that does not require transfer processing is likely to occur. Therefore, in the case of ad hoc communication, the communication load is small.

また各デバイスは、自身の内部状態推定結果を、通信を介することなく参照できる。例えば、デバイスとして移動ロボットの制御に用いる場合、通信遅れのない最新の推定結果を使って制御できるため、制御の性能が上がる。   Each device can refer to its internal state estimation result without communication. For example, when used as a device for controlling a mobile robot, the latest estimation result without communication delay can be used for control, so that the control performance is improved.

また各デバイスが個別に予測処理するため、他のデバイスの運動モデルや内部状態を把握する必要がない。従って、それぞれのデバイスごとに、運動モデルや、推定したい状態量を自由に設定できる。
Moreover, since each device performs prediction processing individually, it is not necessary to grasp the motion model and internal state of other devices. Therefore, a motion model and a state quantity to be estimated can be freely set for each device.

本発明の使用例を示す図である。It is a figure which shows the usage example of this invention. 移動デバイスの構成例を示す図である。It is a figure which shows the structural example of a mobile device. 固定デバイスの構成例を示す図である。It is a figure which shows the structural example of a fixed device. 状態推定部による状態同定方法を示すフロー図である。It is a flowchart which shows the state identification method by a state estimation part.

本発明の好ましい実施形態を図面に基づいて説明する。なお、各図において共通する部分には同一の符号を付し、重複した説明を省略する。   A preferred embodiment of the present invention will be described with reference to the drawings. In addition, the same code | symbol is attached | subjected to the common part in each figure, and the overlapping description is abbreviate | omitted.

図1は、本発明の使用例を示す図である。
この図に示すように、本発明の状態同定装置は、位置、姿勢、速度、又は加速度を状態量とする複数のデバイスA、B、Cを備える。
FIG. 1 is a diagram showing an example of use of the present invention.
As shown in this figure, the state identification device of the present invention includes a plurality of devices A, B, and C whose state quantities are position, posture, speed, or acceleration.

この例では、デバイスA、Bは、予め設定したエリア内で移動可能なデバイス(例えば移動ロボット)である。また、デバイスCは、予め設定したエリア内に固定又は可搬に位置するデバイス(例えば1以上の固定デバイス)である。
以下、デバイスの区別が必要な場合、移動可能なデバイスを「移動デバイス」、固定又は可搬なデバイスを「固定デバイス」と呼ぶ。
In this example, devices A and B are devices (for example, mobile robots) that can move within a preset area. The device C is a device (e.g., one or more fixed devices) located in a fixed or portable to preset area.
Hereinafter, when distinguishing device is required, "mobile device" movable devices, fixed or portable devices is referred to as a "fixation device".

本発明の状態同定装置は、これらのデバイスA、B、Cの状態量(位置、姿勢、速度、又は加速度)を求める。得られた状態量の推定結果は、上位の制御装置1を介して、デバイスA、B、Cの制御や、エリアの地図作成、監視などに用いる。
なお、上位の制御装置1と各デバイスA、B、Cとの通信は、後述する内界センサ10及び外界センサ16の計測周期より長く、通信負荷の小さい頻度(例えば1〜10分間隔)で実施するのがよい。
The state identification apparatus of the present invention obtains the state quantities (position, posture, speed, or acceleration) of these devices A, B, and C. The obtained estimation result of the state quantity is used for controlling the devices A, B, and C, creating an area map, monitoring, and the like via the host control device 1.
The communication between the host control device 1 and each of the devices A, B, and C is longer than the measurement cycle of the inner world sensor 10 and the outer world sensor 16 described later, and with a low communication load frequency (for example, at intervals of 1 to 10 minutes). It is good to carry out.

図2は、移動デバイスA、Bの構成例を示す図である。
この図において、各移動デバイスA、B(例えば移動ロボット)は、内界センサ10及び外界センサ16を備える。
FIG. 2 is a diagram illustrating a configuration example of the mobile devices A and B.
In this figure, each mobile device A, B (for example, a mobile robot) includes an internal sensor 10 and an external sensor 16.

内界センサ10は、この例では移動デバイスA、Bの角速度又は加速度を計測するジャイロセンサ11、移動デバイスA、Bの位置と姿勢を計測するGPSコンパス12、各移動デバイスA、Bに設けられた車輪の回転量を計測する車輪用エンコーダ13、及び各移動デバイスA、Bに設けられた車輪のステア角計測用のステア角エンコーダ14からなり、それ自身(すなわち移動デバイスA、B)の位置、速度又は加速度などを観測する。   In this example, the internal sensor 10 is provided in the gyro sensor 11 that measures the angular velocity or acceleration of the mobile devices A and B, the GPS compass 12 that measures the position and orientation of the mobile devices A and B, and the mobile devices A and B. A wheel encoder 13 for measuring the amount of rotation of the wheel and a steering angle encoder 14 for measuring the steering angle of the wheel provided in each of the moving devices A and B, and the position of itself (that is, the moving devices A and B). Observe the speed or acceleration.

外界センサ16は、この例ではカメラ17及び周囲の形状を計測するレーザセンサ18からなり、他のデバイスA、B、又はCの方向又は距離を観測する。   In this example, the external sensor 16 includes a camera 17 and a laser sensor 18 that measures a surrounding shape, and observes the direction or distance of another device A, B, or C.

図2において、各移動デバイスA、Bはさらに、移動のためのロボット駆動部21、ロボット駆動部21を制御する車両制御部22、各移動デバイスA、Bの目標軌道を算出する行動計画部23、内界センサ10及び外界センサ16のセンサ処理を行う計測部24を備える。   In FIG. 2, each of the moving devices A and B further includes a robot drive unit 21 for movement, a vehicle control unit 22 that controls the robot drive unit 21, and an action plan unit 23 that calculates a target trajectory of each of the mobile devices A and B. The measuring unit 24 that performs sensor processing of the inner world sensor 10 and the outer world sensor 16 is provided.

行動計画部23は、一定の制御周期で動作するリアルタイム処理系であり、ロボット上予測部23aを使って、各移動デバイスA、Bの現在又は未来の位置や姿勢を予測し、軌道生成部23bによる各移動デバイスA、Bの目標軌道の算出に用いる。また、衝突回避の場合など、必要に応じて、各移動デバイスA、Bの現在又は未来の位置や姿勢を予測する。   The action planning unit 23 is a real-time processing system that operates at a constant control cycle, and predicts the current or future position or posture of each of the mobile devices A and B using the on-robot prediction unit 23a, and the trajectory generation unit 23b. Is used to calculate the target trajectories of the mobile devices A and B. In addition, the current or future position or posture of each mobile device A or B is predicted as necessary, such as in the case of collision avoidance.

ロボット上予測部23aは、状態推定部30(後述する)に記録されている内部状態Xのうち、デバイス制御に関連する状態量を、状態遷移方程式f(X)を使って、指定された時刻まで遷移させる計算を行う。ロボット上予測部23aは、リアルタイム制御の時間制約下で予測処理できるように設計される。   The on-robot prediction unit 23a uses the state transition equation f (X) to specify a state quantity related to device control among the internal states X recorded in the state estimation unit 30 (described later) at a specified time. Calculate to make a transition. The on-robot prediction unit 23a is designed to perform prediction processing under the time constraint of real-time control.

車両制御部22は、一定の制御周期で動作するリアルタイム処理系であり、移動デバイスA、Bが目標軌道に沿って動くように、指令値算出部22aで指令値を算出し、ロボット駆動部21を制御する。   The vehicle control unit 22 is a real-time processing system that operates at a constant control cycle. The command value calculation unit 22a calculates a command value so that the mobile devices A and B move along the target trajectory, and the robot drive unit 21 To control.

通信部25は、他のデバイスA、B、又はCとの間のデータ通信機能を有する。具体的には、イーサネット(登録商標)やUSBなどの有線通信や、Bluetooth(登録商標)、無線LAN、などの無線通信を行うデバイスを用いる。   The communication unit 25 has a data communication function with another device A, B, or C. Specifically, a device that performs wired communication such as Ethernet (registered trademark) or USB, or wireless communication such as Bluetooth (registered trademark) or wireless LAN is used.

図3は、固定デバイスCの構成例を示す図である。
この図において、固定デバイスCは、移動デバイスA、Bと同様に、内界センサ10及び外界センサ16を備える。
この例における内界センサ10は、GPSコンパス12である。また、外界センサ16は、この例ではカメラ17及びレーザセンサ18からなり、他のデバイスA、B、又はCの方向又は距離を観測する。
FIG. 3 is a diagram illustrating a configuration example of the fixed device C.
In this figure, the fixed device C includes an inner world sensor 10 and an outer world sensor 16 as in the case of the moving devices A and B.
The internal sensor 10 in this example is a GPS compass 12. In addition, the external sensor 16 includes a camera 17 and a laser sensor 18 in this example, and observes the direction or distance of another device A, B, or C.

また、固定デバイスCは、予測部26aとディスプレイ26bからなる表示部26を備える。
予測部26aは、状態推定部30(後述する)に記録されている内部状態Xのうち、デバイス制御に関連する状態量を、状態遷移方程式f(X)を使って、指定された時刻まで遷移させる計算を行う。予測部26aはロボット上予測部23aと同様に、リアルタイム制御の時間制約下で予測処理できるように設計される。
ディスプレイ26bは、予測部26aで予測した状態量を表示する。
その他の構成は図2と同様である。
The fixed device C includes a display unit 26 including a prediction unit 26a and a display 26b.
The prediction unit 26a uses the state transition equation f (X) to transition a state quantity related to device control from the internal state X recorded in the state estimation unit 30 (described later) to a specified time. Perform a calculation. Like the on-robot prediction unit 23a, the prediction unit 26a is designed to perform prediction processing under the time constraint of real-time control.
The display 26b displays the state quantity predicted by the prediction unit 26a.
Other configurations are the same as those in FIG.

図2、図3において、デバイスA、B、Cは、さらに、それ自身の状態量を推定し管理する状態推定部30を備える。   2 and 3, the devices A, B, and C further include a state estimation unit 30 that estimates and manages its own state quantity.

図4は、状態推定部30による状態同定方法を示すフロー図である。
この図に示すように、状態推定部30による状態同定方法は、(S1)〜(S7)の各ステップ(工程)からなる。
以下、デバイスAの状態推定部30について説明する。この場合、「自身」とはデバイスAを意味する。
なお、デバイスB、Cの場合も同様である。
FIG. 4 is a flowchart showing a state identification method by the state estimation unit 30.
As shown in this figure, the state identification method by the state estimation unit 30 includes steps (steps) (S1) to (S7).
Hereinafter, the state estimation unit 30 of the device A will be described. In this case, “self” means device A.
The same applies to the devices B and C.

(S1)では、デバイスAは、自身(デバイスA)の状態量とその分散及び共分散とを管理する。
すなわち、デバイスAは、自身の位置、姿勢、速度、加速度などの状態量とその分散及び共分散を、確率分布として管理する。
In (S1), device A manages its own (device A) state quantity and its variance and covariance.
That is, the device A manages the state quantity such as its own position, posture, velocity, acceleration, and its variance and covariance as a probability distribution.

(S2)では、他のデバイスB又はCの状態量と自身(デバイスA)の状態量との相関が高い相関情報に限定して管理する。
すなわち、デバイスAは、他のデバイスB又はCの状態量と自身の状態量との相関を示す情報(例えば共分散)を、必要なものだけ管理する。なお、他のデバイスB又はCは複数であってもよい。
In (S2), management is limited to correlation information in which the correlation between the state quantity of the other device B or C and the state quantity of itself (device A) is high.
That is, the device A manages only necessary information (for example, covariance) indicating the correlation between the state quantity of the other device B or C and its own state quantity. There may be a plurality of other devices B or C.

(S2)における「相関が高い相関情報」は、例えば相関係数の絶対値の高い複数の相関情報である。
すなわち、デバイスAの各状態推定部30は、相関情報を記憶する複数のメモリ(図示せず)を有しており、他のデバイスB又はCとの相関情報の相関係数を絶対値の高い順位の順でメモリに記憶する。
また、(S2)において、記憶した順位の高い1又は複数のメモリ内の相関情報のみを管理する。
The “correlation information with high correlation” in (S2) is a plurality of correlation information having a high absolute value of the correlation coefficient, for example.
That is, each state estimation unit 30 of the device A has a plurality of memories (not shown) for storing correlation information, and the correlation coefficient of the correlation information with another device B or C has a high absolute value. Store in memory in order of rank.
Further, in (S2), only the correlation information in one or a plurality of memories having a higher stored order is managed.

(S2)における「相関が高い相関情報」は、下記の(A)又は(B)を含むことが好ましい。
(A)外界センサによって観測したことのある他のデバイスとの相関情報、
(B)外界センサによって自身(デバイスA)を観測したことのある他のデバイスとの相関情報。
The “correlation information with high correlation” in (S2) preferably includes the following (A) or (B).
(A) Correlation information with other devices that have been observed by external sensors
(B) Correlation information with other devices that have observed themselves (device A) by an external sensor.

また、(S2)における「相関が高い相関情報」は、下記の(A)(B)(C)又は(D)を除外することが好ましい。
(A)絶対値の小さい共分散。これは例えば、共分散行列の各成分の絶対値の総和や平均などを比較して判定することができる。
(B)一定時間、外界センサ16によって計測していないデバイスのうち、相手の外界センサ16によって自身が計測されていないデバイスとの共分散。
(C)自身の内部状態を修正した時、同時に修正しなかったデバイスとの共分散。例えば、デバイスAがデバイスBを観測した場合、デバイスB以外との共分散を全て管理対象から除外する。
(D)通信不能、或いはアドホック通信の場合に通信ホップ数が予め設定した数より多いデバイスとの共分散。
Moreover, it is preferable to exclude the following (A) (B) (C) or (D) from "correlation information with high correlation" in (S2).
(A) Covariance with a small absolute value. This can be determined, for example, by comparing the sum or average of the absolute values of the components of the covariance matrix.
(B) Covariance with devices that have not been measured by the external sensor 16 among the devices that have not been measured by the external sensor 16 for a certain period of time.
(C) Covariance with devices that have not been modified at the same time when their internal state is modified. For example, when device A observes device B, all covariances with devices other than device B are excluded from management targets.
(D) Covariance with a device having a communication hop count greater than a preset number in the case of communication failure or ad hoc communication.

上述した(S1)と(S2)は、この順で実施するのが好ましいが、並行して実施してもよい。
また、(S1)と(S2)は、常時、リアルタイムで実施するのがよい。
(S1) and (S2) described above are preferably performed in this order, but may be performed in parallel.
Further, (S1) and (S2) are preferably performed in real time at all times.

(S3)では、内界センサ10による観測値が得られた観測時刻における自身(デバイスA)の内部状態と分散及び共分散を予測する。
(S4)では、予測した予測値と内界センサ10の観測値から自身(デバイスA)の状態量とその分散及び共分散を修正する。
(S3)(S4)は、内界センサ10による相対的に短い観測サイクル(例えば1〜10msec)毎に繰り返し実施する。
In (S3), the internal state, dispersion, and covariance of itself (device A) at the observation time when the observation value obtained by the internal sensor 10 is obtained are predicted.
In (S4), the state quantity, its variance and covariance of itself (device A) are corrected from the predicted value predicted and the observed value of the internal sensor 10.
(S3) (S4) is repeatedly performed every relatively short observation cycle (for example, 1 to 10 msec) by the internal sensor 10.

(S5)では、他のデバイスA、B、又はCとの間で通信し、外界センサ16による観測値が得られた観測時刻における自身(デバイスA)及び他のデバイスA、B、又はCの状態量、その分散及び共分散、及び両者間の共分散を予測する。   In (S5), it communicates with another device A, B, or C, and the device (device A) and the other device A, B, or C at the observation time when the observation value by the external sensor 16 is obtained. Predict the state quantity, its variance and covariance, and the covariance between them.

例えば、「観測した相手(B、又はCのうちの1つ)のみ」と通信して、観測した対象のデバイスの状態量、分散・共分散、両者間の共分散を予測する。
さらに、自身との相関が高い他のデバイスとも通信して、デバイスの状態量、分散・共分散、両者間の共分散を予測するのがよい。
次いで、以下(S6)(S7)の通り、予測値を修正して、共有する。
For example, it communicates with “only the observed partner (one of B or C)” and predicts the state quantity, dispersion / covariance, and covariance between the two of the observed devices.
Furthermore, it is preferable to communicate with other devices having a high correlation with the device to predict the state quantity of the device, the variance / covariance, and the covariance between the two.
Next, the predicted value is corrected and shared as described below (S6) (S7).

通信するデータは、例えば、以下の(1)(2)又は(3)である。
(1)他のデバイス上で予測した、他のデバイスの状態量。
(2)他のデバイス上で予測した、他のデバイスの分散及び共分散。
(3)他のデバイス上で予測した、両者間の共分散情報。
The data to be communicated is, for example, the following (1), (2), or (3).
(1) A state quantity of another device predicted on another device.
(2) Variance and covariance of other devices predicted on other devices.
(3) Covariance information predicted between other devices.

上記の(3)の「両者間の共分散情報」は、正確には、以下のように共分散×状態遷移行列になる。
(3−1)デバイスA、B間の共分散を共分散行列CovAB,tで表す。
(3−2)Δt後の共分散行列の予測値CovAB,t+Δtは以下の式(1)で表される。
CovAB,t+Δt=AAt・CovAB,t・ABt ・・・(1)
ここで、AAtはデバイスAの内部状態の状態遷移行列(デバイスAが管理)、ABt は他デバイスBの内部状態の状態遷移行列(デバイスBが管理)である。
本発明では,他のデバイスから式(1)のCovAB,t・ABt を通信で取得し、両者間の共分散を予測する。
The above-mentioned “covariance information between the two” in (3) is precisely a covariance × state transition matrix as follows.
(3-1) The covariance between devices A and B is represented by a covariance matrix Cov AB, t .
(3-2) The predicted value Cov AB, t + Δt of the covariance matrix after Δt is expressed by the following equation (1).
Cov AB, t + Δt = A At · Cov AB, t · A Bt T (1)
Here, A At is a state transition matrix of the internal state of the device A (managed by the device A), and A Bt T is a state transition matrix of the internal state of the other device B (managed by the device B).
In the present invention, Cov AB, t · A Bt T in the formula (1) is acquired from another device by communication, and the covariance between the two is predicted.

(S6)では、予測された値と外界センサ16の観測値から自身及び他のデバイスA、B、又はCの状態量、その分散及び共分散、及び両者間の共分散を修正する。
(S7)では、修正した結果を自身及び他のデバイスA、B、又はCで共有する。
(S5)〜(S7)は、外界センサ16による相対的に長い観測サイクル(例えば0.05〜1.0sec)毎に繰り返し実施する。
In (S6), the state quantity of itself and other devices A, B, or C, its variance and covariance, and the covariance between them are corrected from the predicted value and the observed value of the external sensor 16.
In (S7), the corrected result is shared by itself and other devices A, B, or C.
(S5) to (S7) are repeatedly performed every relatively long observation cycle (for example, 0.05 to 1.0 sec) by the external sensor 16.

以下、上述した本発明の状態同定装置の作用を説明する。
各デバイスA、B、Cは、内界センサ10及び外界センサ16による観測値を得るごとに、以下の手順で更新処理する。観測値を得るタイミングは、内界センサ10及び外界センサ16の計測周期等によって決まる。
The operation of the above-described state identification device of the present invention will be described below.
Each time the devices A, B, and C obtain observation values from the inner world sensor 10 and the outer world sensor 16, they are updated in the following procedure. The timing for obtaining the observation value is determined by the measurement period of the inner sensor 10 and the outer sensor 16 and the like.

(1)観測に関する情報(観測時刻、観測値、観測ノイズ)を取得する。観測値は、内界センサ10及び外界センサ16の種類ごとに定義する。観測ノイズは、内界センサ10及び外界センサ16で計測するときに予想されるノイズの大きさであり、分散行列の形式で定義する。
(2)観測時刻における、観測に関与したデバイスA、B、Cの内部状態と分散及び共分散を予測する。ここで、デバイスA、B、C間の相対関係を計測した場合は、観測対象のデバイスA、B、Cと通信して予測値を取得する。
(3)算出した内部状態の予測値と、内界センサ10及び外界センサ16ごとに定義した観測方程式から、観測値の予測値を算出する。
(4)観測値の予測値と、実際の観測値を比較して、内部状態を修正する。
(1) Acquire information related to observation (observation time, observation value, observation noise). The observation value is defined for each type of the inner sensor 10 and the outer sensor 16. The observation noise is the magnitude of noise expected when measured by the internal sensor 10 and the external sensor 16, and is defined in the form of a dispersion matrix.
(2) Predict the internal state, dispersion, and covariance of devices A, B, and C involved in the observation at the observation time. Here, when the relative relationship between the devices A, B, and C is measured, the predicted value is acquired by communicating with the devices A, B, and C to be observed.
(3) The predicted value of the observed value is calculated from the calculated predicted value of the internal state and the observation equation defined for each of the inner sensor 10 and the outer sensor 16.
(4) The predicted value of the observed value is compared with the actual observed value to correct the internal state.

上述した本発明の方法と装置によれば、(S5)(S6)の更新処理の際、観測に関与した(自身及び他の)デバイスA、B、又はCの状態のみ予測し修正するため、デバイスA、B(例えば移動ロボット)の総数が増えても、計算量が増加しない。   According to the above-described method and apparatus of the present invention, in the update process of (S5) and (S6), only the state of the device A, B, or C (self and other) involved in the observation is predicted and corrected. Even if the total number of devices A and B (for example, mobile robots) increases, the amount of calculation does not increase.

また外界センサ16で計測したデバイスA、B、Cがそれぞれ更新処理するため、システム全体で観測値が得られる頻度が増えても、各デバイスA、B、Cが更新処理する頻度は増加しない。   In addition, since the devices A, B, and C measured by the external sensor 16 are updated, the frequency at which the devices A, B, and C are updated does not increase even if the frequency at which observation values are obtained in the entire system increases.

また(S5)において観測に関与した(自身及び他の)デバイスA、B、又はCとの間でのみ通信するため、通信負荷が1ヶ所に集中しない。また、外界センサ16で観測したデバイス(例えばA)と、観測されたデバイス(例えばB)との間は、物理的な距離が近く、間に遮蔽物がない状況にある。そのため、両者は直接電波が届く可能性が高く、転送処理の要らない通信になりやすい。従って、アドホック通信の場合は、通信負荷が少ない。   In addition, since communication is performed only with the devices A, B, or C (self and other) involved in the observation in (S5), the communication load is not concentrated in one place. Further, the physical distance between the device observed by the external sensor 16 (for example, A) and the observed device (for example, B) is short, and there is no shielding object between them. For this reason, there is a high possibility that both of them will receive radio waves directly, and communication that does not require transfer processing is likely to occur. Therefore, in the case of ad hoc communication, the communication load is small.

また各デバイスA、B、Cは、自身の内部状態推定結果を、通信を介することなく参照できる。例えば、デバイスA、Bとして移動ロボットの制御に用いる場合、通信遅れのない最新の推定結果を使って制御できるため、制御の性能が上がる。   Each device A, B, C can refer to its own internal state estimation result without communication. For example, when the devices A and B are used for controlling a mobile robot, the latest estimation result without communication delay can be used for control, so that the control performance is improved.

また各デバイスA、B、Cが個別に予測処理するため、他のデバイスA、B、又はCの運動モデルや内部状態を把握する必要がない。従って、それぞれのデバイスA、B、Cごとに、運動モデルや、推定したい状態量を自由に設定できる。   Moreover, since each device A, B, and C performs prediction processing individually, it is not necessary to grasp the motion model and internal state of other devices A, B, or C. Therefore, the motion model and the state quantity to be estimated can be freely set for each of the devices A, B, and C.

上述した例では、「観測したデバイスA」が更新処理するが、「観測されたデバイスB」側に予測値を集約して更新処理しても良い。ただしこの場合は、観測に関する情報(観測値、観測ノイズ、観測方程式などの情報)を観測されたデバイスBに送信する必要がある。   In the example described above, the “observed device A” performs update processing. However, the predicted values may be aggregated and updated on the “observed device B” side. However, in this case, it is necessary to transmit information related to observation (information such as observation values, observation noise, and observation equations) to the observed device B.

全センサ10、16の情報を1ヶ所に集約する従来方式でも、観測したデバイスA、観測されたデバイスBの内部状態のみ予測し修正することで、計算量を減らすことができる。   Even in the conventional method in which the information of all the sensors 10 and 16 is collected in one place, it is possible to reduce the amount of calculation by predicting and correcting only the internal state of the observed device A and the observed device B.

本発明は、ベイズフィルタの各手法のうち、以下の条件を満たすものに適用できる。
条件1:各デバイスに関する状態量の時間遷移(予測処理)を、デバイスごとに分けて予測できること。
条件2:2つのデバイス間の相関情報の時間遷移を、2つのデバイスに関する情報から予測できること。
条件1、2を満たすものとして、カルマンフィルタ、拡張カルマンフィルタ、アンセンテッドカルマンフィルタなどが挙げられる。いずれも、確率分布を平均、分散及び共分散で表す手法である。
The present invention can be applied to a Bayes filter that satisfies the following conditions.
Condition 1: Time transition (prediction process) of state quantities related to each device can be predicted separately for each device.
Condition 2: Time transition of correlation information between two devices can be predicted from information on the two devices.
Examples of satisfying the conditions 1 and 2 include a Kalman filter, an extended Kalman filter, and an unscented Kalman filter. In any case, the probability distribution is represented by mean, variance, and covariance.

ただし、アンセンテッドカルマンフィルタの場合は、予測処理が上述した例と以下のように一部異なる。
(1)観測に関与したデバイスに関する現時点での推定結果(推定値、分散及び共分散)を集約する。
(2)(1)の推定値、分散及び共分散から確率分布を代表する点(シグマ点)を数点算出する。
(3)観測時刻におけるシグマ点を予測する。両デバイスの状態遷移モデルを用いる。
(4)予測したシグマ点から、観測時刻における、両デバイスの内部状態、分散及び共分散、両デバイス間の共分散を求める。
However, in the case of the unscented Kalman filter, the prediction process is partially different from the example described above as follows.
(1) Summarize the current estimation results (estimated value, variance and covariance) for the devices involved in the observation.
(2) Several points (sigma points) representing the probability distribution are calculated from the estimated value, variance, and covariance of (1).
(3) Predict the sigma point at the observation time. The state transition model of both devices is used.
(4) From the predicted sigma points, the internal state, dispersion and covariance of both devices at the observation time, and covariance between both devices are obtained.

一方、上述した例と相違し、以下のようなベイズフィルタの場合、本発明とは異なる処理が必要となる。
パーティクルフィルタは、確率分布を点群で表し、分散及び共分散を管理しないため、処理が異なる。
情報フィルタは、確率分布を情報ベクトル、情報行列(分散行列の逆行列)によって表す。予測処理では、情報行列の逆行列計算が必要なため、各デバイスが独立して分散処理できない。従って、全デバイスの内部状態を同時に予測処理する必要がある。
On the other hand, unlike the example described above, the following Bayes filter requires processing different from that of the present invention.
Since the particle filter represents the probability distribution as a point group and does not manage the variance and covariance, the processing is different.
The information filter represents a probability distribution by an information vector and an information matrix (an inverse matrix of a dispersion matrix). In the prediction process, since inverse matrix calculation of the information matrix is required, each device cannot perform distributed processing independently. Therefore, it is necessary to predict the internal state of all devices at the same time.

本発明は上述した実施形態に限定されず、本発明の要旨を逸脱しない範囲で種々変更を加え得ることは勿論である。   The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the scope of the present invention.

A、B デバイス(移動デバイス、移動ロボット)、
C デバイス(固定デバイス)、
1 上位の制御装置
10 内界センサ、11 ジャイロセンサ、12 GPSコンパス、
13 車輪用エンコーダ、14 ステア角エンコーダ、
16 外界センサ、17 カメラ、18 レーザセンサ、
21 ロボット駆動部、22 車両制御部、22a 指令値算出部、
23 行動計画部、23a ロボット上予測部、23b 軌道生成部、
24 計測部、25 通信部、26 表示部、
26a 予測部、26b ディスプレイ、
30 状態推定部
A and B devices (mobile devices, mobile robots),
C device (fixed device),
DESCRIPTION OF SYMBOLS 1 High-order control apparatus 10 Inner world sensor, 11 Gyro sensor, 12 GPS compass,
13 Wheel encoder, 14 Steer angle encoder,
16 external sensor, 17 camera, 18 laser sensor,
21 robot drive unit, 22 vehicle control unit, 22a command value calculation unit,
23 Action planning unit, 23a Prediction unit on robot, 23b Trajectory generation unit,
24 measurement unit, 25 communication unit, 26 display unit,
26a prediction unit, 26b display,
30 State estimation unit

Claims (8)

位置、姿勢、速度、角速度又は加速度を状態量とする複数のデバイスを備え、
前記デバイスは、それ自身の位置、速度又は加速度を観測する内界センサと、他の前記デバイスの方向又は距離を観測する外界センサと、それ自身の状態量を推定し管理する状態推定部とを有し、各前記状態推定部により、
(A)自身の状態量と、該状態量の分散及び共分散とを管理し、
(B)自身の前記デバイスの状態量と他の各前記デバイスの状態量との各相関のうち相対的に高い前記相関を対象として、該対象に該当する自身の前記デバイスの状態量と他の前記デバイスの状態量との相関情報に限定して管理し、
(C1)他の前記デバイスとの通信により該デバイスから、該デバイスの状態量、該状態量の分散及び共分散、または、該デバイスと自身の前記デバイス間の共分散情報を受け、前記外界センサによる観測値が得られた観測時刻における自身及び他の前記デバイスの状態量、該状態量の分散及び共分散、及び、自身及び該他の前記デバイス間の共分散を予測し、
(C2)予測された値と前記外界センサの観測値との比較に基づいて、自身及び他の前記デバイスの状態量、該状態量の分散及び共分散、及び、自身及び該他の前記デバイス間の共分散を修正し、
(C3)修正した結果を、他の前記デバイスへ送信して自身及び他の前記デバイスで共有する、ことを特徴とするデバイスの状態同定方法。
A plurality of devices having state, position, posture, velocity, angular velocity or acceleration as state quantities,
Each said device, the position of its own, and internal sensor for observing the velocity or acceleration, and the outside world sensor for observing the direction or distance of other said devices, and a state estimation unit for estimating its own state amount management has, by each said state estimation unit,
(A) managing own state quantity and dispersion and covariance of the state quantity ;
(B) Targeting the relatively high correlation among the correlation between the state quantity of the device itself and the state quantities of the other devices, the state quantity of the device corresponding to the target and the other Manage only the correlation information with the device state quantity ,
(C1) The external sensor receives the state quantity of the device, the distribution and covariance of the state quantity, or the covariance information between the device and the device itself from the device by communication with the other device. state quantity of its own and other of the devices in the observation time at which the observed value is obtained by, the state quantity of variances and covariances, and predicts the covariance between itself and said other of said devices,
(C2) based on a comparison of the predicted value and the observed value of the external sensor, the state of its own and other of the devices, the state quantity of variances and covariances, and themselves and between said other of said device The covariance of
(C3) The results of the modified, shared by itself and another one of the devices by transmitting to the other of said devices, state identification method of the device, characterized in that.
前記デバイスは、移動可能な移動デバイスと、固定位置にある固定デバイスとからなり、
前記移動デバイス又は前記固定デバイスは、各前記状態推定部により、
(D1)前記内界センサによる観測値が得られた観測時刻における自身の内部状態と、該内部状態の分散及び共分散を予測し、
(D2)予測した予測値と前記内界センサの観測値との比較に基づいて、自身の状態量と、該状態量の分散及び共分散を修正する、ことを特徴とする請求項1に記載のデバイスの状態同定方法。
The device comprises a movable mobile device and a fixed device in a fixed position ;
Said mobile device or the stationary device, by each said state estimation unit,
(D1) and the internal state of its own in the observation time at which the observed value is obtained by the internal sensor, and a variance and covariance of the internal state prediction,
(D2) based on the comparison of the predicted prediction value and the observed value of the internal sensor, and its own state quantity, to modify the dispersion and covariance of the state quantity, it in claim 1, wherein The device state identification method described.
前記各相関のうち相関係数の絶対値が相対的に高い前記相関を前記対象とする、請求項1に記載のデバイスの状態同定方法。 The device state identification method according to claim 1 , wherein the correlation has a relatively high absolute value of a correlation coefficient among the correlations . 前記状態推定部は、前記相関情報を記憶する複数のメモリを有しており、
前記各相関前記相関係数を絶対値の高い順位の順で前記メモリに記憶し、
前記(B)において、前記順位の高い1又は複数のメモリ内の前記相関情報のみを管理する、ことを特徴とする請求項3に記載のデバイスの状態同定方法。
Each said state estimation unit has a plurality of memory for storing the correlation information,
Wherein stored in the memory in the order of higher rank of the correlation coefficient absolute value of each correlation,
In the (B), the state identification method of the device according to claim 3, wherein only the correlation information of the higher order one or the plurality of memory managing, characterized in that.
限定して管理する前記相関情報は、
(A)前記外界センサによって観測したことのある他の前記デバイスとの相関情報、又は、
(B)前記外界センサによって自身を観測したことのある他の前記デバイスとの相関情報を含む、ことを特徴とする請求項1に記載のデバイスの状態同定方法。
The correlation information managed in a limited manner is:
(A) correlation information with some other of the devices be observed by the external sensor, or,
(B) including the correlation information with some other of the devices be observed itself by the external sensor, the state identification method of the device according to claim 1, characterized in that.
限定して管理する前記相関情報は、
(A)絶対値の小さい共分散、
(B)一定時間、前記外界センサによって計測していない前記デバイスのうち、相手の前記外界センサによって自身が計測されていない前記デバイスとの共分散、
(C)自身の内部状態を修正した時、同時に修正しなかった前記デバイスとの共分散、又は、
(D)通信不能、或いはアドホック通信の場合に通信ホップ数が予め設定した数より多い前記デバイスとの共分散、を除外する、ことを特徴とする請求項1に記載のデバイスの状態同定方法。
The correlation information managed in a limited manner is:
(A) a covariance with a small absolute value,
(B) a certain time, of the device that is not measured by the external sensor, the covariance of the device itself by the external sensor of the opponent is not measured,
(C) when modifying the internal state of its own, the covariance of the device did not modify simultaneously, or,
2. The device status identification method according to claim 1, wherein (D) communication is disabled or covariance with the device having a communication hop count greater than a preset number in the case of ad hoc communication is excluded.
位置、姿勢、速度、角速度又は加速度を状態量とする複数のデバイスを備え、
前記デバイスは、それ自身の位置、速度又は加速度を観測する内界センサと、他の前記デバイスの方向又は距離を観測する外界センサと、それ自身の状態量を推定し管理する状態推定部とを有し、各前記状態推定部により、
(A)自身の状態量と、該状態量の分散及び共分散とを管理し、
(B)自身の前記デバイスの状態量と他の各前記デバイスの状態量との各相関のうち相対的に高い前記相関を対象として、該対象に該当する自身の前記デバイスの状態量と他の前記デバイスの状態量との相関情報に限定して管理し、
(C1)他の前記デバイスとの通信により該デバイスから、該デバイスの状態量、該状態量の分散及び共分散、または、該デバイスと自身の前記デバイス間の共分散情報を受け、前記外界センサによる観測値が得られた観測時刻における自身及び他の前記デバイスの状態量、該状態量の分散及び共分散、及び、自身及び該他の前記デバイス間の共分散を予測し、
(C2)予測された値と前記外界センサの観測値との比較に基づいて、自身及び他の前記デバイスの状態量、該状態量の分散及び共分散、及び、自身及び該他の前記デバイス間の共分散を修正し、
(C3)修正した結果を、他の前記デバイスへ送信して自身及び他の前記デバイスで共有する、ことを特徴とするデバイスの状態同定装置。
A plurality of devices having state, position, posture, velocity, angular velocity or acceleration as state quantities,
Each said device, the position of its own, and internal sensor for observing the velocity or acceleration, and the outside world sensor for observing the direction or distance of other said devices, and a state estimation unit for estimating its own state amount management has, by each said state estimation unit,
(A) managing own state quantity and dispersion and covariance of the state quantity ;
(B) Targeting the relatively high correlation among the correlation between the state quantity of the device itself and the state quantities of the other devices, the state quantity of the device corresponding to the target and the other Manage only the correlation information with the device state quantity ,
(C1) The external sensor receives the state quantity of the device, the distribution and covariance of the state quantity, or the covariance information between the device and the device itself from the device by communication with the other device. state quantity of its own and other of the devices in the observation time at which the observed value is obtained by, the state of the dispersion and covariance, and predicts the covariance between itself and said other of said devices,
(C2) based on a comparison of the predicted value and the observed value of the external sensor, the state of its own and other of the devices, the state quantity of variances and covariances, and themselves and between said other of said device The covariance of
(C3) modified the results shared by itself and another one of the devices by transmitting to the other of the devices, that the state identification apparatus of a device according to claim.
位置、姿勢、速度、角速度又は加速度を状態量とする複数のデバイスの状態同定装置であって、A state identification device for a plurality of devices having a position, posture, speed, angular velocity or acceleration as a state quantity,
いずれかの前記デバイスを自身のデバイスとして、該デバイスに設けられた内界センサと外界センサと状態推定部を備え、With any one of the devices as its own device, the device includes an internal sensor, an external sensor, and a state estimation unit provided in the device,
前記内界センサは、自身の前記デバイスの位置、速度又は加速度を観測し、前記外界センサは、他の前記デバイスの方向又は距離を観測し、前記状態推定部は、自身の前記デバイスの状態量を推定し管理し、The inner world sensor observes the position, velocity or acceleration of the device itself, the outer world sensor observes the direction or distance of the other device, and the state estimation unit is a state quantity of the device. Estimate and manage
前記状態推定部は、The state estimation unit
(A)自身の状態量と、該状態量の分散及び共分散とを管理し、(A) managing own state quantity and dispersion and covariance of the state quantity;
(B)自身の前記デバイスの状態量と他の各前記デバイスの状態量との各相関のうち相対的に高い前記相関を対象として、該対象に該当する自身の前記デバイスの状態量と他の前記デバイスの状態量との相関情報に限定して管理し、(B) Targeting the relatively high correlation among the correlation between the state quantity of the device itself and the state quantities of the other devices, the state quantity of the device corresponding to the target and the other Manage only the correlation information with the device state quantity,
(C1)他の前記デバイスとの通信により該デバイスから、該デバイスの状態量、該状態量の分散及び共分散、または、該デバイスと自身の前記デバイス間の共分散情報を受け、前記外界センサによる観測値が得られた観測時刻における自身及び他の前記デバイスの状態量、該状態量の分散及び共分散、及び、自身及び該他の前記デバイス間の共分散を予測し、(C1) The external sensor receives the state quantity of the device, the distribution and covariance of the state quantity, or the covariance information between the device and the device itself from the device by communication with the other device. Predicting the state quantity of the device itself and other devices at the observation time when the observation value is obtained, the variance and covariance of the state quantity, and the covariance between itself and the other device,
(C2)予測された値と前記外界センサの観測値との比較に基づいて、自身及び他の前記デバイスの状態量、該状態量の分散及び共分散、及び、自身及び該他の前記デバイス間の共分散を修正し、(C2) Based on the comparison between the predicted value and the observed value of the external sensor, the state quantity of itself and other devices, the variance and covariance of the state quantity, and between itself and the other devices The covariance of
(C3)修正した結果を、他の前記デバイスへ送信する、ことを特徴とするデバイスの状態同定装置。(C3) A device state identification apparatus that transmits the corrected result to another device.
JP2012214097A 2012-09-27 2012-09-27 Device state identification method and apparatus Active JP6035671B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012214097A JP6035671B2 (en) 2012-09-27 2012-09-27 Device state identification method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012214097A JP6035671B2 (en) 2012-09-27 2012-09-27 Device state identification method and apparatus

Publications (2)

Publication Number Publication Date
JP2014066679A JP2014066679A (en) 2014-04-17
JP6035671B2 true JP6035671B2 (en) 2016-11-30

Family

ID=50743223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012214097A Active JP6035671B2 (en) 2012-09-27 2012-09-27 Device state identification method and apparatus

Country Status (1)

Country Link
JP (1) JP6035671B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6397355B2 (en) * 2015-02-26 2018-09-26 本田技研工業株式会社 Control device for moving body
JP6029124B1 (en) * 2015-05-13 2016-11-24 防衛装備庁長官 Sound source position estimating apparatus, method, and program
JP6541026B2 (en) * 2015-05-13 2019-07-10 株式会社Ihi Apparatus and method for updating state data
SG10201708171QA (en) * 2017-10-04 2019-05-30 Arche Information Inc A comprehensive multi-agent robotics management system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62200408A (en) * 1986-02-28 1987-09-04 Toshiba Corp Correlation tracking device
JPH0830327A (en) * 1994-07-18 1996-02-02 Fujitsu Ltd Active environment recognition system
JP5314548B2 (en) * 2009-09-16 2013-10-16 株式会社日立製作所 Autonomous mobile system and autonomous mobile device
US20130332112A1 (en) * 2011-03-01 2013-12-12 Toyota Jidosha Kabushiki Kaisha State estimation device

Also Published As

Publication number Publication date
JP2014066679A (en) 2014-04-17

Similar Documents

Publication Publication Date Title
EP2708334B1 (en) Device and method for controlling prediction of motion
US11125563B2 (en) Systems and methods for autonomous machine tracking and localization of mobile objects
EP3118705B1 (en) Map production method, mobile robot, and map production system
JP6534664B2 (en) Method for camera motion estimation and correction
US9563528B2 (en) Mobile apparatus and localization method thereof
JP6035671B2 (en) Device state identification method and apparatus
KR20170004556A (en) Method and apparatus for relacation of mobile robot in indoor environment
JP4875228B2 (en) Object position correction apparatus, object position correction method, and object position correction program
CN113108791A (en) Navigation positioning method and navigation positioning equipment
KR101517937B1 (en) Client, Server and System for making radio map comprising the same
JP2012245568A (en) Device and method for controlling and predicting motion
JP5679121B2 (en) Robot motion prediction control method and apparatus
CN111168672B (en) Robot motion planning method, system, computer device and storage medium
KR20110097344A (en) Apparatus and method for double-updating in simultaneous localization and mapping for a mobile robot
CN115016455A (en) Robot cluster positioning movement method and system
Magnago et al. Optimal landmark placement for indoor positioning using context information and multi-sensor data
JP7197973B2 (en) Mobile terminal, current location correction system and program
JP2018063679A (en) Position estimation system and method
JP7062138B2 (en) Information processing equipment, information processing method, and information processing program
Fontanelli et al. Collaborative localization of robotic wheeled walkers using interlaced extended kalman filters
JP2022550313A (en) Method and system for determining relative positional relationship between primary winding structure and secondary winding structure in inductive power transmission system
JP6904172B2 (en) Information processing equipment, programs, and information processing systems
Furukawa et al. State estimation of a partially observable multi-link system with no joint encoders incorporating external dead-reckoning
Steffens et al. Multiresolution path planning in dynamic environments for the standard platform league
Koller et al. State Observability through Prior Knowledge: A Conceptional Paradigm in Inertial Sensing.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150722

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161016

R151 Written notification of patent or utility model registration

Ref document number: 6035671

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250