JP2013050852A - Method and apparatus for integrating sensor information - Google Patents

Method and apparatus for integrating sensor information Download PDF

Info

Publication number
JP2013050852A
JP2013050852A JP2011188480A JP2011188480A JP2013050852A JP 2013050852 A JP2013050852 A JP 2013050852A JP 2011188480 A JP2011188480 A JP 2011188480A JP 2011188480 A JP2011188480 A JP 2011188480A JP 2013050852 A JP2013050852 A JP 2013050852A
Authority
JP
Japan
Prior art keywords
sensor information
estimated value
condition
storage unit
internal state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011188480A
Other languages
Japanese (ja)
Other versions
JP5741328B2 (en
Inventor
Shuhei Emoto
周平 江本
Hajime Sakano
肇 坂野
Masakazu Fujii
正和 藤井
Mitsuharu Sonehara
光治 曽根原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2011188480A priority Critical patent/JP5741328B2/en
Publication of JP2013050852A publication Critical patent/JP2013050852A/en
Application granted granted Critical
Publication of JP5741328B2 publication Critical patent/JP5741328B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a method and apparatus for integrating information from a plurality of sensors without increasing errors and the amount of calculation.SOLUTION: Newly received sensor information Yn is recorded in observation time order and determined on whether each sensor information satisfies a first condition (S3). The first condition is that "sensor information from all sensors has been received at the observation time of received sensor information or later" If the first condition is satisfied, each sensor information 6 that satisfies the first condition is used in observation time order to predict the internal condition of a target object, a first estimate value X1 is updated with the predicted internal condition and stored, a second estimate value X2 is overwritten by the updated first estimate value X1, and the sensor information used for the update is deleted (S4, S5, S7, S8). If the first condition is not satisfied, the internal condition is predicted using the newly received sensor information Yn, and the second estimate value X2 is updated with the predicted internal condition and stored (S9). The second estimate value X2 is output as the internal condition of the target object (S10).

Description

本発明は、ロボット、計測器など複数のセンサを使う装置におけるセンサ情報の統合方法と装置に関する。   The present invention relates to a sensor information integration method and apparatus in an apparatus using a plurality of sensors such as a robot and a measuring instrument.

対象物をロボットでハンドリングする自動装置や、センサで周囲を計測しながら移動する移動ロボットなどでは、対象物やロボットの位置や速度などを計測する計測手段を複数備えていることが多い。例えば移動ロボットの場合、以下の複数のセンサを搭載していることが一般的である。
(a)移動ロボットの車輪の回転量を計測するエンコーダと、(b)ロボットの周囲にあるランドマークの位置を計測するカメラ。
An automatic device that handles an object with a robot, a mobile robot that moves while measuring the surroundings with a sensor, and the like often include a plurality of measuring means for measuring the position and speed of the object and the robot. For example, in the case of a mobile robot, the following sensors are generally installed.
(A) an encoder that measures the amount of rotation of the wheel of the mobile robot, and (b) a camera that measures the positions of landmarks around the robot.

一般的に、複数のセンサ情報を統合する手段として、カルマンフィルタ、情報フィルタ、パーティクルフィルタなどのベイズフィルタが挙げられる。
ベイズフィルタを使った複数センサ情報の統合方法は、以下のようになる。
(1)新たなセンサ情報(どのセンサの結果でも良い)が得られたら、観測時刻における内部状態を予測する予測処理。
(2)予測した内部状態をセンサ情報と比較し修正する更新処理。
ここで内部状態とは、計測対象に関する様々な情報を事前に定義したものである。例えば、ロボットの位置を計測したい場合、ロボットの位置、姿勢、速度、角速度などを内部状態として定義する。
In general, as a means for integrating a plurality of sensor information, there is a Bayesian filter such as a Kalman filter, an information filter, or a particle filter.
The integration method of multiple sensor information using the Bayes filter is as follows.
(1) Prediction processing for predicting the internal state at the observation time when new sensor information (the result of any sensor is acceptable) is obtained.
(2) Update processing for comparing and correcting the predicted internal state with the sensor information.
Here, the internal state is defined in advance as various information related to the measurement target. For example, when it is desired to measure the position of the robot, the position, posture, speed, angular velocity, etc. of the robot are defined as internal states.

上述の処理(1)(2)によって修正された内部状態は、観測時刻時の値となる。したがって、センサ情報がY1,Y2,Y3・・・と得られた場合、内部状態の時刻も、Y1の時刻,Y2の時刻,Y3の時刻・・・のように変化する。   The internal state corrected by the above processes (1) and (2) is a value at the observation time. Therefore, when the sensor information is obtained as Y1, Y2, Y3..., The time of the internal state also changes as Y1 time, Y2 time, Y3 time.

センサが複数ある場合、センサの処理時間やセンサとの通信遅延時間が異なる影響でセンサ情報が観測時刻の順番通りに得られない。例えば、情報を統合処理する装置上で、センサ情報がY1,Y2,Y3・・・と得られたとき、Y3の観測時刻がY2の観測時刻よりも古い場合がある。
ベイズフィルタの予測処理は、予測時間幅(Y2の時刻−Y1の時刻、・・・)に応じて推定の確度が減少する(推定誤差が増える)。したがって、センサ情報を観測時刻の順番通りに処理しないと、予測時間幅が長くなるため、内部状態の推定誤差が増加してしまう。
ベイズフィルタは、前回のステップでの推定結果を、次のステップの推定処理に使う。したがって、推定誤差が増加すると、以降の推定にも影響する。
When there are a plurality of sensors, the sensor information cannot be obtained in the order of the observation times due to the influence of different sensor processing times and communication delay times with the sensors. For example, when the sensor information is obtained as Y1, Y2, Y3,... On an apparatus that integrates information, the observation time of Y3 may be older than the observation time of Y2.
In the Bayes filter prediction process, the estimation accuracy decreases (estimation error increases) according to the prediction time width (time Y2−time Y1...). Therefore, if the sensor information is not processed in the order of the observation times, the estimation time width becomes long, and the estimation error of the internal state increases.
The Bayesian filter uses the estimation result at the previous step for the estimation process at the next step. Therefore, when the estimation error increases, it affects the subsequent estimation.

上述した問題を解決するために、種々の手段が既に提案されている(例えば、非特許文献1,2、特許文献1)。   In order to solve the above-described problems, various means have already been proposed (for example, Non-Patent Documents 1 and 2 and Patent Document 1).

非特許文献1の方法は、センサ情報が得られるたびに内部状態を逐次更新する。前回処理したセンサ情報よりも古い時刻のセンサ情報(Y)が得られたとき、Yの時刻の内部状態を予測し修正するものである。
特許文献1の手段は、センサごとに計測結果を蓄積し、遅れの大きいセンサについて計測データの履歴から以降の計測値を予測する。予測値と遅れの小さいセンサ情報を統合するものである。
非特許文献2の手段は、一定時間分のセンサ情報を観測時刻順に並べ替えて蓄積し、ステップごとに蓄積したデータを全て処理するものである。
The method of Non-Patent Document 1 sequentially updates the internal state every time sensor information is obtained. When sensor information (Y) older than the previously processed sensor information is obtained, the internal state at the time of Y is predicted and corrected.
The means of Patent Document 1 accumulates measurement results for each sensor, and predicts subsequent measurement values from the history of measurement data for sensors with a large delay. It integrates sensor information with small predicted values and predicted values.
The means of Non-Patent Document 2 sorts and accumulates sensor information for a certain time in order of observation time, and processes all the accumulated data for each step.

前山祥一,大矢晃久,油田信一,「移動ロボットのための遡及的現在位置推定法 処理時間を要する外界センサデータの利用」 日本ロボット学会誌,vol.15,No.7,pp.1075−1081,1997Shoichi Maeyama, Akihisa Oya, Shinichi Yuta, “Retrospective Current Position Estimation Method for Mobile Robots Utilization of External Sensor Data that Takes Processing Time” Journal of the Robotics Society of Japan, vol. 15, no. 7, pp. 1075-1081, 1997 鏡 慎吾,石川正俊,「通信遅延を考慮したセンサ選択手法」 電子情報通信学会論文誌 Vol.J88−A,No.5,pp.577−587,2005Shingo Kagami, Masatoshi Ishikawa, “Sensor Selection Method Considering Communication Delay” IEICE Transactions Vol. J88-A, no. 5, pp. 577-587, 2005

特許第3367461号公報、「移動体姿勢角検出装置」Japanese Patent No. 3367461, "Moving Body Posture Angle Detection Device"

非特許文献1の方法は、観測時刻の順番通りに推定処理しないため、統合結果の誤差が大きくなる。この文献では、古い時刻のセンサ情報を最新時刻の推定結果に統合する方法を示している。しかしこの統合方法は、この文献が対象とする移動ロボットに対してのみ有効な方法である。また、統合の際、近似処理をするため、誤差が大きくなる。   Since the method of Non-Patent Document 1 does not perform estimation processing in the order of the observation times, the error of the integration result becomes large. This document shows a method for integrating sensor information at an old time into the latest time estimation result. However, this integration method is effective only for the mobile robot targeted by this document. Further, since the approximation process is performed at the time of integration, the error becomes large.

特許文献1の手段は、遅延の大きいセンサが分かっていることが前提となる。したがって、各センサの遅延時間が不確定な場合に適用できない。   The means of Patent Document 1 is based on the premise that a sensor with a large delay is known. Therefore, it cannot be applied when the delay time of each sensor is indeterminate.

非特許文献2の方法は、蓄積する時間(許容時間)をあらかじめ設定する必要があり、許容時間を超える遅延のあるセンサ情報は推定に反映されない。また、蓄積したデータを毎回全て処理するため、許容時間に応じて、計算量が増大する。そのため、許容時間に制約がある。   In the method of Non-Patent Document 2, it is necessary to set the accumulation time (allowable time) in advance, and sensor information having a delay exceeding the allowable time is not reflected in the estimation. In addition, since all the accumulated data is processed each time, the amount of calculation increases according to the allowable time. Therefore, there is a restriction on the allowable time.

本発明は、上述した問題点を解決するために創案されたものである。すなわち、本発明の目的は、センサが複数あり、各センサの遅延時間が不確定であり、各センサからのセンサ情報が観測時刻の順番通りに得られない場合であっても、誤差と計算量を増大させずに複数のセンサ情報を統合することができる方法と装置を提供することにある。   The present invention has been developed to solve the above-described problems. In other words, the object of the present invention is that there are a plurality of sensors, the delay time of each sensor is uncertain, and even if the sensor information from each sensor cannot be obtained in the order of the observation time, the error and the calculation amount It is an object of the present invention to provide a method and an apparatus capable of integrating a plurality of sensor information without increasing the number of sensors.

本発明によれば、複数のセンサからセンサ情報をランダムに受信し、複数のセンサ情報を統合して対象物の内部状態を予測し出力するセンサ情報の統合方法であって、
(A)データ記憶部により、新たに受信したセンサ情報を、観測時刻の順に記録し、
(B)制御部により、データ記憶部に記録された各センサ情報に対し、第1条件を満たすか否かを判定し、
第1条件:そのセンサ情報の観測時刻と同じかそれよりも新しいセンサ情報がすべてのセンサから受信されていること、
(C)第1条件を満たす場合に、第1条件を満たす各センサ情報を観測時刻順に用いて、予測部により内部状態を予測し、第1推定値記憶部により第1推定値を予測した内部状態に更新して記憶し、第2推定値記憶部により第2推定値を更新した第1推定値で上書きし、更新に用いたセンサ情報を削除し、
(D)第1条件を満たさない場合に、新たに受信したセンサ情報を用いて、予測部により内部状態を予測し、第2推定値記憶部により第2推定値を予測した内部状態に更新して記憶し、
(E)第2推定値記憶部の第2推定値を対象物の内部状態として出力する、ことを特徴とするセンサ情報の統合方法が提供される。
According to the present invention, a sensor information integration method for receiving sensor information from a plurality of sensors at random, integrating the plurality of sensor information, and predicting and outputting an internal state of the object,
(A) The newly received sensor information is recorded in order of observation time by the data storage unit,
(B) The control unit determines whether or not the first condition is satisfied for each sensor information recorded in the data storage unit,
First condition: sensor information that is the same as or newer than the observation time of the sensor information is received from all sensors,
(C) When the first condition is satisfied, each sensor information satisfying the first condition is used in the order of observation time, the internal state is predicted by the prediction unit, and the first estimation value is predicted by the first estimation value storage unit Updated and stored in the state, overwritten with the first estimated value updated by the second estimated value storage unit, delete the sensor information used for the update,
(D) When the first condition is not satisfied, the internal state is predicted by the prediction unit using the newly received sensor information, and the second estimated value is updated to the predicted internal state by the second estimated value storage unit. Remember,
(E) A sensor information integration method is provided, wherein the second estimated value stored in the second estimated value storage unit is output as the internal state of the object.

また本発明によれば、複数のセンサからセンサ情報をランダムに受信し、複数のセンサ情報を統合して対象物の内部状態を予測し出力するセンサ情報の統合装置であって、
受信したセンサ情報をその観測時刻の順に記録するデータ記憶部と、
センサ情報から対象物の内部状態を予測する予測部と、
内部状態を更新する更新部と、
内部状態の第1推定値を記憶する第1推定値記憶部と、
内部状態の第2推定値を記憶する第2推定値記憶部と、
データ記憶部、予測部、更新部、第1推定値記憶部及び第2推定値記憶部を制御する制御部とを備え、
(A)新たに受信したセンサ情報を、観測時刻の順にデータ記憶部に記録し、
(B)データ記憶部に記録された各センサ情報に対し、第1条件を満たすか否かを判定し、
第1条件:そのセンサ情報の観測時刻と同じかそれよりも新しいセンサ情報がすべてのセンサから受信されていること、
(C)第1条件を満たす場合に、第1条件を満たす各センサ情報を観測時刻順に用いて、内部状態を予測し、第1推定値を予測した内部状態に更新して第1推定値記憶部に記憶し、第2推定値を更新した第1推定値で上書きし、更新に用いたセンサ情報を削除し、
(D)第1条件を満たさない場合に、新たに受信したセンサ情報を用いて、内部状態を予測し、第2推定値を予測した内部状態に更新して第2推定値記憶部に記憶し、
(E)第2推定値記憶部の第2推定値を対象物の内部状態として出力する、ことを特徴とするセンサ情報の統合装置が提供される。
According to the present invention, there is provided a sensor information integrating device that randomly receives sensor information from a plurality of sensors, integrates the plurality of sensor information, and predicts and outputs an internal state of an object.
A data storage unit that records the received sensor information in the order of their observation times;
A prediction unit for predicting the internal state of the object from the sensor information;
An update unit for updating the internal state;
A first estimated value storage unit for storing a first estimated value of the internal state;
A second estimated value storage unit for storing a second estimated value of the internal state;
A data storage unit, a prediction unit, an update unit, a control unit that controls the first estimated value storage unit and the second estimated value storage unit,
(A) The newly received sensor information is recorded in the data storage unit in order of observation time,
(B) For each sensor information recorded in the data storage unit, determine whether the first condition is satisfied,
First condition: sensor information that is the same as or newer than the observation time of the sensor information is received from all sensors,
(C) When the first condition is satisfied, each sensor information satisfying the first condition is used in the order of observation time, the internal state is predicted, the first estimated value is updated to the predicted internal state, and the first estimated value is stored. The second estimated value is overwritten with the updated first estimated value, the sensor information used for the update is deleted,
(D) When the first condition is not satisfied, the internal state is predicted using the newly received sensor information, and the second estimated value is updated to the predicted internal state and stored in the second estimated value storage unit. ,
(E) A sensor information integration device is provided that outputs the second estimated value in the second estimated value storage unit as an internal state of the object.

上記本発明の方法と装置によれば、第1条件を満たす場合には、そのセンサ情報の観測時刻と同じかそれよりも新しいセンサ情報がすべてのセンサから受信されているので、非特許文献2の手段と同様に、第1推定値記憶部の第1推定値は観測時刻の順にセンサ情報を処理した推定結果となる。したがって、第2推定値を第1推定値で上書きして、対象物の内部状態として出力することにより、高い精度で複数のセンサ情報を統合することができる。   According to the above method and apparatus of the present invention, when the first condition is satisfied, sensor information that is the same as or newer than the observation time of the sensor information is received from all the sensors. Similarly to the means, the first estimated value in the first estimated value storage unit is an estimation result obtained by processing the sensor information in the order of the observation time. Therefore, by overwriting the second estimated value with the first estimated value and outputting it as the internal state of the object, a plurality of sensor information can be integrated with high accuracy.

第1条件を満たさない場合には、新たに受信したセンサ情報を用いて内部状態を予測し、第2推定値を予測した内部状態に更新して、対象物の内部状態として出力することにより、最新のセンサ情報に基づき複数のセンサ情報を統合することができる。
この場合は、時刻の古いセンサ情報を処理する場合があるため、一時的に精度が低くなることがあるが、この誤差は、第1条件を満たしたときに、精度の高い第1推定値で上書きされることで全て解消され、以降の推定に影響しない。したがって、第1条件を満たさない場合でも、第2推定値の推定結果は、非特許文献1の方法よりも精度が高くなる。
When the first condition is not satisfied, the internal state is predicted using the newly received sensor information, the second estimated value is updated to the predicted internal state, and output as the internal state of the object. A plurality of pieces of sensor information can be integrated based on the latest sensor information.
In this case, since sensor information with an old time may be processed, the accuracy may temporarily decrease. However, this error is a highly accurate first estimated value when the first condition is satisfied. Overwriting eliminates all, and does not affect the subsequent estimation. Therefore, even when the first condition is not satisfied, the estimation result of the second estimated value is more accurate than the method of Non-Patent Document 1.

また、蓄積したデータを毎回全て処理するわけではなく、第1条件を満たしたタイミングでのみ処理するため、非特許文献2よりも計算量が少ない。
また、第1条件を満たす場合に処理することで、事前に許容時間を設定することなく、各センサの遅延時間が不確定でも、必ず観測時刻順にセンサ情報を処理できる。
In addition, the accumulated data is not processed every time, but is processed only at the timing when the first condition is satisfied.
Also, by processing when the first condition is satisfied, sensor information can always be processed in the order of observation time even if the delay time of each sensor is uncertain without setting an allowable time in advance.

本発明による統合装置を備えたロボットシステムの構成図である。It is a block diagram of the robot system provided with the integrated apparatus by this invention. 本発明による統合装置を有する計測装置の構成図である。It is a block diagram of the measuring device which has the integrated apparatus by this invention. 本発明による統合装置の構成図である。It is a block diagram of the integrated apparatus by this invention. 本発明による統合方法を示すフローチャートである。4 is a flowchart illustrating an integration method according to the present invention. 3つのセンサによる計測状態を示す説明図である。It is explanatory drawing which shows the measurement state by three sensors. 3つのセンサから統合装置への入力順序を示す説明図である。It is explanatory drawing which shows the input order from three sensors to an integrated apparatus. 3つのセンサで計測した場合の、データ記憶部のセンサ情報の推移を示す説明図である。It is explanatory drawing which shows transition of the sensor information of a data storage part at the time of measuring with three sensors.

以下、本発明の好ましい実施形態を添付図面に基づいて詳細に説明する。なお、各図において共通する部分には同一の符号を付し、重複した説明を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In addition, the same code | symbol is attached | subjected to the common part in each figure, and the overlapping description is abbreviate | omitted.

図1は、本発明による統合装置を備えたロボットシステムの構成図である。
この図において、1は移動ロボット、2は移動ロボット1に搭載されたロボット上カメラ、3は外部カメラである。この例では、移動ロボット1の位置、姿勢、速度、角速度などを、ロボット上カメラ2、外部カメラ3又はレーザレーダを使って計測するようになっている。
以下、ロボット上カメラ2、外部カメラ3、レーザレーダ、およびその他の計測手段を総称して「センサ」と呼び、センサで計測された情報を「センサ情報」と呼ぶ。
FIG. 1 is a configuration diagram of a robot system provided with an integration apparatus according to the present invention.
In this figure, 1 is a mobile robot, 2 is a camera on the robot mounted on the mobile robot 1, and 3 is an external camera. In this example, the position, posture, velocity, angular velocity, etc. of the mobile robot 1 are measured using the on-robot camera 2, the external camera 3, or the laser radar.
Hereinafter, the robot upper camera 2, the external camera 3, the laser radar, and other measurement means are collectively referred to as “sensor”, and information measured by the sensor is referred to as “sensor information”.

図2は、本発明による統合装置を有する計測装置の構成図である。
この図において、本発明の統合装置10は状態推定装置であり、複数のセンサ5からセンサ情報6が入力され、内部状態7の推定値を出力するようになっている。
複数のセンサ5によって得られたセンサ情報6は、逐次、状態推定装置10に入力される。センサ情報6は、センサ5の計測値や、観測した時刻(観測時刻)、センサデバイスIDなどの情報をまとめたデータである。
状態推定装置10は、入力されたセンサ情報6に基づいて、対象物1(図1の例では移動ロボット1)の位置、姿勢、速度、角速度などの内部状態7を推定する。
この場合、計測のタイミング、計測処理、伝送方法がセンサ5ごとに異なるため、状態推定装置10に入力されるセンサ情報6は、観測時刻の順ではない。
FIG. 2 is a block diagram of a measuring device having an integrated device according to the present invention.
In this figure, an integrated device 10 of the present invention is a state estimation device, which receives sensor information 6 from a plurality of sensors 5 and outputs an estimated value of an internal state 7.
Sensor information 6 obtained by the plurality of sensors 5 is sequentially input to the state estimation device 10. The sensor information 6 is data in which information such as a measured value of the sensor 5, an observation time (observation time), a sensor device ID, and the like are collected.
The state estimation device 10 estimates the internal state 7 such as the position, posture, speed, angular velocity, etc., of the object 1 (the mobile robot 1 in the example of FIG. 1) based on the input sensor information 6.
In this case, since the measurement timing, measurement process, and transmission method differ for each sensor 5, the sensor information 6 input to the state estimation device 10 is not in the order of the observation time.

図3は、本発明による統合装置の構成図である。
本発明による統合装置10は状態推定装置であり、データ記憶部12、予測部14、更新部16、第1推定値記憶部17、第2推定値記憶部18、及び制御部20を備える。
FIG. 3 is a block diagram of an integrated device according to the present invention.
The integrated device 10 according to the present invention is a state estimation device, and includes a data storage unit 12, a prediction unit 14, an update unit 16, a first estimated value storage unit 17, a second estimated value storage unit 18, and a control unit 20.

本発明による統合装置10は、複数のセンサ5からセンサ情報6をランダムに受信し、複数のセンサ情報6を統合して対象物1の内部状態7を予測し出力する装置である。   The integration device 10 according to the present invention is a device that randomly receives sensor information 6 from a plurality of sensors 5, integrates the plurality of sensor information 6, and predicts and outputs an internal state 7 of the object 1.

データ記憶部12は、受信したセンサ情報6をその観測時刻の順に記録する。
予測部14は、センサ情報6から対象物1の内部状態7を予測する。
更新部16は、内部状態7を更新する。
第1推定値記憶部17は、内部状態7の第1推定値X1を記憶する。
第2推定値記憶部18は、内部状態7の第2推定値X2を記憶する。
制御部20は、データ記憶部12、予測部14、更新部16、第1推定値記憶部17及び第2推定値記憶部18を制御する。
The data storage unit 12 records the received sensor information 6 in the order of the observation times.
The prediction unit 14 predicts the internal state 7 of the object 1 from the sensor information 6.
The update unit 16 updates the internal state 7.
The first estimated value storage unit 17 stores the first estimated value X1 of the internal state 7.
The second estimated value storage unit 18 stores the second estimated value X2 of the internal state 7.
The control unit 20 controls the data storage unit 12, the prediction unit 14, the update unit 16, the first estimated value storage unit 17, and the second estimated value storage unit 18.

第1推定値X1と第2推定値X2は、センサ情報6に基づいて推定された、対象物1の位置、姿勢、速度、角速度などである。内部状態7の内訳は、統合結果を使う目的に合わせて適宜設定する。
予測部14と更新部16には、従来技術で挙げたベイズフィルタの予測処理と更新処理が実装される。
データ記憶部12は、得られたセンサ情報6を一時的に蓄積する機能を持つ。以下、蓄積されたセンサ情報6のうち、観測時刻の最も古いものをYb、最も新しいものをYtとする。
The first estimated value X1 and the second estimated value X2 are the position, posture, velocity, angular velocity, and the like of the target 1 estimated based on the sensor information 6. The breakdown of the internal state 7 is appropriately set according to the purpose of using the integration result.
The prediction unit 14 and the update unit 16 are implemented with Bayesian filter prediction processing and update processing described in the related art.
The data storage unit 12 has a function of temporarily storing the obtained sensor information 6. Hereinafter, among the accumulated sensor information 6, the oldest observation time is Yb and the newest is Yt.

図4は、本発明による統合方法を示すフローチャートである。この図に示すように本発明の統合方法は、S1〜S10の各ステップ(工程)からなる。   FIG. 4 is a flowchart illustrating an integration method according to the present invention. As shown in this figure, the integration method of the present invention comprises steps (steps) S1 to S10.

新たなセンサ情報Ynが入力されたとき、S1において、データ記憶部12の中で観測時刻が最も古いセンサ情報Ybと新たなセンサ情報Ynを比較し、新たなセンサ情報Ynの観測時刻の方が古い場合(NO)、推定処理を行わず、S10で第2推定値記憶部18に記憶された第2推定値X2をそのまま出力する。
なおこの手順が発生するのは、後述するS3において第2条件又は第3条件が満たされる場合のみである。
When new sensor information Yn is input, the sensor information Yb with the oldest observation time in the data storage unit 12 is compared with the new sensor information Yn in S1, and the observation time of the new sensor information Yn is better. If it is old (NO), the estimation process is not performed, and the second estimated value X2 stored in the second estimated value storage unit 18 in S10 is output as it is.
Note that this procedure occurs only when the second condition or the third condition is satisfied in S3 described later.

S1において、新たなセンサ情報Ynの観測時刻が最も古いセンサ情報Ybよりも新しい場合(YES)、S2において新たなセンサ情報Ynをデータ記憶部12に観測時刻の順に記録する。
なお図3に示したように、新たなセンサ情報Ynの観測時刻が最も新しいとは限らない。
In S1, when the observation time of the new sensor information Yn is newer than the oldest sensor information Yb (YES), the new sensor information Yn is recorded in the data storage unit 12 in the order of the observation time in S2.
As shown in FIG. 3, the observation time of the new sensor information Yn is not always the newest.

S3において、データ記憶部12から観測時刻の古い順にセンサ情報6を取り出し、以下の第1条件、第2条件、第3条件のいずれかを満たすか否かを判定する。
第1条件:そのセンサ情報6の観測時刻と同じかそれよりも新しいセンサ情報6がすべてのセンサ5から受信されていること。
第2条件:そのセンサ情報6の観測時刻が、現在時刻に対して予め設定した設定時間以上古い時刻であること。
第3条件:そのセンサ情報6の観測時刻よりも新しいセンサ情報6が、予め設定した設定数以上記録されていること。
In S3, the sensor information 6 is extracted from the data storage unit 12 in the order of oldest observation time, and it is determined whether any of the following first condition, second condition, or third condition is satisfied.
First condition: Sensor information 6 that is the same as or newer than the observation time of the sensor information 6 has been received from all the sensors 5.
Second condition: The observation time of the sensor information 6 is a time older than a set time set in advance with respect to the current time.
Third condition: Sensor information 6 newer than the observation time of the sensor information 6 is recorded more than a preset number.

第1条件において、「すべてのセンサ5から受信されている」ことを判定するために、使用するセンサ5を登録したセンサリストを用意し、稼働中にセンサリストを変更してもよい。例えば、計測開始時は、A,B,C,Dの4つのセンサ5を使い、途中からA,B,Cの3つのみに変更してもよい。変更後は,A〜Cのセンサ情報が受信されていれば第1条件を満たす。
また、センサリストの異なる複数の統合装置を使用してもよい。例えば、システム全体ではA,B,C,Dの4つのセンサ5があるが、統合装置1はA,B,Cのみを判定し、統合装置2はA,B,C,Dで判定するようにしてもよい。
In order to determine that “received from all the sensors 5” in the first condition, a sensor list in which the sensors 5 to be used are registered may be prepared, and the sensor list may be changed during operation. For example, at the start of measurement, the four sensors 5 of A, B, C, and D may be used and changed to only three of A, B, and C from the middle. After the change, the first condition is satisfied if the sensor information of A to C is received.
Further, a plurality of integrated devices having different sensor lists may be used. For example, although there are four sensors 5 of A, B, C, and D in the entire system, the integrated device 1 determines only A, B, and C, and the integrated device 2 determines with A, B, C, and D. It may be.

最も古いセンサ情報Ybが第1条件を満たす場合、最も古いセンサ情報Ybよりも観測時刻の古いセンサ情報が今後入力されることはない。したがって、第1条件を満たす最も古いセンサ情報Ybのみ処理すれば、内部状態7の時刻を、過去から未来へ順方向に進めながら予測処理と更新処理ができる。   When the oldest sensor information Yb satisfies the first condition, sensor information whose observation time is older than the oldest sensor information Yb will not be input in the future. Therefore, if only the oldest sensor information Yb that satisfies the first condition is processed, the prediction process and the update process can be performed while the time of the internal state 7 is advanced in the forward direction from the past to the future.

第1条件のみでは、センサ5の処理時間や通信遅延が大きいと、蓄積されるセンサ情報6が増えて、記憶領域が不足する場合がある。そこで、第2条件と第3条件を適宜組み合わせる。
例えば、第1条件と第2条件のみとの組み合わせ、又は第1条件と第3条件のみとの組み合わせであってもよい。
第2条件と第3条件を満たす最も古いセンサ情報Ybを処理した場合、これ以降に最も古いセンサ情報Ybより古い時刻のセンサ情報が入力されても、推定処理に使われない(S1→S10参照)。
Under only the first condition, if the processing time or communication delay of the sensor 5 is large, the accumulated sensor information 6 may increase and the storage area may be insufficient. Therefore, the second condition and the third condition are appropriately combined.
For example, a combination of only the first condition and the second condition, or a combination of only the first condition and the third condition may be used.
When the oldest sensor information Yb satisfying the second condition and the third condition is processed, even if sensor information with a time older than the oldest sensor information Yb is input thereafter, it is not used for the estimation process (see S1 → S10). ).

しかし、対象物1の位置と姿勢が時々刻々と変化する場合などでは、新しいセンサ情報6の方が重要である。したがって、第2条件のように、一定時間以上古い時刻のセンサ情報は推定に使わなくても問題にならないことが多い。第2条件の設定時間は、正常状態においてすべてのセンサ5から受信される時間間隔より長く、かつ遅れが許容できる範囲で設定するのがよい。   However, the new sensor information 6 is more important when the position and orientation of the object 1 change from moment to moment. Therefore, as in the second condition, sensor information at a time older than a certain time is often not a problem even if it is not used for estimation. The setting time of the second condition is preferably set in a range that is longer than the time interval received from all the sensors 5 in a normal state and that allows a delay.

また、第3条件を満たす最も古いセンサ情報Ybを処理することで、蓄積されているセンサ情報6の数が必ず一定数以下になるので、データ記憶部12の容量を超えないことを保証できる。第3条件の設定数は、データ記憶部12の容量を超えない範囲で設定するのがよい。   Further, by processing the oldest sensor information Yb that satisfies the third condition, the number of accumulated sensor information 6 is always equal to or less than a certain number, so that it can be guaranteed that the capacity of the data storage unit 12 will not be exceeded. The set number of the third condition is preferably set within a range not exceeding the capacity of the data storage unit 12.

S3において、処理する(YES)と判定した場合、S4において、最も古いセンサ情報Ybを使って、内部状態7の第1推定値X1について、次のように推定処理する。
まず、現在記録されている第1推定値X1を使って、最も古いセンサ情報Ybの観測時刻における内部状態7を予測する。次に、最も古いセンサ情報Ybの計測値と予測した内部状態7を比較して内部状態7を更新する。更新後の内部状態7を新たな第1推定値X1とする。
If it is determined in S3 that the process is to be performed (YES), the first estimated value X1 of the internal state 7 is estimated as follows using the oldest sensor information Yb in S4.
First, the internal state 7 at the observation time of the oldest sensor information Yb is predicted using the currently recorded first estimated value X1. Next, the internal state 7 is updated by comparing the measured value of the oldest sensor information Yb with the predicted internal state 7. The updated internal state 7 is set as a new first estimated value X1.

推定処理(予測処理、更新処理)には、従来技術であるカルマンフィルタ、情報フィルタ、パーティクルフィルタなどのアルゴリズムを用いる。   For the estimation process (prediction process, update process), conventional algorithms such as a Kalman filter, an information filter, and a particle filter are used.

S5において、S4で処理した最も古いセンサ情報Ybをデータ記憶部12から削除する。S3〜S5を繰り返して、処理条件を満たすセンサ情報6を全て推定処理する。   In S5, the oldest sensor information Yb processed in S4 is deleted from the data storage unit 12. By repeating S3 to S5, all sensor information 6 that satisfies the processing conditions is estimated.

S3〜S5で第1推定値X1を更新しなかった場合(S6でNO)は、S9において新たなセンサ情報Ynを使って、第2推定値X2に対して推定処理し、S10で第2推定値X2を出力する。   If the first estimated value X1 is not updated in S3 to S5 (NO in S6), the second estimated value X2 is estimated using the new sensor information Yn in S9, and the second estimated value is determined in S10. Outputs the value X2.

S3〜S5で第1推定値X1を更新した場合(S6でYES)は、S7で第2推定値X2を第1推定値X1で上書きし、S8で残りのセンサ情報6を全て使って、第2推定値X2について推定処理し、S10で第2推定値X2を出力する。   When the first estimated value X1 is updated in S3 to S5 (YES in S6), the second estimated value X2 is overwritten with the first estimated value X1 in S7, and all the remaining sensor information 6 is used in S8. 2 Estimate processing is performed on the estimated value X2, and the second estimated value X2 is output in S10.

以下、上記の動作フローの第1条件によって、センサ情報を蓄積し処理する例を示す。   Hereinafter, an example in which sensor information is accumulated and processed according to the first condition of the operation flow will be described.

図5は、3つのセンサA,B,Cによる計測状態を示す説明図であり、図6は、3つのセンサA,B,Cから統合装置10への入力順序を示す説明図である。   FIG. 5 is an explanatory diagram showing measurement states by the three sensors A, B, and C, and FIG. 6 is an explanatory diagram showing an input order from the three sensors A, B, and C to the integrated device 10.

図5において、3つのセンサA,B,Cはそれぞれ、センサ情報A1,A2,A3,A4、B1,B2,B3、C1,C2を順次出力する。この時、3つのセンサA,B,Cの処理時間、通信遅延などによって、状態推定装置10に入力されるセンサ情報6の順番は図6のようになる。
図6におけるステップ1〜5は、状態推定装置10における処理の中間段階を示している。
In FIG. 5, the three sensors A, B, and C sequentially output sensor information A1, A2, A3, A4, B1, B2, B3, C1, and C2, respectively. At this time, the order of the sensor information 6 input to the state estimation device 10 is as shown in FIG. 6 depending on the processing time, communication delay, and the like of the three sensors A, B, and C.
Steps 1 to 5 in FIG. 6 indicate intermediate stages of processing in the state estimation device 10.

図7は、3つのセンサA,B,Cで計測した場合の、データ記憶部12のセンサ情報6の推移を示す説明図である。
図6の例において、一連の処理によって、データ記憶部12内のセンサ情報6は、図7のように推移する。
FIG. 7 is an explanatory diagram showing transition of sensor information 6 in the data storage unit 12 when measured by three sensors A, B, and C. FIG.
In the example of FIG. 6, the sensor information 6 in the data storage unit 12 changes as shown in FIG. 7 through a series of processes.

ステップ1までは、センサCの情報がないため、第1推定値X1は更新されない。その間、状態推定装置10は、A1→B1→A2の順にセンサ情報6を使って、第2推定値X2を推定処理する。   Until step 1, since there is no information of the sensor C, the first estimated value X1 is not updated. Meanwhile, the state estimation device 10 performs the estimation process on the second estimated value X2 using the sensor information 6 in the order of A1 → B1 → A2.

ステップ2の時点で、センサ情報A1,C1は第1条件を満たす。したがって、第1推定値X1をセンサ情報A1→C1を使って更新し、センサ情報A1,C1は削除される。第2推定値X2は第1推定値X1で上書きされ、残りのデータを全て使って推定処理される。したがって、第2推定値X2は、センサ情報A1→C1→B1→A2と観測時刻順に処理された結果となる。
この結果、データ記憶部12内のセンサ情報6は、センサ情報B1,A2のみとなる。
At step 2, the sensor information A1, C1 satisfies the first condition. Therefore, the first estimated value X1 is updated using the sensor information A1 → C1, and the sensor information A1, C1 is deleted. The second estimated value X2 is overwritten with the first estimated value X1, and is estimated using all the remaining data. Therefore, the second estimated value X2 is a result of processing in the order of the observation time in the sensor information A1->C1->B1-> A2.
As a result, the sensor information 6 in the data storage unit 12 is only the sensor information B1 and A2.

ステップ3までは、第1条件を満たすデータはなく、新たなセンサ情報B2,B3のみを用いて第2推定値X2のみを逐次処理する。この場合、センサ情報B1,A2を処理しない分、非特許文献2の方法より計算量が少ない。   Until step 3, there is no data satisfying the first condition, and only the second estimated value X2 is sequentially processed using only new sensor information B2 and B3. In this case, since the sensor information B1 and A2 are not processed, the calculation amount is smaller than that of the method of Non-Patent Document 2.

ステップ4でも、新たなセンサ情報A3のみを用いて第2推定値X2のみを処理する。この時新たに加わったセンサ情報A3は、センサ情報B3よりも古い時刻なので、第2推定値X2の推定精度は一時的に低下する。   Also in step 4, only the second estimated value X2 is processed using only the new sensor information A3. Since the sensor information A3 newly added at this time is older than the sensor information B3, the estimation accuracy of the second estimated value X2 temporarily decreases.

ステップ5にて、センサ情報B1,A2,B2,A3が第1条件を満たすため、第1推定値X1を更新する。第2推定値X2の最終出力は、センサ情報をA1→C1→B1→A2→B2→A3→C2→B3のように観測時刻順に処理した結果となる。この結果、ステップ4で発生した誤差が解消される。   In step 5, since the sensor information B1, A2, B2, A3 satisfies the first condition, the first estimated value X1 is updated. The final output of the second estimated value X2 is the result of processing the sensor information in the order of observation time in the order of A1, C1, B1, A2, B2, A3, C2, B3. As a result, the error generated in step 4 is eliminated.

データ記憶部12にセンサ情報Ynを記録する際、観測時刻が同一のセンサ情報6がある場合は、計測値の統計値をとって、1つのセンサ情報6に統合することができる。例えば、計測値の平均値をとる、或いは、非特許文献2の方法のように情報フィルタによって統合する。こうすることで、データ記憶部12に記録するセンサ情報6を減らすことができ、消費メモリや計算量を減らすことができる。   When sensor information Yn is recorded in the data storage unit 12, if there is sensor information 6 with the same observation time, the statistical value of the measured value can be taken and integrated into one sensor information 6. For example, an average value of measured values is taken or integrated by an information filter as in the method of Non-Patent Document 2. By doing so, the sensor information 6 to be recorded in the data storage unit 12 can be reduced, and the consumption memory and the calculation amount can be reduced.

上述した本発明の方法と装置によれば、第1条件を満たす場合には、そのセンサ情報6の観測時刻と同じかそれよりも新しいセンサ情報6がすべてのセンサから受信されているので、非特許文献2の手段と同様に、第1推定値記憶部17の第1推定値X1は観測時刻の順にセンサ情報6を処理した推定結果となる。したがって、第2推定値X2を第1推定値X1で上書きして、対象物1の内部状態7として出力することにより、高い精度で複数のセンサ情報6を統合することができる。   According to the above-described method and apparatus of the present invention, when the first condition is satisfied, sensor information 6 that is the same as or newer than the observation time of the sensor information 6 is received from all the sensors. Similar to the means of Patent Document 2, the first estimated value X1 of the first estimated value storage unit 17 is an estimation result obtained by processing the sensor information 6 in the order of the observation time. Therefore, by overwriting the second estimated value X2 with the first estimated value X1 and outputting it as the internal state 7 of the object 1, a plurality of sensor information 6 can be integrated with high accuracy.

第1条件を満たさない場合には、新たに受信したセンサ情報6を用いて内部状態7を予測し、第2推定値X2を予測した内部状態7に更新して、対象物1の内部状態7として出力することにより、最新のセンサ情報6に基づき複数のセンサ情報6を統合することができる。
この場合は、時刻の古いセンサ情報6を処理する場合があるため、一時的に精度が低くなることがあるが、この誤差は、第1条件を満たしたときに、精度の高い第1推定値X1で上書きされることで全て解消され、以降の推定に影響しない。したがって、第1条件を満たさない場合でも、第2推定値X2の推定結果は、非特許文献1の方法よりも精度が高くなる。
When the first condition is not satisfied, the internal state 7 is predicted using the newly received sensor information 6 and the second estimated value X2 is updated to the predicted internal state 7, so that the internal state 7 of the object 1 is updated. As a result, a plurality of sensor information 6 can be integrated based on the latest sensor information 6.
In this case, since sensor information 6 with an old time may be processed, the accuracy may be temporarily lowered. This error is a highly accurate first estimated value when the first condition is satisfied. All are canceled by being overwritten with X1, and the subsequent estimation is not affected. Therefore, even when the first condition is not satisfied, the estimation result of the second estimated value X2 is more accurate than the method of Non-Patent Document 1.

また、蓄積したデータを毎回全て処理するわけではなく、第1条件を満たしたタイミングでのみ処理するため、非特許文献2よりも計算量が少ない。
また、第1条件を満たす場合に処理することで、事前に許容時間を設定することなく、各センサ5の遅延時間が不確定でも、必ず観測時刻順にセンサ情報6を処理できる。
In addition, the accumulated data is not processed every time, but is processed only at the timing when the first condition is satisfied.
Further, by processing when the first condition is satisfied, the sensor information 6 can always be processed in the order of observation time even if the delay time of each sensor 5 is indeterminate without setting an allowable time in advance.

なお、本発明は上述した実施形態に限定されず、特許請求の範囲の記載によって示され、さらに特許請求の範囲の記載と均等の意味および範囲内でのすべての変更を含むものである。   In addition, this invention is not limited to embodiment mentioned above, is shown by description of a claim, and also includes all the changes within the meaning and range equivalent to description of a claim.

1 移動ロボット(対象物)、2 ロボット上カメラ、3 外部カメラ、
5 センサ、6 センサ情報、7 内部状態、
10 統合装置(状態推定装置)、
12 データ記憶部、14 予測部、16 更新部、
17 第1推定値記憶部、18 第2推定値記憶部、20 制御部
1 Mobile robot (object) 2 Camera on the robot 3 External camera
5 Sensor, 6 Sensor information, 7 Internal state,
10 Integrated device (state estimation device),
12 data storage units, 14 prediction units, 16 update units,
17 1st estimated value memory | storage part, 18 2nd estimated value memory | storage part, 20 control part

Claims (5)

複数のセンサからセンサ情報をランダムに受信し、複数のセンサ情報を統合して対象物の内部状態を予測し出力するセンサ情報の統合方法であって、
(A)データ記憶部により、新たに受信したセンサ情報を、観測時刻の順に記録し、
(B)制御部により、データ記憶部に記録された各センサ情報に対し、第1条件を満たすか否かを判定し、
第1条件:そのセンサ情報の観測時刻と同じかそれよりも新しいセンサ情報がすべてのセンサから受信されていること、
(C)第1条件を満たす場合に、第1条件を満たす各センサ情報を観測時刻順に用いて、予測部により内部状態を予測し、第1推定値記憶部により第1推定値を予測した内部状態に更新して記憶し、第2推定値記憶部により第2推定値を更新した第1推定値で上書きし、更新に用いたセンサ情報を削除し、
(D)第1条件を満たさない場合に、新たに受信したセンサ情報を用いて、予測部により内部状態を予測し、第2推定値記憶部により第2推定値を予測した内部状態に更新して記憶し、
(E)第2推定値記憶部の第2推定値を対象物の内部状態として出力する、ことを特徴とするセンサ情報の統合方法。
A sensor information integration method for receiving sensor information from a plurality of sensors at random, integrating the plurality of sensor information, and predicting and outputting an internal state of the object,
(A) The newly received sensor information is recorded in order of observation time by the data storage unit,
(B) The control unit determines whether or not the first condition is satisfied for each sensor information recorded in the data storage unit,
First condition: sensor information that is the same as or newer than the observation time of the sensor information is received from all sensors,
(C) When the first condition is satisfied, each sensor information satisfying the first condition is used in the order of observation time, the internal state is predicted by the prediction unit, and the first estimation value is predicted by the first estimation value storage unit Updated and stored in the state, overwritten with the first estimated value updated by the second estimated value storage unit, delete the sensor information used for the update,
(D) When the first condition is not satisfied, the internal state is predicted by the prediction unit using the newly received sensor information, and the second estimated value is updated to the predicted internal state by the second estimated value storage unit. Remember,
(E) A method for integrating sensor information, wherein the second estimated value stored in the second estimated value storage unit is output as an internal state of the object.
第2条件:そのセンサ情報の観測時刻が、現在時刻に対して遅れが許容できる設定時間以上古い時刻であること、又は
第3条件:そのセンサ情報の観測時刻よりも新しいセンサ情報が、データ記憶部の容量を超えない設定数以上記録されていること、が満たされる場合に第1条件と同様に処理する、ことを特徴とする請求項1に記載のセンサ情報の統合方法。
2nd condition: The observation time of the sensor information is a time older than a set time that can be delayed with respect to the current time, or 3rd condition: sensor information newer than the observation time of the sensor information is stored in the data 2. The sensor information integration method according to claim 1, wherein the processing is performed in the same manner as in the first condition when it is satisfied that a set number of records not exceeding the capacity of the copy is satisfied.
使用するセンサを登録した複数のセンサリストを用意し、稼働中にセンサリストを変更し、前記第1条件を満たすか否かを判定する、ことを特徴とする請求項1に記載のセンサ情報の統合方法。   The sensor information according to claim 1, wherein a plurality of sensor lists in which sensors to be used are registered are prepared, the sensor list is changed during operation, and it is determined whether or not the first condition is satisfied. Integration method. 複数のセンサからセンサ情報をランダムに受信し、複数のセンサ情報を統合して対象物の内部状態を予測し出力するセンサ情報の統合装置であって、
受信したセンサ情報をその観測時刻の順に記録するデータ記憶部と、
センサ情報から対象物の内部状態を予測する予測部と、
内部状態を更新する更新部と、
内部状態の第1推定値を記憶する第1推定値記憶部と、
内部状態の第2推定値を記憶する第2推定値記憶部と、
データ記憶部、予測部、更新部、第1推定値記憶部及び第2推定値記憶部を制御する制御部とを備え、
(A)新たに受信したセンサ情報を、観測時刻の順にデータ記憶部に記録し、
(B)データ記憶部に記録された各センサ情報に対し、第1条件を満たすか否かを判定し、
第1条件:そのセンサ情報の観測時刻と同じかそれよりも新しいセンサ情報がすべてのセンサから受信されていること、
(C)第1条件を満たす場合に、第1条件を満たす各センサ情報を観測時刻順に用いて、内部状態を予測し、第1推定値を予測した内部状態に更新して第1推定値記憶部に記憶し、第2推定値を更新した第1推定値で上書きし、更新に用いたセンサ情報を削除し、
(D)第1条件を満たさない場合に、新たに受信したセンサ情報を用いて、内部状態を予測し、第2推定値を予測した内部状態に更新して第2推定値記憶部に記憶し、
(E)第2推定値記憶部の第2推定値を対象物の内部状態として出力する、ことを特徴とするセンサ情報の統合装置。
A sensor information integration device that randomly receives sensor information from a plurality of sensors, integrates the plurality of sensor information, and predicts and outputs an internal state of an object,
A data storage unit that records the received sensor information in the order of their observation times;
A prediction unit for predicting the internal state of the object from the sensor information;
An update unit for updating the internal state;
A first estimated value storage unit for storing a first estimated value of the internal state;
A second estimated value storage unit for storing a second estimated value of the internal state;
A data storage unit, a prediction unit, an update unit, a control unit that controls the first estimated value storage unit and the second estimated value storage unit,
(A) The newly received sensor information is recorded in the data storage unit in order of observation time,
(B) For each sensor information recorded in the data storage unit, determine whether the first condition is satisfied,
First condition: sensor information that is the same as or newer than the observation time of the sensor information is received from all sensors,
(C) When the first condition is satisfied, each sensor information satisfying the first condition is used in the order of observation time, the internal state is predicted, the first estimated value is updated to the predicted internal state, and the first estimated value is stored. The second estimated value is overwritten with the updated first estimated value, the sensor information used for the update is deleted,
(D) When the first condition is not satisfied, the internal state is predicted using the newly received sensor information, and the second estimated value is updated to the predicted internal state and stored in the second estimated value storage unit. ,
(E) A sensor information integration device, characterized in that the second estimated value stored in the second estimated value storage unit is output as the internal state of the object.
使用するセンサを登録したセンサリストをデータ記憶部に記録する複数の統合装置を使用し、各統合装置により対応するセンサリストに登録されたセンサから前記第1条件を満たすか否かを判定する、ことを特徴とする請求項4に記載のセンサ情報の統合装置。
Using a plurality of integrated devices that record a sensor list in which a sensor to be used is registered in the data storage unit, and determining whether or not the first condition is satisfied from the sensors registered in the corresponding sensor list by each integrated device; The sensor information integration device according to claim 4.
JP2011188480A 2011-08-31 2011-08-31 Sensor information integration method and apparatus Active JP5741328B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011188480A JP5741328B2 (en) 2011-08-31 2011-08-31 Sensor information integration method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011188480A JP5741328B2 (en) 2011-08-31 2011-08-31 Sensor information integration method and apparatus

Publications (2)

Publication Number Publication Date
JP2013050852A true JP2013050852A (en) 2013-03-14
JP5741328B2 JP5741328B2 (en) 2015-07-01

Family

ID=48012843

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011188480A Active JP5741328B2 (en) 2011-08-31 2011-08-31 Sensor information integration method and apparatus

Country Status (1)

Country Link
JP (1) JP5741328B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019185366A (en) * 2018-04-10 2019-10-24 住友電気工業株式会社 Information processing device, system, method, and computer program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6772809B2 (en) * 2016-12-14 2020-10-21 株式会社Ihi Information processing device and information processing method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008203095A (en) * 2007-02-20 2008-09-04 Mitsubishi Electric Corp Device for estimating motion specification

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008203095A (en) * 2007-02-20 2008-09-04 Mitsubishi Electric Corp Device for estimating motion specification

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6015012559; 系 正義 Masayoshi ITO: '広域複数センサシステムにおける遅延データ対処型目標追尾フィルタ Target Tracking Filter for Processin' 電子情報通信学会論文誌 (J84-B) 第10号 THE TRANSACTIONS OF THE INSTITUTE OF ELECTRONICS,I 第J84-B巻, 社団法人電子情報通信学会 THE INSTITUTE OF ELECTRO *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019185366A (en) * 2018-04-10 2019-10-24 住友電気工業株式会社 Information processing device, system, method, and computer program
JP7187806B2 (en) 2018-04-10 2022-12-13 住友電気工業株式会社 Information processing device, system, method, and computer program

Also Published As

Publication number Publication date
JP5741328B2 (en) 2015-07-01

Similar Documents

Publication Publication Date Title
US10852139B2 (en) Positioning method, positioning device, and robot
JP6818907B2 (en) Obstacle recognition device and obstacle recognition method
JP5609073B2 (en) Positioning device, positioning method and program
US7848881B2 (en) Automatic past error corrections for location and inventory tracking
EP2519803B1 (en) Technique for calibrating dead reckoning positioning data
JP5460148B2 (en) Positioning device and program
CN110929796B (en) Multi-source sensor-based decision layer data fusion method and system and storage medium
CN111177295A (en) Image-building ghost eliminating method and device, computer-readable storage medium and robot
JP5741328B2 (en) Sensor information integration method and apparatus
CN110553649B (en) Track optimization algorithm, storage medium and supervision system
CN112572460A (en) Method and apparatus for estimating yaw rate with high accuracy, and storage medium
JP6169146B2 (en) Object recognition integration apparatus and object recognition integration method
CN112534446A (en) Electronic control device and neural network updating system
JP2021507266A (en) Methods and devices for operating inertial sensor units for vehicles
CN111198390A (en) Apparatus and method for estimating vehicle position
JP2015082758A (en) Remote operation reception system, remote operation system, and program
US20220075053A1 (en) Method and apparatus for sensor data fusion for a vehicle
JP7013993B2 (en) Diagnostic device and diagnostic method
JP6820762B2 (en) Position estimator
EP2159595B1 (en) A target tracking system and a method for tracking a target
JP5583291B1 (en) Remote operation reception system, remote operation system and program
JP2003075173A (en) Method for correcting track of travel and track processing device
WO2022195813A1 (en) Host vehicle position integration processing device and host vehicle position integration processing method
CN111982179B (en) Abnormality detection device, abnormality detection method, and computer-readable medium
JP7207163B2 (en) Anomaly detection device, anomaly detection method, anomaly detection program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150413

R151 Written notification of patent or utility model registration

Ref document number: 5741328

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250