JPH06331400A - Sensor fusion method - Google Patents

Sensor fusion method

Info

Publication number
JPH06331400A
JPH06331400A JP12112893A JP12112893A JPH06331400A JP H06331400 A JPH06331400 A JP H06331400A JP 12112893 A JP12112893 A JP 12112893A JP 12112893 A JP12112893 A JP 12112893A JP H06331400 A JPH06331400 A JP H06331400A
Authority
JP
Japan
Prior art keywords
sensor
certainty
data
sensors
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP12112893A
Other languages
Japanese (ja)
Inventor
Yoshinari Yamagami
嘉也 山上
Yutaka Yamauchi
豊 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP12112893A priority Critical patent/JPH06331400A/en
Publication of JPH06331400A publication Critical patent/JPH06331400A/en
Pending legal-status Critical Current

Links

Landscapes

  • Testing Or Calibration Of Command Recording Devices (AREA)
  • Manipulator (AREA)
  • Refuse Collection And Transfer (AREA)

Abstract

PURPOSE:To clarify a sensor fusion method which enables correction at higher accuracy than ever by utilizing various characteristics a plurality of sensors have for sensor fusion. CONSTITUTION:Various characteristics of sensors are evaluated with one evaluation element or a plurality of evaluation elements to define a certainty function indicating the degree of certainty of a sensor output with the evaluation elements as variables. Then, the current value of the evaluation element is inputted into the certainty function for each sensor to calculate the degrees of certainty about the individual evaluation elements. The degrees of certainty thus obtained are synthesized by weighting to calculate synthesized degrees of certainty B1 and B2 of the sensors (steps S1-S4). Thereafter, a weighting is applied to output data of the sensors based on the synthesized degrees of certainty to calculate a correction factor for measuring data to correct the measuring data by the correction factor (S5, S6).

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、複数のセンサから得ら
れる情報を融合或いは統合して新たな認識情報を得るた
めのセンサフュージョン手法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a sensor fusion method for fusing or integrating information obtained from a plurality of sensors to obtain new recognition information.

【0002】[0002]

【従来の技術】センサフュージョン手法によれば、同種
又は異種の複数のセンサから得られる情報に基づいて更
に精度の高いデータが得られるため、種々の分野で応用
が検討されている(電気学会誌113巻、1993年2月号131〜1
38頁参照)。
2. Description of the Related Art According to a sensor fusion method, more accurate data can be obtained based on information obtained from a plurality of sensors of the same type or different types, and its application is being studied in various fields. Volume 113, February 1993 131-1
(See page 38).

【0003】例えば床面移動ロボットの走行制御におい
ては、床面に接触して回転する計測輪の回転角度を検出
すると同時に、ロボット本体に設けた超音波センサや光
センサを用いて壁面までの距離を測定して、前記計測輪
の回転角度から算出されるロボットの現在位置を前記距
離センサの出力によって補正し、ロボットの移動経路を
高精度に制御することが行なわれる。
For example, in running control of a floor mobile robot, the rotation angle of a measuring wheel that rotates in contact with the floor is detected, and at the same time, the distance to the wall surface is measured using an ultrasonic sensor or an optical sensor provided in the robot body. Is measured, the current position of the robot calculated from the rotation angle of the measuring wheel is corrected by the output of the distance sensor, and the movement path of the robot is controlled with high accuracy.

【0004】この様に基礎となる計測データ(ロボット
の現在位置)に対して複数のセンサ出力に基づく補正を
施す場合、従来のセンサフュージョン手法においては、
複数のルールが規定される。例えば、ロボットが保有す
る地図等に基づいてロボットの現在位置を予測し、該予
測データと距離センサの出力とを比較して、その差が一
定範囲内であれば、距離センサの出力を信頼する。この
様なルールが必要数だけ規定され、これらのルールを全
て満足したとき、計測データの替りに距離センサの出力
を用いて、ロボットの移動制御が行なわれる。
In the case where the basic measurement data (the current position of the robot) is corrected based on a plurality of sensor outputs as described above, in the conventional sensor fusion method,
Multiple rules are defined. For example, the current position of the robot is predicted based on a map held by the robot, the predicted data is compared with the output of the distance sensor, and if the difference is within a certain range, the output of the distance sensor is relied on. . The required number of such rules are defined, and when all of these rules are satisfied, the movement control of the robot is performed using the output of the distance sensor instead of the measurement data.

【0005】[0005]

【発明が解決しようとする課題】ところが、従来のセン
サフュージョン手法においては、場合によって膨大な数
のルールが必要となって、処理時間が長くなる問題があ
る。又、各センサについては、そのセンサ出力を用いて
補正を行なうか否か、即ち“1”か“0”かの判断が行
なわれるに過ぎないから、各センサが有している特徴や
性能等の特性が充分にセンサフュージョンに活かされて
おらず、センサフュージョンによる補正が必ずしも精度
の高いものとは言えない。
However, the conventional sensor fusion method has a problem that a huge number of rules are required depending on the case and the processing time becomes long. Further, regarding each sensor, whether or not the correction is performed using the sensor output, that is, whether the correction is “1” or “0” is performed only. The characteristics of 1 are not fully utilized in sensor fusion, and the correction by sensor fusion cannot be said to be highly accurate.

【0006】本発明の目的は、センサが有している各種
特性をセンサフュージョンに活かすことが出来、これに
よって従来よりも精度の高い補正を行なうことが出来る
センサフュージョン手法を明らかにすることである。
An object of the present invention is to clarify a sensor fusion method capable of utilizing various characteristics of the sensor in the sensor fusion and thereby performing correction with higher accuracy than ever before. .

【0007】[0007]

【課題を解決する為の手段】本発明に係るセンサフュー
ジョン手法は、第1ステップにて、各センサについて、
センサの特徴や性能等の特性を1或いは複数の評価要素
によって評価することにより、各評価要素を変数として
センサ出力の確信度(信頼度)を表わす確信度関数を定義
する。第2ステップでは、各センサについて、前記第1
ステップにて定義された複数の確信度関数に、計測デー
タに対応する評価要素の現在値を入力して、各評価要素
についての確信度を算出する。第3ステップでは、各セ
ンサについて、前記第2ステップにて算出された複数の
確信度を重み付けによって合成し、各センサの合成確信
度を算出する。第4ステップでは、各センサの出力デー
タに前記合成確信度に基づく重み付けを施して、前記計
測データに対する補正量を算出し、該補正量によって計
測データを補正する。
According to the sensor fusion method of the present invention, in the first step,
The characteristics such as the characteristics and performance of the sensor are evaluated by one or a plurality of evaluation elements, and a reliability function that represents the reliability (reliability) of the sensor output is defined with each evaluation element as a variable. In the second step, for each sensor, the first
The current value of the evaluation element corresponding to the measurement data is input to the plurality of certainty functions defined in step to calculate the certainty for each evaluation element. In the third step, for each sensor, the plurality of certainty factors calculated in the second step are combined by weighting to calculate the combined certainty factor of each sensor. In the fourth step, the output data of each sensor is weighted based on the combined certainty factor to calculate a correction amount for the measurement data, and the measurement data is corrected by the correction amount.

【0008】[0008]

【作用】第1ステップでは、各センサの特徴や性能等の
特性が、横軸を評価要素、縦軸を確信度とする確信度関
数に表わされる。例えば、超音波センサについては、評
価要素として測定対象面の傾斜角度、測定距離等が採用
され、傾斜角度が大きくなるにつれて、或いは測定距離
が大きくなるにつれて、確信度は低下する。第2ステッ
プでは、各確信度関数に、計測データに対応する評価要
素の現在値、例えば超音波センサについては測定距離等
の測定データが入力されて、その測定データの確信度が
算出される。第3ステップでは、各センサについての確
信度が重み付けによって合成される。この際の重み付け
係数は、そのセンサについての評価要素の重要性に応じ
て予め規定されている。該ステップにて得られる各セン
サについての合成確信度は、そのセンサが他のセンサに
対してどの程度の比率で計測データの補正に寄与すべき
かを表わすことになる。第4ステップでは、例えば合成
確信度をBsとすると、センサ出力X′nowから計測デ
ータXnowを差し引いた値に合成確信度Bsを乗算する
ことによって、補正量(=Bs×(X′now−Xnow))が得
られ、この補正量を計測データXnowに加算することに
よって、計測データが補正される。
In the first step, the characteristics such as the characteristics and performance of each sensor are expressed in a certainty factor function having the horizontal axis as the evaluation element and the vertical axis as the certainty factor. For example, with respect to the ultrasonic sensor, the inclination angle of the measurement target surface, the measurement distance, and the like are adopted as the evaluation elements, and the confidence decreases as the inclination angle increases or the measurement distance increases. In the second step, the current value of the evaluation element corresponding to the measurement data, for example, the measurement data such as the measurement distance for the ultrasonic sensor is input to each confidence function, and the confidence of the measurement data is calculated. In the third step, the certainty factors for each sensor are combined by weighting. The weighting coefficient at this time is defined in advance according to the importance of the evaluation element for the sensor. The combined certainty factor for each sensor obtained in this step represents to what ratio the sensor should contribute to the correction of the measurement data with respect to the other sensors. In the fourth step, for example, assuming that the combined certainty factor is Bs, the correction amount (= Bs × (X′now−Xnow )) Is obtained, and the measurement data is corrected by adding this correction amount to the measurement data Xnow.

【0009】従って、センサ出力X′nowと計測データ
Xnowが一致している場合や合成確信度Bsが零の場合
は、計測データXnowが補正されることなく、そのまま
制御に用いられ、合成確信度Bsが1の場合は、計測デ
ータXnowに替えてセンサ出力X′nowが制御に用いられ
る。又、合成確信度Bsが0<Bs<1の場合は、合成
確信度Bsの値に応じてセンサ出力X′nowと計測デー
タXnowが統合(センサフュージョン)され、精度の高い
補正データが得られることになる。
Therefore, when the sensor output X'now and the measurement data Xnow match or the combined confidence Bs is zero, the measured data Xnow is used as it is for control without being corrected, and the combined confidence is calculated. When Bs is 1, the sensor output X'now is used for control instead of the measurement data Xnow. When the combined certainty factor Bs is 0 <Bs <1, the sensor output X'now and the measurement data Xnow are integrated (sensor fusion) according to the value of the combined certainty factor Bs, and highly accurate correction data is obtained. It will be.

【0010】[0010]

【発明の効果】本発明に係るセンサフュージョン手法に
よれば、各センサ固有の特性が確信度関数としてセンサ
フュージョンに反映されるから、従来よりも精度の高い
補正を行なうことが出来る。
According to the sensor fusion method of the present invention, since the characteristic peculiar to each sensor is reflected in the sensor fusion as a certainty function, it is possible to perform the correction with higher accuracy than before.

【0011】[0011]

【実施例】以下、本発明を床面洗浄ロボットの走行制御
に応用した一実施例につき、図面に沿って詳述する。先
ず、図3乃至図5に基づいて床面洗浄ロボットの構成に
ついて説明する。図3及び図4に示す如く、自走台車
(1)の前進方向(図3の右方)の端部に一対の動輪(17)(1
8)、後退方向の端部にキャスター式の補助輪(19)を具
え、各動輪(17)(18)には夫々DCサーボモータ(2)(21)
が連結されている。又、動輪(17)(18)の側部には、台車
(1)の移動距離を実測するための計測車輪エンコーダ(2
2)(23)が配備されている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment in which the present invention is applied to the traveling control of a floor cleaning robot will be described in detail with reference to the drawings. First, the configuration of the floor surface cleaning robot will be described with reference to FIGS. 3 to 5. As shown in FIGS. 3 and 4, a self-propelled carriage
A pair of driving wheels (17) (1
8), equipped with caster type auxiliary wheels (19) at the end in the backward direction, and each driving wheel (17) (18) has a DC servo motor (2) (21).
Are connected. On the side of the driving wheels (17) (18),
Measuring wheel encoder (2) for measuring the moving distance of (1)
2) (23) has been deployed.

【0012】台車(1)上には、頭部ハウジング(12)が設
けられると共に、台車(1)と頭部ハウジング(12)の間に
は、回転ハウジング(11)が水平面内で回転自在に配備さ
れている。又、頭部ハウジング(12)内には洗浄液タンク
(15)の他、電源回路、制御回路等の各種電子回路(図示
省略)が収容され、台車(1)内には汚水回収タンク(16)
が収容されている。
A head housing (12) is provided on the carriage (1), and a rotary housing (11) is rotatably in a horizontal plane between the carriage (1) and the head housing (12). It has been deployed. Also, a cleaning liquid tank is provided in the head housing (12).
In addition to (15), various electronic circuits (not shown) such as a power supply circuit and a control circuit are housed, and a sewage recovery tank (16) is provided in the carriage (1).
Is housed.

【0013】回転ハウジング(11)の後壁に開設した窓(1
1a)から引き出された電源コード(10)をAC電源へ接続
することによって、洗浄ロボットに電力が供給される。
A window (1) opened on the rear wall of the rotary housing (11)
Electric power is supplied to the cleaning robot by connecting the power cord (10) drawn from 1a) to an AC power source.

【0014】台車(1)には、その前方に、下方が開口し
た左右一対の洗浄部ハウジング(13)(13)が配備されてお
り、各洗浄部ハウジング(13)内には、モータ(図示省略)
によって回転駆動される夫々2つの回転ブラシ(14)(14)
を含む洗浄機構(20)が収容され、洗浄部ハウジング(13)
の下方からブラシ下端部を僅かに臨出している。
The carriage (1) is provided with a pair of left and right cleaning unit housings (13) (13) having an opening at the front in front of the vehicle (1). Each cleaning unit housing (13) has a motor (shown in the figure). (Omitted)
Two rotating brushes (14) (14) each driven by
A cleaning mechanism housing (13) containing a cleaning mechanism (20) including
The lower end of the brush is slightly exposed from below.

【0015】洗浄液タンク(15)はゴムホース(図示省略)
を介して洗浄部ハウジング(13)(13)内へ導かれ、1列に
並んだ4つの回転ブラシ(14)に対し洗浄液を供給する。
又、回転ブラシ(14)の後方に配置されたスクイージ(図
示省略)の吸込口はフレキシブルチューブ及びポンプ(何
れも図示省略)を介して汚水回収タンク(16)へ接続され
る。
The cleaning liquid tank (15) is a rubber hose (not shown).
The cleaning liquid is introduced into the cleaning unit housings (13) and (13) through the cleaning liquid and is supplied to the four rotating brushes (14) arranged in a line.
Further, a suction port of a squeegee (not shown) arranged behind the rotating brush (14) is connected to the sewage recovery tank (16) via a flexible tube and a pump (both not shown).

【0016】台車(1)の移動中に、4つの回転ブラシ(1
4)が回転駆動されると同時に、洗浄液タンク(15)からは
洗浄液が回転ブラシ(14)へ供給され、これによって床面
が洗浄される。又、これによって生じた汚水は、自走台
車(1)の前進に伴って前記スクイージ内に吸込まれ、汚
水回収タンク(16)へ回収されるのである。
During movement of the carriage (1), four rotating brushes (1
At the same time as the rotation of (4), the cleaning liquid is supplied from the cleaning liquid tank (15) to the rotating brush (14), whereby the floor surface is cleaned. Further, the sewage generated by this is sucked into the squeegee as the self-propelled carriage (1) moves forward, and is collected in the sewage collection tank (16).

【0017】頭部ハウジング(12)には、前方へ向けて4
つの遠距離超音波センサ(31)(32)(33)(34)、両側方へ向
けて夫々2つの遠距離超音波センサ(51)(52)及び(61)(6
2)、後方へ向けて2つの遠距離超音波センサー(41)(42)
が配設されている。又、洗浄部ハウジング(13)(13)には
夫々前方へ向けて近接超音波センサ(35)(35)が配設され
ている。更に、台車(1)には、両側方へ向けて夫々2つ
の近接光センサ(53)(54)及び(63)(64)が配設されてい
る。
The head housing (12) has 4
Two long-distance ultrasonic sensors (31) (32) (33) (34), and two long-distance ultrasonic sensors (51) (52) and (61) (6) to each side.
2), 2 long-distance ultrasonic sensors facing backwards (41) (42)
Is provided. In addition, proximity ultrasonic sensors (35) (35) are arranged in the cleaning unit housings (13) (13) toward the front. Further, the carriage (1) is provided with two proximity light sensors (53) (54) and (63) (64), respectively, to the both sides.

【0018】斯くして、図3及び図4の如く前方へ向い
た4つの遠距離超音波センサー(31)(32)(33)(34)及び2
つの近接超音波センサー(35)(36)によって前方距離検出
器(3)が構成され、後方へ向いた2つの遠距離超音波セ
ンサー(41)(42)によって後方距離検出器(4)が構成され
る。又、進行方向に向かって右側を向いた2つの遠距離
超音波センサー(51)(52)及び2つの近接光センサー(53)
(54)によって右側方距離検出器(5)が構成され、左側を
向いた2つの遠距離超音波センサー(61)(62)及び近接光
センサー(63)(64)によって左側方距離検出器(6)が構成
される。
Thus, as shown in FIGS. 3 and 4, four long-distance ultrasonic sensors (31) (32) (33) (34) and 2 facing forward are provided.
The front distance detector (3) is composed of two proximity ultrasonic sensors (35) (36), and the rear distance detector (4) is composed of two far distance ultrasonic sensors (41) (42) facing rearward. To be done. Also, two long distance ultrasonic sensors (51) (52) and two proximity light sensors (53) facing the right side in the traveling direction.
The right side distance detector (5) is constituted by (54), and the left side distance detector (61) (62) and the proximity light sensors (63) (64) facing the left side are detected by the left side distance detector ( 6) is constructed.

【0019】尚、上記センサーの測定レンジは、遠距離
超音波センサーが300mm乃至9000mm、近接超音波セ
ンサーが100乃至1000mm、近接光センサーが100乃至50
0mmに設定されている。
The measuring range of the above sensors is 300 to 9000 mm for long distance ultrasonic sensors, 100 to 1000 mm for near ultrasonic sensors, and 100 to 50 for near optical sensors.
It is set to 0 mm.

【0020】図5はロボット制御系を示しており、マイ
クロコンピュータからなる主制御回路(7)の入力ポート
には、前方距離検出器(3)、後方距離検出器(4)、右側
方距離検出器(5)及び左側方距離検出器(6)が接続され
ると共に、右計測車輪エンコーダ(22)及び左計測車輪エ
ンコーダ(23)が接続されている。両エンコーダの出力値
は、ロボットの実際の移動軌跡としてデータが保存され
る。
FIG. 5 shows a robot control system, in which a front distance detector (3), a rear distance detector (4) and a right side distance detection are provided at an input port of a main control circuit (7) composed of a microcomputer. The device (5) and the left side distance detector (6) are connected, and the right measuring wheel encoder (22) and the left measuring wheel encoder (23) are connected. The output values of both encoders are stored as the actual movement trajectory of the robot.

【0021】又、主制御回路(7)の入力ポートには、移
動空間の地図が格納された地図格納部(71)と、所定の走
行経路が前記地図上のX−Y座標で表わされた走行経路
格納部(72)とが接続されている。
In addition, an input port of the main control circuit (7) includes a map storage section (71) storing a map of a moving space and a predetermined traveling route represented by XY coordinates on the map. It is also connected to the travel route storage unit (72).

【0022】一方、主制御回路(7)の出力ポートには、
洗浄機構(20)、右動輪モータ(2)及び左動輪モータ(21)
が接続され、洗浄動作の開始及び停止が制御されると共
に、両動輪の正逆回転による台車走行制御が行なわれ
る。
On the other hand, at the output port of the main control circuit (7),
Cleaning mechanism (20), right wheel motor (2) and left wheel motor (21)
Is connected to control the start and stop of the cleaning operation, and the carriage traveling control is performed by the forward and reverse rotations of both driving wheels.

【0023】台車走行制御においては、台車走行中に前
記計測車輪エンコーダ(以下、単に計測輪という)から
得られる計測データに対して超音波センサや光センサの
出力に基づく補正(センサフュージョン)が施されて、ロ
ボットの現在位置が認識される。
In trolley traveling control, correction (sensor fusion) based on the output of an ultrasonic sensor or an optical sensor is applied to measurement data obtained from the measurement wheel encoder (hereinafter, simply referred to as measurement wheel) while the trolley is traveling. Then, the current position of the robot is recognized.

【0024】先ず、超音波センサのみによるセンサフュ
ージョンについて説明する。超音波センサについては、
超音波を照射すべき側壁に対してロボットの進行方向が
並行な場合、即ち姿勢データθが0°のとき、側壁に対
する超音波の入射角度が90°となって最も高い精度が
得られ、姿勢データθが大きくなるにつれて確信度が低
下するから、姿勢データθを評価要素として図2(a)に
示す如き確信度関数f1(θ)を定義することが出来る。
ここでは、姿勢データθが0のとき確信度を1、姿勢デ
ータθが±10°のとき確信度を0.5として、その間
を直線で繋ぐと共に、姿勢データθが±10°を越える
ときは確信度を0に設定している。
First, sensor fusion using only the ultrasonic sensor will be described. For ultrasonic sensors,
When the robot travels in parallel to the side wall to be irradiated with ultrasonic waves, that is, when the posture data θ is 0 °, the incident angle of the ultrasonic wave on the side wall is 90 °, and the highest accuracy is obtained. Since the certainty factor decreases as the data θ increases, the certainty factor function f1 (θ) as shown in FIG. 2A can be defined using the posture data θ as an evaluation element.
Here, when the attitude data θ is 0, the certainty factor is 1, when the attitude data θ is ± 10 °, the certainty factor is 0.5, and the two are connected by a straight line. When the attitude data θ exceeds ± 10 °, The confidence level is set to 0.

【0025】更に、超音波センサにおいては、前述の如
く測定レンジが300mm乃至9000mmとなっており、測
定距離の約1%の誤差が発生するから、評価要素を距離
データxとして図2(b)に示す如き分布の確信度関数f
2(x)を定義することが出来る。
Further, in the ultrasonic sensor, the measuring range is 300 mm to 9000 mm as described above, and an error of about 1% of the measuring distance occurs, so that the evaluation element is the distance data x shown in FIG. 2 (b). Confidence function f of distribution as shown in
2 (x) can be defined.

【0026】又、上記床面洗浄ロボットにおいては、走
行経路格納部(72)に格納されている走行経路等に基づい
て、ロボットの現在位置を予測することが可能であり、
超音波センサによる現在位置の測定データがその予測値
から大きくずれている場合は、超音波センサの出力に大
きなノイズが含まれていること等が考えられ、その測定
データは信頼できない。従って、距離データxと予測デ
ータXrefとの位置ずれ(x−Xref)の絶対値を評価要素
として、図2(c)に示す如き確信度関数f3(abs(x
−Xref))を定義することが出来る。ここで、位置ずれ
が300mm以下であれば確信度を1、位置ずれが50
0mmを越えると確信度を0として、その間を直線で繋
いでいる。
Further, in the floor cleaning robot, it is possible to predict the current position of the robot based on the traveling route stored in the traveling route storing section (72),
When the measurement data of the current position by the ultrasonic sensor deviates greatly from the predicted value, it is considered that the output of the ultrasonic sensor contains a large amount of noise, and the measurement data is unreliable. Therefore, using the absolute value of the positional deviation (x-Xref) between the distance data x and the prediction data Xref as an evaluation element, the confidence factor function f3 (abs (x
-Xref)) can be defined. If the positional deviation is 300 mm or less, the certainty factor is 1 and the positional deviation is 50.
When it exceeds 0 mm, the certainty factor is set to 0, and the lines are connected.

【0027】図2(a)(b)(c)の如く定義された3つの
確信度関数に夫々、計測データに対応する評価要素(姿
勢データ、距離データ、位置ずれ)の現在値(θnow、
x、abs(x−Xref))を入力して、各評価要素につい
ての確信度を算出し、更に下記数1によって合成確信度
f(x,θ)を算出する。尚、姿勢データの現在値θnow
は計測輪の出力データから得られるが、2つの超音波セ
ンサからの出力に基づいて算出することも可能である。
Each of the three certainty functions defined as shown in FIGS. 2 (a) (b) (c) has a current value (θnow, θnow,) of the evaluation element (posture data, distance data, position deviation) corresponding to the measurement data.
x, abs (x-Xref)) is input, the confidence factor for each evaluation element is calculated, and further the combined confidence factor f (x, θ) is calculated by the following formula 1. The current value of the posture data θnow
Can be obtained from the output data of the measuring wheel, but can also be calculated based on the outputs from the two ultrasonic sensors.

【0028】[0028]

【数1】 [Equation 1]

【0029】ここで、c1、c2及びc3は重み付け係数
であって、3つの評価要素の重要性に応じて予め規定さ
れる。数1によって、3つの評価要素についての確信度
を合成した合成確信度が得られることになる。
Here, c 1 , c 2 and c 3 are weighting coefficients, which are defined in advance according to the importance of the three evaluation elements. By the formula 1, the combined confidence degree obtained by combining the confidence degrees for the three evaluation elements is obtained.

【0030】その後、計測輪から得られる計測データに
対して、超音波センサの出力に基づくセンサフュージョ
ンを施す。ここで、数1によって算出された超音波セン
サについての合成確信度をBs、超音波センサの出力に
基づいて計算されるロボットの現在位置をX′now、計
測輪から得られるロボットの現在位置をXnowとする
と、Xnowの補正式は下記数2の如く表わされる。
After that, sensor fusion based on the output of the ultrasonic sensor is applied to the measurement data obtained from the measurement wheel. Here, the composite confidence factor for the ultrasonic sensor calculated by Equation 1 is Bs, the current position of the robot calculated based on the output of the ultrasonic sensor is X'now, and the current position of the robot obtained from the measurement wheel is If Xnow is used, the correction equation for Xnow is expressed by the following equation 2.

【0031】[0031]

【数2】 [Equation 2]

【0032】数2によって、計測輪の出力データに対
し、超音波センサの出力データによる補正(センサフュ
ージョン)が施されることになる。
According to Equation 2, the output data of the measuring wheel is corrected (sensor fusion) by the output data of the ultrasonic sensor.

【0033】次に、超音波センサ及び光センサに基づく
センサフュージョンについて説明する。光センサについ
ても、超音波センサと同様に3つの確信度関数を定義す
ることが出来る。ここで、超音波センサについての合成
確信度をB1、光センサについての合成確信度をB2、
超音波センサの出力に基づいて計算されるロボットの現
在位置をXnow1、光センサの出力に基づいて計算され
るロボットの現在位置をXnow2、計測輪から得られる
ロボットの現在位置をXnowとすると、超音波センサと
光センサの間のセンサフュージョンは下記数3によって
行なわれる。
Next, sensor fusion based on the ultrasonic sensor and the optical sensor will be described. For the optical sensor, three confidence functions can be defined as in the ultrasonic sensor. Here, the composite confidence factor for the ultrasonic sensor is B1, the composite confidence factor for the optical sensor is B2,
Let Xnow1 be the current position of the robot calculated based on the output of the ultrasonic sensor, Xnow2 be the current position of the robot calculated based on the output of the optical sensor, and Xnow be the current position of the robot obtained from the measurement wheel. Sensor fusion between the sound wave sensor and the optical sensor is performed by the following equation 3.

【0034】[0034]

【数3】 [Equation 3]

【0035】そして、Xnowの補正式は下記数4によっ
て表わされる。
The Xnow correction equation is expressed by the following equation 4.

【0036】[0036]

【数4】 [Equation 4]

【0037】数3及び数4によって、計測輪の出力デー
タに対し、超音波センサ及び光センサの出力データによ
る補正(センサフュージョン)が施されることになる。
According to the equations (3) and (4), the output data of the measuring wheel is corrected by the output data of the ultrasonic sensor and the optical sensor (sensor fusion).

【0038】図1は、超音波センサと光センサによるセ
ンサフュージョンの手続きを表わしている。ステップS
1では、計測輪の出力データに基づいて、ロボットの現
在位置、即ちX軸方向の位置Xnow、Y軸方向の位置Yn
ow、及びロボットの傾斜角度である姿勢θnowが計算さ
れる。
FIG. 1 shows the procedure of sensor fusion using an ultrasonic sensor and an optical sensor. Step S
1, the present position of the robot, that is, the position Xnow in the X-axis direction and the position Yn in the Y-axis direction is calculated based on the output data of the measuring wheel.
ow and the posture θnow, which is the tilt angle of the robot, are calculated.

【0039】次にステップS2では、超音波センサから
のデータが入力されると共に、光センサからデータが入
力され、ステップS3にて、超音波センサについての合
成確信度B1が計算される共に、超音波センサの出力に
基づいてロボットの現在位置Xnow1が計算される。更
にステップS4では、光センサについての合成確信度B
2が計算されると共に、光センサの出力に基づいてロボ
ットの現在位置Xnow2が計算される。
Next, in step S2, the data from the ultrasonic sensor is input and the data is input from the optical sensor, and in step S3, the composite confidence factor B1 for the ultrasonic sensor is calculated and The current position Xnow1 of the robot is calculated based on the output of the sound wave sensor. Furthermore, in step S4, the composite confidence factor B for the optical sensor is
2 is calculated, and the current position Xnow2 of the robot is calculated based on the output of the optical sensor.

【0040】そして、ステップS5にて、上記数3によ
って超音波センサと光センサの間のセンサフュージョン
が行なわれ、ステップS6にて、上記数4によって現在
位置Xnowに対するX′nowによる補正(センサフュージ
ョン)が行なわれる。
Then, in step S5, the sensor fusion between the ultrasonic sensor and the optical sensor is performed by the above equation 3, and in step S6, the current position Xnow is corrected by X'now by the above equation 4 (sensor fusion). ) Is performed.

【0041】これによって精度の高い現在位置Xnowが
得られ、これに基づいてロボットの走行制御が行なわれ
る。更に、3以上のセンサに基づくセンサフュージョン
についても上記同様に行なうことが出来る。
As a result, a highly accurate current position Xnow is obtained, and the traveling control of the robot is performed based on this. Further, the same can be applied to the sensor fusion based on three or more sensors.

【0042】上述した本発明のセンサフュージョン手法
によれば、各センサーの固有の特性が確信度関数によっ
て定量的に評価され、その評価の結果が補正に反映され
るので、従来よりも精度の高い計測データを得ることが
出来る。
According to the above-described sensor fusion method of the present invention, the characteristic peculiar to each sensor is quantitatively evaluated by the certainty factor function, and the result of the evaluation is reflected in the correction, so that the accuracy is higher than in the prior art. Measurement data can be obtained.

【0043】上記実施例の説明は、本発明を説明するた
めのものであって、特許請求の範囲に記載の発明を限定
し、或は範囲を減縮する様に解すべきではない。又、本
発明の各部構成は上記実施例に限らず、特許請求の範囲
に記載の技術的範囲内で種々の変形が可能であることは
勿論である。例えば時間の経過につれて確信度が変化す
るセンサを用いた場合、評価要素の一つとして時間を規
定することになる。
The above description of the embodiments is for explaining the present invention, and should not be construed as limiting the invention described in the claims or limiting the scope. The configuration of each part of the present invention is not limited to the above-mentioned embodiment, and it goes without saying that various modifications can be made within the technical scope described in the claims. For example, when a sensor whose confidence factor changes over time is used, time is defined as one of the evaluation factors.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係るセンサフュージョン手法の手続き
を表わすフローチャートである。
FIG. 1 is a flowchart showing a procedure of a sensor fusion method according to the present invention.

【図2】3つの確信度関数を表わすグラフである。FIG. 2 is a graph showing three confidence functions.

【図3】床面洗浄ロボットを前方から見た斜視図であ
る。
FIG. 3 is a perspective view of the floor cleaning robot as viewed from the front.

【図4】同上の後方から見た斜視図である。FIG. 4 is a perspective view of the same as seen from the rear side.

【図5】床面洗浄ロボットの制御系を表わすブロック図
である。
FIG. 5 is a block diagram showing a control system of a floor cleaning robot.

【符号の説明】[Explanation of symbols]

(1) 自走台車 (17) 右動輪 (18) 左動輪 (19) 補助輪 (22) 右計測車輪エンコーダ (23) 左計測車輪エンコーダ (1) Self-propelled carriage (17) Right driving wheel (18) Left driving wheel (19) Auxiliary wheel (22) Right measuring wheel encoder (23) Left measuring wheel encoder

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 基礎となる計測データに、1或いは複数
のセンサ出力に基づく補正を施す際のセンサフュージョ
ン手法であって、 各センサについて、センサの特徴や性能等の特性を1或
いは複数の評価要素によって評価することにより、各評
価要素を変数としてセンサ出力の確信度を表わす確信度
関数を定義する第1ステップと、 各センサについて、前記第1ステップにて定義された複
数の確信度関数に、計測データに対応する評価要素の現
在値を入力して、各評価要素についての確信度を算出す
る第2ステップと、 各センサについて、前記第2ステップにて算出された複
数の確信度を重み付けによって合成し、各センサの合成
確信度を算出する第3ステップと、 各センサの出力データに前記合成確信度に基づく重み付
けを施して、前記計測データに対する補正量を算出し、
該補正量によって計測データを補正する第4ステップと
を有することを特徴とするセンサフュージョン手法。
1. A sensor fusion method for correcting basic measurement data based on one or a plurality of sensor outputs, wherein one or a plurality of characteristics of the sensor such as characteristics and performance of the sensor are evaluated. A first step of defining a certainty factor function that represents the certainty factor of the sensor output by using each evaluation element as a variable by evaluating each element, and for each sensor, a plurality of certainty factor functions defined in the first step. A second step of inputting the current value of the evaluation element corresponding to the measurement data to calculate the certainty factor for each evaluation element, and for each sensor, weighting the plurality of certainty factors calculated in the second step. And a third step of calculating the combined confidence of each sensor, and weighting the output data of each sensor based on the combined confidence. It calculates the correction amount for the data,
And a fourth step of correcting the measurement data with the correction amount.
JP12112893A 1993-05-24 1993-05-24 Sensor fusion method Pending JPH06331400A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP12112893A JPH06331400A (en) 1993-05-24 1993-05-24 Sensor fusion method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP12112893A JPH06331400A (en) 1993-05-24 1993-05-24 Sensor fusion method

Publications (1)

Publication Number Publication Date
JPH06331400A true JPH06331400A (en) 1994-12-02

Family

ID=14803579

Family Applications (1)

Application Number Title Priority Date Filing Date
JP12112893A Pending JPH06331400A (en) 1993-05-24 1993-05-24 Sensor fusion method

Country Status (1)

Country Link
JP (1) JPH06331400A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002215236A (en) * 2001-01-22 2002-07-31 Komatsu Ltd Controller for travel of unmanned vehicle
EP1378762A2 (en) * 2002-07-03 2004-01-07 Fuji Jukogyo Kabushiki Kaisha Identical object determination method and apparatus and displacement correction method and apparatus in a multisensor system
JP2005121496A (en) * 2003-10-17 2005-05-12 Toyota Motor Corp Obstruction detecting radar installation of vehicle
KR100748405B1 (en) * 2005-02-17 2007-08-10 성균관대학교산학협력단 Particle Sampling Method And Method For Sensor Fusion And Filtering
JP2009147370A (en) * 2004-12-27 2009-07-02 Asml Netherlands Bv Lithographic apparatus with multiple alignment arrangements and alignment measurement method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002215236A (en) * 2001-01-22 2002-07-31 Komatsu Ltd Controller for travel of unmanned vehicle
EP1378762A2 (en) * 2002-07-03 2004-01-07 Fuji Jukogyo Kabushiki Kaisha Identical object determination method and apparatus and displacement correction method and apparatus in a multisensor system
EP1378762A3 (en) * 2002-07-03 2005-05-04 Fuji Jukogyo Kabushiki Kaisha Identical object determination method and apparatus and displacement correction method and apparatus in a multisensor system
US6999896B2 (en) 2002-07-03 2006-02-14 Fuji Jukogyo Kabushiki Kaisha Identical object determination method and apparatus and displacement correction method and apparatus
JP2005121496A (en) * 2003-10-17 2005-05-12 Toyota Motor Corp Obstruction detecting radar installation of vehicle
JP2009147370A (en) * 2004-12-27 2009-07-02 Asml Netherlands Bv Lithographic apparatus with multiple alignment arrangements and alignment measurement method
JP2009182335A (en) * 2004-12-27 2009-08-13 Asml Netherlands Bv Lithographic apparatus with multiple alignment arrangements and alignment measuring method
US8345245B2 (en) 2004-12-27 2013-01-01 Asml Netherlands B.V. Lithographic apparatus with multiple alignment arrangements and alignment measuring method
KR100748405B1 (en) * 2005-02-17 2007-08-10 성균관대학교산학협력단 Particle Sampling Method And Method For Sensor Fusion And Filtering

Similar Documents

Publication Publication Date Title
US11926066B2 (en) Carpet drift estimation using differential sensors or visual measurements
JP7165821B2 (en) Control method, program and cleaning robot for carpet drift in robot motion
US20190235490A1 (en) Mobile robot and control method of mobile robot
US6124694A (en) Wide area navigation for a robot scrubber
US5896488A (en) Methods and apparatus for enabling a self-propelled robot to create a map of a work area
KR101338143B1 (en) Apparatus and Method for Detecting Slip of a Mobile Robot
JPH0680203A (en) Control method for floor surface cleaning robot
JPH078271B2 (en) Self-propelled vacuum cleaner
KR102565250B1 (en) Robot cleaner
CN109358623A (en) A kind of recognition methods, chip and the clean robot of the offset of robot motion&#39;s carpet
US20060217844A1 (en) Self-propelled cleaner
JPH06331400A (en) Sensor fusion method
KR100822064B1 (en) Robot and method of drawing indoor map
CN112697153A (en) Positioning method of autonomous mobile device, electronic device and storage medium
KR100524707B1 (en) Mapping method by path trace for mobile robot
US20220100197A1 (en) Self-propelled device and method for controlling the same
WO2019049657A1 (en) Autonomously traveling cleaner and map correction method
JP2609890B2 (en) Self-propelled work vehicle
JP2609891B2 (en) Self-propelled work vehicle
JPH01112312A (en) Self-traveling cleaner
CN115700417A (en) Cleaning robot and image construction error elimination method
CN114305202A (en) Self-walking device and control method thereof
JPH06337717A (en) Optimum gain determining method
JP2004227474A (en) Self-propelled equipment and program therefor

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20020521