JP6319736B2 - Sensor orientation control method and apparatus - Google Patents
Sensor orientation control method and apparatus Download PDFInfo
- Publication number
- JP6319736B2 JP6319736B2 JP2013194154A JP2013194154A JP6319736B2 JP 6319736 B2 JP6319736 B2 JP 6319736B2 JP 2013194154 A JP2013194154 A JP 2013194154A JP 2013194154 A JP2013194154 A JP 2013194154A JP 6319736 B2 JP6319736 B2 JP 6319736B2
- Authority
- JP
- Japan
- Prior art keywords
- correction gain
- gain
- observation
- kalman
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 23
- 238000012937 correction Methods 0.000 claims description 110
- 239000011159 matrix material Substances 0.000 claims description 34
- 238000005259 measurement Methods 0.000 claims description 24
- 238000004891 communication Methods 0.000 claims description 8
- 238000010586 diagram Methods 0.000 description 8
- 230000007423 decrease Effects 0.000 description 5
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Description
本発明は、計測体のカメラやレーザセンサなどの外界センサの指向方向を制御する方法と装置に関する。 The present invention relates to a method and apparatus for controlling the directivity direction of an external sensor such as a camera or laser sensor of a measuring object.
複数の物体(例えば移動体)が、互いに独立してエリア内を移動する場合に、複数の移動体が互いに衝突することを避ける制御や、先行する移動体に他の移動体を追従させる制御などを行うことがある。
なお、複数の移動体は、例えば、物品を搬送する移動ロボットであり、作業エリア内で自在に移動可能である。
When multiple objects (for example, moving objects) move within the area independently of each other, control for preventing the plurality of moving objects from colliding with each other, control for causing other moving objects to follow the preceding moving object, etc. May be performed.
Note that the plurality of moving bodies are, for example, mobile robots that transport articles, and can freely move within the work area.
移動ロボットの位置を推定する手段として、特許文献1、2が既に開示されている。
また、ロボットのセンサの指向制御手段として、特許文献3〜5が既に開示されている。
Further, Patent Documents 3 to 5 have already been disclosed as pointing control means for robot sensors.
特許文献1は、移動ロボット上にカメラやレーザセンサなどの外界センサを搭載する。外界センサによって周囲を計測した結果から、特徴点を抽出し、特徴点の位置と自己位置を同時に推定するものである。
特許文献2は、外界センサを搭載した計測体を複数用いて、各計測体が互いの方位、距離を計測した結果を統合することで、全ての計測体の位置と姿勢を推定するものである。
特許文献3は、既定の写像関数を用いて、アクチュエータ制御座標へ、動作前と動作後のポジションの偏差を写像し、アクチュエータ手段用のコマンドを形成するものである。
特許文献4は、音波を受信する少なくとも2つの音波センサを備え、2つの音波センサ間の音波受信時間差を利用して、ロボットへの音波入射角を計算するものである。
特許文献5は、ロボット経路追従装置のセンサの指向方向をエンドエフェクタ中心軸まわりに逐次制御し、センサの方向を適正に維持するものである。
In
Patent Document 2 estimates the positions and orientations of all measuring bodies by using a plurality of measuring bodies equipped with external sensors and integrating the results obtained by measuring each other's azimuth and distance. .
Patent Document 3 uses a predetermined mapping function to map the deviation of the position before and after the operation to the actuator control coordinates to form a command for the actuator means.
Patent Document 4 includes at least two sound wave sensors that receive sound waves, and calculates a sound wave incident angle to the robot by using a sound wave reception time difference between the two sound wave sensors.
Japanese Patent Application Laid-Open No. 2004-228561 sequentially controls the direction of the sensor of the robot path following apparatus around the center axis of the end effector, and maintains the direction of the sensor appropriately.
いずれの方法も、外界センサを使って、複数の物体の位置を同時に推定する。推定の計算は、以下のような方法である。
ステップ1:あらかじめ、各物体の位置と姿勢の推定値として適切な初期値を与えておく。また、初期値の誤差の大きさを表す誤差分散行列も設定する。
ステップ2:外界センサを使って、物体間の相対関係(方位と距離)を計測する。
ステップ3:計測結果に基づいて、各物体の推定値を修正し、誤差分散行列を小さくする。この時、誤差分散が大きい推定値の方が修正量が大きくなる。
事前に一部の物体の位置と姿勢が分かっていれば、それを基準に各物体の位置と姿勢が推定され、全体的に誤差分散が小さくなる。
In either method, the positions of a plurality of objects are estimated simultaneously using an external sensor. The estimation is calculated by the following method.
Step 1: Appropriate initial values are given in advance as estimated values of the position and orientation of each object. In addition, an error variance matrix representing the magnitude of the initial value error is also set.
Step 2: Using an external sensor, measure the relative relationship (azimuth and distance) between objects.
Step 3: The estimated value of each object is corrected based on the measurement result, and the error variance matrix is reduced. At this time, an estimated value having a larger error variance has a larger correction amount.
If the positions and orientations of some objects are known in advance, the positions and orientations of the respective objects are estimated on the basis thereof, and the error variance is reduced as a whole.
上述の位置推定において、対象物の特徴を正確に抽出するには、外界センサによって、高い分解能で対象を計測する必要がある。しかし、一般的に外界センサは、分解能と視野範囲がトレードオフの関係にある。例えばカメラの場合、レンズの画角が狭いほど分解能が高くなる。レーザセンサの場合、レーザを走査する範囲を狭めた方が高い密度で空間を計測できる。
したがって、位置推定に用いる外界センサは、視野角が90度以下のカメラやレーザセンサを、パン角とチルト角を制御できる雲台上に搭載する構成となる。
In the above-described position estimation, in order to accurately extract the characteristics of the object, it is necessary to measure the object with high resolution using an external sensor. However, in general, external sensors have a trade-off relationship between resolution and field of view. For example, in the case of a camera, the smaller the angle of view of the lens, the higher the resolution. In the case of a laser sensor, the space can be measured with a higher density by narrowing the laser scanning range.
Therefore, the external sensor used for position estimation has a configuration in which a camera or a laser sensor with a viewing angle of 90 degrees or less is mounted on a pan head that can control the pan angle and the tilt angle.
しかし、一般的な外界センサの構成では、全ての物体を視野範囲内に入れることはできない。視野範囲に推定値が収束している物体が無く、自己の推定値も収束していない場合は、上述のステップ2、3を繰り返しても、推定が収束しない。
特許文献1には、以前計測した特徴点の少なくとも一部が視野に残るように、センサの向きを制御する方法が記載されている。しかし、この方法は、移動体の周囲が全て静止体であり、「以前計測した点は誤差分散が小さい」といえる場合にのみ有効である。
However, with a general external sensor configuration, it is not possible to put all objects within the field of view. If there is no object whose estimated value has converged in the field of view and its own estimated value has not converged, the estimation will not converge even if steps 2 and 3 are repeated.
周囲に移動体がある場合、過去に計測していても、移動することによって誤差分散が増加している場合がある。このような移動体を計測しても、自己位置の推定には有効ではない。一方で、移動体の位置誤差は徐々に増加していくため、定期的に観測しないと、位置が不明になり、推定値を使う制御動作にも影響を与える。
また、複数の計測体が存在する場合は、他の計測体が観測することで、自分とは無関係に、周囲の物体の誤差分散が小さくなることもある。このように、自己と、周囲の物体の誤差分散が動的に増減する状況下で、効果的にセンサの向きを制御することが要望されていた。
In the case where there are moving objects in the surroundings, there are cases where the error variance increases due to movement even if the measurement has been performed in the past. Even if such a moving body is measured, it is not effective in estimating the self-position. On the other hand, since the position error of the moving body gradually increases, if the observation is not made periodically, the position becomes unknown and the control operation using the estimated value is affected.
In addition, when there are a plurality of measuring bodies, the error dispersion of surrounding objects may be reduced by observing other measuring bodies regardless of the self. As described above, there has been a demand for effectively controlling the orientation of the sensor in a situation where the error variance of the self and the surrounding objects dynamically increases and decreases.
また、例えば、各物体にGPSを搭載すれば、各物体の正確な位置が取得できるが、GPSで正確な位置が取得できないような環境(屋内、市街地、森林等)においても、各物体の位置を推定する必要がある。 Also, for example, if each object is equipped with a GPS, the exact position of each object can be acquired, but the position of each object can be obtained even in an environment (such as indoors, urban areas, and forests) where the accurate position cannot be acquired with GPS. Need to be estimated.
本発明は上述した問題点を解決するために創案されたものである。すなわち本発明は、カメラやレーザセンサなどの外界センサを備えた計測体の周囲に位置する物体までの距離が離れており、かつ計測体又は物体が移動体であり、計測体と周囲の物体の誤差分散が動的に増減する状況下を想定している。この状況下において本発明の目的は、計測体の外界センサの指向方向を効果的に制御できるセンサの指向制御方法と装置を提供することにある。 The present invention has been developed to solve the above-described problems. That is, according to the present invention, the distance to an object positioned around a measurement body including an external sensor such as a camera or a laser sensor is long, and the measurement body or the object is a moving body. It is assumed that the error variance increases or decreases dynamically. Under such circumstances, an object of the present invention is to provide a sensor directivity control method and apparatus capable of effectively controlling the directivity direction of an external sensor of a measuring body.
本発明によれば、周囲に位置する物体の方位又は距離を計測可能な外界センサと、該外界センサを載せた雲台と、該雲台のパン角又はチルト角を制御する雲台制御装置と、を有する計測体におけるセンサの指向制御方法であって、
前記計測体は、その周囲の物体と通信可能な通信部と、前記雲台制御装置に指令値を出力する状態推定部とを備え、前記状態推定部により、
(A)自己及びその周囲の物体の位置又は姿勢の推定値を取得し、
前記推定値は、位置と姿勢を示す状態量と、該状態量の誤差分散行列であり、
(B)周囲の物体の前記推定値のカルマンゲインを算出し、
前記カルマンゲインは、観測対象の位置に関する第1修正ゲイン、観測元の位置に関する第2修正ゲイン、観測元の姿勢に関する第3修正ゲイン、又は、これらを統合した統合修正ゲインであり、
前記第1修正ゲインは、観測対象jのカルマンゲインKjの位置成分の二乗和であり、
前記第2修正ゲインは観測元iのカルマンゲインKiの位置成分の二乗和であり、
前記第3修正ゲインは、観測元iのカルマンゲインKiの姿勢成分の二乗和であり、
前記統合修正ゲインはカルマンゲインKi,Kjの各成分の二乗和であり、
カルマンゲインKi,Kjは、数9の式(10)(11)で算出され、
(C)前記カルマンゲインが最も大きい物体を注視物体として選択し、
(D)選択した注視物体の方向に前記雲台のパン角又はチルト角を制御する、ことを特徴とするセンサの指向制御方法が提供される。
According to the present invention, an external sensor capable of measuring the azimuth or distance of an object located in the vicinity, a camera platform on which the external sensor is mounted, and a camera platform control device that controls the pan angle or tilt angle of the camera platform. , A sensor directivity control method in a measuring body,
The measurement body includes a communication unit capable of communicating with surrounding objects, and a state estimation unit that outputs a command value to the pan head control device.
(A) Obtain an estimate of the position or orientation of the object and its surrounding objects,
The estimated value is a state quantity indicating a position and orientation, and an error variance matrix of the state quantity,
(B) calculating a Kalman gain of the estimated value of surrounding objects;
The Kalman gain is a first correction gain related to the position of the observation target, a second correction gain related to the position of the observation source, a third correction gain related to the attitude of the observation source, or an integrated correction gain obtained by integrating these.
The first correction gain is a sum of squares of position components of the Kalman gain Kj of the observation target j,
The second correction gain is a sum of squares of position components of the Kalman gain Ki of the observation source i,
The third correction gain is a sum of squares of attitude components of the Kalman gain Ki of the observation source i,
The integrated correction gain is the sum of squares of each component of the Kalman gains Ki and Kj.
The Kalman gains Ki and Kj are calculated by Equations (10) and (11) of Equation 9,
(C) selecting an object having the largest Kalman gain as a gaze object,
(D) A sensor orientation control method is provided, wherein the pan angle or tilt angle of the camera platform is controlled in the direction of the selected gaze object.
前記統合修正ゲインは、第1修正ゲインと第2修正ゲインの和に、前記計測体と周囲の物体の距離、第3修正ゲイン、及び姿勢成分の重み係数βの積を加算した値である。 The integrated correction gain is a value obtained by adding the product of the distance between the measurement object and the surrounding object, the third correction gain, and the weight coefficient β of the posture component to the sum of the first correction gain and the second correction gain.
前記(C)において、カルマンゲインとして第1修正ゲイン、第2修正ゲイン、及び第3修正ゲインを、交互に切り替える。 In (C), the first correction gain, the second correction gain, and the third correction gain are alternately switched as the Kalman gain.
また、本発明によれば、周囲に位置する物体の方位又は距離を計測可能な外界センサと、該外界センサを載せた雲台と、該雲台のパン角又はチルト角を制御する雲台制御装置と、を有する計測体に設けられたセンサの指向制御装置であって、
周囲の物体と通信可能な通信部と、前記雲台制御装置に指令値を出力する状態推定部とを備え、前記状態推定部は、
(A)自己及びその周囲の物体の位置又は姿勢の推定値を取得し、
前記推定値は、位置と姿勢を示す状態量と、該状態量の誤差分散行列であり、
(B)周囲の物体の前記推定値のカルマンゲインを算出し、
前記カルマンゲインは、観測対象の位置に関する第1修正ゲイン、観測元の位置に関する第2修正ゲイン、観測元の姿勢に関する第3修正ゲイン、又は、これらを統合した統合修正ゲインであり、
前記第1修正ゲインは、観測対象jのカルマンゲインKjの位置成分の二乗和であり、
前記第2修正ゲインは観測元iのカルマンゲインKiの位置成分の二乗和であり、
前記第3修正ゲインは、観測元iのカルマンゲインKiの姿勢成分の二乗和であり、
前記統合修正ゲインはカルマンゲインKi,Kjの各成分の二乗和であり、
カルマンゲインKi,Kjは、数9の式(10)(11)で算出され、
(C)前記カルマンゲインが最も大きい物体を注視物体として選択し、
(D)選択した注視物体の方向に前記雲台のパン角又はチルト角を制御する、ことを特徴とするセンサの指向制御装置が提供される。
In addition, according to the present invention, an external sensor capable of measuring the azimuth or distance of an object located in the vicinity, a pan head on which the external sensor is mounted, and a pan head control for controlling the pan angle or tilt angle of the pan head A sensor directivity control device provided on a measuring body having a device,
A communication unit capable of communicating with surrounding objects, and a state estimation unit that outputs a command value to the pan head control device, the state estimation unit,
(A) Obtain an estimate of the position or orientation of the object and its surrounding objects,
The estimated value is a state quantity indicating a position and orientation, and an error variance matrix of the state quantity,
(B) calculating a Kalman gain of the estimated value of surrounding objects;
The Kalman gain is a first correction gain related to the position of the observation target, a second correction gain related to the position of the observation source, a third correction gain related to the attitude of the observation source, or an integrated correction gain obtained by integrating these.
The first correction gain is a sum of squares of position components of the Kalman gain Kj of the observation target j,
The second correction gain is a sum of squares of position components of the Kalman gain Ki of the observation source i,
The third correction gain is a sum of squares of attitude components of the Kalman gain Ki of the observation source i,
The integrated correction gain is the sum of squares of each component of the Kalman gains Ki and Kj.
The Kalman gains Ki and Kj are calculated by Equations (10) and (11) of Equation 9,
(C) selecting an object having the largest Kalman gain as a gaze object,
(D) A sensor directivity control device is provided, which controls a pan angle or a tilt angle of the pan head in a direction of a selected gaze object.
上述した本発明の方法と装置によれば、状態推定部により、周囲の物体の位置又は姿勢の推定値のカルマンゲインを算出する。次いで、カルマンゲインが最も大きい物体(ゲイン最大物体)を注視物体として選択し、選択した注視物体の方向に雲台のパン角又はチルト角を制御する。
この制御で注視物体が観測されることで、自己又は注視物体の位置又は姿勢が修正される。
According to the method and apparatus of the present invention described above, the Kalman gain of the estimated value of the position or orientation of the surrounding object is calculated by the state estimation unit. Next, an object having the largest Kalman gain (maximum gain object) is selected as the gaze object, and the pan angle or tilt angle of the camera platform is controlled in the direction of the selected gaze object.
By observing the gaze object with this control, the position or posture of the self or the gaze object is corrected.
カルマンゲインは、推定値の修正量に比例する係数であり、この値が大きい方が推定値の修正量が大きくなる。したがって、カルマンゲインが最も大きい物体(ゲイン最大物体)を注視物体として選択することで、推定値を効率よく収束させることができる。 The Kalman gain is a coefficient proportional to the amount of correction of the estimated value, and the larger the value, the larger the amount of correction of the estimated value. Therefore, the estimated value can be converged efficiently by selecting the object having the highest Kalman gain (maximum gain object) as the gaze object.
従って、カメラやレーザセンサなどの外界センサを備えた計測体の周囲に位置する物体までの距離が離れており、かつ計測体又は物体が移動体であり、計測体と周囲の物体の誤差分散が動的に増減する状況下で、計測体の外界センサの指向方向を効果的に制御できる。 Therefore, the distance to the object located around the measurement body having an external sensor such as a camera or a laser sensor is large, and the measurement body or the object is a moving body, and the error dispersion between the measurement body and the surrounding object is reduced. It is possible to effectively control the directivity direction of the external sensor of the measuring body under the condition of dynamically increasing / decreasing.
本発明の好ましい実施形態を図面に基づいて説明する。なお、各図において共通する部分には同一の符号を付し、重複した説明を省略する。 A preferred embodiment of the present invention will be described with reference to the drawings. In addition, the same code | symbol is attached | subjected to the common part in each figure, and the overlapping description is abbreviate | omitted.
図1は、本発明の使用例を示す図である。
この図において、計測体12は、移動可能な移動体13又は移動不能な固定体14である。
図1の例では、所定のエリア内に移動体13(例えば移動ロボット)や固定体14(例えば固定デバイス)を配置し、移動体13と固定体14の位置を求める。なお、以下、計測体12(移動体13又は固定体14)と計測体12以外の固定体(例えばランドマーク15)を、区別が必要な場合を除き単に物体10と呼ぶ。得られた物体10の位置は、移動体13の制御やエリアの地図作成、監視などに用いる。
FIG. 1 is a diagram showing an example of use of the present invention.
In this figure, the measuring body 12 is a
In the example of FIG. 1, a moving body 13 (for example, a mobile robot) and a fixed body 14 (for example, a fixed device) are arranged in a predetermined area, and the positions of the moving
図2は、計測体12(この例では移動体13)の構成図である。
計測体12は、外界センサ16、雲台18、雲台制御装置20を備える。
FIG. 2 is a configuration diagram of the measuring body 12 (the moving
The measuring body 12 includes an
外界センサ16は、他の物体10の方位又は距離を計測可能なセンサである。
この例において、外界センサ16は、カメラ16aとLRF16b(レーザセンサ)からなる。なおカメラ16aとLRF16bの両方を計測体12に搭載することが好ましいが、一方のみでもよい。
The
In this example, the
カメラ16aにより、周囲の物体10のある方位を方位角と仰角として計測することができる。なお方位角と仰角は一般的な極座標表現と同じ定義である。物体10には、カメラ16aで検出するためのマーカ10aを設置するのが好ましい。
LRF16bにより、周囲の物体10までの距離を計測することができる。また、LRF16bにより、距離だけでなく他の物体10の方位も計測できる。
The
The distance to the surrounding
雲台18は、外界センサ16を載せ、水平方向のパン角と鉛直方向のチルト角の2軸を調節できるようになっている。
The
雲台制御装置20は、雲台18のパン角又はチルト角を制御する。
The
この図に示すように、計測体12(移動体13又は固定体14)は、外界センサ16を載せた雲台18を有する。
As shown in this figure, the measuring body 12 (moving
上述した構成により、パン角を動かすことで外界センサ16(カメラ16aとLRF16b)の向きを水平方向に変えられる。またチルト角を動かすことで、カメラ16aとLRF16bの向きを鉛直方向に変えられる。なお、カメラ16aとLRF16bを別々の雲台18に搭載し、独立して動かしても良い。
With the configuration described above, the orientation of the external sensor 16 (
図2において、計測体12は移動体13(例えば移動ロボット)であるが、移動不能な固定体14であってもよい。 In FIG. 2, the measuring body 12 is a moving body 13 (for example, a mobile robot), but may be a fixed body 14 that is not movable.
図3は、移動体13(例えば移動ロボット)の構成図である。
この図において、上述した雲台制御装置20は、雲台駆動部20aと雲台制御部20bからなる。また、移動体13は、上述した外界センサ16、雲台制御装置20の他に、内界センサ22、ロボット駆動部24、及び車両制御部26を有する。
FIG. 3 is a configuration diagram of the moving body 13 (for example, a mobile robot).
In this figure, the above-described pan
内界センサ22は、この例では、ジャイロセンサ22a(移動体13の加速度、角速度を計測するセンサ)と車輪エンコーダ22b(移動体13の速度、角速度を計測するセンサ)である。
外界センサ16及び内界センサ22の検出データは、それぞれの計測部を介して状態推定部34(後述する)に入力される。
In this example, the
The detection data of the
本発明のセンサの指向制御装置30は、計測体12(この例では移動体13)に設けられており、通信部32と状態推定部34とを備える。
通信部32は、その周囲の物体10と通信可能であり、好ましくはリアルタイムに無線LANで通信可能に構成されている。
状態推定部34は、外界センサ16及び内界センサ22で計測されたセンサ情報を使って、自己(その計測体12)及びその周囲の物体10の推定値A(後述する)を取得する。
指向制御装置30は、例えばコンピュータ(PC)で構成されている。また、上述した雲台制御部20b、及び車両制御部26を含めて同一のコンピュータ(PC)で構成してもよい。
The sensor
The communication unit 32 can communicate with the surrounding
The
The
状態推定部34は、車両制御部26及び雲台制御部20bにそれぞれ制御信号を出力する。車両制御部26は指令値を算出してロボット駆動部24に出力し、ロボット駆動部24は車輪エンコーダ22bを制御する。同様に雲台制御部20bは指令値を算出して雲台駆動部20aに出力し、雲台駆動部20aは雲台18のパン角又はチルト角を制御するようになっている。
また、状態推定部34は、後述するセンサの指向制御方法を実行する。
The
Further, the
図4は、本発明によるセンサの指向制御方法の全体フロー図である。
この図に示すように本発明の指向制御方法は、S1〜S6の各ステップ(工程)からなる。
以下、特に必要な場合を除き、自己(観測元の計測体12)を「デバイスi」又は「観測元i」と呼び、周囲の物体10(観測対象)を「デバイスj」又は「観測対象j」と呼ぶ。
なお必要に応じて、観測対象の別の物体10を「デバイスk」と呼ぶ。i、j、kは、1,2,3・・・正数であり、デバイスi、デバイスj、デバイスkは異なる物体10を意味する。
FIG. 4 is an overall flowchart of the sensor directivity control method according to the present invention.
As shown in this figure, the directivity control method of the present invention comprises steps (steps) S1 to S6.
Hereinafter, unless otherwise necessary, the self (observation source measurement body 12) is referred to as “device i” or “observation source i”, and the surrounding object 10 (observation target) is referred to as “device j” or “observation target j”. "
If necessary, another
ステップS1では、自己及びその周囲の物体10の位置又は姿勢の推定値Aを取得する。この手段は、特許文献1、2などによる。
通常、各物体10がエリア内に配置された時点で大まかな位置又は姿勢は分かっている。そのため、自己及びその周囲の物体10の初期値は、例えば位置誤差2m、姿勢誤差2度程度の精度で設定する。
自己(観測元の計測体12)の位置又は姿勢の推定値Aは、状態推定部34に記憶された直前のデータと内界センサ22の出力から計算される。その周囲の物体10(計測体12)の位置又は姿勢の推定値Aは、通信部32を介して、その物体の状態推定部34に記憶された直前のデータを取得する。また、周囲の物体10が移動不能な固定体14又は計測体12以外の固定体(例えばランドマーク15)の場合には、その位置又は姿勢を予め状態推定部34に記憶しておく。
In step S1, an estimated value A of the position or orientation of the self and the surrounding
Usually, the approximate position or posture is known when each object 10 is placed in the area. Therefore, the initial values of the self and the surrounding
The estimated value A of the position or orientation of the self (observation source measuring body 12) is calculated from the immediately preceding data stored in the
周囲の物体10とは、状態推定部34にある推定結果のうち、外界センサ16で計測できる距離範囲内にいると予測される物体10とする。
推定値Aとは、位置と姿勢を示す状態量Xiと、状態量Xiの誤差分散行列CXiiである。推定値Aは、時間経過と共に常に更新されている。
また、移動体13の場合、状態量Xiに速度や角速度などの運動成分を含めてもよい。
The surrounding
The estimated value A is a state quantity Xi indicating the position and orientation, and an error variance matrix CXii of the state quantity Xi. The estimated value A is constantly updated over time.
In the case of the moving
デバイスiの現在の推定値A(状態量Xiと誤差分散行列CXii)は、数1の式(1)〜(3)で求められる。また、デバイスiの状態量Xiとデバイスjの状態量Xjとの共分散行列CXijも状態推定部34から取得できる。
式(1)において、(x,y,z)は位置を表し、(rx,ry,rz)は姿勢を表す。
The current estimated value A (state quantity Xi and error variance matrix CXii) of the device i is obtained by Equations (1) to (3) of
In Expression (1), (x, y, z) represents a position, and (rx, ry, rz) represents a posture.
計測体が物体を観測するたびに、状態量Xiと分散を更新する。
状態量Xiの修正式は、[数2]の(4)で示すことができる。また、分散の更新式は、[数2]の(5)で示すことができる。
Each time the measuring object observes the object, the state quantity Xi and the variance are updated.
The equation for correcting the state quantity Xi can be expressed by (4) in [Equation 2]. Also, the distribution update formula can be expressed by (5) in [Equation 2].
XやCovXの定義は、数3の式(6)〜(9)で示すことができる。したがって、各物体の誤差分散行列CXiiと共分散行列CXijは、式(5)で更新される。なお物体の数に応じて、数3の次数は変化する。 The definition of X or CovX can be expressed by Equations (6) to (9) in Equation 3. Therefore, the error variance matrix CXii and the covariance matrix CXij of each object are updated by Expression (5). Note that the order of Equation 3 changes depending on the number of objects.
ステップS2では、周囲の物体10の推定値AのカルマンゲインKを計算する。
In step S2, the Kalman gain K of the estimated value A of the surrounding
図5は、推定誤差値Bのイメージ図である。
この図において、デバイスi、デバイスj、デバイスkは、3つの異なる物体10である。3つの異なる物体10のうち少なくとも1つは、計測体12である。計測体12は移動体13であっても固定体14であってもよい。
図中の楕円(破線で示す)は、デバイスi、デバイスj、デバイスkの位置誤差範囲を示している。また、図中の角度αは、観測誤差範囲を示している。
FIG. 5 is an image diagram of the estimated error value B.
In this figure, device i, device j, and device k are three
Ellipses (indicated by broken lines) in the figure indicate the position error ranges of device i, device j, and device k. Also, the angle α in the figure indicates the observation error range.
観測元iのカルマンゲインKiと観測対象jのカルマンゲインKjは数4の式(10)(11)で算出される。
ここで、Rは、距離、方位角、仰角の計測誤差として想定される観測誤差分散値である。
また、カルマンゲインKiの各成分を式(12)のように表記する(カルマンゲインKjも同様である)。
なお、以下、「カルマンゲインK」は、カルマンゲインKi又はカルマンゲインKjを意味する。
The Kalman gain Ki of the observation source i and the Kalman gain Kj of the observation object j are calculated by the equations (10) and (11) of Equation 4.
Here, R is an observation error variance value assumed as a measurement error of distance, azimuth angle, and elevation angle.
Further, each component of the Kalman gain Ki is expressed as in Expression (12) (the same applies to the Kalman gain Kj).
Hereinafter, “Kalman gain K” means Kalman gain Ki or Kalman gain Kj.
例えば、観測元iで観測された距離(L)、方位(θ,φ)と、現在の推定値Aとの差がΔL,Δθ,Δφだった時、カルマンフィルタ理論では、状態量Xiの修正量を数5の式(13)で算出する。
式(13)から、カルマンゲインKiの各成分が大きいほど、状態量Xiの修正量が大きくなり、状態量Xiが修正されやすいことがわかる。
For example, when the difference between the distance (L) and direction (θ, φ) observed at the observation source i and the current estimated value A is ΔL, Δθ, Δφ, the correction amount of the state quantity Xi in the Kalman filter theory Is calculated by the equation (13) of Formula 5.
From equation (13), it can be seen that as each component of the Kalman gain Ki increases, the correction amount of the state quantity Xi increases and the state quantity Xi is more likely to be corrected.
本発明では、周囲の物体10の推定値AのカルマンゲインKは、観測対象jの位置に関する第1修正ゲインE1、観測元iの位置に関する第2修正ゲインE2、観測元iの姿勢に関する第3修正ゲインE3、又は、これらを統合した統合修正ゲインEallである。
統合修正ゲインEallは、第1修正ゲインE1と第2修正ゲインE2の和に、計測体12と周囲の物体10の距離、第3修正ゲインE3、及び姿勢成分の重み係数βの積を加算した値である。
In the present invention, the Kalman gain K of the estimated value A of the surrounding
The integrated correction gain E all is obtained by adding the product of the distance between the measuring body 12 and the surrounding
第1修正ゲインE1、第2修正ゲインE2、及び第3修正ゲインE3は、数6の式(14)で与えられる。
また統合修正ゲインEallは、式(15)で与えられる。
ただし、式(16)の関係がある。
その他yj〜rziも同様に、カルマンゲイン行列(式(12))の対応する一行の和である。
なおEallの式で、より正確には、CはCn biを指す。
またPijは、「観測元iから見た観測対象jの位置ベクトル」を意味する。
The first correction gain E1, the second correction gain E2, and the third correction gain E3 are given by Expression (14) of Equation 6.
The integrated correction gain E all is given by equation (15).
However, there is a relationship of Expression (16).
Similarly, yj to rzi are the sum of corresponding one row of the Kalman gain matrix (formula (12)).
In the E all equation, more precisely, C indicates C n bi .
P ij means “position vector of observation object j viewed from observation source i”.
式(10)(11)から明らかなように、カルマンゲインK(Ki又はKj)は、推定値Aの誤差分散CXを、観測誤差分散Vijと観測誤差分散値Rの和で割った値である。
観測誤差分散Vijは、「観測元iと観測対象jの誤差分散の和」を意味する。
したがって、カルマンゲインKは数7の式(17)(18)のように近似できる。なお、この式は、観測行列Bnや、共分散行列CXijを無視した近似だが、近似値が増減する傾向は、カルマンゲインKと同じである。
As is clear from the equations (10) and (11), the Kalman gain K (Ki or Kj) is a value obtained by dividing the error variance CX of the estimated value A by the sum of the observation error variance Vij and the observation error variance R. .
The observation error variance Vij means “the sum of error variances of the observation source i and the observation target j”.
Accordingly, the Kalman gain K can be approximated as in the equations (17) and (18) of Equation 7. This equation is an approximation that ignores the observation matrix Bn and the covariance matrix CXij, but the tendency of the approximate value to increase or decrease is the same as the Kalman gain K.
したがって、上述した修正ゲインE1〜E3、Eallは、推定値Aの誤差分散行列CXiiの大きさに応じて、以下のように増減する。 Therefore, the above-described correction gains E1 to E3 and E all increase / decrease as follows according to the size of the error variance matrix CXii of the estimated value A.
(1)観測対象jの位置に関する第1修正ゲインE1
式(14)から、第1修正ゲインE1は、観測対象jのカルマンゲインKj(式(12)と同様)の位置(x,y,z)成分の二乗和である。したがって、観測元iの誤差分散行列CXiiが小さく、観測対象jの誤差分散行列CXjjが大きい時に、大きな値となる。
逆に、観測元iの誤差分散行列CXiiが大きく、観測対象jの誤差分散行列CXjjが小さい時は、小さな値となる。
(1) 1st correction gain E1 regarding the position of the observation object j
From Expression (14), the first correction gain E1 is the sum of squares of the position (x, y, z) components of the Kalman gain Kj (similar to Expression (12)) of the observation target j. Therefore, the value is large when the error variance matrix CXii of the observation source i is small and the error variance matrix CXjj of the observation target j is large.
Conversely, when the error variance matrix CXii of the observation source i is large and the error variance matrix CXjj of the observation target j is small, the value is small.
(2)観測元iの位置に関する第2修正ゲインE2と、観測元iの姿勢に関する第3修正ゲインE3
式(14)から、第2修正ゲインE2は観測元iのカルマンゲインKi(式(12)と同様)の位置(x,y,z)成分の二乗和である。
同様に式(14)から、第3修正ゲインE3は、観測元iのカルマンゲインKiの姿勢(rx,ry,rz)成分の二乗和である。
したがって、観測元iの誤差分散行列CXiiが大きく、観測対象jの誤差分散行列CXjjが小さい時に、大きな値となる。
逆に、観測元iの誤差分散行列CXiiが小さく、観測対象jの誤差分散行列CXjjが大きい時は、小さな値となる。
(2) The second correction gain E2 related to the position of the observation source i and the third correction gain E3 related to the attitude of the observation source i
From Equation (14), the second correction gain E2 is the sum of squares of the position (x, y, z) components of the Kalman gain Ki of the observation source i (similar to Equation (12)).
Similarly, from equation (14), the third correction gain E3 is the sum of squares of the posture (rx, ry, rz) components of the Kalman gain Ki of the observation source i.
Therefore, the value is large when the error variance matrix CXii of the observation source i is large and the error variance matrix CXjj of the observation target j is small.
Conversely, when the error variance matrix CXii of the observation source i is small and the error variance matrix CXjj of the observation target j is large, the value is small.
(3)これらを統合した統合修正ゲインEall
統合修正ゲインEallは、観測元iと観測対象jの全てのカルマンゲインK(E1,E2,E3)の重み付き二乗和である。すなわち、統合修正ゲインEallはKi,Kjの各成分の二乗和である。したがって、表1のような傾向となる。
(3) Integrated correction gain E all integrating these
The integrated correction gain E all is a weighted sum of squares of all Kalman gains K (E1, E2, E3) of the observation source i and the observation target j. That is, the integrated correction gain E all is the sum of squares of the components of Ki and Kj. Therefore, the tendency is as shown in Table 1.
したがって、統合修正ゲインEallが最も大きくなる注視物体11を選ぶことで、ケース1、2に該当する対象が優先的に選ばれる。第1修正ゲインE1、第2修正ゲインE2を組み合わせた効果が期待できる。
Therefore, by selecting the
図4に戻り、ステップS3では、カルマンゲインKが最も大きい物体10を注視物体11として選択する。注視物体11は、周囲の物体10から選択される。
カルマンゲインKは、第1修正ゲインE1、第2修正ゲインE2、第3修正ゲインE3、又は統合修正ゲインEallであるのがよい。
Returning to FIG. 4, in step S <b> 3, the
The Kalman gain K may be the first correction gain E1, the second correction gain E2, the third correction gain E3, or the integrated correction gain E all .
また、カルマンゲインKとして第1修正ゲインE1、第2修正ゲインE2、及び第3修正ゲインE3を、一定時間毎に切り替えてもよい。 Further, the first correction gain E1, the second correction gain E2, and the third correction gain E3 may be switched as the Kalman gain K at regular intervals.
ステップS4では、パン角指令値θopeとチルト角指令値φopeを算出する。
自分から見た注視物体11の方向(θ,φ)を、観測方程式gの第2,第3行で求め、これをパン角指令値θopeとチルト角指令値φopeとする。
In step S4, a pan angle command value θ ope and a tilt angle command value φ ope are calculated.
The direction (θ, φ) of the
ステップS5では、雲台18のパン角又はチルト角を制御する。
パン角指令値θopeとチルト角指令値φopeに基づいて、以下のように雲台18を制御する。
θ軸は、数8の式(19)の範囲で動かす。
φ軸は式(20)の範囲で動かす。
ここで、Vth,Vphは、式(21)で示す観測誤差分散Vijの対角項である。式(21)は、観測誤差分散Vijの対角項に記号を定義したものである。
また、nは観測対象jの探索範囲を決める係数である。nを0にすると、予測した方向の一点を向く。
In step S5, the pan angle or tilt angle of the
Based on the pan angle command value θ ope and the tilt angle command value φ ope , the
The θ-axis is moved within the range of Equation (19) in Equation 8.
The φ axis is moved within the range of equation (20).
Here, Vth and Vph are diagonal terms of the observation error variance Vij represented by Expression (21). Expression (21) defines symbols in the diagonal terms of the observation error variance Vij.
N is a coefficient that determines the search range of the observation target j. When n is set to 0, it points to one point in the predicted direction.
式(21)において、VLは「距離の観測誤差範囲」を意味する。
観測誤差分散Vijは3×3の行列となる。このうち、VthやVphは雲台の往復動作の幅を決めるのに用いる。
In the equation (21), VL means “distance observation error range”.
The observation error variance Vij is a 3 × 3 matrix. Of these, Vth and Vph are used to determine the width of the reciprocating motion of the camera platform.
ステップS6では、ステップS3で選択した注視物体11が観測された後に、或いは一定時間経過後に、ステップS1に戻る。
ステップS3で選択した注視物体11が観測された後にステップS1に戻ることが好ましい。注視物体11が観測されることで、自己又は注視物体11の位置又は姿勢が修正される。
しかし、ステップS3の選択にて、注視物体11が毎回変わるような状況では、目標指令値θope,φopeがループ毎に変わり制御が不安定になる場合がある。この場合には、一定時間の間、ステップS5の制御を継続した後にステップS1に戻る。
なお、一定時間経過の代わりに、注視物体11に関するカルマンゲインKが、ステップS3で選択した時より減るまで、ステップS5の制御を継続してもよい。
In step S6, the process returns to step S1 after the
It is preferable to return to step S1 after the
However, in a situation where the
Note that the control in step S5 may be continued until the Kalman gain K related to the
また、ステップS5の制御を一定時間継続しても、注視物体11が観測されない場合は、推定誤差が大きいことで予測した方向に対象が存在しない可能性がある。このような場合は、全周囲に渡って視線方向を回すような動作を加えても良い。
Further, if the
図6は、本発明の方法を示す模式図である。
この図において、デバイスiが、第1修正ゲインE1のゲイン最大物体としてデバイスjを検出し、第2修正ゲインE2のゲイン最大物体としてランドマーク15を検出している。
FIG. 6 is a schematic diagram showing the method of the present invention.
In this figure, the device i detects the device j as the maximum gain object of the first correction gain E1, and detects the
カルマンゲインKは、推定値Aの修正量に比例する係数であり、この値が大きい方が推定値Aの修正量が大きくなる。したがって、カルマンゲインKが大きくなるように対象を選択することで、推定値Aを効率よく収束させることができる。本発明では、カルマンゲインKの特定の成分を検証することで、以下のような効果がある。 The Kalman gain K is a coefficient proportional to the correction amount of the estimated value A, and the correction amount of the estimated value A increases as this value increases. Therefore, by selecting the target so that the Kalman gain K is increased, the estimated value A can be efficiently converged. In the present invention, verifying a specific component of the Kalman gain K has the following effects.
従来技術に示すとおり、観測されない物体10(特に移動体13)は、推定誤差値B(位置誤差分散B1)が徐々に増加する。このような物体10は、観測対象jとなった時の位置のカルマンゲインK(第1修正ゲインE1)が大きくなる。
ステップS3で、注視物体11として、観測対象jの位置に関する第1修正ゲインE1を選択した場合、ステップS4〜S6において、計測体12が、位置誤差分散B1が大きくなりつつある物体10(観測対象j)を優先的に計測する。このため、位置誤差分散B1の増加を防げる。
As shown in the prior art, the estimated error value B (position error variance B1) of the
When the first correction gain E1 related to the position of the observation target j is selected as the
ステップS3で、注視物体11として、観測元iの位置に関する第2修正ゲインE2又は観測元iの姿勢に関する第3修正ゲインE3を選択した場合、計測体12(観測元i)の推定値Aの修正量が大きくなるような対象(観測対象j)を選択する。このため、計測体12自身(観測元i)の位置と姿勢を効率よく推定できる。
特許文献1では、以前計測した点が視野に残るように制御している。これに対し本発明では、注視物体11として、第2修正ゲインE2又は第3修正ゲインE3を選択することにより、周囲の物体10の誤差分散が動的に変わっている状況下で、最も適した物体10を選択できる。
In step S3, when the second correction gain E2 related to the position of the observation source i or the third correction gain E3 related to the attitude of the observation source i is selected as the
In
ステップS3で、カルマンゲインKとして第1修正ゲインE1、第2修正ゲインE2、及び第3修正ゲインE3を、交互に切り替える。これにより、特定の物体10(観測対象j)の位置誤差が過大になる状態を防ぎつつ、各計測体12(観測元i)の位置と姿勢を効率よく推定できる。 In step S3, the first correction gain E1, the second correction gain E2, and the third correction gain E3 are alternately switched as the Kalman gain K. Thus, it is possible to efficiently estimate the position and orientation of each measurement body 12 (observation source i) while preventing a state where the position error of the specific object 10 (observation target j) is excessive.
統合修正ゲインEallは、第1修正ゲインE1、第2修正ゲインE2で使っている指標値を足し合わせたものである。位置誤差分散B1が増加している物体10(観測対象j)が周囲にあれば、第1修正ゲインE1が増加することで、注視物体11に選択される。それ以外は、自己(観測元i)の位置と姿勢を効率よく推定できる対象(観測対象j)が選ばれる。したがって、周囲の物体10の誤差分散と、計測体12自身の誤差分散の大きさを総合的に考慮した注視物体11を選べる。
The integrated correction gain E all is a sum of index values used in the first correction gain E1 and the second correction gain E2. If there is an object 10 (observation target j) in which the position error variance B1 is increasing, the first correction gain E1 is increased, and the
上述した本発明の方法によれば、状態推定部34により、周囲の物体10の位置又は姿勢の推定値Aの推定誤差値BとカルマンゲインKを算出する。次いで、カルマンゲインKが最も大きい物体10(ゲイン最大物体)を注視物体11として選択し、選択した注視物体11の方向に雲台18のパン角又はチルト角を制御する。
According to the method of the present invention described above, the
カルマンゲインKは、推定値Aの修正量に比例する係数であり、この値が大きい方が推定値Aの修正量が大きくなる。したがって、カルマンゲインKが最も大きい物体10(ゲイン最大物体)を注視物体11として選択することで、推定値Aを効率よく収束させることができる。
The Kalman gain K is a coefficient proportional to the correction amount of the estimated value A, and the correction amount of the estimated value A increases as this value increases. Therefore, the estimated value A can be efficiently converged by selecting the
本発明は、カメラ16aやレーザセンサ16bなどの外界センサ16を備えた計測体12の周囲に位置する物体10までの距離が離れており、かつ計測体12又は物体10が移動体13であり、計測体12と周囲の物体10の誤差分散が動的に増減する状況下を想定している。
本発明によれば、この状況下において、計測体12に設けられたカメラ16aやレーザセンサ16bなどの外界センサ16の指向方向を効果的に制御できる。
In the present invention, the distance to the
According to the present invention, the directivity direction of the
なお、1台の計測体12が、2組の外界センサ16を独立して動かす2台の雲台18を有している場合、一方の雲台18を第1修正ゲインE1に対して制御し、他方の雲台18を第2修正ゲインE2に対して制御してもよい。このように2組の外界センサ16と雲台18の役割を分担させることにより、周囲の物体10の観測と、自己の位置と姿勢の推定を両立させることができる。
When one measuring body 12 has two pan heads 18 that move two sets of
なお本発明は上述した実施形態に限定されず、本発明の要旨を逸脱しない範囲で種々変更を加え得ることは勿論である。 In addition, this invention is not limited to embodiment mentioned above, Of course, a various change can be added in the range which does not deviate from the summary of this invention.
A 推定値、B 推定誤差値、B1 位置誤差分散、
g 観測方程式、K(Ki,Kj) カルマンゲイン、
E1 第1修正ゲイン、E2 第2修正ゲイン、E3 第3修正ゲイン、
Eall 統合修正ゲイン、R 観測誤差分散値、Xi、Xj 状態量、
CXii、CXjj 誤差分散行列、CXij 共分散行列、
Vij 観測誤差分散、θope パン角指令値、φope チルト角指令値、
10 物体、10a マーカ、11 注視物体、12 計測体、13 移動体、
14 固定体、15 ランドマーク、16 外界センサ、16a カメラ、
16b LRF(レーザセンサ)、18 雲台、20 雲台制御装置、
20a 雲台駆動部、20b 雲台制御部、22 内界センサ、
22a ジャイロセンサ、22b 車輪エンコーダ、24 ロボット駆動部、
26 車両制御部、30 指向制御装置、32 通信部、34 状態推定部
A estimated value, B estimated error value, B1 position error variance,
g Observation equation, K (Ki, Kj) Kalman gain,
E1 first correction gain, E2 second correction gain, E3 third correction gain,
Eall integrated correction gain, R observation error variance, Xi, Xj state quantity,
CXii, CXjj error variance matrix, CXij covariance matrix,
Vij observation error variance, θ ope pan angle command value, φ ope tilt angle command value,
10 object, 10a marker, 11 gaze object, 12 measuring object, 13 moving object,
14 fixed body, 15 landmark, 16 external sensor, 16a camera,
16b LRF (laser sensor), 18 pan head, 20 pan head control device,
20a pan head drive unit, 20b pan head control unit, 22 internal sensor,
22a gyro sensor, 22b wheel encoder, 24 robot drive unit,
26 vehicle control unit, 30 directivity control device, 32 communication unit, 34 state estimation unit
Claims (4)
前記計測体は、その周囲の物体と通信可能な通信部と、前記雲台制御装置に指令値を出力する状態推定部とを備え、前記状態推定部により、
(A)自己及びその周囲の物体の位置又は姿勢の推定値を取得し、
前記推定値は、位置と姿勢を示す状態量と、該状態量の誤差分散行列であり、
(B)周囲の物体の前記推定値のカルマンゲインを算出し、
前記カルマンゲインは、観測対象の位置に関する第1修正ゲイン、観測元の位置に関する第2修正ゲイン、観測元の姿勢に関する第3修正ゲイン、又は、これらを統合した統合修正ゲインであり、
前記第1修正ゲインは、観測対象jのカルマンゲインKjの位置成分の二乗和であり、
前記第2修正ゲインは観測元iのカルマンゲインKiの位置成分の二乗和であり、
前記第3修正ゲインは、観測元iのカルマンゲインKiの姿勢成分の二乗和であり、
前記統合修正ゲインはカルマンゲインKi,Kjの各成分の二乗和であり、
カルマンゲインKi,Kjは、数9の式(10)(11)で算出され、
(C)前記カルマンゲインが最も大きい物体を注視物体として選択し、
(D)選択した注視物体の方向に前記雲台のパン角又はチルト角を制御する、ことを特徴とするセンサの指向制御方法。 In a measuring body having an external sensor capable of measuring the azimuth or distance of an object located around, a camera platform on which the external sensor is mounted, and a camera platform controller for controlling the pan angle or tilt angle of the camera platform A sensor orientation control method,
The measurement body includes a communication unit capable of communicating with surrounding objects, and a state estimation unit that outputs a command value to the pan head control device.
(A) Obtain an estimate of the position or orientation of the object and its surrounding objects,
The estimated value is a state quantity indicating a position and orientation, and an error variance matrix of the state quantity,
(B) calculating a Kalman gain of the estimated value of surrounding objects;
The Kalman gain is a first correction gain related to the position of the observation target, a second correction gain related to the position of the observation source, a third correction gain related to the attitude of the observation source, or an integrated correction gain obtained by integrating these.
The first correction gain is a sum of squares of position components of the Kalman gain Kj of the observation target j,
The second correction gain is a sum of squares of position components of the Kalman gain Ki of the observation source i,
The third correction gain is a sum of squares of attitude components of the Kalman gain Ki of the observation source i,
The integrated correction gain is the sum of squares of each component of the Kalman gains Ki and Kj.
The Kalman gains Ki and Kj are calculated by Equations (10) and (11) of Equation 9,
(C) selecting an object having the largest Kalman gain as a gaze object,
(D) A sensor orientation control method, wherein the pan angle or tilt angle of the camera platform is controlled in the direction of the selected gaze object.
周囲の物体と通信可能な通信部と、前記雲台制御装置に指令値を出力する状態推定部とを備え、前記状態推定部は、
(A)自己及びその周囲の物体の位置又は姿勢の推定値を取得し、
前記推定値は、位置と姿勢を示す状態量と、該状態量の誤差分散行列であり、
(B)周囲の物体の前記推定値のカルマンゲインを算出し、
前記カルマンゲインは、観測対象の位置に関する第1修正ゲイン、観測元の位置に関する第2修正ゲイン、観測元の姿勢に関する第3修正ゲイン、又は、これらを統合した統合修正ゲインであり、
前記第1修正ゲインは、観測対象jのカルマンゲインKjの位置成分の二乗和であり、
前記第2修正ゲインは観測元iのカルマンゲインKiの位置成分の二乗和であり、
前記第3修正ゲインは、観測元iのカルマンゲインKiの姿勢成分の二乗和であり、
前記統合修正ゲインはカルマンゲインKi,Kjの各成分の二乗和であり、
カルマンゲインKi,Kjは、数9の式(10)(11)で算出され、
(C)前記カルマンゲインが最も大きい物体を注視物体として選択し、
(D)選択した注視物体の方向に前記雲台のパン角又はチルト角を制御する、ことを特徴とするセンサの指向制御装置。
An external body sensor capable of measuring the azimuth or distance of an object located around, a pan head on which the external sensor is mounted, and a pan head control device that controls the pan angle or tilt angle of the pan head. A sensor directivity control device provided,
A communication unit capable of communicating with surrounding objects, and a state estimation unit that outputs a command value to the pan head control device, the state estimation unit,
(A) Obtain an estimate of the position or orientation of the object and its surrounding objects,
The estimated value is a state quantity indicating a position and orientation, and an error variance matrix of the state quantity,
(B) calculating a Kalman gain of the estimated value of surrounding objects;
The Kalman gain is a first correction gain related to the position of the observation target, a second correction gain related to the position of the observation source, a third correction gain related to the attitude of the observation source, or an integrated correction gain obtained by integrating these.
The first correction gain is a sum of squares of position components of the Kalman gain Kj of the observation target j,
The second correction gain is a sum of squares of position components of the Kalman gain Ki of the observation source i,
The third correction gain is a sum of squares of attitude components of the Kalman gain Ki of the observation source i,
The integrated correction gain is the sum of squares of each component of the Kalman gains Ki and Kj.
The Kalman gains Ki and Kj are calculated by Equations (10) and (11) of Equation 9,
(C) selecting an object having the largest Kalman gain as a gaze object,
(D) A sensor orientation control device that controls a pan angle or a tilt angle of the pan head in a direction of a selected gaze object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013194154A JP6319736B2 (en) | 2013-09-19 | 2013-09-19 | Sensor orientation control method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013194154A JP6319736B2 (en) | 2013-09-19 | 2013-09-19 | Sensor orientation control method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015060431A JP2015060431A (en) | 2015-03-30 |
JP6319736B2 true JP6319736B2 (en) | 2018-05-09 |
Family
ID=52817894
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013194154A Active JP6319736B2 (en) | 2013-09-19 | 2013-09-19 | Sensor orientation control method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6319736B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106950976B (en) * | 2017-02-28 | 2020-04-03 | 北京天恒长鹰科技股份有限公司 | Indoor airship three-dimensional positioning device and method based on Kalman and particle filtering |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3404681B2 (en) * | 1993-11-15 | 2003-05-12 | 日本電信電話株式会社 | Sensor pointing direction sequential control method |
KR100561855B1 (en) * | 2002-12-30 | 2006-03-16 | 삼성전자주식회사 | Robot localization system |
EP1586421B1 (en) * | 2004-04-16 | 2008-03-05 | Honda Research Institute Europe GmbH | Self-calibrating orienting system for a manipulating device |
JP5310285B2 (en) * | 2009-06-12 | 2013-10-09 | 日産自動車株式会社 | Self-position estimation apparatus and self-position estimation method |
JP5748174B2 (en) * | 2011-09-15 | 2015-07-15 | 株式会社Ihi | Method and apparatus for measuring relative posture of moving object |
-
2013
- 2013-09-19 JP JP2013194154A patent/JP6319736B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015060431A (en) | 2015-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6132981B2 (en) | Method and apparatus for correcting plane conditions in real time | |
TWI827649B (en) | Apparatuses, systems and methods for vslam scale estimation | |
US6489922B1 (en) | Passive/ranging/tracking processing method for collision avoidance guidance and control | |
JP7404010B2 (en) | Position estimation device and method | |
AU2007360479B2 (en) | System for the precision localization of a target on the ground by a flying platform and associated method of operation | |
EP3399327B1 (en) | Pose estimation using radio frequency identification (rfid) tags | |
KR20160044432A (en) | Systems and methods for tracking location of movable target object | |
JP2004212400A (en) | Position and direction predicting system for robot | |
US20150168953A1 (en) | Autonomous self-leveling vehicle | |
JP7123774B2 (en) | flight control system | |
JP2023521700A (en) | Visual cue-based random access LIDAR system and method for location and navigation | |
US20220351011A1 (en) | Printing systems | |
JP5679121B2 (en) | Robot motion prediction control method and apparatus | |
JP6319736B2 (en) | Sensor orientation control method and apparatus | |
JP6227950B2 (en) | Sensor orientation control method and apparatus | |
JP5748174B2 (en) | Method and apparatus for measuring relative posture of moving object | |
JP5939395B2 (en) | Method and apparatus for measuring relative posture of moving object | |
Conduraru et al. | Localization methods for mobile robots-a review | |
JP7021943B2 (en) | Mobile | |
JP6247860B2 (en) | Object position estimation method and apparatus | |
Gonçalves et al. | Real-time localization of an omnidirectional mobile robot resorting to odometry and global vision data fusion: An EKF approach | |
KR100575108B1 (en) | Method of Docking Multiple Spacecrafts Using Vision Sensor | |
JP2021043082A (en) | Position estimating device, moving body control system, position estimating method, and program | |
Burke et al. | Optimal placement of range-only beacons for mobile robot localisation | |
CN111207688A (en) | Method and device for measuring distance of target object in vehicle and vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160823 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170419 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170601 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170720 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180301 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180327 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6319736 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |