JP6319736B2 - Sensor orientation control method and apparatus - Google Patents

Sensor orientation control method and apparatus Download PDF

Info

Publication number
JP6319736B2
JP6319736B2 JP2013194154A JP2013194154A JP6319736B2 JP 6319736 B2 JP6319736 B2 JP 6319736B2 JP 2013194154 A JP2013194154 A JP 2013194154A JP 2013194154 A JP2013194154 A JP 2013194154A JP 6319736 B2 JP6319736 B2 JP 6319736B2
Authority
JP
Japan
Prior art keywords
correction gain
gain
observation
kalman
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013194154A
Other languages
Japanese (ja)
Other versions
JP2015060431A (en
Inventor
周平 江本
周平 江本
肇 坂野
肇 坂野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
IHI Aerospace Co Ltd
Original Assignee
IHI Corp
IHI Aerospace Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp, IHI Aerospace Co Ltd filed Critical IHI Corp
Priority to JP2013194154A priority Critical patent/JP6319736B2/en
Publication of JP2015060431A publication Critical patent/JP2015060431A/en
Application granted granted Critical
Publication of JP6319736B2 publication Critical patent/JP6319736B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、計測体のカメラやレーザセンサなどの外界センサの指向方向を制御する方法と装置に関する。   The present invention relates to a method and apparatus for controlling the directivity direction of an external sensor such as a camera or laser sensor of a measuring object.

複数の物体(例えば移動体)が、互いに独立してエリア内を移動する場合に、複数の移動体が互いに衝突することを避ける制御や、先行する移動体に他の移動体を追従させる制御などを行うことがある。
なお、複数の移動体は、例えば、物品を搬送する移動ロボットであり、作業エリア内で自在に移動可能である。
When multiple objects (for example, moving objects) move within the area independently of each other, control for preventing the plurality of moving objects from colliding with each other, control for causing other moving objects to follow the preceding moving object, etc. May be performed.
Note that the plurality of moving bodies are, for example, mobile robots that transport articles, and can freely move within the work area.

移動ロボットの位置を推定する手段として、特許文献1、2が既に開示されている。
また、ロボットのセンサの指向制御手段として、特許文献3〜5が既に開示されている。
Patent documents 1 and 2 have already been disclosed as means for estimating the position of a mobile robot.
Further, Patent Documents 3 to 5 have already been disclosed as pointing control means for robot sensors.

特許文献1は、移動ロボット上にカメラやレーザセンサなどの外界センサを搭載する。外界センサによって周囲を計測した結果から、特徴点を抽出し、特徴点の位置と自己位置を同時に推定するものである。
特許文献2は、外界センサを搭載した計測体を複数用いて、各計測体が互いの方位、距離を計測した結果を統合することで、全ての計測体の位置と姿勢を推定するものである。
特許文献3は、既定の写像関数を用いて、アクチュエータ制御座標へ、動作前と動作後のポジションの偏差を写像し、アクチュエータ手段用のコマンドを形成するものである。
特許文献4は、音波を受信する少なくとも2つの音波センサを備え、2つの音波センサ間の音波受信時間差を利用して、ロボットへの音波入射角を計算するものである。
特許文献5は、ロボット経路追従装置のセンサの指向方向をエンドエフェクタ中心軸まわりに逐次制御し、センサの方向を適正に維持するものである。
In Patent Document 1, an external sensor such as a camera or a laser sensor is mounted on a mobile robot. A feature point is extracted from the result of measuring the surroundings by an external sensor, and the position of the feature point and the self position are estimated simultaneously.
Patent Document 2 estimates the positions and orientations of all measuring bodies by using a plurality of measuring bodies equipped with external sensors and integrating the results obtained by measuring each other's azimuth and distance. .
Patent Document 3 uses a predetermined mapping function to map the deviation of the position before and after the operation to the actuator control coordinates to form a command for the actuator means.
Patent Document 4 includes at least two sound wave sensors that receive sound waves, and calculates a sound wave incident angle to the robot by using a sound wave reception time difference between the two sound wave sensors.
Japanese Patent Application Laid-Open No. 2004-228561 sequentially controls the direction of the sensor of the robot path following apparatus around the center axis of the end effector, and maintains the direction of the sensor appropriately.

特開2010−288112号公報JP 2010-288112 A 特開2013−61307号公報JP 2013-61307 A 特開2005−305633号公報JP 2005-305633 A 特開2004−212400号公報JP 2004-212400 A 特開平7−141008号公報JP-A-7-141008

いずれの方法も、外界センサを使って、複数の物体の位置を同時に推定する。推定の計算は、以下のような方法である。
ステップ1:あらかじめ、各物体の位置と姿勢の推定値として適切な初期値を与えておく。また、初期値の誤差の大きさを表す誤差分散行列も設定する。
ステップ2:外界センサを使って、物体間の相対関係(方位と距離)を計測する。
ステップ3:計測結果に基づいて、各物体の推定値を修正し、誤差分散行列を小さくする。この時、誤差分散が大きい推定値の方が修正量が大きくなる。
事前に一部の物体の位置と姿勢が分かっていれば、それを基準に各物体の位置と姿勢が推定され、全体的に誤差分散が小さくなる。
In either method, the positions of a plurality of objects are estimated simultaneously using an external sensor. The estimation is calculated by the following method.
Step 1: Appropriate initial values are given in advance as estimated values of the position and orientation of each object. In addition, an error variance matrix representing the magnitude of the initial value error is also set.
Step 2: Using an external sensor, measure the relative relationship (azimuth and distance) between objects.
Step 3: The estimated value of each object is corrected based on the measurement result, and the error variance matrix is reduced. At this time, an estimated value having a larger error variance has a larger correction amount.
If the positions and orientations of some objects are known in advance, the positions and orientations of the respective objects are estimated on the basis thereof, and the error variance is reduced as a whole.

上述の位置推定において、対象物の特徴を正確に抽出するには、外界センサによって、高い分解能で対象を計測する必要がある。しかし、一般的に外界センサは、分解能と視野範囲がトレードオフの関係にある。例えばカメラの場合、レンズの画角が狭いほど分解能が高くなる。レーザセンサの場合、レーザを走査する範囲を狭めた方が高い密度で空間を計測できる。
したがって、位置推定に用いる外界センサは、視野角が90度以下のカメラやレーザセンサを、パン角とチルト角を制御できる雲台上に搭載する構成となる。
In the above-described position estimation, in order to accurately extract the characteristics of the object, it is necessary to measure the object with high resolution using an external sensor. However, in general, external sensors have a trade-off relationship between resolution and field of view. For example, in the case of a camera, the smaller the angle of view of the lens, the higher the resolution. In the case of a laser sensor, the space can be measured with a higher density by narrowing the laser scanning range.
Therefore, the external sensor used for position estimation has a configuration in which a camera or a laser sensor with a viewing angle of 90 degrees or less is mounted on a pan head that can control the pan angle and the tilt angle.

しかし、一般的な外界センサの構成では、全ての物体を視野範囲内に入れることはできない。視野範囲に推定値が収束している物体が無く、自己の推定値も収束していない場合は、上述のステップ2、3を繰り返しても、推定が収束しない。
特許文献1には、以前計測した特徴点の少なくとも一部が視野に残るように、センサの向きを制御する方法が記載されている。しかし、この方法は、移動体の周囲が全て静止体であり、「以前計測した点は誤差分散が小さい」といえる場合にのみ有効である。
However, with a general external sensor configuration, it is not possible to put all objects within the field of view. If there is no object whose estimated value has converged in the field of view and its own estimated value has not converged, the estimation will not converge even if steps 2 and 3 are repeated.
Patent Document 1 describes a method for controlling the orientation of a sensor so that at least a part of previously measured feature points remains in the field of view. However, this method is effective only when the surroundings of the moving body are all stationary and it can be said that “the previously measured points have a small error variance”.

周囲に移動体がある場合、過去に計測していても、移動することによって誤差分散が増加している場合がある。このような移動体を計測しても、自己位置の推定には有効ではない。一方で、移動体の位置誤差は徐々に増加していくため、定期的に観測しないと、位置が不明になり、推定値を使う制御動作にも影響を与える。
また、複数の計測体が存在する場合は、他の計測体が観測することで、自分とは無関係に、周囲の物体の誤差分散が小さくなることもある。このように、自己と、周囲の物体の誤差分散が動的に増減する状況下で、効果的にセンサの向きを制御することが要望されていた。
In the case where there are moving objects in the surroundings, there are cases where the error variance increases due to movement even if the measurement has been performed in the past. Even if such a moving body is measured, it is not effective in estimating the self-position. On the other hand, since the position error of the moving body gradually increases, if the observation is not made periodically, the position becomes unknown and the control operation using the estimated value is affected.
In addition, when there are a plurality of measuring bodies, the error dispersion of surrounding objects may be reduced by observing other measuring bodies regardless of the self. As described above, there has been a demand for effectively controlling the orientation of the sensor in a situation where the error variance of the self and the surrounding objects dynamically increases and decreases.

また、例えば、各物体にGPSを搭載すれば、各物体の正確な位置が取得できるが、GPSで正確な位置が取得できないような環境(屋内、市街地、森林等)においても、各物体の位置を推定する必要がある。   Also, for example, if each object is equipped with a GPS, the exact position of each object can be acquired, but the position of each object can be obtained even in an environment (such as indoors, urban areas, and forests) where the accurate position cannot be acquired with GPS. Need to be estimated.

本発明は上述した問題点を解決するために創案されたものである。すなわち本発明は、カメラやレーザセンサなどの外界センサを備えた計測体の周囲に位置する物体までの距離が離れており、かつ計測体又は物体が移動体であり、計測体と周囲の物体の誤差分散が動的に増減する状況下を想定している。この状況下において本発明の目的は、計測体の外界センサの指向方向を効果的に制御できるセンサの指向制御方法と装置を提供することにある。   The present invention has been developed to solve the above-described problems. That is, according to the present invention, the distance to an object positioned around a measurement body including an external sensor such as a camera or a laser sensor is long, and the measurement body or the object is a moving body. It is assumed that the error variance increases or decreases dynamically. Under such circumstances, an object of the present invention is to provide a sensor directivity control method and apparatus capable of effectively controlling the directivity direction of an external sensor of a measuring body.

本発明によれば、周囲に位置する物体の方位又は距離を計測可能な外界センサと、該外界センサを載せた雲台と、該雲台のパン角又はチルト角を制御する雲台制御装置と、を有する計測体におけるセンサの指向制御方法であって、
前記計測体は、その周囲の物体と通信可能な通信部と、前記雲台制御装置に指令値を出力する状態推定部とを備え、前記状態推定部により、
(A)自己及びその周囲の物体の位置又は姿勢の推定値を取得し、
前記推定値は、位置と姿勢を示す状態量と、該状態量の誤差分散行列であり、
(B)周囲の物体の前記推定値のカルマンゲインを算出し、
前記カルマンゲインは、観測対象の位置に関する第1修正ゲイン、観測元の位置に関する第2修正ゲイン、観測元の姿勢に関する第3修正ゲイン、又は、これらを統合した統合修正ゲインであり、
前記第1修正ゲインは、観測対象jのカルマンゲインKjの位置成分の二乗和であり、
前記第2修正ゲインは観測元iのカルマンゲインKiの位置成分の二乗和であり、
前記第3修正ゲインは、観測元iのカルマンゲインKiの姿勢成分の二乗和であり、
前記統合修正ゲインはカルマンゲインKi,Kjの各成分の二乗和であり、
カルマンゲインKi,Kjは、数9の式(10)(11)で算出され、

Figure 0006319736
ここで、CXiiは状態量Xiの誤差分散行列であり、CXijは共分散行列であり、Vijは、観測誤差分散であり、Rは観測誤差分散値であり、Bi,Bjは観測行列であり、
(C)前記カルマンゲインが最も大きい物体を注視物体として選択し、
(D)選択した注視物体の方向に前記雲台のパン角又はチルト角を制御する、ことを特徴とするセンサの指向制御方法が提供される。
According to the present invention, an external sensor capable of measuring the azimuth or distance of an object located in the vicinity, a camera platform on which the external sensor is mounted, and a camera platform control device that controls the pan angle or tilt angle of the camera platform. , A sensor directivity control method in a measuring body,
The measurement body includes a communication unit capable of communicating with surrounding objects, and a state estimation unit that outputs a command value to the pan head control device.
(A) Obtain an estimate of the position or orientation of the object and its surrounding objects,
The estimated value is a state quantity indicating a position and orientation, and an error variance matrix of the state quantity,
(B) calculating a Kalman gain of the estimated value of surrounding objects;
The Kalman gain is a first correction gain related to the position of the observation target, a second correction gain related to the position of the observation source, a third correction gain related to the attitude of the observation source, or an integrated correction gain obtained by integrating these.
The first correction gain is a sum of squares of position components of the Kalman gain Kj of the observation target j,
The second correction gain is a sum of squares of position components of the Kalman gain Ki of the observation source i,
The third correction gain is a sum of squares of attitude components of the Kalman gain Ki of the observation source i,
The integrated correction gain is the sum of squares of each component of the Kalman gains Ki and Kj.
The Kalman gains Ki and Kj are calculated by Equations (10) and (11) of Equation 9,
Figure 0006319736
Here, CXii is an error variance matrix of the state quantity Xi, CXij is a covariance matrix, Vij is an observation error variance, R is an observation error variance value, Bi and Bj are observation matrices,
(C) selecting an object having the largest Kalman gain as a gaze object,
(D) A sensor orientation control method is provided, wherein the pan angle or tilt angle of the camera platform is controlled in the direction of the selected gaze object.

前記統合修正ゲインは、第1修正ゲインと第2修正ゲインの和に、前記計測体と周囲の物体の距離、第3修正ゲイン、及び姿勢成分の重み係数βの積を加算した値である。   The integrated correction gain is a value obtained by adding the product of the distance between the measurement object and the surrounding object, the third correction gain, and the weight coefficient β of the posture component to the sum of the first correction gain and the second correction gain.

前記(C)において、カルマンゲインとして第1修正ゲイン、第2修正ゲイン、及び第3修正ゲインを、交互に切り替える。   In (C), the first correction gain, the second correction gain, and the third correction gain are alternately switched as the Kalman gain.

また、本発明によれば、周囲に位置する物体の方位又は距離を計測可能な外界センサと、該外界センサを載せた雲台と、該雲台のパン角又はチルト角を制御する雲台制御装置と、を有する計測体に設けられたセンサの指向制御装置であって、
周囲の物体と通信可能な通信部と、前記雲台制御装置に指令値を出力する状態推定部とを備え、前記状態推定部は、
(A)自己及びその周囲の物体の位置又は姿勢の推定値を取得し、
前記推定値は、位置と姿勢を示す状態量と、該状態量の誤差分散行列であり、
(B)周囲の物体の前記推定値のカルマンゲインを算出し、
前記カルマンゲインは、観測対象の位置に関する第1修正ゲイン、観測元の位置に関する第2修正ゲイン、観測元の姿勢に関する第3修正ゲイン、又は、これらを統合した統合修正ゲインであり、
前記第1修正ゲインは、観測対象jのカルマンゲインKjの位置成分の二乗和であり、
前記第2修正ゲインは観測元iのカルマンゲインKiの位置成分の二乗和であり、
前記第3修正ゲインは、観測元iのカルマンゲインKiの姿勢成分の二乗和であり、
前記統合修正ゲインはカルマンゲインKi,Kjの各成分の二乗和であり、
カルマンゲインKi,Kjは、数9の式(10)(11)で算出され、

Figure 0006319736
ここで、CXiiは状態量Xiの誤差分散行列であり、CXijは共分散行列であり、Vijは、観測誤差分散であり、Rは観測誤差分散値であり、Bi,Bjは観測行列であり、
(C)前記カルマンゲインが最も大きい物体を注視物体として選択し、
(D)選択した注視物体の方向に前記雲台のパン角又はチルト角を制御する、ことを特徴とするセンサの指向制御装置が提供される。
In addition, according to the present invention, an external sensor capable of measuring the azimuth or distance of an object located in the vicinity, a pan head on which the external sensor is mounted, and a pan head control for controlling the pan angle or tilt angle of the pan head A sensor directivity control device provided on a measuring body having a device,
A communication unit capable of communicating with surrounding objects, and a state estimation unit that outputs a command value to the pan head control device, the state estimation unit,
(A) Obtain an estimate of the position or orientation of the object and its surrounding objects,
The estimated value is a state quantity indicating a position and orientation, and an error variance matrix of the state quantity,
(B) calculating a Kalman gain of the estimated value of surrounding objects;
The Kalman gain is a first correction gain related to the position of the observation target, a second correction gain related to the position of the observation source, a third correction gain related to the attitude of the observation source, or an integrated correction gain obtained by integrating these.
The first correction gain is a sum of squares of position components of the Kalman gain Kj of the observation target j,
The second correction gain is a sum of squares of position components of the Kalman gain Ki of the observation source i,
The third correction gain is a sum of squares of attitude components of the Kalman gain Ki of the observation source i,
The integrated correction gain is the sum of squares of each component of the Kalman gains Ki and Kj.
The Kalman gains Ki and Kj are calculated by Equations (10) and (11) of Equation 9,
Figure 0006319736
Here, CXii is an error variance matrix of the state quantity Xi, CXij is a covariance matrix, Vij is an observation error variance, R is an observation error variance value, Bi and Bj are observation matrices,
(C) selecting an object having the largest Kalman gain as a gaze object,
(D) A sensor directivity control device is provided, which controls a pan angle or a tilt angle of the pan head in a direction of a selected gaze object.

上述した本発明の方法と装置によれば、状態推定部により、周囲の物体の位置又は姿勢の推定値のカルマンゲインを算出する。次いで、カルマンゲインが最も大きい物体(ゲイン最大物体)を注視物体として選択し、選択した注視物体の方向に雲台のパン角又はチルト角を制御する。
この制御で注視物体が観測されることで、自己又は注視物体の位置又は姿勢が修正される。
According to the method and apparatus of the present invention described above, the Kalman gain of the estimated value of the position or orientation of the surrounding object is calculated by the state estimation unit. Next, an object having the largest Kalman gain (maximum gain object) is selected as the gaze object, and the pan angle or tilt angle of the camera platform is controlled in the direction of the selected gaze object.
By observing the gaze object with this control, the position or posture of the self or the gaze object is corrected.

カルマンゲインは、推定値の修正量に比例する係数であり、この値が大きい方が推定値の修正量が大きくなる。したがって、カルマンゲインが最も大きい物体(ゲイン最大物体)を注視物体として選択することで、推定値を効率よく収束させることができる。   The Kalman gain is a coefficient proportional to the amount of correction of the estimated value, and the larger the value, the larger the amount of correction of the estimated value. Therefore, the estimated value can be converged efficiently by selecting the object having the highest Kalman gain (maximum gain object) as the gaze object.

従って、カメラやレーザセンサなどの外界センサを備えた計測体の周囲に位置する物体までの距離が離れており、かつ計測体又は物体が移動体であり、計測体と周囲の物体の誤差分散が動的に増減する状況下で、計測体の外界センサの指向方向を効果的に制御できる。   Therefore, the distance to the object located around the measurement body having an external sensor such as a camera or a laser sensor is large, and the measurement body or the object is a moving body, and the error dispersion between the measurement body and the surrounding object is reduced. It is possible to effectively control the directivity direction of the external sensor of the measuring body under the condition of dynamically increasing / decreasing.

本発明の使用例を示す図である。It is a figure which shows the usage example of this invention. 計測体(移動体)の構成図である。It is a block diagram of a measurement body (moving body). 移動体(例えば移動ロボット)の構成図である。It is a block diagram of a mobile body (for example, mobile robot). 本発明によるセンサの指向制御方法の全体フロー図である。1 is an overall flowchart of a sensor directivity control method according to the present invention. 推定誤差値のイメージ図である。It is an image figure of an estimation error value. 本発明の方法を示す模式図である。It is a schematic diagram which shows the method of this invention.

本発明の好ましい実施形態を図面に基づいて説明する。なお、各図において共通する部分には同一の符号を付し、重複した説明を省略する。   A preferred embodiment of the present invention will be described with reference to the drawings. In addition, the same code | symbol is attached | subjected to the common part in each figure, and the overlapping description is abbreviate | omitted.

図1は、本発明の使用例を示す図である。
この図において、計測体12は、移動可能な移動体13又は移動不能な固定体14である。
図1の例では、所定のエリア内に移動体13(例えば移動ロボット)や固定体14(例えば固定デバイス)を配置し、移動体13と固定体14の位置を求める。なお、以下、計測体12(移動体13又は固定体14)と計測体12以外の固定体(例えばランドマーク15)を、区別が必要な場合を除き単に物体10と呼ぶ。得られた物体10の位置は、移動体13の制御やエリアの地図作成、監視などに用いる。
FIG. 1 is a diagram showing an example of use of the present invention.
In this figure, the measuring body 12 is a movable body 13 that can move or a fixed body 14 that cannot move.
In the example of FIG. 1, a moving body 13 (for example, a mobile robot) and a fixed body 14 (for example, a fixed device) are arranged in a predetermined area, and the positions of the moving body 13 and the fixed body 14 are obtained. Hereinafter, the measurement body 12 (the moving body 13 or the fixed body 14) and the fixed body (for example, the landmark 15) other than the measurement body 12 are simply referred to as the object 10 unless distinction is necessary. The obtained position of the object 10 is used for control of the moving body 13, area mapping, monitoring, and the like.

図2は、計測体12(この例では移動体13)の構成図である。
計測体12は、外界センサ16、雲台18、雲台制御装置20を備える。
FIG. 2 is a configuration diagram of the measuring body 12 (the moving body 13 in this example).
The measuring body 12 includes an external sensor 16, a pan head 18, and a pan head control device 20.

外界センサ16は、他の物体10の方位又は距離を計測可能なセンサである。
この例において、外界センサ16は、カメラ16aとLRF16b(レーザセンサ)からなる。なおカメラ16aとLRF16bの両方を計測体12に搭載することが好ましいが、一方のみでもよい。
The external sensor 16 is a sensor that can measure the orientation or distance of another object 10.
In this example, the external sensor 16 includes a camera 16a and an LRF 16b (laser sensor). In addition, although it is preferable to mount both the camera 16a and LRF16b in the measurement body 12, only one may be sufficient.

カメラ16aにより、周囲の物体10のある方位を方位角と仰角として計測することができる。なお方位角と仰角は一般的な極座標表現と同じ定義である。物体10には、カメラ16aで検出するためのマーカ10aを設置するのが好ましい。
LRF16bにより、周囲の物体10までの距離を計測することができる。また、LRF16bにより、距離だけでなく他の物体10の方位も計測できる。
The camera 16a can measure the azimuth of the surrounding object 10 as an azimuth angle and an elevation angle. The azimuth angle and elevation angle have the same definition as in general polar coordinate expression. The object 10 is preferably provided with a marker 10a for detection by the camera 16a.
The distance to the surrounding object 10 can be measured by the LRF 16b. Further, not only the distance but also the orientation of another object 10 can be measured by the LRF 16b.

雲台18は、外界センサ16を載せ、水平方向のパン角と鉛直方向のチルト角の2軸を調節できるようになっている。   The camera platform 18 carries the external sensor 16 and can adjust two axes of a horizontal pan angle and a vertical tilt angle.

雲台制御装置20は、雲台18のパン角又はチルト角を制御する。   The camera platform controller 20 controls the pan angle or tilt angle of the camera platform 18.

この図に示すように、計測体12(移動体13又は固定体14)は、外界センサ16を載せた雲台18を有する。   As shown in this figure, the measuring body 12 (moving body 13 or fixed body 14) has a pan head 18 on which an external sensor 16 is placed.

上述した構成により、パン角を動かすことで外界センサ16(カメラ16aとLRF16b)の向きを水平方向に変えられる。またチルト角を動かすことで、カメラ16aとLRF16bの向きを鉛直方向に変えられる。なお、カメラ16aとLRF16bを別々の雲台18に搭載し、独立して動かしても良い。   With the configuration described above, the orientation of the external sensor 16 (camera 16a and LRF 16b) can be changed to the horizontal direction by moving the pan angle. Further, by moving the tilt angle, the direction of the camera 16a and the LRF 16b can be changed to the vertical direction. The camera 16a and the LRF 16b may be mounted on different pan heads 18 and moved independently.

図2において、計測体12は移動体13(例えば移動ロボット)であるが、移動不能な固定体14であってもよい。   In FIG. 2, the measuring body 12 is a moving body 13 (for example, a mobile robot), but may be a fixed body 14 that is not movable.

図3は、移動体13(例えば移動ロボット)の構成図である。
この図において、上述した雲台制御装置20は、雲台駆動部20aと雲台制御部20bからなる。また、移動体13は、上述した外界センサ16、雲台制御装置20の他に、内界センサ22、ロボット駆動部24、及び車両制御部26を有する。
FIG. 3 is a configuration diagram of the moving body 13 (for example, a mobile robot).
In this figure, the above-described pan head control device 20 includes a pan head drive unit 20a and a pan head control unit 20b. In addition to the external sensor 16 and the pan head control device 20 described above, the mobile body 13 includes an internal sensor 22, a robot drive unit 24, and a vehicle control unit 26.

内界センサ22は、この例では、ジャイロセンサ22a(移動体13の加速度、角速度を計測するセンサ)と車輪エンコーダ22b(移動体13の速度、角速度を計測するセンサ)である。
外界センサ16及び内界センサ22の検出データは、それぞれの計測部を介して状態推定部34(後述する)に入力される。
In this example, the internal sensor 22 is a gyro sensor 22a (a sensor that measures the acceleration and angular velocity of the moving body 13) and a wheel encoder 22b (a sensor that measures the speed and angular velocity of the moving body 13).
The detection data of the external sensor 16 and the internal sensor 22 are input to a state estimation unit 34 (described later) via each measurement unit.

本発明のセンサの指向制御装置30は、計測体12(この例では移動体13)に設けられており、通信部32と状態推定部34とを備える。
通信部32は、その周囲の物体10と通信可能であり、好ましくはリアルタイムに無線LANで通信可能に構成されている。
状態推定部34は、外界センサ16及び内界センサ22で計測されたセンサ情報を使って、自己(その計測体12)及びその周囲の物体10の推定値A(後述する)を取得する。
指向制御装置30は、例えばコンピュータ(PC)で構成されている。また、上述した雲台制御部20b、及び車両制御部26を含めて同一のコンピュータ(PC)で構成してもよい。
The sensor directivity control device 30 according to the present invention is provided in the measurement body 12 (the moving body 13 in this example), and includes a communication unit 32 and a state estimation unit 34.
The communication unit 32 can communicate with the surrounding object 10 and is preferably configured to be able to communicate with the wireless LAN in real time.
The state estimation unit 34 uses the sensor information measured by the external sensor 16 and the internal sensor 22 to acquire an estimated value A (described later) of itself (the measurement body 12) and the surrounding object 10.
The directivity control device 30 is configured by, for example, a computer (PC). Moreover, you may comprise by the same computer (PC) including the pan head control part 20b mentioned above and the vehicle control part 26. FIG.

状態推定部34は、車両制御部26及び雲台制御部20bにそれぞれ制御信号を出力する。車両制御部26は指令値を算出してロボット駆動部24に出力し、ロボット駆動部24は車輪エンコーダ22bを制御する。同様に雲台制御部20bは指令値を算出して雲台駆動部20aに出力し、雲台駆動部20aは雲台18のパン角又はチルト角を制御するようになっている。
また、状態推定部34は、後述するセンサの指向制御方法を実行する。
The state estimation unit 34 outputs control signals to the vehicle control unit 26 and the pan head control unit 20b. The vehicle control unit 26 calculates a command value and outputs it to the robot drive unit 24, and the robot drive unit 24 controls the wheel encoder 22b. Similarly, the pan head control unit 20b calculates a command value and outputs it to the pan head drive unit 20a, and the pan head drive unit 20a controls the pan angle or tilt angle of the pan head 18.
Further, the state estimation unit 34 executes a sensor directivity control method described later.

図4は、本発明によるセンサの指向制御方法の全体フロー図である。
この図に示すように本発明の指向制御方法は、S1〜S6の各ステップ(工程)からなる。
以下、特に必要な場合を除き、自己(観測元の計測体12)を「デバイスi」又は「観測元i」と呼び、周囲の物体10(観測対象)を「デバイスj」又は「観測対象j」と呼ぶ。
なお必要に応じて、観測対象の別の物体10を「デバイスk」と呼ぶ。i、j、kは、1,2,3・・・正数であり、デバイスi、デバイスj、デバイスkは異なる物体10を意味する。
FIG. 4 is an overall flowchart of the sensor directivity control method according to the present invention.
As shown in this figure, the directivity control method of the present invention comprises steps (steps) S1 to S6.
Hereinafter, unless otherwise necessary, the self (observation source measurement body 12) is referred to as “device i” or “observation source i”, and the surrounding object 10 (observation target) is referred to as “device j” or “observation target j”. "
If necessary, another object 10 to be observed is referred to as “device k”. i, j, k are 1, 2, 3,... positive numbers, and device i, device j, and device k mean different objects 10.

ステップS1では、自己及びその周囲の物体10の位置又は姿勢の推定値Aを取得する。この手段は、特許文献1、2などによる。
通常、各物体10がエリア内に配置された時点で大まかな位置又は姿勢は分かっている。そのため、自己及びその周囲の物体10の初期値は、例えば位置誤差2m、姿勢誤差2度程度の精度で設定する。
自己(観測元の計測体12)の位置又は姿勢の推定値Aは、状態推定部34に記憶された直前のデータと内界センサ22の出力から計算される。その周囲の物体10(計測体12)の位置又は姿勢の推定値Aは、通信部32を介して、その物体の状態推定部34に記憶された直前のデータを取得する。また、周囲の物体10が移動不能な固定体14又は計測体12以外の固定体(例えばランドマーク15)の場合には、その位置又は姿勢を予め状態推定部34に記憶しておく。
In step S1, an estimated value A of the position or orientation of the self and the surrounding object 10 is acquired. This means is based on Patent Documents 1 and 2 and the like.
Usually, the approximate position or posture is known when each object 10 is placed in the area. Therefore, the initial values of the self and the surrounding object 10 are set with an accuracy of, for example, a position error of 2 m and a posture error of about 2 degrees.
The estimated value A of the position or orientation of the self (observation source measuring body 12) is calculated from the immediately preceding data stored in the state estimation unit 34 and the output of the internal sensor 22. The estimated value A of the position or orientation of the surrounding object 10 (measurement body 12) acquires the immediately preceding data stored in the state estimation unit 34 of the object via the communication unit 32. Further, in the case where the surrounding object 10 is a fixed body 14 that cannot move or a fixed body other than the measuring body 12 (for example, a landmark 15), the position or orientation thereof is stored in the state estimation unit 34 in advance.

周囲の物体10とは、状態推定部34にある推定結果のうち、外界センサ16で計測できる距離範囲内にいると予測される物体10とする。
推定値Aとは、位置と姿勢を示す状態量Xiと、状態量Xiの誤差分散行列CXiiである。推定値Aは、時間経過と共に常に更新されている。
また、移動体13の場合、状態量Xiに速度や角速度などの運動成分を含めてもよい。
The surrounding object 10 is an object 10 that is predicted to be within a distance range that can be measured by the external sensor 16 among the estimation results in the state estimation unit 34.
The estimated value A is a state quantity Xi indicating the position and orientation, and an error variance matrix CXii of the state quantity Xi. The estimated value A is constantly updated over time.
In the case of the moving body 13, motion components such as speed and angular velocity may be included in the state quantity Xi.

デバイスiの現在の推定値A(状態量Xiと誤差分散行列CXii)は、数1の式(1)〜(3)で求められる。また、デバイスiの状態量Xiとデバイスjの状態量Xjとの共分散行列CXijも状態推定部34から取得できる。
式(1)において、(x,y,z)は位置を表し、(rx,ry,rz)は姿勢を表す。
The current estimated value A (state quantity Xi and error variance matrix CXii) of the device i is obtained by Equations (1) to (3) of Equation 1. Further, the covariance matrix CXij between the state quantity Xi of the device i and the state quantity Xj of the device j can also be acquired from the state estimation unit 34.
In Expression (1), (x, y, z) represents a position, and (rx, ry, rz) represents a posture.

Figure 0006319736
Figure 0006319736

計測体が物体を観測するたびに、状態量Xiと分散を更新する。
状態量Xiの修正式は、[数2]の(4)で示すことができる。また、分散の更新式は、[数2]の(5)で示すことができる。
Each time the measuring object observes the object, the state quantity Xi and the variance are updated.
The equation for correcting the state quantity Xi can be expressed by (4) in [Equation 2]. Also, the distribution update formula can be expressed by (5) in [Equation 2].

Figure 0006319736
Figure 0006319736

XやCovXの定義は、数3の式(6)〜(9)で示すことができる。したがって、各物体の誤差分散行列CXiiと共分散行列CXijは、式(5)で更新される。なお物体の数に応じて、数3の次数は変化する。   The definition of X or CovX can be expressed by Equations (6) to (9) in Equation 3. Therefore, the error variance matrix CXii and the covariance matrix CXij of each object are updated by Expression (5). Note that the order of Equation 3 changes depending on the number of objects.

Figure 0006319736
Figure 0006319736

ステップS2では、周囲の物体10の推定値AのカルマンゲインKを計算する。   In step S2, the Kalman gain K of the estimated value A of the surrounding object 10 is calculated.

図5は、推定誤差値Bのイメージ図である。
この図において、デバイスi、デバイスj、デバイスkは、3つの異なる物体10である。3つの異なる物体10のうち少なくとも1つは、計測体12である。計測体12は移動体13であっても固定体14であってもよい。
図中の楕円(破線で示す)は、デバイスi、デバイスj、デバイスkの位置誤差範囲を示している。また、図中の角度αは、観測誤差範囲を示している。
FIG. 5 is an image diagram of the estimated error value B.
In this figure, device i, device j, and device k are three different objects 10. At least one of the three different objects 10 is a measuring body 12. The measuring body 12 may be a moving body 13 or a fixed body 14.
Ellipses (indicated by broken lines) in the figure indicate the position error ranges of device i, device j, and device k. Also, the angle α in the figure indicates the observation error range.

観測元iのカルマンゲインKiと観測対象jのカルマンゲインKjは数4の式(10)(11)で算出される。
ここで、Rは、距離、方位角、仰角の計測誤差として想定される観測誤差分散値である。
また、カルマンゲインKiの各成分を式(12)のように表記する(カルマンゲインKjも同様である)。
なお、以下、「カルマンゲインK」は、カルマンゲインKi又はカルマンゲインKjを意味する。
The Kalman gain Ki of the observation source i and the Kalman gain Kj of the observation object j are calculated by the equations (10) and (11) of Equation 4.
Here, R is an observation error variance value assumed as a measurement error of distance, azimuth angle, and elevation angle.
Further, each component of the Kalman gain Ki is expressed as in Expression (12) (the same applies to the Kalman gain Kj).
Hereinafter, “Kalman gain K” means Kalman gain Ki or Kalman gain Kj.

Figure 0006319736
Figure 0006319736

例えば、観測元iで観測された距離(L)、方位(θ,φ)と、現在の推定値Aとの差がΔL,Δθ,Δφだった時、カルマンフィルタ理論では、状態量Xiの修正量を数5の式(13)で算出する。
式(13)から、カルマンゲインKiの各成分が大きいほど、状態量Xiの修正量が大きくなり、状態量Xiが修正されやすいことがわかる。
For example, when the difference between the distance (L) and direction (θ, φ) observed at the observation source i and the current estimated value A is ΔL, Δθ, Δφ, the correction amount of the state quantity Xi in the Kalman filter theory Is calculated by the equation (13) of Formula 5.
From equation (13), it can be seen that as each component of the Kalman gain Ki increases, the correction amount of the state quantity Xi increases and the state quantity Xi is more likely to be corrected.

Figure 0006319736
Figure 0006319736

本発明では、周囲の物体10の推定値AのカルマンゲインKは、観測対象jの位置に関する第1修正ゲインE1、観測元iの位置に関する第2修正ゲインE2、観測元iの姿勢に関する第3修正ゲインE3、又は、これらを統合した統合修正ゲインEallである。
統合修正ゲインEallは、第1修正ゲインE1と第2修正ゲインE2の和に、計測体12と周囲の物体10の距離、第3修正ゲインE3、及び姿勢成分の重み係数βの積を加算した値である。
In the present invention, the Kalman gain K of the estimated value A of the surrounding object 10 is a first correction gain E1 related to the position of the observation target j, a second correction gain E2 related to the position of the observation source i, and a third correction related to the attitude of the observation source i. The correction gain E3 or the integrated correction gain E all obtained by integrating them.
The integrated correction gain E all is obtained by adding the product of the distance between the measuring body 12 and the surrounding object 10, the third correction gain E3, and the weight coefficient β of the posture component to the sum of the first correction gain E1 and the second correction gain E2. It is the value.

第1修正ゲインE1、第2修正ゲインE2、及び第3修正ゲインE3は、数6の式(14)で与えられる。
また統合修正ゲインEallは、式(15)で与えられる。
ただし、式(16)の関係がある。
その他yj〜rziも同様に、カルマンゲイン行列(式(12))の対応する一行の和である。
なおEallの式で、より正確には、CはC biを指す。
またPijは、「観測元iから見た観測対象jの位置ベクトル」を意味する。
The first correction gain E1, the second correction gain E2, and the third correction gain E3 are given by Expression (14) of Equation 6.
The integrated correction gain E all is given by equation (15).
However, there is a relationship of Expression (16).
Similarly, yj to rzi are the sum of corresponding one row of the Kalman gain matrix (formula (12)).
In the E all equation, more precisely, C indicates C n bi .
P ij means “position vector of observation object j viewed from observation source i”.

Figure 0006319736
Figure 0006319736

式(10)(11)から明らかなように、カルマンゲインK(Ki又はKj)は、推定値Aの誤差分散CXを、観測誤差分散Vijと観測誤差分散値Rの和で割った値である。
観測誤差分散Vijは、「観測元iと観測対象jの誤差分散の和」を意味する。
したがって、カルマンゲインKは数7の式(17)(18)のように近似できる。なお、この式は、観測行列Bnや、共分散行列CXijを無視した近似だが、近似値が増減する傾向は、カルマンゲインKと同じである。
As is clear from the equations (10) and (11), the Kalman gain K (Ki or Kj) is a value obtained by dividing the error variance CX of the estimated value A by the sum of the observation error variance Vij and the observation error variance R. .
The observation error variance Vij means “the sum of error variances of the observation source i and the observation target j”.
Accordingly, the Kalman gain K can be approximated as in the equations (17) and (18) of Equation 7. This equation is an approximation that ignores the observation matrix Bn and the covariance matrix CXij, but the tendency of the approximate value to increase or decrease is the same as the Kalman gain K.

Figure 0006319736
Figure 0006319736

したがって、上述した修正ゲインE1〜E3、Eallは、推定値Aの誤差分散行列CXiiの大きさに応じて、以下のように増減する。 Therefore, the above-described correction gains E1 to E3 and E all increase / decrease as follows according to the size of the error variance matrix CXii of the estimated value A.

(1)観測対象jの位置に関する第1修正ゲインE1
式(14)から、第1修正ゲインE1は、観測対象jのカルマンゲインKj(式(12)と同様)の位置(x,y,z)成分の二乗和である。したがって、観測元iの誤差分散行列CXiiが小さく、観測対象jの誤差分散行列CXjjが大きい時に、大きな値となる。
逆に、観測元iの誤差分散行列CXiiが大きく、観測対象jの誤差分散行列CXjjが小さい時は、小さな値となる。
(1) 1st correction gain E1 regarding the position of the observation object j
From Expression (14), the first correction gain E1 is the sum of squares of the position (x, y, z) components of the Kalman gain Kj (similar to Expression (12)) of the observation target j. Therefore, the value is large when the error variance matrix CXii of the observation source i is small and the error variance matrix CXjj of the observation target j is large.
Conversely, when the error variance matrix CXii of the observation source i is large and the error variance matrix CXjj of the observation target j is small, the value is small.

(2)観測元iの位置に関する第2修正ゲインE2と、観測元iの姿勢に関する第3修正ゲインE3
式(14)から、第2修正ゲインE2は観測元iのカルマンゲインKi(式(12)と同様)の位置(x,y,z)成分の二乗和である。
同様に式(14)から、第3修正ゲインE3は、観測元iのカルマンゲインKiの姿勢(rx,ry,rz)成分の二乗和である。
したがって、観測元iの誤差分散行列CXiiが大きく、観測対象jの誤差分散行列CXjjが小さい時に、大きな値となる。
逆に、観測元iの誤差分散行列CXiiが小さく、観測対象jの誤差分散行列CXjjが大きい時は、小さな値となる。
(2) The second correction gain E2 related to the position of the observation source i and the third correction gain E3 related to the attitude of the observation source i
From Equation (14), the second correction gain E2 is the sum of squares of the position (x, y, z) components of the Kalman gain Ki of the observation source i (similar to Equation (12)).
Similarly, from equation (14), the third correction gain E3 is the sum of squares of the posture (rx, ry, rz) components of the Kalman gain Ki of the observation source i.
Therefore, the value is large when the error variance matrix CXii of the observation source i is large and the error variance matrix CXjj of the observation target j is small.
Conversely, when the error variance matrix CXii of the observation source i is small and the error variance matrix CXjj of the observation target j is large, the value is small.

(3)これらを統合した統合修正ゲインEall
統合修正ゲインEallは、観測元iと観測対象jの全てのカルマンゲインK(E1,E2,E3)の重み付き二乗和である。すなわち、統合修正ゲインEallはKi,Kjの各成分の二乗和である。したがって、表1のような傾向となる。
(3) Integrated correction gain E all integrating these
The integrated correction gain E all is a weighted sum of squares of all Kalman gains K (E1, E2, E3) of the observation source i and the observation target j. That is, the integrated correction gain E all is the sum of squares of the components of Ki and Kj. Therefore, the tendency is as shown in Table 1.

Figure 0006319736
Figure 0006319736

したがって、統合修正ゲインEallが最も大きくなる注視物体11を選ぶことで、ケース1、2に該当する対象が優先的に選ばれる。第1修正ゲインE1、第2修正ゲインE2を組み合わせた効果が期待できる。 Therefore, by selecting the gaze object 11 having the largest integrated correction gain E all , the target corresponding to cases 1 and 2 is preferentially selected. The effect of combining the first correction gain E1 and the second correction gain E2 can be expected.

図4に戻り、ステップS3では、カルマンゲインKが最も大きい物体10を注視物体11として選択する。注視物体11は、周囲の物体10から選択される。
カルマンゲインKは、第1修正ゲインE1、第2修正ゲインE2、第3修正ゲインE3、又は統合修正ゲインEallであるのがよい。
Returning to FIG. 4, in step S <b> 3, the object 10 having the largest Kalman gain K is selected as the gaze object 11. The gaze object 11 is selected from the surrounding objects 10.
The Kalman gain K may be the first correction gain E1, the second correction gain E2, the third correction gain E3, or the integrated correction gain E all .

また、カルマンゲインKとして第1修正ゲインE1、第2修正ゲインE2、及び第3修正ゲインE3を、一定時間毎に切り替えてもよい。   Further, the first correction gain E1, the second correction gain E2, and the third correction gain E3 may be switched as the Kalman gain K at regular intervals.

ステップS4では、パン角指令値θopeとチルト角指令値φopeを算出する。
自分から見た注視物体11の方向(θ,φ)を、観測方程式gの第2,第3行で求め、これをパン角指令値θopeとチルト角指令値φopeとする。
In step S4, a pan angle command value θ ope and a tilt angle command value φ ope are calculated.
The direction (θ, φ) of the gaze object 11 viewed from the self is obtained in the second and third rows of the observation equation g , and these are set as the pan angle command value θ ope and the tilt angle command value φ ope .

ステップS5では、雲台18のパン角又はチルト角を制御する。
パン角指令値θopeとチルト角指令値φopeに基づいて、以下のように雲台18を制御する。
θ軸は、数8の式(19)の範囲で動かす。
φ軸は式(20)の範囲で動かす。
ここで、Vth,Vphは、式(21)で示す観測誤差分散Vijの対角項である。式(21)は、観測誤差分散Vijの対角項に記号を定義したものである。
また、nは観測対象jの探索範囲を決める係数である。nを0にすると、予測した方向の一点を向く。
In step S5, the pan angle or tilt angle of the pan head 18 is controlled.
Based on the pan angle command value θ ope and the tilt angle command value φ ope , the pan head 18 is controlled as follows.
The θ-axis is moved within the range of Equation (19) in Equation 8.
The φ axis is moved within the range of equation (20).
Here, Vth and Vph are diagonal terms of the observation error variance Vij represented by Expression (21). Expression (21) defines symbols in the diagonal terms of the observation error variance Vij.
N is a coefficient that determines the search range of the observation target j. When n is set to 0, it points to one point in the predicted direction.

Figure 0006319736
Figure 0006319736

式(21)において、VLは「距離の観測誤差範囲」を意味する。
観測誤差分散Vijは3×3の行列となる。このうち、VthやVphは雲台の往復動作の幅を決めるのに用いる。
In the equation (21), VL means “distance observation error range”.
The observation error variance Vij is a 3 × 3 matrix. Of these, Vth and Vph are used to determine the width of the reciprocating motion of the camera platform.

ステップS6では、ステップS3で選択した注視物体11が観測された後に、或いは一定時間経過後に、ステップS1に戻る。
ステップS3で選択した注視物体11が観測された後にステップS1に戻ることが好ましい。注視物体11が観測されることで、自己又は注視物体11の位置又は姿勢が修正される。
しかし、ステップS3の選択にて、注視物体11が毎回変わるような状況では、目標指令値θope,φopeがループ毎に変わり制御が不安定になる場合がある。この場合には、一定時間の間、ステップS5の制御を継続した後にステップS1に戻る。
なお、一定時間経過の代わりに、注視物体11に関するカルマンゲインKが、ステップS3で選択した時より減るまで、ステップS5の制御を継続してもよい。
In step S6, the process returns to step S1 after the gaze object 11 selected in step S3 is observed or after a predetermined time has elapsed.
It is preferable to return to step S1 after the gaze object 11 selected in step S3 is observed. By observing the gaze object 11, the position or posture of the gaze object 11 or itself is corrected.
However, in a situation where the gaze object 11 changes every time as a result of the selection in step S3, the target command values θ ope and φ ope may change from loop to loop and the control may become unstable. In this case, after the control in step S5 is continued for a certain time, the process returns to step S1.
Note that the control in step S5 may be continued until the Kalman gain K related to the gaze object 11 decreases from the time selected in step S3, instead of the lapse of a fixed time.

また、ステップS5の制御を一定時間継続しても、注視物体11が観測されない場合は、推定誤差が大きいことで予測した方向に対象が存在しない可能性がある。このような場合は、全周囲に渡って視線方向を回すような動作を加えても良い。   Further, if the gaze object 11 is not observed even after the control in step S5 is continued for a certain time, there is a possibility that the target does not exist in the predicted direction due to the large estimation error. In such a case, an operation of turning the line-of-sight direction over the entire periphery may be added.

図6は、本発明の方法を示す模式図である。
この図において、デバイスiが、第1修正ゲインE1のゲイン最大物体としてデバイスjを検出し、第2修正ゲインE2のゲイン最大物体としてランドマーク15を検出している。
FIG. 6 is a schematic diagram showing the method of the present invention.
In this figure, the device i detects the device j as the maximum gain object of the first correction gain E1, and detects the landmark 15 as the maximum gain object of the second correction gain E2.

カルマンゲインKは、推定値Aの修正量に比例する係数であり、この値が大きい方が推定値Aの修正量が大きくなる。したがって、カルマンゲインKが大きくなるように対象を選択することで、推定値Aを効率よく収束させることができる。本発明では、カルマンゲインKの特定の成分を検証することで、以下のような効果がある。   The Kalman gain K is a coefficient proportional to the correction amount of the estimated value A, and the correction amount of the estimated value A increases as this value increases. Therefore, by selecting the target so that the Kalman gain K is increased, the estimated value A can be efficiently converged. In the present invention, verifying a specific component of the Kalman gain K has the following effects.

従来技術に示すとおり、観測されない物体10(特に移動体13)は、推定誤差値B(位置誤差分散B1)が徐々に増加する。このような物体10は、観測対象jとなった時の位置のカルマンゲインK(第1修正ゲインE1)が大きくなる。
ステップS3で、注視物体11として、観測対象jの位置に関する第1修正ゲインE1を選択した場合、ステップS4〜S6において、計測体12が、位置誤差分散B1が大きくなりつつある物体10(観測対象j)を優先的に計測する。このため、位置誤差分散B1の増加を防げる。
As shown in the prior art, the estimated error value B (position error variance B1) of the object 10 that is not observed (particularly the moving body 13) gradually increases. Such an object 10 has a large Kalman gain K (first correction gain E1) at the position when it becomes the observation target j.
When the first correction gain E1 related to the position of the observation target j is selected as the gaze object 11 in step S3, in step S4 to S6, the measurement body 12 causes the object 10 (observation target) whose position error variance B1 is increasing. j) is preferentially measured. For this reason, an increase in the position error variance B1 can be prevented.

ステップS3で、注視物体11として、観測元iの位置に関する第2修正ゲインE2又は観測元iの姿勢に関する第3修正ゲインE3を選択した場合、計測体12(観測元i)の推定値Aの修正量が大きくなるような対象(観測対象j)を選択する。このため、計測体12自身(観測元i)の位置と姿勢を効率よく推定できる。
特許文献1では、以前計測した点が視野に残るように制御している。これに対し本発明では、注視物体11として、第2修正ゲインE2又は第3修正ゲインE3を選択することにより、周囲の物体10の誤差分散が動的に変わっている状況下で、最も適した物体10を選択できる。
In step S3, when the second correction gain E2 related to the position of the observation source i or the third correction gain E3 related to the attitude of the observation source i is selected as the gaze object 11, the estimated value A of the measuring body 12 (observation source i) An object (observation object j) that increases the correction amount is selected. For this reason, the position and orientation of the measuring body 12 itself (observation source i) can be efficiently estimated.
In patent document 1, it controls so that the point measured previously remains in a visual field. On the other hand, in the present invention, by selecting the second correction gain E2 or the third correction gain E3 as the gaze object 11, it is most suitable in a situation where the error variance of the surrounding object 10 is dynamically changed. The object 10 can be selected.

ステップS3で、カルマンゲインKとして第1修正ゲインE1、第2修正ゲインE2、及び第3修正ゲインE3を、交互に切り替える。これにより、特定の物体10(観測対象j)の位置誤差が過大になる状態を防ぎつつ、各計測体12(観測元i)の位置と姿勢を効率よく推定できる。   In step S3, the first correction gain E1, the second correction gain E2, and the third correction gain E3 are alternately switched as the Kalman gain K. Thus, it is possible to efficiently estimate the position and orientation of each measurement body 12 (observation source i) while preventing a state where the position error of the specific object 10 (observation target j) is excessive.

統合修正ゲインEallは、第1修正ゲインE1、第2修正ゲインE2で使っている指標値を足し合わせたものである。位置誤差分散B1が増加している物体10(観測対象j)が周囲にあれば、第1修正ゲインE1が増加することで、注視物体11に選択される。それ以外は、自己(観測元i)の位置と姿勢を効率よく推定できる対象(観測対象j)が選ばれる。したがって、周囲の物体10の誤差分散と、計測体12自身の誤差分散の大きさを総合的に考慮した注視物体11を選べる。 The integrated correction gain E all is a sum of index values used in the first correction gain E1 and the second correction gain E2. If there is an object 10 (observation target j) in which the position error variance B1 is increasing, the first correction gain E1 is increased, and the object 10 is selected. Other than that, an object (observation object j) that can efficiently estimate the position and orientation of itself (observation source i) is selected. Therefore, it is possible to select the gaze object 11 that comprehensively considers the error variance of the surrounding object 10 and the error variance of the measuring body 12 itself.

上述した本発明の方法によれば、状態推定部34により、周囲の物体10の位置又は姿勢の推定値Aの推定誤差値BとカルマンゲインKを算出する。次いで、カルマンゲインKが最も大きい物体10(ゲイン最大物体)を注視物体11として選択し、選択した注視物体11の方向に雲台18のパン角又はチルト角を制御する。   According to the method of the present invention described above, the state estimation unit 34 calculates the estimation error value B and the Kalman gain K of the estimated value A of the position or orientation of the surrounding object 10. Next, the object 10 with the largest Kalman gain K (maximum gain object) is selected as the gaze object 11, and the pan angle or tilt angle of the pan head 18 is controlled in the direction of the selected gaze object 11.

カルマンゲインKは、推定値Aの修正量に比例する係数であり、この値が大きい方が推定値Aの修正量が大きくなる。したがって、カルマンゲインKが最も大きい物体10(ゲイン最大物体)を注視物体11として選択することで、推定値Aを効率よく収束させることができる。   The Kalman gain K is a coefficient proportional to the correction amount of the estimated value A, and the correction amount of the estimated value A increases as this value increases. Therefore, the estimated value A can be efficiently converged by selecting the object 10 having the largest Kalman gain K (maximum gain object) as the gaze object 11.

本発明は、カメラ16aやレーザセンサ16bなどの外界センサ16を備えた計測体12の周囲に位置する物体10までの距離が離れており、かつ計測体12又は物体10が移動体13であり、計測体12と周囲の物体10の誤差分散が動的に増減する状況下を想定している。
本発明によれば、この状況下において、計測体12に設けられたカメラ16aやレーザセンサ16bなどの外界センサ16の指向方向を効果的に制御できる。
In the present invention, the distance to the object 10 located around the measuring body 12 including the external sensor 16 such as the camera 16a and the laser sensor 16b is long, and the measuring body 12 or the object 10 is the moving body 13. It is assumed that the error variance between the measurement body 12 and the surrounding object 10 is dynamically increased or decreased.
According to the present invention, the directivity direction of the external sensor 16 such as the camera 16a and the laser sensor 16b provided in the measuring body 12 can be effectively controlled under this situation.

なお、1台の計測体12が、2組の外界センサ16を独立して動かす2台の雲台18を有している場合、一方の雲台18を第1修正ゲインE1に対して制御し、他方の雲台18を第2修正ゲインE2に対して制御してもよい。このように2組の外界センサ16と雲台18の役割を分担させることにより、周囲の物体10の観測と、自己の位置と姿勢の推定を両立させることができる。   When one measuring body 12 has two pan heads 18 that move two sets of external sensors 16 independently, one pan head 18 is controlled with respect to the first correction gain E1. The other head 18 may be controlled with respect to the second correction gain E2. In this way, by sharing the roles of the two external sensors 16 and the pan head 18, observation of the surrounding object 10 and estimation of its own position and orientation can be achieved at the same time.

なお本発明は上述した実施形態に限定されず、本発明の要旨を逸脱しない範囲で種々変更を加え得ることは勿論である。   In addition, this invention is not limited to embodiment mentioned above, Of course, a various change can be added in the range which does not deviate from the summary of this invention.

A 推定値、B 推定誤差値、B1 位置誤差分散、
g 観測方程式、K(Ki,Kj) カルマンゲイン、
E1 第1修正ゲイン、E2 第2修正ゲイン、E3 第3修正ゲイン、
Eall 統合修正ゲイン、R 観測誤差分散値、Xi、Xj 状態量、
CXii、CXjj 誤差分散行列、CXij 共分散行列、
Vij 観測誤差分散、θope パン角指令値、φope チルト角指令値、
10 物体、10a マーカ、11 注視物体、12 計測体、13 移動体、
14 固定体、15 ランドマーク、16 外界センサ、16a カメラ、
16b LRF(レーザセンサ)、18 雲台、20 雲台制御装置、
20a 雲台駆動部、20b 雲台制御部、22 内界センサ、
22a ジャイロセンサ、22b 車輪エンコーダ、24 ロボット駆動部、
26 車両制御部、30 指向制御装置、32 通信部、34 状態推定部
A estimated value, B estimated error value, B1 position error variance,
g Observation equation, K (Ki, Kj) Kalman gain,
E1 first correction gain, E2 second correction gain, E3 third correction gain,
Eall integrated correction gain, R observation error variance, Xi, Xj state quantity,
CXii, CXjj error variance matrix, CXij covariance matrix,
Vij observation error variance, θ ope pan angle command value, φ ope tilt angle command value,
10 object, 10a marker, 11 gaze object, 12 measuring object, 13 moving object,
14 fixed body, 15 landmark, 16 external sensor, 16a camera,
16b LRF (laser sensor), 18 pan head, 20 pan head control device,
20a pan head drive unit, 20b pan head control unit, 22 internal sensor,
22a gyro sensor, 22b wheel encoder, 24 robot drive unit,
26 vehicle control unit, 30 directivity control device, 32 communication unit, 34 state estimation unit

Claims (4)

周囲に位置する物体の方位又は距離を計測可能な外界センサと、該外界センサを載せた雲台と、該雲台のパン角又はチルト角を制御する雲台制御装置と、を有する計測体におけるセンサの指向制御方法であって、
前記計測体は、その周囲の物体と通信可能な通信部と、前記雲台制御装置に指令値を出力する状態推定部とを備え、前記状態推定部により、
(A)自己及びその周囲の物体の位置又は姿勢の推定値を取得し、
前記推定値は、位置と姿勢を示す状態量と、該状態量の誤差分散行列であり、
(B)周囲の物体の前記推定値のカルマンゲインを算出し、
前記カルマンゲインは、観測対象の位置に関する第1修正ゲイン、観測元の位置に関する第2修正ゲイン、観測元の姿勢に関する第3修正ゲイン、又は、これらを統合した統合修正ゲインであり、
前記第1修正ゲインは、観測対象jのカルマンゲインKjの位置成分の二乗和であり、
前記第2修正ゲインは観測元iのカルマンゲインKiの位置成分の二乗和であり、
前記第3修正ゲインは、観測元iのカルマンゲインKiの姿勢成分の二乗和であり、
前記統合修正ゲインはカルマンゲインKi,Kjの各成分の二乗和であり、
カルマンゲインKi,Kjは、数9の式(10)(11)で算出され、
Figure 0006319736
ここで、CXiiは状態量Xiの誤差分散行列であり、CXijは共分散行列であり、Vijは、観測誤差分散であり、Rは観測誤差分散値であり、Bi,Bjは観測行列であり、
(C)前記カルマンゲインが最も大きい物体を注視物体として選択し、
(D)選択した注視物体の方向に前記雲台のパン角又はチルト角を制御する、ことを特徴とするセンサの指向制御方法。
In a measuring body having an external sensor capable of measuring the azimuth or distance of an object located around, a camera platform on which the external sensor is mounted, and a camera platform controller for controlling the pan angle or tilt angle of the camera platform A sensor orientation control method,
The measurement body includes a communication unit capable of communicating with surrounding objects, and a state estimation unit that outputs a command value to the pan head control device.
(A) Obtain an estimate of the position or orientation of the object and its surrounding objects,
The estimated value is a state quantity indicating a position and orientation, and an error variance matrix of the state quantity,
(B) calculating a Kalman gain of the estimated value of surrounding objects;
The Kalman gain is a first correction gain related to the position of the observation target, a second correction gain related to the position of the observation source, a third correction gain related to the attitude of the observation source, or an integrated correction gain obtained by integrating these.
The first correction gain is a sum of squares of position components of the Kalman gain Kj of the observation target j,
The second correction gain is a sum of squares of position components of the Kalman gain Ki of the observation source i,
The third correction gain is a sum of squares of attitude components of the Kalman gain Ki of the observation source i,
The integrated correction gain is the sum of squares of each component of the Kalman gains Ki and Kj.
The Kalman gains Ki and Kj are calculated by Equations (10) and (11) of Equation 9,
Figure 0006319736
Here, CXii is an error variance matrix of the state quantity Xi, CXij is a covariance matrix, Vij is an observation error variance, R is an observation error variance value, Bi and Bj are observation matrices,
(C) selecting an object having the largest Kalman gain as a gaze object,
(D) A sensor orientation control method, wherein the pan angle or tilt angle of the camera platform is controlled in the direction of the selected gaze object.
前記統合修正ゲインは、第1修正ゲインと第2修正ゲインの和に、前記計測体と周囲の物体の距離、第3修正ゲイン、及び姿勢成分の重み係数βの積を加算した値である、ことを特徴とする請求項に記載のセンサの指向制御方法。 The integrated correction gain is a value obtained by adding the product of the distance between the measurement object and the surrounding object, the third correction gain, and the weight coefficient β of the posture component to the sum of the first correction gain and the second correction gain. The sensor directivity control method according to claim 1 . 前記(C)において、カルマンゲインとして第1修正ゲイン、第2修正ゲイン、及び第3修正ゲインを、交互に切り替える、ことを特徴とする請求項に記載のセンサの指向制御方法。 The sensor directivity control method according to claim 1 , wherein in (C), the first correction gain, the second correction gain, and the third correction gain are alternately switched as the Kalman gain. 周囲に位置する物体の方位又は距離を計測可能な外界センサと、該外界センサを載せた雲台と、該雲台のパン角又はチルト角を制御する雲台制御装置と、を有する計測体に設けられたセンサの指向制御装置であって、
周囲の物体と通信可能な通信部と、前記雲台制御装置に指令値を出力する状態推定部とを備え、前記状態推定部は、
(A)自己及びその周囲の物体の位置又は姿勢の推定値を取得し、
前記推定値は、位置と姿勢を示す状態量と、該状態量の誤差分散行列であり、
(B)周囲の物体の前記推定値のカルマンゲインを算出し、
前記カルマンゲインは、観測対象の位置に関する第1修正ゲイン、観測元の位置に関する第2修正ゲイン、観測元の姿勢に関する第3修正ゲイン、又は、これらを統合した統合修正ゲインであり、
前記第1修正ゲインは、観測対象jのカルマンゲインKjの位置成分の二乗和であり、
前記第2修正ゲインは観測元iのカルマンゲインKiの位置成分の二乗和であり、
前記第3修正ゲインは、観測元iのカルマンゲインKiの姿勢成分の二乗和であり、
前記統合修正ゲインはカルマンゲインKi,Kjの各成分の二乗和であり、
カルマンゲインKi,Kjは、数9の式(10)(11)で算出され、
Figure 0006319736
ここで、CXiiは状態量Xiの誤差分散行列であり、CXijは共分散行列であり、Vijは、観測誤差分散であり、Rは観測誤差分散値であり、Bi,Bjは観測行列であり、
(C)前記カルマンゲインが最も大きい物体を注視物体として選択し、
(D)選択した注視物体の方向に前記雲台のパン角又はチルト角を制御する、ことを特徴とするセンサの指向制御装置。

An external body sensor capable of measuring the azimuth or distance of an object located around, a pan head on which the external sensor is mounted, and a pan head control device that controls the pan angle or tilt angle of the pan head. A sensor directivity control device provided,
A communication unit capable of communicating with surrounding objects, and a state estimation unit that outputs a command value to the pan head control device, the state estimation unit,
(A) Obtain an estimate of the position or orientation of the object and its surrounding objects,
The estimated value is a state quantity indicating a position and orientation, and an error variance matrix of the state quantity,
(B) calculating a Kalman gain of the estimated value of surrounding objects;
The Kalman gain is a first correction gain related to the position of the observation target, a second correction gain related to the position of the observation source, a third correction gain related to the attitude of the observation source, or an integrated correction gain obtained by integrating these.
The first correction gain is a sum of squares of position components of the Kalman gain Kj of the observation target j,
The second correction gain is a sum of squares of position components of the Kalman gain Ki of the observation source i,
The third correction gain is a sum of squares of attitude components of the Kalman gain Ki of the observation source i,
The integrated correction gain is the sum of squares of each component of the Kalman gains Ki and Kj.
The Kalman gains Ki and Kj are calculated by Equations (10) and (11) of Equation 9,
Figure 0006319736
Here, CXii is an error variance matrix of the state quantity Xi, CXij is a covariance matrix, Vij is an observation error variance, R is an observation error variance value, Bi and Bj are observation matrices,
(C) selecting an object having the largest Kalman gain as a gaze object,
(D) A sensor orientation control device that controls a pan angle or a tilt angle of the pan head in a direction of a selected gaze object.

JP2013194154A 2013-09-19 2013-09-19 Sensor orientation control method and apparatus Active JP6319736B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013194154A JP6319736B2 (en) 2013-09-19 2013-09-19 Sensor orientation control method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013194154A JP6319736B2 (en) 2013-09-19 2013-09-19 Sensor orientation control method and apparatus

Publications (2)

Publication Number Publication Date
JP2015060431A JP2015060431A (en) 2015-03-30
JP6319736B2 true JP6319736B2 (en) 2018-05-09

Family

ID=52817894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013194154A Active JP6319736B2 (en) 2013-09-19 2013-09-19 Sensor orientation control method and apparatus

Country Status (1)

Country Link
JP (1) JP6319736B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106950976B (en) * 2017-02-28 2020-04-03 北京天恒长鹰科技股份有限公司 Indoor airship three-dimensional positioning device and method based on Kalman and particle filtering

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3404681B2 (en) * 1993-11-15 2003-05-12 日本電信電話株式会社 Sensor pointing direction sequential control method
KR100561855B1 (en) * 2002-12-30 2006-03-16 삼성전자주식회사 Robot localization system
EP1586421B1 (en) * 2004-04-16 2008-03-05 Honda Research Institute Europe GmbH Self-calibrating orienting system for a manipulating device
JP5310285B2 (en) * 2009-06-12 2013-10-09 日産自動車株式会社 Self-position estimation apparatus and self-position estimation method
JP5748174B2 (en) * 2011-09-15 2015-07-15 株式会社Ihi Method and apparatus for measuring relative posture of moving object

Also Published As

Publication number Publication date
JP2015060431A (en) 2015-03-30

Similar Documents

Publication Publication Date Title
JP6132981B2 (en) Method and apparatus for correcting plane conditions in real time
TWI827649B (en) Apparatuses, systems and methods for vslam scale estimation
US6489922B1 (en) Passive/ranging/tracking processing method for collision avoidance guidance and control
JP7404010B2 (en) Position estimation device and method
AU2007360479B2 (en) System for the precision localization of a target on the ground by a flying platform and associated method of operation
EP3399327B1 (en) Pose estimation using radio frequency identification (rfid) tags
KR20160044432A (en) Systems and methods for tracking location of movable target object
JP2004212400A (en) Position and direction predicting system for robot
US20150168953A1 (en) Autonomous self-leveling vehicle
JP7123774B2 (en) flight control system
JP2023521700A (en) Visual cue-based random access LIDAR system and method for location and navigation
US20220351011A1 (en) Printing systems
JP5679121B2 (en) Robot motion prediction control method and apparatus
JP6319736B2 (en) Sensor orientation control method and apparatus
JP6227950B2 (en) Sensor orientation control method and apparatus
JP5748174B2 (en) Method and apparatus for measuring relative posture of moving object
JP5939395B2 (en) Method and apparatus for measuring relative posture of moving object
Conduraru et al. Localization methods for mobile robots-a review
JP7021943B2 (en) Mobile
JP6247860B2 (en) Object position estimation method and apparatus
Gonçalves et al. Real-time localization of an omnidirectional mobile robot resorting to odometry and global vision data fusion: An EKF approach
KR100575108B1 (en) Method of Docking Multiple Spacecrafts Using Vision Sensor
JP2021043082A (en) Position estimating device, moving body control system, position estimating method, and program
Burke et al. Optimal placement of range-only beacons for mobile robot localisation
CN111207688A (en) Method and device for measuring distance of target object in vehicle and vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180327

R150 Certificate of patent or registration of utility model

Ref document number: 6319736

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250