JP6319736B2 - センサの指向制御方法と装置 - Google Patents

センサの指向制御方法と装置 Download PDF

Info

Publication number
JP6319736B2
JP6319736B2 JP2013194154A JP2013194154A JP6319736B2 JP 6319736 B2 JP6319736 B2 JP 6319736B2 JP 2013194154 A JP2013194154 A JP 2013194154A JP 2013194154 A JP2013194154 A JP 2013194154A JP 6319736 B2 JP6319736 B2 JP 6319736B2
Authority
JP
Japan
Prior art keywords
correction gain
gain
observation
kalman
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013194154A
Other languages
English (en)
Other versions
JP2015060431A (ja
Inventor
周平 江本
周平 江本
肇 坂野
肇 坂野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
IHI Aerospace Co Ltd
Original Assignee
IHI Corp
IHI Aerospace Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp, IHI Aerospace Co Ltd filed Critical IHI Corp
Priority to JP2013194154A priority Critical patent/JP6319736B2/ja
Publication of JP2015060431A publication Critical patent/JP2015060431A/ja
Application granted granted Critical
Publication of JP6319736B2 publication Critical patent/JP6319736B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、計測体のカメラやレーザセンサなどの外界センサの指向方向を制御する方法と装置に関する。
複数の物体(例えば移動体)が、互いに独立してエリア内を移動する場合に、複数の移動体が互いに衝突することを避ける制御や、先行する移動体に他の移動体を追従させる制御などを行うことがある。
なお、複数の移動体は、例えば、物品を搬送する移動ロボットであり、作業エリア内で自在に移動可能である。
移動ロボットの位置を推定する手段として、特許文献1、2が既に開示されている。
また、ロボットのセンサの指向制御手段として、特許文献3〜5が既に開示されている。
特許文献1は、移動ロボット上にカメラやレーザセンサなどの外界センサを搭載する。外界センサによって周囲を計測した結果から、特徴点を抽出し、特徴点の位置と自己位置を同時に推定するものである。
特許文献2は、外界センサを搭載した計測体を複数用いて、各計測体が互いの方位、距離を計測した結果を統合することで、全ての計測体の位置と姿勢を推定するものである。
特許文献3は、既定の写像関数を用いて、アクチュエータ制御座標へ、動作前と動作後のポジションの偏差を写像し、アクチュエータ手段用のコマンドを形成するものである。
特許文献4は、音波を受信する少なくとも2つの音波センサを備え、2つの音波センサ間の音波受信時間差を利用して、ロボットへの音波入射角を計算するものである。
特許文献5は、ロボット経路追従装置のセンサの指向方向をエンドエフェクタ中心軸まわりに逐次制御し、センサの方向を適正に維持するものである。
特開2010−288112号公報 特開2013−61307号公報 特開2005−305633号公報 特開2004−212400号公報 特開平7−141008号公報
いずれの方法も、外界センサを使って、複数の物体の位置を同時に推定する。推定の計算は、以下のような方法である。
ステップ1:あらかじめ、各物体の位置と姿勢の推定値として適切な初期値を与えておく。また、初期値の誤差の大きさを表す誤差分散行列も設定する。
ステップ2:外界センサを使って、物体間の相対関係(方位と距離)を計測する。
ステップ3:計測結果に基づいて、各物体の推定値を修正し、誤差分散行列を小さくする。この時、誤差分散が大きい推定値の方が修正量が大きくなる。
事前に一部の物体の位置と姿勢が分かっていれば、それを基準に各物体の位置と姿勢が推定され、全体的に誤差分散が小さくなる。
上述の位置推定において、対象物の特徴を正確に抽出するには、外界センサによって、高い分解能で対象を計測する必要がある。しかし、一般的に外界センサは、分解能と視野範囲がトレードオフの関係にある。例えばカメラの場合、レンズの画角が狭いほど分解能が高くなる。レーザセンサの場合、レーザを走査する範囲を狭めた方が高い密度で空間を計測できる。
したがって、位置推定に用いる外界センサは、視野角が90度以下のカメラやレーザセンサを、パン角とチルト角を制御できる雲台上に搭載する構成となる。
しかし、一般的な外界センサの構成では、全ての物体を視野範囲内に入れることはできない。視野範囲に推定値が収束している物体が無く、自己の推定値も収束していない場合は、上述のステップ2、3を繰り返しても、推定が収束しない。
特許文献1には、以前計測した特徴点の少なくとも一部が視野に残るように、センサの向きを制御する方法が記載されている。しかし、この方法は、移動体の周囲が全て静止体であり、「以前計測した点は誤差分散が小さい」といえる場合にのみ有効である。
周囲に移動体がある場合、過去に計測していても、移動することによって誤差分散が増加している場合がある。このような移動体を計測しても、自己位置の推定には有効ではない。一方で、移動体の位置誤差は徐々に増加していくため、定期的に観測しないと、位置が不明になり、推定値を使う制御動作にも影響を与える。
また、複数の計測体が存在する場合は、他の計測体が観測することで、自分とは無関係に、周囲の物体の誤差分散が小さくなることもある。このように、自己と、周囲の物体の誤差分散が動的に増減する状況下で、効果的にセンサの向きを制御することが要望されていた。
また、例えば、各物体にGPSを搭載すれば、各物体の正確な位置が取得できるが、GPSで正確な位置が取得できないような環境(屋内、市街地、森林等)においても、各物体の位置を推定する必要がある。
本発明は上述した問題点を解決するために創案されたものである。すなわち本発明は、カメラやレーザセンサなどの外界センサを備えた計測体の周囲に位置する物体までの距離が離れており、かつ計測体又は物体が移動体であり、計測体と周囲の物体の誤差分散が動的に増減する状況下を想定している。この状況下において本発明の目的は、計測体の外界センサの指向方向を効果的に制御できるセンサの指向制御方法と装置を提供することにある。
本発明によれば、周囲に位置する物体の方位又は距離を計測可能な外界センサと、該外界センサを載せた雲台と、該雲台のパン角又はチルト角を制御する雲台制御装置と、を有する計測体におけるセンサの指向制御方法であって、
前記計測体は、その周囲の物体と通信可能な通信部と、前記雲台制御装置に指令値を出力する状態推定部とを備え、前記状態推定部により、
(A)自己及びその周囲の物体の位置又は姿勢の推定値を取得し、
前記推定値は、位置と姿勢を示す状態量と、該状態量の誤差分散行列であり、
(B)周囲の物体の前記推定値のカルマンゲインを算出し、
前記カルマンゲインは、観測対象の位置に関する第1修正ゲイン、観測元の位置に関する第2修正ゲイン、観測元の姿勢に関する第3修正ゲイン、又は、これらを統合した統合修正ゲインであり、
前記第1修正ゲインは、観測対象jのカルマンゲインKjの位置成分の二乗和であり、
前記第2修正ゲインは観測元iのカルマンゲインKiの位置成分の二乗和であり、
前記第3修正ゲインは、観測元iのカルマンゲインKiの姿勢成分の二乗和であり、
前記統合修正ゲインはカルマンゲインKi,Kjの各成分の二乗和であり、
カルマンゲインKi,Kjは、数9の式(10)(11)で算出され、
Figure 0006319736
ここで、CXiiは状態量Xiの誤差分散行列であり、CXijは共分散行列であり、Vijは、観測誤差分散であり、Rは観測誤差分散値であり、Bi,Bjは観測行列であり、
(C)前記カルマンゲインが最も大きい物体を注視物体として選択し、
(D)選択した注視物体の方向に前記雲台のパン角又はチルト角を制御する、ことを特徴とするセンサの指向制御方法が提供される。
前記統合修正ゲインは、第1修正ゲインと第2修正ゲインの和に、前記計測体と周囲の物体の距離、第3修正ゲイン、及び姿勢成分の重み係数βの積を加算した値である。
前記(C)において、カルマンゲインとして第1修正ゲイン、第2修正ゲイン、及び第3修正ゲインを、交互に切り替える。
また、本発明によれば、周囲に位置する物体の方位又は距離を計測可能な外界センサと、該外界センサを載せた雲台と、該雲台のパン角又はチルト角を制御する雲台制御装置と、を有する計測体に設けられたセンサの指向制御装置であって、
周囲の物体と通信可能な通信部と、前記雲台制御装置に指令値を出力する状態推定部とを備え、前記状態推定部は、
(A)自己及びその周囲の物体の位置又は姿勢の推定値を取得し、
前記推定値は、位置と姿勢を示す状態量と、該状態量の誤差分散行列であり、
(B)周囲の物体の前記推定値のカルマンゲインを算出し、
前記カルマンゲインは、観測対象の位置に関する第1修正ゲイン、観測元の位置に関する第2修正ゲイン、観測元の姿勢に関する第3修正ゲイン、又は、これらを統合した統合修正ゲインであり、
前記第1修正ゲインは、観測対象jのカルマンゲインKjの位置成分の二乗和であり、
前記第2修正ゲインは観測元iのカルマンゲインKiの位置成分の二乗和であり、
前記第3修正ゲインは、観測元iのカルマンゲインKiの姿勢成分の二乗和であり、
前記統合修正ゲインはカルマンゲインKi,Kjの各成分の二乗和であり、
カルマンゲインKi,Kjは、数9の式(10)(11)で算出され、
Figure 0006319736
ここで、CXiiは状態量Xiの誤差分散行列であり、CXijは共分散行列であり、Vijは、観測誤差分散であり、Rは観測誤差分散値であり、Bi,Bjは観測行列であり、
(C)前記カルマンゲインが最も大きい物体を注視物体として選択し、
(D)選択した注視物体の方向に前記雲台のパン角又はチルト角を制御する、ことを特徴とするセンサの指向制御装置が提供される。
上述した本発明の方法と装置によれば、状態推定部により、周囲の物体の位置又は姿勢の推定値のカルマンゲインを算出する。次いで、カルマンゲインが最も大きい物体(ゲイン最大物体)を注視物体として選択し、選択した注視物体の方向に雲台のパン角又はチルト角を制御する。
この制御で注視物体が観測されることで、自己又は注視物体の位置又は姿勢が修正される。
カルマンゲインは、推定値の修正量に比例する係数であり、この値が大きい方が推定値の修正量が大きくなる。したがって、カルマンゲインが最も大きい物体(ゲイン最大物体)を注視物体として選択することで、推定値を効率よく収束させることができる。
従って、カメラやレーザセンサなどの外界センサを備えた計測体の周囲に位置する物体までの距離が離れており、かつ計測体又は物体が移動体であり、計測体と周囲の物体の誤差分散が動的に増減する状況下で、計測体の外界センサの指向方向を効果的に制御できる。
本発明の使用例を示す図である。 計測体(移動体)の構成図である。 移動体(例えば移動ロボット)の構成図である。 本発明によるセンサの指向制御方法の全体フロー図である。 推定誤差値のイメージ図である。 本発明の方法を示す模式図である。
本発明の好ましい実施形態を図面に基づいて説明する。なお、各図において共通する部分には同一の符号を付し、重複した説明を省略する。
図1は、本発明の使用例を示す図である。
この図において、計測体12は、移動可能な移動体13又は移動不能な固定体14である。
図1の例では、所定のエリア内に移動体13(例えば移動ロボット)や固定体14(例えば固定デバイス)を配置し、移動体13と固定体14の位置を求める。なお、以下、計測体12(移動体13又は固定体14)と計測体12以外の固定体(例えばランドマーク15)を、区別が必要な場合を除き単に物体10と呼ぶ。得られた物体10の位置は、移動体13の制御やエリアの地図作成、監視などに用いる。
図2は、計測体12(この例では移動体13)の構成図である。
計測体12は、外界センサ16、雲台18、雲台制御装置20を備える。
外界センサ16は、他の物体10の方位又は距離を計測可能なセンサである。
この例において、外界センサ16は、カメラ16aとLRF16b(レーザセンサ)からなる。なおカメラ16aとLRF16bの両方を計測体12に搭載することが好ましいが、一方のみでもよい。
カメラ16aにより、周囲の物体10のある方位を方位角と仰角として計測することができる。なお方位角と仰角は一般的な極座標表現と同じ定義である。物体10には、カメラ16aで検出するためのマーカ10aを設置するのが好ましい。
LRF16bにより、周囲の物体10までの距離を計測することができる。また、LRF16bにより、距離だけでなく他の物体10の方位も計測できる。
雲台18は、外界センサ16を載せ、水平方向のパン角と鉛直方向のチルト角の2軸を調節できるようになっている。
雲台制御装置20は、雲台18のパン角又はチルト角を制御する。
この図に示すように、計測体12(移動体13又は固定体14)は、外界センサ16を載せた雲台18を有する。
上述した構成により、パン角を動かすことで外界センサ16(カメラ16aとLRF16b)の向きを水平方向に変えられる。またチルト角を動かすことで、カメラ16aとLRF16bの向きを鉛直方向に変えられる。なお、カメラ16aとLRF16bを別々の雲台18に搭載し、独立して動かしても良い。
図2において、計測体12は移動体13(例えば移動ロボット)であるが、移動不能な固定体14であってもよい。
図3は、移動体13(例えば移動ロボット)の構成図である。
この図において、上述した雲台制御装置20は、雲台駆動部20aと雲台制御部20bからなる。また、移動体13は、上述した外界センサ16、雲台制御装置20の他に、内界センサ22、ロボット駆動部24、及び車両制御部26を有する。
内界センサ22は、この例では、ジャイロセンサ22a(移動体13の加速度、角速度を計測するセンサ)と車輪エンコーダ22b(移動体13の速度、角速度を計測するセンサ)である。
外界センサ16及び内界センサ22の検出データは、それぞれの計測部を介して状態推定部34(後述する)に入力される。
本発明のセンサの指向制御装置30は、計測体12(この例では移動体13)に設けられており、通信部32と状態推定部34とを備える。
通信部32は、その周囲の物体10と通信可能であり、好ましくはリアルタイムに無線LANで通信可能に構成されている。
状態推定部34は、外界センサ16及び内界センサ22で計測されたセンサ情報を使って、自己(その計測体12)及びその周囲の物体10の推定値A(後述する)を取得する。
指向制御装置30は、例えばコンピュータ(PC)で構成されている。また、上述した雲台制御部20b、及び車両制御部26を含めて同一のコンピュータ(PC)で構成してもよい。
状態推定部34は、車両制御部26及び雲台制御部20bにそれぞれ制御信号を出力する。車両制御部26は指令値を算出してロボット駆動部24に出力し、ロボット駆動部24は車輪エンコーダ22bを制御する。同様に雲台制御部20bは指令値を算出して雲台駆動部20aに出力し、雲台駆動部20aは雲台18のパン角又はチルト角を制御するようになっている。
また、状態推定部34は、後述するセンサの指向制御方法を実行する。
図4は、本発明によるセンサの指向制御方法の全体フロー図である。
この図に示すように本発明の指向制御方法は、S1〜S6の各ステップ(工程)からなる。
以下、特に必要な場合を除き、自己(観測元の計測体12)を「デバイスi」又は「観測元i」と呼び、周囲の物体10(観測対象)を「デバイスj」又は「観測対象j」と呼ぶ。
なお必要に応じて、観測対象の別の物体10を「デバイスk」と呼ぶ。i、j、kは、1,2,3・・・正数であり、デバイスi、デバイスj、デバイスkは異なる物体10を意味する。
ステップS1では、自己及びその周囲の物体10の位置又は姿勢の推定値Aを取得する。この手段は、特許文献1、2などによる。
通常、各物体10がエリア内に配置された時点で大まかな位置又は姿勢は分かっている。そのため、自己及びその周囲の物体10の初期値は、例えば位置誤差2m、姿勢誤差2度程度の精度で設定する。
自己(観測元の計測体12)の位置又は姿勢の推定値Aは、状態推定部34に記憶された直前のデータと内界センサ22の出力から計算される。その周囲の物体10(計測体12)の位置又は姿勢の推定値Aは、通信部32を介して、その物体の状態推定部34に記憶された直前のデータを取得する。また、周囲の物体10が移動不能な固定体14又は計測体12以外の固定体(例えばランドマーク15)の場合には、その位置又は姿勢を予め状態推定部34に記憶しておく。
周囲の物体10とは、状態推定部34にある推定結果のうち、外界センサ16で計測できる距離範囲内にいると予測される物体10とする。
推定値Aとは、位置と姿勢を示す状態量Xiと、状態量Xiの誤差分散行列CXiiである。推定値Aは、時間経過と共に常に更新されている。
また、移動体13の場合、状態量Xiに速度や角速度などの運動成分を含めてもよい。
デバイスiの現在の推定値A(状態量Xiと誤差分散行列CXii)は、数1の式(1)〜(3)で求められる。また、デバイスiの状態量Xiとデバイスjの状態量Xjとの共分散行列CXijも状態推定部34から取得できる。
式(1)において、(x,y,z)は位置を表し、(rx,ry,rz)は姿勢を表す。
Figure 0006319736
計測体が物体を観測するたびに、状態量Xiと分散を更新する。
状態量Xiの修正式は、[数2]の(4)で示すことができる。また、分散の更新式は、[数2]の(5)で示すことができる。
Figure 0006319736
XやCovXの定義は、数3の式(6)〜(9)で示すことができる。したがって、各物体の誤差分散行列CXiiと共分散行列CXijは、式(5)で更新される。なお物体の数に応じて、数3の次数は変化する。
Figure 0006319736
ステップS2では、周囲の物体10の推定値AのカルマンゲインKを計算する。
図5は、推定誤差値Bのイメージ図である。
この図において、デバイスi、デバイスj、デバイスkは、3つの異なる物体10である。3つの異なる物体10のうち少なくとも1つは、計測体12である。計測体12は移動体13であっても固定体14であってもよい。
図中の楕円(破線で示す)は、デバイスi、デバイスj、デバイスkの位置誤差範囲を示している。また、図中の角度αは、観測誤差範囲を示している。
観測元iのカルマンゲインKiと観測対象jのカルマンゲインKjは数4の式(10)(11)で算出される。
ここで、Rは、距離、方位角、仰角の計測誤差として想定される観測誤差分散値である。
また、カルマンゲインKiの各成分を式(12)のように表記する(カルマンゲインKjも同様である)。
なお、以下、「カルマンゲインK」は、カルマンゲインKi又はカルマンゲインKjを意味する。
Figure 0006319736
例えば、観測元iで観測された距離(L)、方位(θ,φ)と、現在の推定値Aとの差がΔL,Δθ,Δφだった時、カルマンフィルタ理論では、状態量Xiの修正量を数5の式(13)で算出する。
式(13)から、カルマンゲインKiの各成分が大きいほど、状態量Xiの修正量が大きくなり、状態量Xiが修正されやすいことがわかる。
Figure 0006319736
本発明では、周囲の物体10の推定値AのカルマンゲインKは、観測対象jの位置に関する第1修正ゲインE1、観測元iの位置に関する第2修正ゲインE2、観測元iの姿勢に関する第3修正ゲインE3、又は、これらを統合した統合修正ゲインEallである。
統合修正ゲインEallは、第1修正ゲインE1と第2修正ゲインE2の和に、計測体12と周囲の物体10の距離、第3修正ゲインE3、及び姿勢成分の重み係数βの積を加算した値である。
第1修正ゲインE1、第2修正ゲインE2、及び第3修正ゲインE3は、数6の式(14)で与えられる。
また統合修正ゲインEallは、式(15)で与えられる。
ただし、式(16)の関係がある。
その他yj〜rziも同様に、カルマンゲイン行列(式(12))の対応する一行の和である。
なおEallの式で、より正確には、CはC biを指す。
またPijは、「観測元iから見た観測対象jの位置ベクトル」を意味する。
Figure 0006319736
式(10)(11)から明らかなように、カルマンゲインK(Ki又はKj)は、推定値Aの誤差分散CXを、観測誤差分散Vijと観測誤差分散値Rの和で割った値である。
観測誤差分散Vijは、「観測元iと観測対象jの誤差分散の和」を意味する。
したがって、カルマンゲインKは数7の式(17)(18)のように近似できる。なお、この式は、観測行列Bnや、共分散行列CXijを無視した近似だが、近似値が増減する傾向は、カルマンゲインKと同じである。
Figure 0006319736
したがって、上述した修正ゲインE1〜E3、Eallは、推定値Aの誤差分散行列CXiiの大きさに応じて、以下のように増減する。
(1)観測対象jの位置に関する第1修正ゲインE1
式(14)から、第1修正ゲインE1は、観測対象jのカルマンゲインKj(式(12)と同様)の位置(x,y,z)成分の二乗和である。したがって、観測元iの誤差分散行列CXiiが小さく、観測対象jの誤差分散行列CXjjが大きい時に、大きな値となる。
逆に、観測元iの誤差分散行列CXiiが大きく、観測対象jの誤差分散行列CXjjが小さい時は、小さな値となる。
(2)観測元iの位置に関する第2修正ゲインE2と、観測元iの姿勢に関する第3修正ゲインE3
式(14)から、第2修正ゲインE2は観測元iのカルマンゲインKi(式(12)と同様)の位置(x,y,z)成分の二乗和である。
同様に式(14)から、第3修正ゲインE3は、観測元iのカルマンゲインKiの姿勢(rx,ry,rz)成分の二乗和である。
したがって、観測元iの誤差分散行列CXiiが大きく、観測対象jの誤差分散行列CXjjが小さい時に、大きな値となる。
逆に、観測元iの誤差分散行列CXiiが小さく、観測対象jの誤差分散行列CXjjが大きい時は、小さな値となる。
(3)これらを統合した統合修正ゲインEall
統合修正ゲインEallは、観測元iと観測対象jの全てのカルマンゲインK(E1,E2,E3)の重み付き二乗和である。すなわち、統合修正ゲインEallはKi,Kjの各成分の二乗和である。したがって、表1のような傾向となる。
Figure 0006319736
したがって、統合修正ゲインEallが最も大きくなる注視物体11を選ぶことで、ケース1、2に該当する対象が優先的に選ばれる。第1修正ゲインE1、第2修正ゲインE2を組み合わせた効果が期待できる。
図4に戻り、ステップS3では、カルマンゲインKが最も大きい物体10を注視物体11として選択する。注視物体11は、周囲の物体10から選択される。
カルマンゲインKは、第1修正ゲインE1、第2修正ゲインE2、第3修正ゲインE3、又は統合修正ゲインEallであるのがよい。
また、カルマンゲインKとして第1修正ゲインE1、第2修正ゲインE2、及び第3修正ゲインE3を、一定時間毎に切り替えてもよい。
ステップS4では、パン角指令値θopeとチルト角指令値φopeを算出する。
自分から見た注視物体11の方向(θ,φ)を、観測方程式gの第2,第3行で求め、これをパン角指令値θopeとチルト角指令値φopeとする。
ステップS5では、雲台18のパン角又はチルト角を制御する。
パン角指令値θopeとチルト角指令値φopeに基づいて、以下のように雲台18を制御する。
θ軸は、数8の式(19)の範囲で動かす。
φ軸は式(20)の範囲で動かす。
ここで、Vth,Vphは、式(21)で示す観測誤差分散Vijの対角項である。式(21)は、観測誤差分散Vijの対角項に記号を定義したものである。
また、nは観測対象jの探索範囲を決める係数である。nを0にすると、予測した方向の一点を向く。
Figure 0006319736
式(21)において、VLは「距離の観測誤差範囲」を意味する。
観測誤差分散Vijは3×3の行列となる。このうち、VthやVphは雲台の往復動作の幅を決めるのに用いる。
ステップS6では、ステップS3で選択した注視物体11が観測された後に、或いは一定時間経過後に、ステップS1に戻る。
ステップS3で選択した注視物体11が観測された後にステップS1に戻ることが好ましい。注視物体11が観測されることで、自己又は注視物体11の位置又は姿勢が修正される。
しかし、ステップS3の選択にて、注視物体11が毎回変わるような状況では、目標指令値θope,φopeがループ毎に変わり制御が不安定になる場合がある。この場合には、一定時間の間、ステップS5の制御を継続した後にステップS1に戻る。
なお、一定時間経過の代わりに、注視物体11に関するカルマンゲインKが、ステップS3で選択した時より減るまで、ステップS5の制御を継続してもよい。
また、ステップS5の制御を一定時間継続しても、注視物体11が観測されない場合は、推定誤差が大きいことで予測した方向に対象が存在しない可能性がある。このような場合は、全周囲に渡って視線方向を回すような動作を加えても良い。
図6は、本発明の方法を示す模式図である。
この図において、デバイスiが、第1修正ゲインE1のゲイン最大物体としてデバイスjを検出し、第2修正ゲインE2のゲイン最大物体としてランドマーク15を検出している。
カルマンゲインKは、推定値Aの修正量に比例する係数であり、この値が大きい方が推定値Aの修正量が大きくなる。したがって、カルマンゲインKが大きくなるように対象を選択することで、推定値Aを効率よく収束させることができる。本発明では、カルマンゲインKの特定の成分を検証することで、以下のような効果がある。
従来技術に示すとおり、観測されない物体10(特に移動体13)は、推定誤差値B(位置誤差分散B1)が徐々に増加する。このような物体10は、観測対象jとなった時の位置のカルマンゲインK(第1修正ゲインE1)が大きくなる。
ステップS3で、注視物体11として、観測対象jの位置に関する第1修正ゲインE1を選択した場合、ステップS4〜S6において、計測体12が、位置誤差分散B1が大きくなりつつある物体10(観測対象j)を優先的に計測する。このため、位置誤差分散B1の増加を防げる。
ステップS3で、注視物体11として、観測元iの位置に関する第2修正ゲインE2又は観測元iの姿勢に関する第3修正ゲインE3を選択した場合、計測体12(観測元i)の推定値Aの修正量が大きくなるような対象(観測対象j)を選択する。このため、計測体12自身(観測元i)の位置と姿勢を効率よく推定できる。
特許文献1では、以前計測した点が視野に残るように制御している。これに対し本発明では、注視物体11として、第2修正ゲインE2又は第3修正ゲインE3を選択することにより、周囲の物体10の誤差分散が動的に変わっている状況下で、最も適した物体10を選択できる。
ステップS3で、カルマンゲインKとして第1修正ゲインE1、第2修正ゲインE2、及び第3修正ゲインE3を、交互に切り替える。これにより、特定の物体10(観測対象j)の位置誤差が過大になる状態を防ぎつつ、各計測体12(観測元i)の位置と姿勢を効率よく推定できる。
統合修正ゲインEallは、第1修正ゲインE1、第2修正ゲインE2で使っている指標値を足し合わせたものである。位置誤差分散B1が増加している物体10(観測対象j)が周囲にあれば、第1修正ゲインE1が増加することで、注視物体11に選択される。それ以外は、自己(観測元i)の位置と姿勢を効率よく推定できる対象(観測対象j)が選ばれる。したがって、周囲の物体10の誤差分散と、計測体12自身の誤差分散の大きさを総合的に考慮した注視物体11を選べる。
上述した本発明の方法によれば、状態推定部34により、周囲の物体10の位置又は姿勢の推定値Aの推定誤差値BとカルマンゲインKを算出する。次いで、カルマンゲインKが最も大きい物体10(ゲイン最大物体)を注視物体11として選択し、選択した注視物体11の方向に雲台18のパン角又はチルト角を制御する。
カルマンゲインKは、推定値Aの修正量に比例する係数であり、この値が大きい方が推定値Aの修正量が大きくなる。したがって、カルマンゲインKが最も大きい物体10(ゲイン最大物体)を注視物体11として選択することで、推定値Aを効率よく収束させることができる。
本発明は、カメラ16aやレーザセンサ16bなどの外界センサ16を備えた計測体12の周囲に位置する物体10までの距離が離れており、かつ計測体12又は物体10が移動体13であり、計測体12と周囲の物体10の誤差分散が動的に増減する状況下を想定している。
本発明によれば、この状況下において、計測体12に設けられたカメラ16aやレーザセンサ16bなどの外界センサ16の指向方向を効果的に制御できる。
なお、1台の計測体12が、2組の外界センサ16を独立して動かす2台の雲台18を有している場合、一方の雲台18を第1修正ゲインE1に対して制御し、他方の雲台18を第2修正ゲインE2に対して制御してもよい。このように2組の外界センサ16と雲台18の役割を分担させることにより、周囲の物体10の観測と、自己の位置と姿勢の推定を両立させることができる。
なお本発明は上述した実施形態に限定されず、本発明の要旨を逸脱しない範囲で種々変更を加え得ることは勿論である。
A 推定値、B 推定誤差値、B1 位置誤差分散、
g 観測方程式、K(Ki,Kj) カルマンゲイン、
E1 第1修正ゲイン、E2 第2修正ゲイン、E3 第3修正ゲイン、
Eall 統合修正ゲイン、R 観測誤差分散値、Xi、Xj 状態量、
CXii、CXjj 誤差分散行列、CXij 共分散行列、
Vij 観測誤差分散、θope パン角指令値、φope チルト角指令値、
10 物体、10a マーカ、11 注視物体、12 計測体、13 移動体、
14 固定体、15 ランドマーク、16 外界センサ、16a カメラ、
16b LRF(レーザセンサ)、18 雲台、20 雲台制御装置、
20a 雲台駆動部、20b 雲台制御部、22 内界センサ、
22a ジャイロセンサ、22b 車輪エンコーダ、24 ロボット駆動部、
26 車両制御部、30 指向制御装置、32 通信部、34 状態推定部

Claims (4)

  1. 周囲に位置する物体の方位又は距離を計測可能な外界センサと、該外界センサを載せた雲台と、該雲台のパン角又はチルト角を制御する雲台制御装置と、を有する計測体におけるセンサの指向制御方法であって、
    前記計測体は、その周囲の物体と通信可能な通信部と、前記雲台制御装置に指令値を出力する状態推定部とを備え、前記状態推定部により、
    (A)自己及びその周囲の物体の位置又は姿勢の推定値を取得し、
    前記推定値は、位置と姿勢を示す状態量と、該状態量の誤差分散行列であり、
    (B)周囲の物体の前記推定値のカルマンゲインを算出し、
    前記カルマンゲインは、観測対象の位置に関する第1修正ゲイン、観測元の位置に関する第2修正ゲイン、観測元の姿勢に関する第3修正ゲイン、又は、これらを統合した統合修正ゲインであり、
    前記第1修正ゲインは、観測対象jのカルマンゲインKjの位置成分の二乗和であり、
    前記第2修正ゲインは観測元iのカルマンゲインKiの位置成分の二乗和であり、
    前記第3修正ゲインは、観測元iのカルマンゲインKiの姿勢成分の二乗和であり、
    前記統合修正ゲインはカルマンゲインKi,Kjの各成分の二乗和であり、
    カルマンゲインKi,Kjは、数9の式(10)(11)で算出され、
    Figure 0006319736
    ここで、CXiiは状態量Xiの誤差分散行列であり、CXijは共分散行列であり、Vijは、観測誤差分散であり、Rは観測誤差分散値であり、Bi,Bjは観測行列であり、
    (C)前記カルマンゲインが最も大きい物体を注視物体として選択し、
    (D)選択した注視物体の方向に前記雲台のパン角又はチルト角を制御する、ことを特徴とするセンサの指向制御方法。
  2. 前記統合修正ゲインは、第1修正ゲインと第2修正ゲインの和に、前記計測体と周囲の物体の距離、第3修正ゲイン、及び姿勢成分の重み係数βの積を加算した値である、ことを特徴とする請求項に記載のセンサの指向制御方法。
  3. 前記(C)において、カルマンゲインとして第1修正ゲイン、第2修正ゲイン、及び第3修正ゲインを、交互に切り替える、ことを特徴とする請求項に記載のセンサの指向制御方法。
  4. 周囲に位置する物体の方位又は距離を計測可能な外界センサと、該外界センサを載せた雲台と、該雲台のパン角又はチルト角を制御する雲台制御装置と、を有する計測体に設けられたセンサの指向制御装置であって、
    周囲の物体と通信可能な通信部と、前記雲台制御装置に指令値を出力する状態推定部とを備え、前記状態推定部は、
    (A)自己及びその周囲の物体の位置又は姿勢の推定値を取得し、
    前記推定値は、位置と姿勢を示す状態量と、該状態量の誤差分散行列であり、
    (B)周囲の物体の前記推定値のカルマンゲインを算出し、
    前記カルマンゲインは、観測対象の位置に関する第1修正ゲイン、観測元の位置に関する第2修正ゲイン、観測元の姿勢に関する第3修正ゲイン、又は、これらを統合した統合修正ゲインであり、
    前記第1修正ゲインは、観測対象jのカルマンゲインKjの位置成分の二乗和であり、
    前記第2修正ゲインは観測元iのカルマンゲインKiの位置成分の二乗和であり、
    前記第3修正ゲインは、観測元iのカルマンゲインKiの姿勢成分の二乗和であり、
    前記統合修正ゲインはカルマンゲインKi,Kjの各成分の二乗和であり、
    カルマンゲインKi,Kjは、数9の式(10)(11)で算出され、
    Figure 0006319736
    ここで、CXiiは状態量Xiの誤差分散行列であり、CXijは共分散行列であり、Vijは、観測誤差分散であり、Rは観測誤差分散値であり、Bi,Bjは観測行列であり、
    (C)前記カルマンゲインが最も大きい物体を注視物体として選択し、
    (D)選択した注視物体の方向に前記雲台のパン角又はチルト角を制御する、ことを特徴とするセンサの指向制御装置。

JP2013194154A 2013-09-19 2013-09-19 センサの指向制御方法と装置 Active JP6319736B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013194154A JP6319736B2 (ja) 2013-09-19 2013-09-19 センサの指向制御方法と装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013194154A JP6319736B2 (ja) 2013-09-19 2013-09-19 センサの指向制御方法と装置

Publications (2)

Publication Number Publication Date
JP2015060431A JP2015060431A (ja) 2015-03-30
JP6319736B2 true JP6319736B2 (ja) 2018-05-09

Family

ID=52817894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013194154A Active JP6319736B2 (ja) 2013-09-19 2013-09-19 センサの指向制御方法と装置

Country Status (1)

Country Link
JP (1) JP6319736B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106950976B (zh) * 2017-02-28 2020-04-03 北京天恒长鹰科技股份有限公司 基于卡尔曼和粒子滤波的室内飞艇三维定位装置及方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3404681B2 (ja) * 1993-11-15 2003-05-12 日本電信電話株式会社 センサ指向方向逐次制御方法
KR100561855B1 (ko) * 2002-12-30 2006-03-16 삼성전자주식회사 로봇용 로컬라이제이션 시스템
EP1586421B1 (en) * 2004-04-16 2008-03-05 Honda Research Institute Europe GmbH Self-calibrating orienting system for a manipulating device
JP5310285B2 (ja) * 2009-06-12 2013-10-09 日産自動車株式会社 自己位置推定装置及び自己位置推定方法
JP5748174B2 (ja) * 2011-09-15 2015-07-15 株式会社Ihi 移動体の相対姿勢計測方法と装置

Also Published As

Publication number Publication date
JP2015060431A (ja) 2015-03-30

Similar Documents

Publication Publication Date Title
JP6132981B2 (ja) 飛行機の状態をリアルタイムに修正する方法および装置
TWI827649B (zh) 用於vslam比例估計的設備、系統和方法
US6489922B1 (en) Passive/ranging/tracking processing method for collision avoidance guidance and control
JP7404010B2 (ja) 位置推定装置及び方法
AU2007360479B2 (en) System for the precision localization of a target on the ground by a flying platform and associated method of operation
KR20160044432A (ko) 가동 타겟 오브젝트의 위치 탐색을 위한 시스템 및 방법
JP2004212400A (ja) ロボット用位置方向推定システム
US20150168953A1 (en) Autonomous self-leveling vehicle
EP3399327B1 (en) Pose estimation using radio frequency identification (rfid) tags
Bischoff et al. Fusing vision and odometry for accurate indoor robot localization
JP7123774B2 (ja) 飛行装置制御システム
JP2023521700A (ja) 視覚キュー型ランダムアクセスlidarシステム、並びに、所在特定及びナビゲーションのための方法
US20220351011A1 (en) Printing systems
JP5679121B2 (ja) ロボットの運動予測制御方法と装置
JP6319736B2 (ja) センサの指向制御方法と装置
JP6227950B2 (ja) センサの指向制御方法と装置
JP5748174B2 (ja) 移動体の相対姿勢計測方法と装置
JP7332403B2 (ja) 位置推定装置、移動体制御システム、位置推定方法およびプログラム
JP5939395B2 (ja) 移動体の相対姿勢計測方法と装置
Conduraru et al. Localization methods for mobile robots-a review
JP7021943B2 (ja) 移動体
JP6247860B2 (ja) 物体の位置推定方法と装置
Gonçalves et al. Real-time localization of an omnidirectional mobile robot resorting to odometry and global vision data fusion: An EKF approach
KR100575108B1 (ko) 비전 센서를 이용하여 다수 비행체를 도킹시키는 방법
Burke et al. Optimal placement of range-only beacons for mobile robot localisation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180327

R150 Certificate of patent or registration of utility model

Ref document number: 6319736

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250