JP6227950B2 - センサの指向制御方法と装置 - Google Patents

センサの指向制御方法と装置 Download PDF

Info

Publication number
JP6227950B2
JP6227950B2 JP2013194153A JP2013194153A JP6227950B2 JP 6227950 B2 JP6227950 B2 JP 6227950B2 JP 2013194153 A JP2013194153 A JP 2013194153A JP 2013194153 A JP2013194153 A JP 2013194153A JP 6227950 B2 JP6227950 B2 JP 6227950B2
Authority
JP
Japan
Prior art keywords
value
estimated
error
sensor
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013194153A
Other languages
English (en)
Other versions
JP2015060430A (ja
Inventor
周平 江本
周平 江本
肇 坂野
肇 坂野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
IHI Aerospace Co Ltd
Original Assignee
IHI Corp
IHI Aerospace Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp, IHI Aerospace Co Ltd filed Critical IHI Corp
Priority to JP2013194153A priority Critical patent/JP6227950B2/ja
Publication of JP2015060430A publication Critical patent/JP2015060430A/ja
Application granted granted Critical
Publication of JP6227950B2 publication Critical patent/JP6227950B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Control Of Position Or Direction (AREA)

Description

本発明は、計測体のカメラやレーザセンサなどの外界センサの指向方向を制御する方法と装置に関する。
複数の物体(例えば移動体)が、互いに独立してエリア内を移動する場合に、複数の移動体が互いに衝突することを避ける制御や、先行する移動体に他の移動体を追従させる制御などを行うことがある。
なお、複数の移動体は、例えば、物品を搬送する移動ロボットであり、作業エリア内で自在に移動可能である。
移動ロボットの位置を推定する手段として、特許文献1、2が既に開示されている。
また、ロボットのセンサの指向制御手段として、特許文献3〜5が既に開示されている。
特許文献1は、移動ロボット上にカメラやレーザセンサなどの外界センサを搭載する。外界センサによって周囲を計測した結果から、特徴点を抽出し、特徴点の位置と自己位置を同時に推定するものである。
特許文献2は、外界センサを搭載した計測体を複数用いて、各計測体が互いの方位、距離を計測した結果を統合することで、全ての計測体の位置と姿勢を推定するものである。
特許文献3は、既定の写像関数を用いて、アクチュエータ制御座標へ、動作前と動作後のポジションの偏差を写像し、アクチュエータ手段用のコマンドを形成するものである。
特許文献4は、音波を受信する少なくとも2つの音波センサを備え、2つの音波センサ間の音波受信時間差を利用して、ロボットへの音波入射角を計算するものである。
特許文献5は、ロボット経路追従装置のセンサの指向方向をエンドエフェクタ中心軸まわりに逐次制御し、センサの方向を適正に維持するものである。
特開2010−288112号公報 特開2013−61307号公報 特開2005−305633号公報 特開2004−212400号公報 特開平7−141008号公報
いずれの方法も、外界センサを使って、複数の物体の位置を同時に推定する。推定の計算は、以下のような方法である。
ステップ1:あらかじめ、各物体の位置と姿勢の推定値として適切な初期値を与えておく。また、初期値の誤差の大きさを表す誤差分散行列も設定する。
ステップ2:外界センサを使って、物体間の相対関係(方位と距離)を計測する。
ステップ3:計測結果に基づいて、各物体の推定値を修正し、誤差分散行列を小さくする。この時、誤差分散が大きい推定値の方が修正量が大きくなる。
事前に一部の物体の位置と姿勢が分かっていれば、それを基準に各物体の位置と姿勢が推定され、全体的に誤差分散が小さくなる。
上述の位置推定において、対象物の特徴を正確に抽出するには、外界センサによって、高い分解能で対象を計測する必要がある。しかし、一般的に外界センサは、分解能と視野範囲がトレードオフの関係にある。例えばカメラの場合、レンズの画角が狭いほど分解能が高くなる。レーザセンサの場合、レーザを走査する範囲を狭めた方が高い密度で空間を計測できる。
したがって、位置推定に用いる外界センサは、視野角が90度以下のカメラやレーザセンサを、パン角とチルト角を制御できる雲台上に搭載する構成となる。
しかし、一般的な外界センサの構成では、全ての物体を視野範囲内に入れることはできない。視野範囲に推定値が収束している物体が無く、自己の推定値も収束していない場合は,上述のステップ2、3を繰り返しても、推定が収束しない。
特許文献1には、以前計測した特徴点の少なくとも一部が視野に残るように、センサの向きを制御する方法が記載されている。しかし、この方法は、移動体の周囲が全て静止体であり、「以前計測した点は誤差分散が小さい」と言える場合にのみ有効である。
周囲に移動体がある場合、過去に計測していても、移動することによって誤差分散が増加している場合がある。このような移動体を計測しても、自己位置の推定には有効ではない。一方で、移動体の位置誤差は徐々に増加していくため、定期的に観測しないと、位置が不明になり、推定値を使う制御動作にも影響を与える。
また、複数の計測体が存在する場合は、他の計測体が観測することで、自分(自己)とは無関係に、周囲の物体の誤差分散が小さくなることもある。このように、自己と、周囲の物体の誤差分散が動的に増減する状況下で、効果的にセンサの向きを制御することが要望されていた。
また、例えば、各物体にGPSを搭載すれば、各物体の正確な位置が取得できるが、GPSで正確な位置が取得できないような環境(屋内、市街地、森林等)においても、各物体の位置を推定する必要がある。
本発明は上述した問題点を解決するために創案されたものである。すなわち本発明は、カメラやレーザセンサなどの外界センサを備えた計測体の周囲に位置する物体までの距離が離れており、かつ計測体又は物体が移動体であり、計測体と周囲の物体の誤差分散が動的に増減する状況下を想定している。この状況下において本発明の目的は、計測体の外界センサの指向方向を効果的に制御できるセンサの指向制御方法と装置を提供することにある。
本発明によれば、周囲に位置する物体の方位又は距離を計測可能な外界センサと、該外界センサを載せた雲台と、該雲台のパン角又はチルト角を制御する雲台制御装置と、を有する計測体におけるセンサの指向制御方法であって、
前記物体又は前記計測体は、移動体であり、
前記計測体は、その周囲の物体と通信可能な通信部と、前記雲台制御装置に指令値を出力する状態推定部とを備え、前記状態推定部により、
(A)自己の位置又は姿勢の推定値を、前記状態推定部に記憶された直前のデータと内界センサの出力から計算し、
自己の周囲の物体の位置又は姿勢の推定値を、予め前記状態推定部に記憶し、又は、自己の周囲の物体の位置又は姿勢の推定値として、前記通信部を介して、その物体の状態推定部に記憶された直前のデータを取得し、
(B)周囲の物体の前記推定値の推定誤差値を算出し、
(B1)前記推定誤差値が最も大きい物体、又は、(B2)前記推定誤差値が最も小さい物体、を注視物体として選択し、
(C)選択した注視物体の方向に前記雲台のパン角又はチルト角を制御する、ことを特徴とするセンサの指向制御方法が提供される。
前記推定値は、位置と姿勢を示す状態量と、該状態量の誤差分散行列であり、
前記推定誤差値は、位置誤差分散、姿勢誤差分散又は観測誤差範囲である。
前記(B)において、前記(B1)と(B2)を、交互に切り替える。
前記(B)において、自己の推定値の推定誤差値の大きさを、推定誤差値として許容できる閾値αと比較し、
前記大きさが前記閾値αより小さい場合、周囲の物体のうち前記推定誤差値が最も大きい物体を選択し、
前記大きさが前記閾値αより大きい場合、周囲の物体のうち前記推定誤差値が最も小さい物体を選択する。
また、本発明によれば、周囲に位置する物体の方位又は距離を計測可能な外界センサと、該外界センサを載せた雲台と、該雲台のパン角又はチルト角を制御する雲台制御装置と、を有する計測体に設けられたセンサの指向制御装置であって、
前記物体又は前記計測体は、移動体であり、
前記計測体は、その周囲の物体と通信可能な通信部と、前記雲台制御装置に指令値を出力する状態推定部とを備え、前記状態推定部は、
(A)自己の位置又は姿勢の推定値を、前記状態推定部に記憶された直前のデータと内界センサの出力から計算し、
自己の周囲の物体の位置又は姿勢の推定値を、予め前記状態推定部に記憶し、又は、自己の周囲の物体の位置又は姿勢の推定値として、前記通信部を介して、その物体の状態推定部に記憶された直前のデータを取得し、
(B)周囲の物体の前記推定値の推定誤差値を算出し、
(B1)前記推定誤差値が最も大きい物体、又は、(B2)前記推定誤差値が最も小さい物体、を注視物体として選択し、
(C)選択した注視物体の方向に前記雲台のパン角又はチルト角を制御する、ことを特徴とするセンサの指向制御装置が提供される。
上述した本発明の方法と装置によれば、状態推定部により、周囲の物体の位置又は姿勢の推定値の推定誤差値を算出する。次いで、推定誤差値が最も大きい物体(誤差最大物体)、又は、推定誤差値が最も小さい物体(誤差最小物体)を注視物体として選択し、選択した注視物体の方向に雲台のパン角又はチルト角を制御する。
この制御で注視物体が観測されることで、自己又は注視物体の位置又は姿勢が修正される。
誤差最大物体を注視物体として選択することにより、計測体が、推定誤差値(例えば位置誤差分散)が大きくなりつつある物体を優先的に計測するため、位置推定誤差の増加を防げる。
また、誤差最小物体を注視物体として選択することにより、計測体自身の位置を効率よく推定できる。
従って、カメラやレーザセンサなどの外界センサを備えた計測体の周囲に位置する物体までの距離が離れており、かつ計測体又は物体が移動体であり、計測体と周囲の物体の誤差分散が動的に増減する状況下で、計測体の外界センサの指向方向を効果的に制御できる。
本発明の使用例を示す図である。 計測体(移動体)の構成図である。 移動体(例えば移動ロボット)の構成図である。 本発明によるセンサの指向制御方法の全体フロー図である。 推定誤差値のイメージ図である。 本発明の方法を示す模式図である。
本発明の好ましい実施形態を図面に基づいて説明する。なお、各図において共通する部分には同一の符号を付し、重複した説明を省略する。
図1は、本発明の使用例を示す図である。
この図において、計測体12は、移動可能な移動体13又は移動不能な固定体14である。
図1の例では、所定のエリア内に移動体13(例えば移動ロボット)や固定体14(例えば固定デバイス)を配置し、移動体13と固定体14の位置を求める。なお、以下、計測体12(移動体13又は固定体14)と計測体12以外の固定体(例えばランドマーク15)を、区別が必要な場合を除き単に物体10と呼ぶ。得られた物体10の位置は、移動体13の制御やエリアの地図作成、監視などに用いる。
図2は、計測体12(この例では移動体13)の構成図である。
計測体12は、外界センサ16、雲台18、雲台制御装置20を備える。
外界センサ16は、他の物体10の方位又は距離を計測可能なセンサである。
この例において、外界センサ16は、カメラ16aとLRF16b(レーザセンサ)からなる。なおカメラ16aとLRF16bの両方を計測体12に搭載することが好ましいが、一方のみでもよい。
カメラ16aにより、周囲の物体10のある方位を方位角と仰角として計測することができる。なお方位角と仰角は一般的な極座標表現と同じ定義である。物体10には、カメラ16aで検出するためのマーカ10aを設置するのが好ましい。
LRF16bにより、周囲の物体10までの距離を計測することができる。また、LRF16bにより、距離だけでなく他の物体10の方位も計測できる。
雲台18は、外界センサ16を載せ、水平方向のパン角と鉛直方向のチルト角の2軸を調節できるようになっている。
雲台制御装置20は、雲台18のパン角又はチルト角を制御する。
この図に示すように、計測体12(移動体13又は固定体14)は、外界センサ16を載せた雲台18を有する。
上述した構成により、パン角を動かすことで外界センサ16(カメラ16aとLRF16b)の向きを水平方向に変えられる。またチルト角を動かすことで、カメラ16aとLRF16bの向きを鉛直方向に変えられる。なお、カメラ16aとLRF16bを別々の雲台18に搭載し、独立して動かしても良い。
図2において、計測体12は移動体13(例えば移動ロボット)であるが、移動不能な固定体14であってもよい。
図3は、移動体13(例えば移動ロボット)の構成図である。
この図において、上述した雲台制御装置20は、雲台駆動部20aと雲台制御部20bからなる。また、移動体13は、上述した外界センサ16、雲台制御装置20の他に、内界センサ22、ロボット駆動部24、及び車両制御部26を有する。
内界センサ22は、この例では、ジャイロセンサ22a(移動体13の加速度、角速度を計測するセンサ)と車輪エンコーダ22b(移動体13の速度、角速度を計測するセンサ)である。
外界センサ16及び内界センサ22の検出データは、それぞれの計測部を介して状態推定部34(後述する)に入力される。
本発明のセンサの指向制御装置30は、計測体12(この例では移動体13)に設けられており、通信部32と状態推定部34とを備える。
通信部32は、その周囲の物体10と通信可能であり、好ましくはリアルタイムに無線LANで通信可能に構成されている。
状態推定部34は、外界センサ16及び内界センサ22で計測されたセンサ情報を使って、自己(その計測体12)及びその周囲の物体10の推定値A(後述する)を取得する。
指向制御装置30は、例えばコンピュータ(PC)で構成されている。また、上述した雲台制御部20b、及び車両制御部26を含めて同一のコンピュータ(PC)で構成してもよい。
状態推定部34は、車両制御部26及び雲台制御部20bにそれぞれ制御信号を出力する。車両制御部26は指令値を算出してロボット駆動部24に出力し、ロボット駆動部24は車輪エンコーダ22bを制御する。同様に雲台制御部20bは指令値を算出して雲台駆動部20aに出力し、雲台駆動部20aは雲台18のパン角又はチルト角を制御するようになっている。
また、状態推定部34は、後述するセンサの指向制御方法を実行する。
図4は、本発明によるセンサの指向制御方法の全体フロー図である。
この図に示すように本発明の指向制御方法は、S1〜S6の各ステップ(工程)からなる。
以下、特に必要な場合を除き、自己(観測元の計測体12)を「デバイスi」又は「観測元i」と呼び、周囲の物体10(観測対象)を「デバイスj」又は「観測対象j」と呼ぶ。
なお必要に応じて、観測対象の別の物体10を「デバイスk」と呼ぶ。i、j、kは、1,2,3・・・の正数であり、デバイスi、デバイスj、デバイスkは異なる物体10を意味する。
ステップS1では、自己及びその周囲の物体10の位置又は姿勢の推定値Aを取得する。この手段は、特許文献1、2などによる。
通常、各物体10がエリア内に配置された時点で大まかな位置又は姿勢は分かっている。そのため、自己及びその周囲の物体10の初期値は、例えば位置誤差2m、姿勢誤差2度程度の精度で設定する。
自己(観測元の計測体12)の位置又は姿勢の推定値Aは、状態推定部34に記憶された直前のデータと内界センサ22の出力から計算される。その周囲の物体10(計測体12)の位置又は姿勢の推定値Aは、通信部32を介して、その物体の状態推定部34に記憶された直前のデータを取得する。また、周囲の物体10が移動不能な固定体14又は計測体12以外の固定体(例えばランドマーク15)の場合には、その位置又は姿勢を予め状態推定部34に記憶しておく。
周囲の物体10とは、状態推定部34にある推定結果のうち、外界センサ16で計測できる距離範囲内にいると予測される物体10とする。
推定値Aとは、位置と姿勢を示す状態量Xiと、状態量Xiの誤差分散行列CXiiである。推定値Aは、時間経過と共に常に更新されている。
また、移動体13の場合、状態量Xiに速度や角速度などの運動成分を含めてもよい。
デバイスiの現在の推定値A(状態量Xiと誤差分散行列CXii)は、数1の式(1)(2)で求められる。また、デバイスiの状態量Xiとデバイスjの状態量Xjとの共分散行列CXijも状態推定部34から取得できる。
式(1)において、(x,y,z)は位置を表し、(rx,ry,rz)は姿勢を表す。
Figure 0006227950
ステップS2では、周囲の物体10の推定値Aの推定誤差値Bを算出する。
推定誤差値Bは、位置誤差分散B1、姿勢誤差分散B2又は観測誤差範囲B3である。また、誤差推定値BをB1,B2,B3から唯一つを選ぶのではなく、重みパラメータW1,W2,W3で重み付けをしてW1×B1+W2×B2+W3×B3など複数の推定誤差値を併用して決定してもよい。
図5は、推定誤差値Bのイメージ図である。
この図において、デバイスi、デバイスj、デバイスkは、3つの異なる物体10である。3つの異なる物体10のうち少なくとも1つは、計測体12である。計測体12は移動体13であっても固定体14であってもよい。
図中の楕円(破線で示す)は、デバイスi、デバイスj、デバイスkの位置誤差範囲を示している。また、図中の角度βは、観測誤差範囲を示している。
位置誤差分散B1は、誤差分散行列CXiiの位置成分の対角項の和(数2の式(3))又は、誤差分散行列CXiiの位置成分のみの行列式(4)で求められる。
Figure 0006227950
姿勢誤差分散B2は、誤差分散行列CXiiの姿勢成分の対角項の和(数3の式(5))又は、誤差分散行列CXiiの姿勢成分のみの行列式(6)で求められる。
Figure 0006227950
観測誤差範囲B3は、数4の式(7)の観測誤差分散Vijの対角項の和、又は行列式で求められる。
ここで、Bnは、観測方程式gを、観測元i(自分)の状態量Xi、観測対象jの状態量Xjで偏微分した行列であり、式(8)で与えられる。
また、観測方程式gは、式(9)〜(11)で求められる。
ここで、C biは、全体座標系からデバイスiのローカル座標系に変換する行列であり、デバイスiの状態量Xiの姿勢成分から式(12)により算出する。
なお、式(12)では、cos(x)=c(x)、sin(x)=s(x)と略記している。
Figure 0006227950
ステップS3では、注視物体11を選択する。注視物体11は、周囲の物体10のなかから選択される。
注視物体11として、推定誤差値Bが最も大きい物体10(「誤差最大物体11A」と呼ぶ)、又は、推定誤差値Bが最も小さい物体10(「誤差最小物体11B」と呼ぶ)を選択する。この選択時に用いる推定誤差値Bは、位置誤差分散B1、姿勢誤差分散B2、又は観測誤差範囲B3であるのがよい。
また、誤差最大物体11Aと誤差最小物体11Bを一定時間毎に切り替えて注視物体11として選択してもよい。
また、自己の推定値Aの推定誤差値Bの大きさCを、推定誤差値Bとして許容できる閾値αと比較し、大きさCが閾値αより小さい場合、周囲の物体10のうち推定誤差値Bが最も大きい物体10(誤差最大物体11A)を選択し、大きさCが閾値αより大きい場合、周囲の物体10のうち推定誤差値Bが最も小さい物体10(誤差最小物体11B)を選択してもよい。
ステップS4では、パン角指令値θopeとチルト角指令値φopeを算出する。
自分(自己)から見た注視物体11の方向(θ,φ)を、前述の観測方程式gの第2,第3行で求め、これをパン角指令値θopeとチルト角指令値φopeとする。
ステップS5では、雲台18のパン角又はチルト角を制御する。
パン角指令値θopeとチルト角指令値φopeに基づいて、以下のように雲台18を制御する。
θ軸は、数5の式(13)の範囲で動かす。
φ軸は式(14)の範囲で動かす。
ここで、Vth,Vphは、式(15)で示す観測誤差分散Vijの対角項である。観測誤差分散Vijは式(7)で求める。式(15)は、観測誤差分散Vijの対角項に記号を定義したものである。
また、nは観測対象jの探索範囲を決める係数である。nを0にすると、予測した方向の一点を向く。
Figure 0006227950
式(15)において、VLは「距離の観測誤差範囲」を意味する。
式(7)を定義どおりに計算すると、観測誤差分散Vijは3×3の行列となる。このうち、VthやVphは雲台の往復動作の幅を決めるのに用いる。また、VLは、式(8)の観測誤差範囲B3を使う時に用いる。
ステップS6では、ステップS3で選択した注視物体11が観測された後に、或いは一定時間経過後に、ステップS1に戻る。
ステップS3で選択した注視物体11が観測された後にステップS1に戻ることが好ましい。注視物体11が観測されることで、注視物体11の位置又は姿勢が修正される。
しかし、ステップS3の選択にて、注視物体11が毎回変わるような状況では、目標指令値θope,φopeがループ毎に変わり制御が不安定になる場合がある。この場合には、一定時間の間、ステップS5の制御を継続した後にステップS1に戻る。
なお、一定時間経過の代わりに、注視物体11に関する推定誤差値Bが、ステップS3で選択した時より減る(又は増える)まで、ステップS5の制御を継続してもよい。
また、ステップS5の制御を一定時間継続しても、注視物体11が観測されない場合は、推定誤差が大きいことで予測した方向に対象が存在しない可能性がある。このような場合は、全周囲に渡って視線方向を回すような動作を加えても良い。
図6は、本発明の方法を示す模式図である。
この図において、デバイスiが、誤差最大物体11Aとしてデバイスjを検出し、誤差最小物体11Bとしてランドマーク15を検出している。
上述した本発明の方法により以下の効果が得られる。なお、以下、推定誤差値Bが位置誤差分散B1の場合を説明するが、推定誤差値Bが、姿勢誤差分散B2又は観測誤差範囲B3である場合も同様である。
従来技術に示すとおり、観測されない物体10(特に移動体13)は、推定誤差値B(位置誤差分散B1)が徐々に増加する。
ステップS3で、注視物体11として、推定誤差値Bが最も大きい物体10(誤差最大物体11A)を選択した場合、ステップS4〜S6において、選択した注視物体11(誤差最大物体11A)が観測されるように自己の雲台18を制御する。
したがって、自己(計測体12)が、位置誤差分散B1が大きくなりつつある物体10を優先的に計測し修正するため、誤差最大物体11Aの位置誤差分散B1の増加を防ぐことができる。
計測体12自身の位置と姿勢を推定する場合、推定誤差値B(位置誤差分散B1)が小さい物体10を観測した方が効率的である。ステップS3で、注視物体11として、推定誤差値Bが最も小さい物体10(誤差最小物体11B)を選択した場合、ステップS4〜S6において、選択した注視物体11(誤差最小物体11B)が観測されるように自己の雲台18を制御する。したがって、計測体12自身の位置と姿勢を効率よく推定できる。
特許文献1では,以前計測した点が視野に残るように制御している。これに対し本発明では、注視物体11として、推定誤差値Bが最も小さい物体10(誤差最小物体11B)を選択することにより、周囲の物体10の誤差分散が動的に変わっている状況下で、最も適した物体10を選択できる。
ステップS3で、注視物体11として、誤差最大物体11Aと誤差最小物体11Bを組み合わせることで、特定の物体10の位置誤差が過大になる状態を防ぎつつ,各計測体12の位置と姿勢を効率よく推定できる。
またステップS3で、注視物体11として、推定誤差値Bの大きさCを、推定誤差値Bとして許容できる閾値αと比較し、大きさCが閾値αより小さい場合、誤差最大物体11Aを選択する。また、大きさCが閾値αより大きい場合、誤差最小物体11Bを選択する。これにより、計測体12の姿勢(または位置)の推定誤差の大きさに応じて、誤差最大物体11Aと誤差最小物体11Bを切り替えられる。例えば,移動していない計測体12は、推定値Aの誤差分散が増加しにくい。したがって、この場合は、誤差最小物体11Bの選択は不要となる場合が多くなり、適切に動作を切り替えるので、効率よく推定できる。
上述した本発明の方法によれば、周囲の物体10の推定値Aの推定誤差値Bを算出する。次いで、推定誤差値Bが最も大きい物体10(誤差最大物体11A)、又は、推定誤差値Bが最も小さい物体10(誤差最小物体11B)を注視物体11として選択し、選択した注視物体11の方向に雲台18のパン角又はチルト角を制御する。
誤差最大物体11Aを注視物体11として選択することにより、計測体12が、位置誤差分散B1が大きくなりつつある物体10を優先的に計測するため、位置誤差分散B1の増加を防げる。
また、誤差最小物体11Bを注視物体11として選択することにより、計測体12の位置と姿勢を効率よく推定できる。
本発明は、カメラ16aやレーザセンサ16bなどの外界センサ16を備えた計測体12の周囲に位置する物体10までの距離が離れており、かつ計測体12又は物体10が移動体13であり、計測体12と周囲の物体10の誤差分散が動的に増減する状況下を想定している。
本発明によれば、この状況下において、計測体12に設けられたカメラ16aやレーザセンサ16bなどの外界センサ16の指向方向を効果的に制御できる。
なお、1台の計測体12が、2組の外界センサ16を独立して動かす2台の雲台18を有している場合、一方の雲台18を誤差最大物体11Aに対して制御し、他方の雲台18を誤差最小物体11Bに対して制御してもよい。このように2組の外界センサ16と雲台18の役割を分担させることにより、周囲の物体10の観測と、自己の位置と姿勢の推定を両立させることができる。
なお本発明は上述した実施形態に限定されず、本発明の要旨を逸脱しない範囲で種々変更を加え得ることは勿論である。
A 推定値、B 推定誤差値、B1 位置誤差分散、B2 姿勢誤差分散、
B3 観測誤差範囲、g 観測方程式、Xi、Xj 状態量、
CXii 誤差分散行列、CXij 共分散行列、Vij 観測誤差分散、
θope パン角指令値、φope チルト角指令値、10 物体、
10a マーカ、11 注視物体、11A 誤差最大物体、
11B 誤差最小物体、12 計測体、13 移動体、14 固定体、
15 ランドマーク、16 外界センサ、16a カメラ、
16b LRF(レーザセンサ)、18 雲台、20 雲台制御装置、
20a 雲台駆動部、20b 雲台制御部、22 内界センサ、
22a ジャイロセンサ、22b 車輪エンコーダ、24 ロボット駆動部、
26 車両制御部、30 指向制御装置、32 通信部、34 状態推定部

Claims (5)

  1. 周囲に位置する物体の方位又は距離を計測可能な外界センサと、該外界センサを載せた雲台と、該雲台のパン角又はチルト角を制御する雲台制御装置と、を有する計測体におけるセンサの指向制御方法であって、
    前記物体又は前記計測体は、移動体であり、
    前記計測体は、その周囲の物体と通信可能な通信部と、前記雲台制御装置に指令値を出力する状態推定部とを備え、前記状態推定部により、
    (A)自己の位置又は姿勢の推定値を、前記状態推定部に記憶された直前のデータと内界センサの出力から計算し、
    自己の周囲の物体の位置又は姿勢の推定値を、予め前記状態推定部に記憶し、又は、自己の周囲の物体の位置又は姿勢の推定値として、前記通信部を介して、その物体の状態推定部に記憶された直前のデータを取得し、
    (B)周囲の物体の前記推定値の推定誤差値を算出し、
    (B1)前記推定誤差値が最も大きい物体、又は、(B2)前記推定誤差値が最も小さい物体、を注視物体として選択し、
    (C)選択した注視物体の方向に前記雲台のパン角又はチルト角を制御する、ことを特徴とするセンサの指向制御方法。
  2. 前記推定値は、位置と姿勢を示す状態量と、該状態量の誤差分散行列であり、
    前記推定誤差値は、位置誤差分散、姿勢誤差分散又は観測誤差範囲である、ことを特徴とする請求項1に記載のセンサの指向制御方法。
  3. 前記(B)において、前記(B1)と(B2)を、交互に切り替える、ことを特徴とする請求項1又は2に記載のセンサの指向制御方法。
  4. 前記(B)において、自己の推定値の推定誤差値の大きさを、推定誤差値として許容できる閾値αと比較し、
    前記大きさが前記閾値αより小さい場合、周囲の物体のうち前記推定誤差値が最も大きい物体を選択し、
    前記大きさが前記閾値αより大きい場合、周囲の物体のうち前記推定誤差値が最も小さい物体を選択する、ことを特徴とする請求項1又は2に記載のセンサの指向制御方法。
  5. 周囲に位置する物体の方位又は距離を計測可能な外界センサと、該外界センサを載せた雲台と、該雲台のパン角又はチルト角を制御する雲台制御装置と、を有する計測体に設けられたセンサの指向制御装置であって、
    前記物体又は前記計測体は、移動体であり、
    前記計測体は、その周囲の物体と通信可能な通信部と、前記雲台制御装置に指令値を出力する状態推定部とを備え、前記状態推定部は、
    (A)自己の位置又は姿勢の推定値を、前記状態推定部に記憶された直前のデータと内界センサの出力から計算し、
    自己の周囲の物体の位置又は姿勢の推定値を、予め前記状態推定部に記憶し、又は、自己の周囲の物体の位置又は姿勢の推定値として、前記通信部を介して、その物体の状態推定部に記憶された直前のデータを取得し、
    (B)周囲の物体の前記推定値の推定誤差値を算出し、
    (B1)前記推定誤差値が最も大きい物体、又は、(B2)前記推定誤差値が最も小さい物体、を注視物体として選択し、
    (C)選択した注視物体の方向に前記雲台のパン角又はチルト角を制御する、ことを特徴とするセンサの指向制御装置。
JP2013194153A 2013-09-19 2013-09-19 センサの指向制御方法と装置 Active JP6227950B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013194153A JP6227950B2 (ja) 2013-09-19 2013-09-19 センサの指向制御方法と装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013194153A JP6227950B2 (ja) 2013-09-19 2013-09-19 センサの指向制御方法と装置

Publications (2)

Publication Number Publication Date
JP2015060430A JP2015060430A (ja) 2015-03-30
JP6227950B2 true JP6227950B2 (ja) 2017-11-08

Family

ID=52817893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013194153A Active JP6227950B2 (ja) 2013-09-19 2013-09-19 センサの指向制御方法と装置

Country Status (1)

Country Link
JP (1) JP6227950B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110296656A (zh) * 2019-07-15 2019-10-01 三峡大学 基于机器视觉的开关柜自动倒闸装置及方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3208900B2 (ja) * 1993-03-10 2001-09-17 株式会社デンソー 視覚に基く三次元位置および姿勢の認識方法とその装置
JPH11183172A (ja) * 1997-12-25 1999-07-09 Mitsubishi Heavy Ind Ltd 写真測量支援システム
JP5803367B2 (ja) * 2011-07-15 2015-11-04 富士通株式会社 自己位置推定装置、自己位置推定方法およびプログラム
JP6175745B2 (ja) * 2012-07-24 2017-08-09 富士通株式会社 決定装置、決定方法、および決定プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110296656A (zh) * 2019-07-15 2019-10-01 三峡大学 基于机器视觉的开关柜自动倒闸装置及方法
CN110296656B (zh) * 2019-07-15 2021-10-19 三峡大学 基于机器视觉的开关柜自动倒闸装置及方法

Also Published As

Publication number Publication date
JP2015060430A (ja) 2015-03-30

Similar Documents

Publication Publication Date Title
EP3168705B1 (en) Domestic robotic system
TWI827649B (zh) 用於vslam比例估計的設備、系統和方法
US7970491B2 (en) Robot localization system
US9317735B2 (en) Information processing apparatus, information processing method, and program to calculate position and posture of an object having a three-dimensional shape
JP7404010B2 (ja) 位置推定装置及び方法
JP5610870B2 (ja) 無人走行車両の誘導装置及び無人走行車両の誘導方法
AU2007360479B2 (en) System for the precision localization of a target on the ground by a flying platform and associated method of operation
US7792330B1 (en) System and method for determining range in response to image data
US20150168953A1 (en) Autonomous self-leveling vehicle
JP7123774B2 (ja) 飛行装置制御システム
US20160379365A1 (en) Camera calibration device, camera calibration method, and camera calibration program
JP2023521700A (ja) 視覚キュー型ランダムアクセスlidarシステム、並びに、所在特定及びナビゲーションのための方法
Celik et al. Mono-vision corner SLAM for indoor navigation
KR101132713B1 (ko) 이동로봇의 이동 제어장치, 이를 구비하는 이동로봇 시스템 및 이동로봇의 이동 제어방법
WO2020062356A1 (zh) 控制方法、控制装置、无人飞行器的控制终端
JP6227950B2 (ja) センサの指向制御方法と装置
JP7015506B2 (ja) ランドマークを用いた測位方法
JP6319736B2 (ja) センサの指向制御方法と装置
JP2021131762A (ja) 情報処理装置、情報処理方法、及びプログラム
JP7332403B2 (ja) 位置推定装置、移動体制御システム、位置推定方法およびプログラム
JP6934116B1 (ja) 航空機の飛行制御を行う制御装置、及び制御方法
JP2021136009A (ja) 情報処理装置、情報処理方法およびプログラム
JP5939395B2 (ja) 移動体の相対姿勢計測方法と装置
Ogata et al. A robust position and posture measurement system using visual markers and an inertia measurement unit
JP6247860B2 (ja) 物体の位置推定方法と装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171012

R150 Certificate of patent or registration of utility model

Ref document number: 6227950

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250