JP5939395B2 - 移動体の相対姿勢計測方法と装置 - Google Patents

移動体の相対姿勢計測方法と装置 Download PDF

Info

Publication number
JP5939395B2
JP5939395B2 JP2012204256A JP2012204256A JP5939395B2 JP 5939395 B2 JP5939395 B2 JP 5939395B2 JP 2012204256 A JP2012204256 A JP 2012204256A JP 2012204256 A JP2012204256 A JP 2012204256A JP 5939395 B2 JP5939395 B2 JP 5939395B2
Authority
JP
Japan
Prior art keywords
moving body
measured
moving
posture
measuring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012204256A
Other languages
English (en)
Other versions
JP2014059719A (ja
Inventor
周平 江本
周平 江本
肇 坂野
肇 坂野
光治 曽根原
光治 曽根原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2012204256A priority Critical patent/JP5939395B2/ja
Publication of JP2014059719A publication Critical patent/JP2014059719A/ja
Application granted granted Critical
Publication of JP5939395B2 publication Critical patent/JP5939395B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、複数の移動体の相対姿勢を計測する相対姿勢計測方法と装置に関する。
複数の移動体が、互いに独立してエリア内を移動する場合に、複数の移動体が互いに衝突することを避ける制御や、先行する移動体に他の移動体を追従させる制御などを行うことがある。
なお、複数の移動体は、例えば、物品を搬送する移動ロボットであり、作業エリア内で自在に移動可能である。
上述の制御を行うために、従来は移動体の位置と姿勢を以下のA〜Dの方法により計測している。
方法Aでは、移動体に速度センサやジャイロセンサなどを設置し、速度センサによる速度計測値を時間積分して移動体の位置を求め、ジャイロセンサによる角速度計測値を時間積分して移動体の姿勢を求める。
方法Bでは、移動体に、カメラ、レーザセンサなどの外界センサを搭載する。この外界センサにより、移動体の外部において既知の位置に存在する指標の方向と、該指標までの距離を計測する。この計測結果を、地図データと照合する。この照合に基づいて、移動体の自己位置と姿勢を求める。
例えば、特許文献1では、移動体の自己姿勢を計測する姿勢センサとして、スターセンサ、地球センサ、太陽センサなどを用いている。
また特許文献2は、ランドマークの配置を示す環境地図をあらかじめ用意できない場合のために、移動体の自己位置と姿勢を推定すると同時に、環境地図を自動作成する方法を開示している。
方法Cでは、移動体の外部にある機器と連携して方向や距離を計測し、自己位置と姿勢を求める。例えばGPSシステムが該当する。GPSシステムでは、3以上の衛星との距離から位置を求める、或いはGPSを使って車体の3ケ所で位置を求めて姿勢を算出することができる。
方法Dでは、移動体の外部に設置された外界センサ(例えば、カメラ)により移動体を含む画像を取得し、この画像に基づいて移動体の位置と姿勢を求める。方法Dの例としては、特許文献2に、カメラ画像上の特徴点と対象物の3次元形状データから対象物の位置と姿勢を算出する方法が示されている。
また、特許文献3は、2つの環境地図間の姿勢ずれを補正することで、一方の環境地図上の点を他方の環境地図の座標系に合わせて座標変換する方法を開示している。
特許第2514987号公報、「対象物の位置推定装置」 特開2008−304268号公報、「情報処理装置、および情報処理方法、並びにコンピュータ・プログラム」 特開2009−157430号公報、「座標補正方法、座標補正プログラム、及び自律移動ロボット」
しかし、移動体の位置と姿勢のうち、姿勢を精度よく計測することは一般的に難しい。
上述した方法Aでは、姿勢の絶対量を計測することができない。従って、エンコーダやジャイロセンサの計測精度が低いと、角速度の誤差が累積され、精度よく姿勢を計測できない。
上述した方法Bでは、カメラやレーザセンサでランドマークを認識する必要がある。そのため、ランドマークとなる特徴的な物体が周囲にない環境では移動体の姿勢を計測できない。
上述した方法C、Dで姿勢を計測する場合、物体上の異なる点の位置を3点以上計測し、各点の位置関係から姿勢を計測する。そのためセンサと移動体の距離が遠いと、姿勢を計測することが困難になる。例えば、カメラを使う場合、距離が離れると画像上の移動体像が小さくなり特徴点が複数得られなくなる。
一方、移動体を制御したり操縦したりする際に必要となるのは、移動体と対象物との「相対的な位置と姿勢」である。
例えば、エリア内の特定の物体に移動体を追従させる場合や、複数の移動体を衝突しないように制御する場合は、追従対象や他の移動体との相対的な位置と姿勢が得られれば良い。
しかし、移動体と対象物の双方に方位センサを設置し、両センサの計測結果から相対姿勢を求める場合、3次元の姿勢を対象とすると解が一意に求まらない問題ある。例えば、図1に示すように、両方の移動体が互いに正対している場合、両者の進行方向に対するロール角α1、α2は方位センサからは求まらない。
本発明は上述した問題点を解決するために創案されたものである。すなわち本発明の目的は、誤差が累積されることなく複数の移動体の相対姿勢を精度よく求めることができ、3次元の姿勢を対象とすることができ、特徴的な物体が周囲にない環境でも適用できる移動体の相対姿勢計測方法と装置を提供することにある。
本発明によれば、対象物の方位を計測可能な方位センサを有する2以上の移動体と、
各移動体から方位を計測可能な1以上の被計測体と、
各移動体と通信可能な姿勢演算装置と、を備え、
(A)姿勢演算装置により、複数の移動体から第1移動体と第2移動体を選択し、
(B)第1移動体により第2移動体の方位を計測し、
(C)第2移動体により第1移動体の方位を計測し、
(D)第1移動体と第2移動体により同一の被計測体又は位置関係が既知である複数の被計測体の方位をそれぞれ計測し、
(E)姿勢演算装置により、計測した複数の方位から第1移動体と第2移動体の相対姿勢を演算する、ことを特徴とする移動体の相対姿勢計測方法が提供される。
また本発明によれば、対象物の方位を計測可能な方位センサを有する2以上の移動体と、
各移動体から方位を計測可能な1以上の被計測体と、
各移動体と通信可能な姿勢演算装置と、を備え、
(A)姿勢演算装置により、複数の移動体から第1移動体と第2移動体を選択し、
(B)第1移動体により第2移動体の方位を計測し、
(C)第2移動体により第1移動体の方位を計測し、
(D)第1移動体と第2移動体により同一の被計測体又は位置関係が既知である複数の被計測体の方位をそれぞれ計測し、
(E)姿勢演算装置により、計測した複数の方位から第1移動体と第2移動体の相対姿勢を演算する、ことを特徴とする移動体の相対姿勢計測装置が提供される。
上記本発明の方法と装置によれば、第1移動体により第2移動体の方位(方位角と仰角)を計測し、第2移動体により第1移動体の方位を計測し、第1移動体と第2移動体により同一の被計測体の方位をそれぞれ計測するので、姿勢演算装置により第1移動体、第2移動体、及び被計測体の3点の方位計測結果を統合することで、第1移動体と第2移動体の相対姿勢を一意に求められる。
また、同一の被計測体の代わりに、位置関係が既知である複数の被計測体の方位を計測する場合も、3点の方位計測結果の組み合わせとして、同様に複数の移動体の相対姿勢を求めることができる。
方位の計測は、物体間の距離(センサと対象物の距離)が離れていても精度が落ちない。従って、上記方法では、計測した複数の方位のみに基づくので、誤差が累積されることなく複数の移動体の相対姿勢を精度よく求めることができる。
また、方位として方位角と仰角を計測することにより、3次元の姿勢を対象とすることができる。
また、移動体が3以上の場合に、そのうちの1つを被計測体とすることにより、特徴的な物体が周囲にない環境でも適用できる。
2台の移動体が正対している例を示す図である。 本発明の使用例を示す図である。 2台の移動体A、Bの座標系の定義を示す図である。 2台の移動体A、Bから1台の被計測体Cを計測する場合の座標系の定義を示す図である。 式(1)における4つの回転行列の説明図である。 式(1)における3つの回転行列の説明図である。 αa、αbを求める方法の説明図である。 同一の物体を計測しない例を示す図である。
本発明の好ましい実施形態を図面に基づいて説明する。なお、各図において共通する部分には同一の符号を付し、重複した説明を省略する。
図2は、本発明の使用例を示す図である。
この図に示すように、本発明の相対姿勢計測装置は、対象物の方位を計測可能な方位センサを有する2以上の移動体A、Bと、各移動体A、Bから方位を計測可能な1以上の被計測体Cと、各移動体A、Bと通信可能な姿勢演算装置10とを備える。
移動体A、Bには方位センサ12が搭載されており、周囲の物体のある方位を方位角と仰角として計測することができる。なお方位角と仰角は一般的な極座標表現と同じ定義である。方位センサ12の例としては、カメラやレーザーレーダが挙げられる。移動体A、B及び被計測体Cには、カメラなどで検出するためのマーカーを設置するのが好ましい。
なお、この例では、被計測体Cにも方位センサ12が搭載されているが、これは必須ではなく、省略することができる。
この例では、エリア内に複数の移動体A、B(例えば移動ロボット)や1以上の被計測体C(例えば固定デバイス)を配置し、各移動体A、B、被計測体Cの位置と姿勢を求める。得られた各点の位置と姿勢は、移動体A、Bの制御やエリアの地図作成、監視などに用いる。
図3は、2台の移動体A、Bの座標系の定義を示す図である。
この図では、移動体A、Bの正面をx軸とする座標系A、Bを定義している。なおこの図で点aは、座標系Aのxy平面への移動体Bの正射影である。また点bは、座標系Bのxy平面への移動体Aの正射影である。
本発明では、(A)姿勢演算装置10により、複数の移動体A、Bから第1移動体Aと第2移動体Bを選択する。移動体が3台以上の場合も同様である。
次に、図3において、本発明では(B)第1移動体Aにより、第1移動体Aから見た第2移動体Bの方位を方位角θab、仰角φabとして計測する。
また、(C)第2移動体Bにより、第2移動体Bから見た第1移動体Aの方位を方位角θba、仰角φbaとして計測する。
図4は、2台の移動体A、Bから1台の被計測体Cを計測する場合の座標系の定義を示す図である。なおこの図で点cは、座標系AのXY平面への被計測体Cの正射影である。また点dは、座標系BのXY平面への被計測体Cの正射影である。
この図において、本発明ではさらに、(D)第1移動体Aと第2移動体Bにより、同一の被計測体Cの方位をそれぞれ計測する。すなわち、第1移動体Aにより、第1移動体Aから見た被計測体Cの方位を方位角θac、仰角φacとして計測する。また、第2移動体Bにより、第2移動体Bから見た被計測体Cの方位を方位角θbc、仰角φbcとして計測する。
なお後述するように、被計測体Cは、位置関係が既知である複数の被計測体であってもよい(図9参照)。
図2〜図4において、姿勢演算装置10は、例えば通信機能を有するコンピュータであり、幾何学的方法又はベイズフィルタによる方法により、計測した複数の方位から第1移動体Aと第2移動体Bの相対姿勢を演算するようになっている。
以下、幾何学的方法(統合方法1)とベイズフィルタによる方法(統合方法2)を説明する。なお以下の説明では、移動体A、Bと被計測体Cを単に「物体」と呼ぶ。
[幾何学的方法(統合方法1)]
幾何学的方法では、前記(E)において、第1移動体Aと第2移動体Bの相対姿勢を幾何学的に求める。
物体AとBの相対姿勢を、以下のような行列Rで定義する。
座標系Aのx、y、z軸の基底ベクトルをそれぞれeX、eY、eZ、座標系Bのx、y、z軸の基底ベクトルをそれぞれeX、eY、eZとすると、[数1]の式(1a)となる行列Rが相対的な姿勢を表している。従って、Rを使って座標系Bから座標系Aを求めることができる。
また行列Rは、幾何学的な関係から、[数1]の式(1)で求めることができる。
Figure 0005939395
図5は、式(1)における4つの回転行列の説明図である。
BZ(θba)は、座標系Bのz軸回りに、θbaだけ回転させる回転行列である(図5(A)参照)。
B1Y(φba)は、座標系BをRBZ(θba)で回転した座標系B1のy軸回りに、φbaだけ回転させる回転行列である(図5(B)参照)。
B2X(−αb)は、座標系B1をRB1Y(φba)で回転した座標系B2のx軸回りに、−αbだけ回転させる回転行列である(図5(C)参照)。
B3Z(π)は、座標系B2をRB2X(−α)で回転した座標系B3のz軸回りに、πだけ回転させる回転行列である(図5(D)参照)。
図6は式(1)における3つの回転行列の説明図である。
A3X(αa)は、座標系B3をRB3Z(π)で回転した座標系A3のx軸回りに、αaだけ回転させる回転行列である(図6(A)参照)。
A2Y(φab)は、座標系A3をRA3X(αa)で回転した座標系A2のy軸回りに、φabだけ回転させる回転行列である(図6(B)参照)。
A1Z(−θab)は、座標系A2をRA2Y(φab)で回転した座標系A1のz軸回りに、−θabだけ回転させる回転行列である(図6(C)参照)。
図7は、αa、αbを求める方法の説明図である。
幾何学的方法(統合方法1)では、物体Cの方位計測結果を使うことで、以下のようにαa、αbを求める。
図7(A)は、座標系A2をx軸負側から見た図である。
この図において、αaは原点と物体Cを結ぶ直線が、y軸となす角度である。従って、[数2]の式(2)で求められる。
またCzA2、CyA2は、座標系A2で表した物体Cのz座標値、y座標値なので、[数2]の式(2a)で求められる。
Figure 0005939395
ここでA2は、座標系Aから座標系A2に変換する行列、racは、物体AC間の距離である。
A2は、θab、φabから算出する。また、式(2)で除算されるため、racは求めなくて良い。
αbは、αaと同様に図7(B)の関係から[数3]の式(3)(3a)で計算する。
Figure 0005939395
ここでB2は、座標系Bから座標系B2に変換する行列、rbcは、物体BC間の距離である。なおrbcは、求めなくて良い。
以上の式(2)、(3)を、式(1)に代入することで、行列Rが一意に求まる。
上述したように幾何学的方法では、姿勢演算装置10により第1移動体A、第2移動体B、及び被計測体Cの3点の方位計測結果を統合することで、第1移動体Aと第2移動体Bの相対姿勢を幾何学的に一意に求めることができる。
[ベイズフィルタによる方法(統合方法2)]
ベイズフィルタは、各物体(A、B、C、・・・)の位置と姿勢としてあり得る範囲を、確率分布として事前に予測し、計測した方位に基づいて、分布を絞り込む方法である。
上述した幾何学的方法にて、(θab、φab)、(θba、φba)、(θac、φac)、(θbc、φbc)が決まると、物体A、B間の三次元相対姿勢が一意の値に決定されることを示した。従って、上記の計測した方位を使えば、ベイズフィルタの確率分布を一意に絞り込むことができる。
ベイズフィルタによる方法では、前記(E)において、移動体A、B及び被計測体Cの位置と姿勢を内部状態とし、ベイズフィルタによって、前記相対姿勢を求める。
すなわち、前記(E)において、
(E1)移動体及び被計測体の内部状態の初期値と初期分布を設定し、
(E2)前記複数の方位を計測した観測時刻における移動体及び被計測体の内部状態を予測し、
(E3)前記複数の方位を用いて、予測した内部状態を修正する。
以下、ベイズフィルタによる方法を説明する。
[数4]の式(4a)(4b)にベイズフィルタの例を示す。なお、以下、観測値(計測した方位)を2次元の縦ベクトルYで表す。ここでTは転置行列を意味する。
Figure 0005939395
(パーティクルフィルタによる方法)
(1)サンプル作成
物体A、B、Cの位置と姿勢としてあり得る仮説を複数のサンプルとして作成する。サンプル数は、仮説のあり得る範囲に応じて適宜設定する(例:2000サンプル)。
(2)予測
計測した方位Yが得られたとき、Yを計測した時刻における物体A、B、Cの位置・姿勢を予測する。例えば、物体Bが移動ロボットの場合、移動によって相対関係が変化するため、移動ロボットの運動モデルを使って、計測時刻の位置と姿勢を予測する。
(3)リサンプリング
予測したサンプルのうち、計測した方位Yと適合しているサンプルのみを抽出する。
上記(2)、(3)を計測した方位Yが得られるごとに繰り返す。計測した方位Yとしては幾何学的方法で用いた4種類(方位角θab、仰角φab)(方位角θba、仰角φba)(方位角θac、仰角φac)(方位角θbc、仰角φbc)があり、計測、処理の順番は、どの順でも良い。
ベイズフィルタによる方法は、計測時刻における相対関係を予測する予測(2)が含まれるため、Yab、Yba、Yac、Ybcの計測時刻が異なり、その間に各物体が移動していても、姿勢を推定できる。
リサンプリング(3)にてサンプルを抽出する際、計測した方位Yと完全に一致する必要はない。パーティクルフィルタのリサンプリング(3)では、計測した方位に近い順に数サンプル選択し、選択したサンプルに近いサンプルを新たに追加するなどの方法が一般的である。
上記4つの計測した方位Yで絞りこむだけでは、AB間の相対位置(AB間の距離)が定まらないが、例えば、距離センサを使って、AB間の距離を計測してサンプルを絞り込めば、相対位置も求められる。
(カルマンフィルタによる方法)
カルマンフィルタは、各物体の位置と姿勢を内部状態変数として一般化し、内部状態がとりうる分布を平均値、分散・共分散で表す。基本的な手順はパーティクルフィルタと同じである。
以下に、3つ以上の物体の位置と姿勢を推定する方法を示す。
(1)初期値定義
[数5]の式(5a)(5b)(5c)のように、内部状態の初期値、初期分散を定義する。内部状態Xiは、物体iの位置・姿勢である。初期条件では物体iの相対位置は不明なので、適当な位置に設定し、初期分散は可能な限り大きな値とする。また、物体iが移動体の場合は、速度や加速度なども内部状態に含めることができる。
Figure 0005939395
推定したい物体全ての内部状態、分散行列をまとめたものを、[数6]の式(6a)(6b)のように定義する。
Figure 0005939395
CovXの非対角項は、異なる物体間の内部状態の共分散であり、初期値が不明な場合は、0とする。
(2)内部状態Xの予測
方位Yを計測した時刻における全体の内部状態Xを予測する。この予測処理は、物体ごとに定義した運動モデルを用いて、Xの各成分(Xi)の変化をシミュレーションする。また、分散行列も同様に、運動モデルを用いて予測する。
(3)方位の予測
(2)で予測した内部状態、分散行列から、方位の予測値Yを[数7]の式(7a)(7b)で求める。ここで、物体iから見たjの方位が得られた時である。
Figure 0005939395
また、Yの分散行列Vを[数8]の式(8a)(8b)(8c)で求める。
biは、全体座標系から物体iのローカル座標系に変換する行列で、物体iの内部状態の姿勢成分から算出する。
Figure 0005939395
(4)修正
計測した方位Yと、方位の予測値Yから、内部状態、分散行列を修正する。
なお、以下[数9]の式(9a)(9b)(9c)では、観測時刻をt+Δtとした符号が追加されている。
Figure 0005939395
ここで、Bijは、方位Yijを得るための、ロボット群全体の計測行列であり、例えばi=1、j=2の場合、Bij=(B 0 0 0)、i=3、j=2の場合、Bij=(0 B 0 0)である。
計測した方位が得られるごとに、(2)の内部状態予測処理、(3)の方位予測処理、(4)の修正処理を繰り返す。
図8は、同一の物体を計測しない例を示す図である。
上述した実施形態では、2つの方位センサが同一の物体Cを計測しているが、必ずしも、同一の物体を計測する必要はない。例えば、図8のように、物体Aが物体Cを計測、物体Bが物体Dを計測する場合でも、物体C−D間の位置関係が分かっていれば、物体A−B間の相対姿勢も一意に求まる。従ってこの例では、物体C−D−Eの三者について本発明を適用すればよい。
ここで、「物体C−D間の位置関係」とは、例えば、物体Bが物体Dを計測したときに、物体Bから見た物体Cの方向がわかる情報を意味する。
すなわち(ベクトルB→C)=(ベクトルB→D)+(ベクトルD→C)の関係から、「物体C−D間の位置関係」である(ベクトルD→C)が既知であれば、(ベクトルB→D)から(ベクトルB→C)を求めることができる。
言い換えれば、(ベクトルD→C)がわかれば、同一の物体を計測したときと同じく、式(2)(3)のαa、αbを求めることができる。
なお、逆に、(ベクトルA→D)=(ベクトルA→C)+(ベクトルC→D)の関係から、物体Aから見た物体Dの方向を求める際に、「物体C−D間の位置関係」である(ベクトルC→D)が既知であれば、(ベクトルA→C)から(ベクトルA→D)を求めることができる。
ベイズフィルタの例では、「同一座標系で表した各物体の位置」を求めており、これが上述の(ベクトルD→C)や(ベクトルC→D)に相当する情報となる。
物体Cとしては、「A、B以外の移動ロボット」、「エリアに設置したマーカー」、「画像処理などで抽出される、特徴的な形状」などが考えられる。
また、方位センサ12を搭載しない物体(幾何学的方法での物体C)については、姿勢が求まらないが、物体Cにも方位センサを搭載し、他の物体を計測することで、本発明を適用して姿勢を求められる。
なお、上述した(B)(C)(D)の順序は任意であり、例えばセンサ計測処理が終わった順に処理するのが好ましい。また、移動体が3台以上の場合でも、処理する順序は任意である。
[幾何学的方法]
移動体が3台以上の場合の幾何学的方法は、以下の順に処理することが好ましい。
センサ計測処理が終わった順に、(A)の選択をして処理する。
4つの方位がすべて得られたときに、(E)の計算をする。
(1)移動体1、2上のセンサで4つの方位が得られる(順不同)。
(2)移動体1を第1移動体、移動体2を第2移動体として処理する。
(3)移動体2、3上で4つの方位が得られる。
(4)移動体2を第1移動体、移動体3を第2移動体として処理する。
[ベイズフィルタによる方法]
移動体が3台以上の場合のベイズフィルタによる方法は、以下の順に処理することが好ましい。
方位が1つ得られるごとにE1〜E3まで処理する。B→E → C→E → D→Eのような処理順となる。
(1)移動体1が移動体2の方位を計測する。
(2)移動体1を第1移動体、移動体2を第2移動体としたベイズフィルタによる処理を行う。
(3)移動体2が移動体3の方位を計測する。
(4)移動体2を第1移動体、移動体3を第2移動体としたベイズフィルタによる処理を行う。
(5)移動体2が被計測体4の方位を計測する。
(6)(2)の続きとして、移動体1を第1移動体、移動体2を第2移動体としたベイズフィルタによる処理を行う。
(7)(4)の続きとして、移動体2を第1移動体、移動体3を第2移動体としたベイズフィルタによる処理を行う。
ベイズフィルタの例は、(1)→(2)→(5)→(6)と(3)→(4)→(5)→(7)は別の処理と解することができる。
上記本発明の方法と装置によれば、第1移動体により第2移動体の方位(方位角と仰角)を計測し、第2移動体により第1移動体の方位を計測し、第1移動体と第2移動体により同一の被計測体の方位をそれぞれ計測するので、姿勢演算装置により第1移動体、第2移動体、及び被計測体の3点の方位計測結果を統合することで、第1移動体と第2移動体の相対姿勢を一意に求められる。
また、同一の被計測体の代わりに、位置関係が既知である複数の被計測体の方位を計測する場合も、3点の方位計測結果の組み合わせとして、同様に複数の移動体の相対姿勢を求めることができる。
方位の計測は、物体間の距離(センサと対象物の距離)が離れていても精度が落ちない。従って、上記方法では、計測した複数の方位のみに基づくので、誤差が累積されることなく複数の移動体の相対姿勢を精度よく求めることができる。
また、方位として方位角と仰角を計測することにより、3次元の姿勢を対象とすることができる。
また、移動体が3以上の場合に、そのうちの1つを被計測体とすることにより、特徴的な物体が周囲にない環境でも適用できる。
本発明は上述した実施形態に限定されず、本発明の要旨を逸脱しない範囲で種々変更を加え得ることは勿論である。
A、B 移動体(物体)、C 被計測体(物体)、
D、E 移動体(物体)、
10 姿勢演算装置、
12 方位センサ(カメラ、レーザーレーダ)、

Claims (7)

  1. 対象物の方位を計測可能な方位センサを有する2以上の移動体と、
    各移動体から方位を計測可能な1以上の被計測体と、
    各移動体と通信可能な姿勢演算装置と、を備え、
    (A)姿勢演算装置により、複数の移動体から第1移動体と第2移動体を選択し、
    (B)第1移動体により第2移動体の方位を計測し、
    (C)第2移動体により第1移動体の方位を計測し、
    (D)第1移動体と第2移動体により同一の被計測体又は位置関係が既知である複数の被計測体の方位をそれぞれ計測し、
    (E)姿勢演算装置により、計測した複数の方位から第1移動体と第2移動体の相対姿勢を演算する、ことを特徴とする移動体の相対姿勢計測方法。
  2. 前記(E)において、移動体及び被計測体の位置と姿勢を内部状態とし、ベイズフィルタによって、前記相対姿勢を求める、ことを特徴とする請求項1に記載の移動体の相対姿勢計測方法。
  3. 前記(E)において、
    (E1)移動体及び被計測体の内部状態の初期値と初期分布を設定し、
    (E2)前記複数の方位を計測した観測時刻における移動体及び被計測体の内部状態を予測し、
    (E3)前記複数の方位を用いて、予測した内部状態を修正する、ことを特徴とする請求項2に記載の移動体の相対姿勢計測方法。
  4. 前記(E)において、前記相対姿勢を幾何学的に求める、ことを特徴とする請求項1に記載の移動体の相対姿勢計測方法。
  5. 前記各方位は、それぞれ方位角と仰角である、ことを特徴とする請求項1乃至4のいずれか1項に記載の移動体の相対姿勢計測方法。
  6. 移動体が3以上の場合に、そのうちの1つを被計測体とする、ことを特徴とする請求項1乃至5のいずれか1項に記載の移動体の相対姿勢計測方法。
  7. 対象物の方位を計測可能な方位センサを有する2以上の移動体と、
    各移動体から方位を計測可能な1以上の被計測体と、
    各移動体と通信可能な姿勢演算装置と、を備え、
    (A)姿勢演算装置により、複数の移動体から第1移動体と第2移動体を選択し、
    (B)第1移動体により第2移動体の方位を計測し、
    (C)第2移動体により第1移動体の方位を計測し、
    (D)第1移動体と第2移動体により同一の被計測体又は位置関係が既知である複数の被計測体の方位をそれぞれ計測し、
    (E)姿勢演算装置により、計測した複数の方位から第1移動体と第2移動体の相対姿勢を演算する、ことを特徴とする移動体の相対姿勢計測装置。


JP2012204256A 2012-09-18 2012-09-18 移動体の相対姿勢計測方法と装置 Active JP5939395B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012204256A JP5939395B2 (ja) 2012-09-18 2012-09-18 移動体の相対姿勢計測方法と装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012204256A JP5939395B2 (ja) 2012-09-18 2012-09-18 移動体の相対姿勢計測方法と装置

Publications (2)

Publication Number Publication Date
JP2014059719A JP2014059719A (ja) 2014-04-03
JP5939395B2 true JP5939395B2 (ja) 2016-06-22

Family

ID=50616142

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012204256A Active JP5939395B2 (ja) 2012-09-18 2012-09-18 移動体の相対姿勢計測方法と装置

Country Status (1)

Country Link
JP (1) JP5939395B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190007868A1 (en) * 2015-12-28 2019-01-03 Nec Corporation Management system, mobile object, management device, location notification method, management method, and program
JP2021157204A (ja) * 2018-06-22 2021-10-07 ソニーグループ株式会社 移動体および移動体の制御方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2514987B2 (ja) * 1987-10-26 1996-07-10 株式会社東芝 対象物の位置推定装置
JP3410508B2 (ja) * 1993-04-30 2003-05-26 茂男 廣瀬 自立走行ロボット群システム
JP2005173968A (ja) * 2003-12-11 2005-06-30 Sharp Corp 追跡ロボットシステムおよびそれに用いられる追跡ロボット
JP5380789B2 (ja) * 2007-06-06 2014-01-08 ソニー株式会社 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP5018458B2 (ja) * 2007-12-25 2012-09-05 トヨタ自動車株式会社 座標補正方法、座標補正プログラム、及び自律移動ロボット
JP4658155B2 (ja) * 2008-03-17 2011-03-23 株式会社日立製作所 自律移動ロボット装置及び自律移動ロボット装置の回避方法
JP5586967B2 (ja) * 2010-01-20 2014-09-10 株式会社日立製作所 ロボットおよびロボットシステム

Also Published As

Publication number Publication date
JP2014059719A (ja) 2014-04-03

Similar Documents

Publication Publication Date Title
US10634777B2 (en) Radar odometry for vehicle
Kellner et al. Instantaneous ego-motion estimation using multiple Doppler radars
US6489922B1 (en) Passive/ranging/tracking processing method for collision avoidance guidance and control
Deilamsalehy et al. Sensor fused three-dimensional localization using IMU, camera and LiDAR
CN109141411B (zh) 定位方法、定位装置、移动机器人及存储介质
US11874666B2 (en) Self-location estimation method
Cucci et al. Position tracking and sensors self-calibration in autonomous mobile robots by gauss-newton optimization
JP5748174B2 (ja) 移動体の相対姿勢計測方法と装置
JP5939395B2 (ja) 移動体の相対姿勢計測方法と装置
Boby et al. Measurement of end-effector pose errors and the cable profile of cable-driven robot using monocular camera
CN113670318B (zh) 协同定位方法及定位系统
Alaeddini et al. Autonomous state estimation using optic flow sensing
Cho et al. Independence localization system for Mecanum wheel AGV
Ogata et al. A robust position and posture measurement system using visual markers and an inertia measurement unit
Ruiz et al. Real time multi robot 3D localization system using trilateration
Yan et al. A method for position estimation of mobile robot based on data fusion
Chen et al. A robust optical/inertial data fusion system for motion tracking of the robot manipulator
Bernatz et al. Navigation of a low flying vtol aircraft with the help of a downwards pointing camera
JP6670712B2 (ja) 自己位置推定装置、移動体及び自己位置推定方法
Parikh et al. Proximity operations of CubeSats via sensor fusion of ultra-wideband range measurements with rate gyroscopes, accelerometers and monocular vision
Trojnacki et al. Determination of motion parameters with inertial measurement units–Part 1: mathematical formulation of the algorithm
JP6319736B2 (ja) センサの指向制御方法と装置
Jano et al. Drone's attitude estimation in corridor-like environments
RU2769918C1 (ru) Способ позиционирования наземного транспортного средства
Sun et al. Image Feature Matching Based on Spatial Constraints and Inertial Assistance for AGV Navigation in Digital Workshops

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160420

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160503

R151 Written notification of patent or utility model registration

Ref document number: 5939395

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250