JP5939395B2 - 移動体の相対姿勢計測方法と装置 - Google Patents
移動体の相対姿勢計測方法と装置 Download PDFInfo
- Publication number
- JP5939395B2 JP5939395B2 JP2012204256A JP2012204256A JP5939395B2 JP 5939395 B2 JP5939395 B2 JP 5939395B2 JP 2012204256 A JP2012204256 A JP 2012204256A JP 2012204256 A JP2012204256 A JP 2012204256A JP 5939395 B2 JP5939395 B2 JP 5939395B2
- Authority
- JP
- Japan
- Prior art keywords
- moving body
- measured
- moving
- posture
- measuring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 65
- 230000036544 posture Effects 0.000 claims description 74
- 238000004364 calculation method Methods 0.000 claims description 11
- 238000000691 measurement method Methods 0.000 claims 1
- 238000005259 measurement Methods 0.000 description 32
- 239000011159 matrix material Substances 0.000 description 20
- 239000013598 vector Substances 0.000 description 17
- 238000012545 processing Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 239000006185 dispersion Substances 0.000 description 5
- 230000010354 integration Effects 0.000 description 5
- 238000012952 Resampling Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 239000002245 particle Substances 0.000 description 3
- 230000010365 information processing Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000007630 basic procedure Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
なお、複数の移動体は、例えば、物品を搬送する移動ロボットであり、作業エリア内で自在に移動可能である。
例えば、特許文献1では、移動体の自己姿勢を計測する姿勢センサとして、スターセンサ、地球センサ、太陽センサなどを用いている。
また特許文献2は、ランドマークの配置を示す環境地図をあらかじめ用意できない場合のために、移動体の自己位置と姿勢を推定すると同時に、環境地図を自動作成する方法を開示している。
方法Dでは、移動体の外部に設置された外界センサ(例えば、カメラ)により移動体を含む画像を取得し、この画像に基づいて移動体の位置と姿勢を求める。方法Dの例としては、特許文献2に、カメラ画像上の特徴点と対象物の3次元形状データから対象物の位置と姿勢を算出する方法が示されている。
例えば、エリア内の特定の物体に移動体を追従させる場合や、複数の移動体を衝突しないように制御する場合は、追従対象や他の移動体との相対的な位置と姿勢が得られれば良い。
各移動体から方位を計測可能な1以上の被計測体と、
各移動体と通信可能な姿勢演算装置と、を備え、
(A)姿勢演算装置により、複数の移動体から第1移動体と第2移動体を選択し、
(B)第1移動体により第2移動体の方位を計測し、
(C)第2移動体により第1移動体の方位を計測し、
(D)第1移動体と第2移動体により同一の被計測体又は位置関係が既知である複数の被計測体の方位をそれぞれ計測し、
(E)姿勢演算装置により、計測した複数の方位から第1移動体と第2移動体の相対姿勢を演算する、ことを特徴とする移動体の相対姿勢計測方法が提供される。
各移動体から方位を計測可能な1以上の被計測体と、
各移動体と通信可能な姿勢演算装置と、を備え、
(A)姿勢演算装置により、複数の移動体から第1移動体と第2移動体を選択し、
(B)第1移動体により第2移動体の方位を計測し、
(C)第2移動体により第1移動体の方位を計測し、
(D)第1移動体と第2移動体により同一の被計測体又は位置関係が既知である複数の被計測体の方位をそれぞれ計測し、
(E)姿勢演算装置により、計測した複数の方位から第1移動体と第2移動体の相対姿勢を演算する、ことを特徴とする移動体の相対姿勢計測装置が提供される。
この図に示すように、本発明の相対姿勢計測装置は、対象物の方位を計測可能な方位センサを有する2以上の移動体A、Bと、各移動体A、Bから方位を計測可能な1以上の被計測体Cと、各移動体A、Bと通信可能な姿勢演算装置10とを備える。
なお、この例では、被計測体Cにも方位センサ12が搭載されているが、これは必須ではなく、省略することができる。
この図では、移動体A、Bの正面をx軸とする座標系A、Bを定義している。なおこの図で点aは、座標系Aのxy平面への移動体Bの正射影である。また点bは、座標系Bのxy平面への移動体Aの正射影である。
次に、図3において、本発明では(B)第1移動体Aにより、第1移動体Aから見た第2移動体Bの方位を方位角θab、仰角φabとして計測する。
また、(C)第2移動体Bにより、第2移動体Bから見た第1移動体Aの方位を方位角θba、仰角φbaとして計測する。
この図において、本発明ではさらに、(D)第1移動体Aと第2移動体Bにより、同一の被計測体Cの方位をそれぞれ計測する。すなわち、第1移動体Aにより、第1移動体Aから見た被計測体Cの方位を方位角θac、仰角φacとして計測する。また、第2移動体Bにより、第2移動体Bから見た被計測体Cの方位を方位角θbc、仰角φbcとして計測する。
なお後述するように、被計測体Cは、位置関係が既知である複数の被計測体であってもよい(図9参照)。
幾何学的方法では、前記(E)において、第1移動体Aと第2移動体Bの相対姿勢を幾何学的に求める。
座標系Aのx、y、z軸の基底ベクトルをそれぞれeXa、eYa、eZa、座標系Bのx、y、z軸の基底ベクトルをそれぞれeXb、eYb、eZbとすると、[数1]の式(1a)となる行列Rが相対的な姿勢を表している。従って、Rを使って座標系Bから座標系Aを求めることができる。
また行列Rは、幾何学的な関係から、[数1]の式(1)で求めることができる。
RB1Y(φba)は、座標系BをRBZ(θba)で回転した座標系B1のy軸回りに、φbaだけ回転させる回転行列である(図5(B)参照)。
RB2X(−αb)は、座標系B1をRB1Y(φba)で回転した座標系B2のx軸回りに、−αbだけ回転させる回転行列である(図5(C)参照)。
RB3Z(π)は、座標系B2をRB2X(−αb)で回転した座標系B3のz軸回りに、πだけ回転させる回転行列である(図5(D)参照)。
RA3X(αa)は、座標系B3をRB3Z(π)で回転した座標系A3のx軸回りに、αaだけ回転させる回転行列である(図6(A)参照)。
RA2Y(φab)は、座標系A3をRA3X(αa)で回転した座標系A2のy軸回りに、φabだけ回転させる回転行列である(図6(B)参照)。
RA1Z(−θab)は、座標系A2をRA2Y(φab)で回転した座標系A1のz軸回りに、−θabだけ回転させる回転行列である(図6(C)参照)。
幾何学的方法(統合方法1)では、物体Cの方位計測結果を使うことで、以下のようにαa、αbを求める。
この図において、αaは原点と物体Cを結ぶ直線が、y軸となす角度である。従って、[数2]の式(2)で求められる。
またCzA2、CyA2は、座標系A2で表した物体Cのz座標値、y座標値なので、[数2]の式(2a)で求められる。
上述したように幾何学的方法では、姿勢演算装置10により第1移動体A、第2移動体B、及び被計測体Cの3点の方位計測結果を統合することで、第1移動体Aと第2移動体Bの相対姿勢を幾何学的に一意に求めることができる。
ベイズフィルタは、各物体(A、B、C、・・・)の位置と姿勢としてあり得る範囲を、確率分布として事前に予測し、計測した方位に基づいて、分布を絞り込む方法である。
すなわち、前記(E)において、
(E1)移動体及び被計測体の内部状態の初期値と初期分布を設定し、
(E2)前記複数の方位を計測した観測時刻における移動体及び被計測体の内部状態を予測し、
(E3)前記複数の方位を用いて、予測した内部状態を修正する。
以下、ベイズフィルタによる方法を説明する。
(1)サンプル作成
物体A、B、Cの位置と姿勢としてあり得る仮説を複数のサンプルとして作成する。サンプル数は、仮説のあり得る範囲に応じて適宜設定する(例:2000サンプル)。
(2)予測
計測した方位Yが得られたとき、Yを計測した時刻における物体A、B、Cの位置・姿勢を予測する。例えば、物体Bが移動ロボットの場合、移動によって相対関係が変化するため、移動ロボットの運動モデルを使って、計測時刻の位置と姿勢を予測する。
(3)リサンプリング
予測したサンプルのうち、計測した方位Yと適合しているサンプルのみを抽出する。
上記(2)、(3)を計測した方位Yが得られるごとに繰り返す。計測した方位Yとしては幾何学的方法で用いた4種類(方位角θab、仰角φab)(方位角θba、仰角φba)(方位角θac、仰角φac)(方位角θbc、仰角φbc)があり、計測、処理の順番は、どの順でも良い。
リサンプリング(3)にてサンプルを抽出する際、計測した方位Yと完全に一致する必要はない。パーティクルフィルタのリサンプリング(3)では、計測した方位に近い順に数サンプル選択し、選択したサンプルに近いサンプルを新たに追加するなどの方法が一般的である。
上記4つの計測した方位Yで絞りこむだけでは、AB間の相対位置(AB間の距離)が定まらないが、例えば、距離センサを使って、AB間の距離を計測してサンプルを絞り込めば、相対位置も求められる。
カルマンフィルタは、各物体の位置と姿勢を内部状態変数として一般化し、内部状態がとりうる分布を平均値、分散・共分散で表す。基本的な手順はパーティクルフィルタと同じである。
以下に、3つ以上の物体の位置と姿勢を推定する方法を示す。
[数5]の式(5a)(5b)(5c)のように、内部状態の初期値、初期分散を定義する。内部状態Xiは、物体iの位置・姿勢である。初期条件では物体iの相対位置は不明なので、適当な位置に設定し、初期分散は可能な限り大きな値とする。また、物体iが移動体の場合は、速度や加速度なども内部状態に含めることができる。
(2)内部状態Xの予測
方位Yを計測した時刻における全体の内部状態Xを予測する。この予測処理は、物体ごとに定義した運動モデルを用いて、Xの各成分(Xi)の変化をシミュレーションする。また、分散行列も同様に、運動モデルを用いて予測する。
(3)方位の予測
(2)で予測した内部状態、分散行列から、方位の予測値Y*を[数7]の式(7a)(7b)で求める。ここで、物体iから見たjの方位が得られた時である。
Cn biは、全体座標系から物体iのローカル座標系に変換する行列で、物体iの内部状態の姿勢成分から算出する。
計測した方位Yと、方位の予測値Y*から、内部状態、分散行列を修正する。
なお、以下[数9]の式(9a)(9b)(9c)では、観測時刻をt+Δtとした符号が追加されている。
上述した実施形態では、2つの方位センサが同一の物体Cを計測しているが、必ずしも、同一の物体を計測する必要はない。例えば、図8のように、物体Aが物体Cを計測、物体Bが物体Dを計測する場合でも、物体C−D間の位置関係が分かっていれば、物体A−B間の相対姿勢も一意に求まる。従ってこの例では、物体C−D−Eの三者について本発明を適用すればよい。
すなわち(ベクトルB→C)=(ベクトルB→D)+(ベクトルD→C)の関係から、「物体C−D間の位置関係」である(ベクトルD→C)が既知であれば、(ベクトルB→D)から(ベクトルB→C)を求めることができる。
言い換えれば、(ベクトルD→C)がわかれば、同一の物体を計測したときと同じく、式(2)(3)のαa、αbを求めることができる。
また、方位センサ12を搭載しない物体(幾何学的方法での物体C)については、姿勢が求まらないが、物体Cにも方位センサを搭載し、他の物体を計測することで、本発明を適用して姿勢を求められる。
移動体が3台以上の場合の幾何学的方法は、以下の順に処理することが好ましい。
センサ計測処理が終わった順に、(A)の選択をして処理する。
4つの方位がすべて得られたときに、(E)の計算をする。
(1)移動体1、2上のセンサで4つの方位が得られる(順不同)。
(2)移動体1を第1移動体、移動体2を第2移動体として処理する。
(3)移動体2、3上で4つの方位が得られる。
(4)移動体2を第1移動体、移動体3を第2移動体として処理する。
移動体が3台以上の場合のベイズフィルタによる方法は、以下の順に処理することが好ましい。
方位が1つ得られるごとにE1〜E3まで処理する。B→E → C→E → D→Eのような処理順となる。
(1)移動体1が移動体2の方位を計測する。
(2)移動体1を第1移動体、移動体2を第2移動体としたベイズフィルタによる処理を行う。
(3)移動体2が移動体3の方位を計測する。
(4)移動体2を第1移動体、移動体3を第2移動体としたベイズフィルタによる処理を行う。
(5)移動体2が被計測体4の方位を計測する。
(6)(2)の続きとして、移動体1を第1移動体、移動体2を第2移動体としたベイズフィルタによる処理を行う。
(7)(4)の続きとして、移動体2を第1移動体、移動体3を第2移動体としたベイズフィルタによる処理を行う。
D、E 移動体(物体)、
10 姿勢演算装置、
12 方位センサ(カメラ、レーザーレーダ)、
Claims (7)
- 対象物の方位を計測可能な方位センサを有する2以上の移動体と、
各移動体から方位を計測可能な1以上の被計測体と、
各移動体と通信可能な姿勢演算装置と、を備え、
(A)姿勢演算装置により、複数の移動体から第1移動体と第2移動体を選択し、
(B)第1移動体により第2移動体の方位を計測し、
(C)第2移動体により第1移動体の方位を計測し、
(D)第1移動体と第2移動体により同一の被計測体又は位置関係が既知である複数の被計測体の方位をそれぞれ計測し、
(E)姿勢演算装置により、計測した複数の方位から第1移動体と第2移動体の相対姿勢を演算する、ことを特徴とする移動体の相対姿勢計測方法。 - 前記(E)において、移動体及び被計測体の位置と姿勢を内部状態とし、ベイズフィルタによって、前記相対姿勢を求める、ことを特徴とする請求項1に記載の移動体の相対姿勢計測方法。
- 前記(E)において、
(E1)移動体及び被計測体の内部状態の初期値と初期分布を設定し、
(E2)前記複数の方位を計測した観測時刻における移動体及び被計測体の内部状態を予測し、
(E3)前記複数の方位を用いて、予測した内部状態を修正する、ことを特徴とする請求項2に記載の移動体の相対姿勢計測方法。 - 前記(E)において、前記相対姿勢を幾何学的に求める、ことを特徴とする請求項1に記載の移動体の相対姿勢計測方法。
- 前記各方位は、それぞれ方位角と仰角である、ことを特徴とする請求項1乃至4のいずれか1項に記載の移動体の相対姿勢計測方法。
- 移動体が3以上の場合に、そのうちの1つを被計測体とする、ことを特徴とする請求項1乃至5のいずれか1項に記載の移動体の相対姿勢計測方法。
- 対象物の方位を計測可能な方位センサを有する2以上の移動体と、
各移動体から方位を計測可能な1以上の被計測体と、
各移動体と通信可能な姿勢演算装置と、を備え、
(A)姿勢演算装置により、複数の移動体から第1移動体と第2移動体を選択し、
(B)第1移動体により第2移動体の方位を計測し、
(C)第2移動体により第1移動体の方位を計測し、
(D)第1移動体と第2移動体により同一の被計測体又は位置関係が既知である複数の被計測体の方位をそれぞれ計測し、
(E)姿勢演算装置により、計測した複数の方位から第1移動体と第2移動体の相対姿勢を演算する、ことを特徴とする移動体の相対姿勢計測装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012204256A JP5939395B2 (ja) | 2012-09-18 | 2012-09-18 | 移動体の相対姿勢計測方法と装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012204256A JP5939395B2 (ja) | 2012-09-18 | 2012-09-18 | 移動体の相対姿勢計測方法と装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014059719A JP2014059719A (ja) | 2014-04-03 |
JP5939395B2 true JP5939395B2 (ja) | 2016-06-22 |
Family
ID=50616142
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012204256A Active JP5939395B2 (ja) | 2012-09-18 | 2012-09-18 | 移動体の相対姿勢計測方法と装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5939395B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190007868A1 (en) * | 2015-12-28 | 2019-01-03 | Nec Corporation | Management system, mobile object, management device, location notification method, management method, and program |
JP2021157204A (ja) * | 2018-06-22 | 2021-10-07 | ソニーグループ株式会社 | 移動体および移動体の制御方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2514987B2 (ja) * | 1987-10-26 | 1996-07-10 | 株式会社東芝 | 対象物の位置推定装置 |
JP3410508B2 (ja) * | 1993-04-30 | 2003-05-26 | 茂男 廣瀬 | 自立走行ロボット群システム |
JP2005173968A (ja) * | 2003-12-11 | 2005-06-30 | Sharp Corp | 追跡ロボットシステムおよびそれに用いられる追跡ロボット |
JP5380789B2 (ja) * | 2007-06-06 | 2014-01-08 | ソニー株式会社 | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
JP5018458B2 (ja) * | 2007-12-25 | 2012-09-05 | トヨタ自動車株式会社 | 座標補正方法、座標補正プログラム、及び自律移動ロボット |
JP4658155B2 (ja) * | 2008-03-17 | 2011-03-23 | 株式会社日立製作所 | 自律移動ロボット装置及び自律移動ロボット装置の回避方法 |
JP5586967B2 (ja) * | 2010-01-20 | 2014-09-10 | 株式会社日立製作所 | ロボットおよびロボットシステム |
-
2012
- 2012-09-18 JP JP2012204256A patent/JP5939395B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014059719A (ja) | 2014-04-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10634777B2 (en) | Radar odometry for vehicle | |
Kellner et al. | Instantaneous ego-motion estimation using multiple Doppler radars | |
US6489922B1 (en) | Passive/ranging/tracking processing method for collision avoidance guidance and control | |
Deilamsalehy et al. | Sensor fused three-dimensional localization using IMU, camera and LiDAR | |
CN109141411B (zh) | 定位方法、定位装置、移动机器人及存储介质 | |
US11874666B2 (en) | Self-location estimation method | |
Cucci et al. | Position tracking and sensors self-calibration in autonomous mobile robots by gauss-newton optimization | |
JP5748174B2 (ja) | 移動体の相対姿勢計測方法と装置 | |
JP5939395B2 (ja) | 移動体の相対姿勢計測方法と装置 | |
Boby et al. | Measurement of end-effector pose errors and the cable profile of cable-driven robot using monocular camera | |
CN113670318B (zh) | 协同定位方法及定位系统 | |
Alaeddini et al. | Autonomous state estimation using optic flow sensing | |
Cho et al. | Independence localization system for Mecanum wheel AGV | |
Ogata et al. | A robust position and posture measurement system using visual markers and an inertia measurement unit | |
Ruiz et al. | Real time multi robot 3D localization system using trilateration | |
Yan et al. | A method for position estimation of mobile robot based on data fusion | |
Chen et al. | A robust optical/inertial data fusion system for motion tracking of the robot manipulator | |
Bernatz et al. | Navigation of a low flying vtol aircraft with the help of a downwards pointing camera | |
JP6670712B2 (ja) | 自己位置推定装置、移動体及び自己位置推定方法 | |
Parikh et al. | Proximity operations of CubeSats via sensor fusion of ultra-wideband range measurements with rate gyroscopes, accelerometers and monocular vision | |
Trojnacki et al. | Determination of motion parameters with inertial measurement units–Part 1: mathematical formulation of the algorithm | |
JP6319736B2 (ja) | センサの指向制御方法と装置 | |
Jano et al. | Drone's attitude estimation in corridor-like environments | |
RU2769918C1 (ru) | Способ позиционирования наземного транспортного средства | |
Sun et al. | Image Feature Matching Based on Spatial Constraints and Inertial Assistance for AGV Navigation in Digital Workshops |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150722 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160420 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160420 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160503 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5939395 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |