JP2017117386A - 自己運動推定システム、自己運動推定システムの制御方法及びプログラム - Google Patents

自己運動推定システム、自己運動推定システムの制御方法及びプログラム Download PDF

Info

Publication number
JP2017117386A
JP2017117386A JP2015255056A JP2015255056A JP2017117386A JP 2017117386 A JP2017117386 A JP 2017117386A JP 2015255056 A JP2015255056 A JP 2015255056A JP 2015255056 A JP2015255056 A JP 2015255056A JP 2017117386 A JP2017117386 A JP 2017117386A
Authority
JP
Japan
Prior art keywords
image
timing
distance
light
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015255056A
Other languages
English (en)
Other versions
JP6782903B2 (ja
Inventor
正裕 友納
Masahiro Tomono
正裕 友納
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chiba Institute of Technology
Original Assignee
Chiba Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chiba Institute of Technology filed Critical Chiba Institute of Technology
Priority to JP2015255056A priority Critical patent/JP6782903B2/ja
Publication of JP2017117386A publication Critical patent/JP2017117386A/ja
Application granted granted Critical
Publication of JP6782903B2 publication Critical patent/JP6782903B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】より効率的かつ正確に外界を観測しつつリアルタイムに自己の運動状態を推定する。
【解決手段】移動体に搭載され、外界の存在物との相対的な位置の変化を検出することにより移動体の運動状態を推定する自己運動推定システムであって、外界の明暗画像と外界の各点までの複数の距離情報を有する距離画像とを所定周期に取得し、明暗画像からエッジを検出し、第1タイミングで取得した距離画像と明暗画像とを照合し、明暗画像におけるエッジの位置に対応する距離画像内の距離情報をエッジ位置距離情報として特定し、第1タイミングにおけるエッジ位置距離情報と、第1タイミングから第2タイミングまでの間の移動体の推定移動量と、を用いて算出される、エッジ位置距離情報の第2タイミングにおける明暗画像内での投影位置が、第2タイミングで取得される明暗画像から検出されるエッジの位置に近づくように推定移動量を算出する。
【選択図】図1

Description

本発明は、自己運動推定システム、自己運動推定システムの制御方法及びプログラムに関する。
近年、外界の状況をリアルタイムに判断しながら、自らの運動を自律的に制御可能な自律移動ロボットの開発が急速に進められている。
そしてこのための技術として、ロボットに外界を認識するためのカメラなどのセンサを搭載し、センサから得られる情報をロボット自らがリアルタイムに解析することで、ロボットを取り巻く外界の3次元地図を作製しつつ自らの運動状態を推定する技術が開発されている(例えば特許文献1、非特許文献1、非特許文献2参照)。
特開2008−197884号公報
J.Zhang and S.Singh:Visual-lidar Odometry and Mapping, Low-drift, Robust, and Fast, ICRA2015,pp.2174-2181,2015. M.Tomono:Robust 3DSLAM with a Stereo Camera Based on an Edge-Point ICP Algorithm, Proc. of ICRA2009,pp.4306-4311,2009.
しかしながらこの場合、ロボットは休みなく膨大な情報を取り込んで高速に処理する必要があるため、これらの膨大な情報をいかに効率的に処理できるかが重要であり、しかも、いかに正確に外界の状況及び自己の運動状態を推定できるかが、より高度な自律移動制御を実現するための鍵となる。
またこのような技術は、例えば自転車や自動車、人をも含むロボット以外の広義の移動体に適用して、自律移動制御以外の様々な分野(例えば地図作成の支援など)への応用も期待されている。
本発明はこのような点を鑑みてなされたものであり、より効率的かつ正確に外界を観測しつつリアルタイムに自己の運動状態を推定可能な自己運動推定システムを提供することを一つの目的とする。
一つの側面に係る自己運動推定システムは、移動体に搭載され、外界の存在物との相対的な位置の変化を検出することにより、前記移動体の運動状態を推定する自己運動推定システムであって、前記移動体に搭載される画像センサによって所定周期で撮影される外界の明暗画像を取得する明暗画像取得部と、前記移動体に搭載される距離センサによって所定周期で計測される、前記画像センサの撮影範囲に含まれる外界の各点までの複数の距離情報を有する距離画像を取得する距離画像取得部と、前記明暗画像からエッジを検出するエッジ検出部と、第1タイミングで取得した前記距離画像と前記明暗画像とを照合し、前記明暗画像におけるエッジの位置に対応する前記距離画像内の距離情報を、エッジ位置距離情報として特定するエッジ位置距離情報特定部と、前記第1タイミングにおける前記エッジ位置距離情報と、前記第1タイミングから第2タイミングまでの間の所定時間における前記移動体の推定移動量と、を用いて算出される、前記エッジ位置距離情報の前記第2タイミングにおける明暗画像内での透視変換による投影位置が、前記第2タイミングで取得される前記明暗画像から検出されるエッジの位置に近づくように、前記移動体の前記推定移動量を算出する移動量算出部と、を備える。
その他、本願が開示する課題、及びその解決方法は、発明を実施するための形態の欄の記載、及び図面の記載等により明らかにされる。
本発明によれば、より効率的かつ正確に外界を観測しつつリアルタイムに自己の運動状態を推定可能な自己運動推定システムを提供することが可能となる。
本実施形態に係る移動体及び自己運動推定システムの構成を示す図である。 本実施形態に係る明暗画像を示す図である。 本実施形態に係るエッジ画像を示す図である。 本実施形態に係る距離画像を示す図である。 本実施形態に係るRGBD特徴ペアを示す図である。 本実施形態に係る自己運動推定システムの処理の流れを示すフローチャートである。
本明細書および添付図面の記載により、少なくとも以下の事項が明らかとなる。
本発明の実施形態に係る自己運動推定システム100について、図面を参照しながら説明する。
本実施形態に係る自己運動推定システム100は、例えば自律移動ロボットのような移動体1000に搭載され、移動体1000から観察される外界の存在物の相対的な位置の変化を検出することにより、移動体1000の運動状態を推定する機能を有する装置である。
ここでの運動とは、移動体1000の位置姿勢の時系列を意味する。移動体1000の位置姿勢とは、たとえば、移動体1000が3次元空間を移動する場合は、所定の3次元座標系での位置座標および方位角である。
なお詳細は後述するが、本実施形態に係る自己運動推定システム100は、移動体1000の移動中にリアルタイムに周囲の3次元地図の生成も行っている。
<移動体>
本実施形態に係る移動体1000は、例えば自動運転車、ヒューマノイドロボット、パーソナルモビリティなど、自らの判断で自らの運動を自律的に制御することが可能な装置である。
図1に示すように、移動体1000は、自己運動推定システム100、距離センサ200、画像センサ300、運動制御部400、アクチュエータ500を備えて構成される。
画像センサ300は、外界の光を検出するセンサである。本実施形態に係る画像センサ300は、レンズを通して集光した外界の光を、2次元平面状に配置した複数の受光素子に照射し、画素ごとにRGB(Red,Green,Blue)の各色の明るさを検出することによりカラー画像を取得可能なカメラである。もちろん画像センサ300は単色(白黒)のカメラであっても良いし、赤外線や紫外線などの可視光以外の電磁波を検知するカメラであっても良い。画像センサ300は、所定周期(例えば0.1秒周期ないし0.01秒周期)に外界の様子を撮影する。なお周期は移動体1000の移動速度に応じて選べばよい。例えば0.1秒より遅い場合も0.01秒より速い場合もありうる。画像センサ300がタイミングtで外界を撮影して得られた画像を明暗画像Itとも記す。明暗画像Itの一例を図2に模式的に示す。
距離センサ200は、計測範囲内(計測対象となる視野の範囲内)に存在する複数の地点までの距離をレーザ光により計測するセンサである。本実施形態に係る距離センサ200は、一例として、計測対象地点に向けて出射したレーザパルスが往復する時間を計測することで計測対象地点までの距離を計測し、計測した距離をレーザパルスの出射方向を示す情報と共に出力可能な3Dレーザスキャナである。レーザスキャナはレーザ光を機械的に回転させて複数の計測対象地点までの距離を逐次的に計測するため、一般に、広い視野を確保できる。レーザスキャナには、往復時間計測を用いるものの他に、レーザ光の送信信号と受信信号の位相差を用いたり、レーザ光の出射点と受光点間の距離に基づく三角法を用いるものがあり、距離センサ200はそれらのどれでもよい。またレーザスキャナの他に、複数の受光素子を用いて複数地点の距離を同時に測定する距離画像カメラを用いてもよい。ここでは、代表としてレーザスキャナを扱うこととする。
そして本実施形態に係る距離センサ200は、距離の計測範囲(視野の範囲)が画像センサ300の撮影範囲(視野の範囲)の一部あるいは全部を含むように取り付け位置が調整されて移動体1000に装着されている。つまり本実施形態に係る距離センサ200は、画像センサ300の撮影範囲に含まれる外界の各点までの距離が計測されるような向きに移動体1000に装着されている。
そして、画像センサ300及び距離センサ200は、画像センサ300が撮影するタイミングと、その撮影範囲内の各点までの距離を距離センサ200が計測するタイミングとが揃うように、撮影タイミング及び計測タイミングが調整されている。ここでのタイミングは、実際の測定時刻とは別のものであり、データの通し番号に相当する離散時刻である。なお、各データの測定時刻は自己運動推定の要求精度に応じて合せる必要があるが、高精度が要求されない場合は厳密に合せなくてもよい。実際の測定時刻は別途記録しておき、データの歪み補正(後述)に用いてもよい。
自己運動推定システム100は、移動体1000に搭載され、外界の存在物との相対的な位置の変化を所定時間ごとに検出することにより、移動体1000の運動状態を移動体1000の移動中に推定する。詳細は後述する。
運動制御部400は、自己運動推定システム100により推定された移動体1000の所定時間毎の移動量や、距離センサ200により得られる距離測定データ(後述)から作成される3次元地図を用いて、移動体1000を移動させるためのアクチュエータ500を駆動する。
アクチュエータ500は、移動体1000を移動させるためのモータやバルブ、エンジンなどの動力発生装置である。
<自己運動推定システムの構成>
自己運動推定システム100は、図1に示すように、距離画像取得部111、距離測定データ記憶部112、明暗画像取得部121、エッジ検出部122、特徴ペア生成部131、特徴ペア記憶部132、移動量算出部141、移動量記憶部142、3次元地図生成部150を備える。
なお、自己運動推定システム100は、不図示のCPU(Central Processing Unit)、RAM(Random Access Memory)やROM(Read Only Memory)、ハードディスク装置などの記憶装置、各種のデータ入出力インタフェース等の機器を有するコンピュータにより構成される。そしてCPUが、記憶装置に記憶されているプログラムを実行することにより、本実施形態に係る自己運動推定システム100が有する各種機能が実現される。
また自己運動推定システム100は、データ入出力インタフェースを通じて、距離センサ200や画像センサ300などの外部機器からデータを取得する。またプログラムがCDROMやDVD等の記録媒体に記録されている場合には、これらの記録媒体からプログラムを記憶装置にロードすることができる。あるいは、プログラムが他のコンピュータに格納されている場合には、インターネット等の通信ネットワークを介してこのコンピュータからプログラムを記憶装置にダウンロードすることができる。
距離画像取得部111は、移動体1000に搭載される距離センサ200によって所定周期(例えば0.1秒毎)で計測される物理量(レーザ光の往復時間や位相差、角度など)から算出される、画像センサ300の撮影範囲(視野)に含まれる外界の各計測点までの距離情報とレーザ光の向きからなる距離測定データを取得し、この距離測定データから距離画像Ptを生成する。距離画像Ptは、たとえば、レーザ光の向きから得られる計測点の方位角(θ,φ)を画像上の画素位置に対応づけ、距離センサ200から計測点までの直線距離を画素値として生成する。この方位角と距離情報から計測点の3次元位置の座標値(x,y,z)も計算できる。以下では、このような3次元位置で表された計測点(3D点)の集合も便宜的に距離画像と呼ぶ。このような距離画像では、同じ画素位置(方位角)に距離の異なる複数の3D点が登録されてもよい。なお、距離センサ200が出力する計測点の距離、方位角、および、そこから得られる位置は、すべて距離センサ200に付随した3次元座標系での値であり、自己運動を推定する3次元座標系(世界座標系)とは異なる。
距離画像Ptの計測タイミングは、距離測定データの測定時刻を用いて、距離画像取得部111によって適宜生成される。例えば距離センサ200が360度回転可能なセンサである場合、0度の位置から360度の位置までの1回転の間は同じ計測タイミングとなるように、生成される。つまり、1周分または1回の撮影分のデータを同じ離散時刻で扱う。離散時刻は順序を表す整数であり、添え字のtである。
なお以下の説明では、距離画像Ptに含まれる各点を3次元座標値(x,y,z)で表したものを3D点と記し,この3D点を用いて処理の詳細を説明する。ここで、時刻tにおけるi番目の3D点をptiと表す。pは3次元座標値であり、添え字のtは計測タイミングを表し、添え字のiは識別番号である。距離画像Ptの一例を図4に示す。図4に示す距離画像Ptは、図2に示した明暗画像Itを撮影したタイミングtと同じタイミングtで距離を計測した結果を表す。なお図4において、各点のドットの大きさは各点までの距離を表しており、距離センサ200からの距離が近いほど、ドットのサイズが大きくなるように表現されている。ただし、各点までの距離をドットの大きさで表すこの表現はここでの便宜上のものである。
距離測定データ記憶部112は、距離センサ200が計測した距離測定データを、計測タイミングと対応付けて記憶する。詳細は後述するが、記憶測定データ記憶部112が記憶する距離測定データは、3次元地図生成部150が3次元地図を作成する際に用いられる。
明暗画像取得部121は、移動体1000に搭載される画像センサ300によって所定周期(例えば0.1秒毎)で撮影される外界の明暗画像Itを取得する。明暗画像Itには、撮影タイミングを表す情報と、明暗画像It内の各点の2次元座標を表す情報と、各点の明るさを示す情報と、が含まれる。撮影タイミングは、明暗画像取得部121が、例えば時刻情報を用いて生成する。
距離画像取得部111が生成する計測タイミングと、明暗画像取得部121が生成する撮影タイミングは、同じタイミングであれば同じ値になるように適宜生成される。
ここで、本実施形態に係る自己運動推定システム100の他の構成要素及び処理内容について順に説明する前に、説明を補足する。
まず、以下の説明では、簡単のため、距離センサ200の座標系と、移動体1000の座標系を同一視する。そしてその座標系は、x軸が移動体1000の前方、y軸が左方、z軸が上方とする。これは説明の都合上定めたものであり、実際は、全体で一貫性がとれていれば座標軸をどのように定めてもよい。
また明暗画像Itの内部校正、および距離センサ200と画像センサ300との間の外部校正はできているとする。
内部校正とレンズの歪み補正を合わせた行列をAとする。また距離センサ200と画像センサ300の相対位置は固定であり、距離センサ200の座標系から画像センサ300の座標系への変換行列をTlc=[R|T]とする(Rは回転行列、Tは並進ベクトル)。
また、時刻tの距離画像をPt、明暗画像をItとする。そして時刻tの距離画像Ptと明暗画像Itとの組を、フレームFt=(Pt,It)と呼ぶ。時刻tの移動体1000の姿勢をrtとする。また距離画像Ptと画像エッジ点(後述)を対応づけたものをRGBD特徴ペアと呼ぶ。
以下、自己運動推定システム100の他の構成要素について説明する。
エッジ検出部122は、明暗画像Itからエッジを検出する。具体的には、エッジ検出部122は、例えばCanny法(詳しくは、J. Canny: “A Computational Approach to Edge Detection,” IEEE Trans. on PAMI, Vol. 8, No. 6, pp.679-698 (1986)を参照)を用いて明暗画像Itからエッジを抽出する。そしてエッジ検出部122は、画像の勾配方向(エッジの法線方向)で微分値の絶対値が極大になる点を求めることで、太さ1画素のエッジ画像Etを生成する。エッジ画像Etは、エッジのある画素qt,iが1、エッジのない画素qt,iが0の値をとる。図2に示した明暗画像Itから生成されたエッジ画像Etの例を図3に示す。なお、明暗画像Itから抽出したエッジ点qt,iの集合をQtとする。各エッジ点は画像の勾配方向から求めた法線ベクトルをもつ。
特徴ペア生成部131は、自己運動推定システム100が同一のタイミング(第1タイミング)で取得した距離画像Ptとエッジ画像Etとを照合し、エッジ画像Etにおけるエッジの位置に対応する距離画像Pt内の3D点を、エッジ位置距離情報として特定する。
具体的には、特徴ペア生成部131は、3D点pt,i∈Ptを、エッジ画像Etに式(1)で透視投影し、対応する画素qt,iを求める。ここで、各点は同次座標で表し、pt,i=(X,Y,Z,1)、qt,i=(x,y,1)である。
t,i=ATlct,i (1)
なおwはスケールである。そして、エッジ画像Etのqt,iでの画素値が1ならば、pt,iとqt,iを対応づけ、RGBD特徴ペアとする。その画素値が0ならば何もしない。時刻tにおけるRGBD特徴ペアの集合をCtとする。
図3に示すqt,iと図4に示すpt,iがRGBD特徴ペアとして対応する。RGBD特徴ペアの集合の一例を図5に示す。3D点pt,iがエッジ位置距離情報である。
そして特徴ペア生成部131は、RGBD特徴ペアの集合Ctを特徴ペア記憶部132に記憶する。
なお、距離センサ200が回転型の場合は、3D点群が時々刻々と逐次的にとれる。このため、移動体1000が移動しながら3D点群を取得すると、その形状は歪むが、この歪みの補正は公知の技術より補正することができる。
移動量算出部141は、上記第1タイミングにおけるエッジ位置距離情報と、第1タイミングから第2タイミングまでの間の所定時間における移動体1000の推定移動量と、を用いて算出される、エッジ位置距離情報の第2タイミングにおける明暗画像内での透視変換による投影位置が、第2タイミングで取得される明暗画像Itから検出されるエッジの位置に近づくように、移動体1000の推定移動量を算出する。
具体的には、移動量算出部141は、時刻t-1(第1タイミング)におけるRGBD特徴ペアの集合をCt-1とし、時刻t-1(第1タイミング)から時刻t(第2タイミング)までの移動体1000の推定移動量をmt=[Rt|Tt]としたときに、この推定移動量mtを用いてCt-1の各3D点pt-1,iを、式(2)によってエッジ画像Etに投影する。
なお、図1に記載するように、移動量算出部141は、特徴ペア記憶部132からCt−1を読み出して利用する。
w’t,i=ATlc[Rt|Tt]pt-1,i (2)
そして移動量算出部141は、Etの中でqt,iに最も近いエッジ点et,iを、pt-1,iに対応づける。ただしこの際、対応づけの精度を上げるために、原画像It-1とIにおいて、qt-1,iとet,iをそれぞれ中心とする局所画像のコサイン相関あるいは正規化相関を計算して、相関値が閾値を超えた場合に、et,iをpt-1,iに対応づけると良い。
そして移動量算出部141は、こうして求めた対応づけに対して、式(3)を最小化する推定移動量mtを求める。このとき移動量算出部141は、mtの初期値を0として計算する。
なお、nt,iはet,iの法線ベクトルである。Gt(mt)の最小化は、準ニュートン法やレーベンバーグ・マーカート法、ガウス・ニュートン法、共役勾配法など種々の方法を用いて行うことが可能である。
移動量算出部141は、この対応づけと投影誤差最小化の処理を、Gt(mt)の値が所定値以下に収束するまで交互に繰り返す。これは、3D点−2D点対応に基づいて点対線のICP(Iterative Closest Point)を画像空間で行うことに相当する。
ICPは2つの点群データの位置合せをする方法である。点対点のICPでは、2つの点群データの対応点間のユークリッド距離の二乗和を誤差関数とする。点対線のICPでは、どちらかの点が法線ベクトルをもつ場合に適用でき、対応点間の垂線距離の和を誤差関数とする。疎らな点群では対応点の位置が一致することはまれであり、滑らかな形状をもつ環境ならば、垂線距離を用いた誤差関数の方が安定性が高く、最小化計算において極値に陥らずによい解に到達しやすい利点がある(ICPについては、例えばP. J. Besl and N. D. Mckay: “A Method of Registration of 3-D Shapes,” IEEE Trans. on PAMI, Vol. 14, No. 2,pp. 239-256, 1992.を参照)。
そして移動量算出部141は、推定移動量mtを移動量記憶部142に記憶する。
移動量記憶部142には、上記のようにして所定時間毎に算出された移動体1000の推定移動量が記憶される。
自己運動推定システム100は、これらの推定移動量を順次積算することにより、移動体1000の移動経路を求めることが可能となる。また推定移動量を第1タイミングから第2タイミングまでの間の時間(所定時間)で除算することにより、移動体1000の速度も求めることが可能となる。
3次元地図生成部150は、移動体記憶部142に順次蓄積されていく移動体1000の推定移動量を、所定時間毎に積算することで、各時点における移動体1000の位置を特定しつつ、各位置で取得した距離測定データあるいは距離画像Ptを取得距離情報記憶部112から読み出して、移動体1000の位置姿勢に基づいて座標変換をしながら重ね合わせることにより、3次元地図を生成する(数式としては、後述する式(8)座標変換の式と同じ)。
そして、運動制御部400は、移動体1000が自律移動する場合は、移動量記憶部142に所定時間毎に順次蓄積されていく推定移動量や、所定時間毎に完成していく3次元地図を用いて、移動体1000の自律走行を行う。
このように本実施形態に係る自己運動推定システム100は、距離センサ200から得られる3D点群と、画像センサ300から得られる明暗画像Itから抽出した画像エッジ点群と、を対応づけ、画像空間でICPを行うことにより、リアルタイムで移動体1000の運動状態を推定することができる。このような態様によって、自己運動推定システム100によれば、より効率的かつ正確に外界を観測しつつリアルタイムに自己の運動状態を推定することが可能となる。
例えば、本実施形態に係る自己運動推定システム100は、距離画像Ptと明暗画像Itのエッジ点を用いて、上記のようにICPを行っている。多くの場合、1枚の明暗画像Itの中からは数多くのエッジ点を抽出できるため、非特許文献1のように画像のコーナ点を用いる一般的な方法に比べて、処理が格段に安定する。また画像エッジ点は法線をもつので、点対線のICPが可能となり安定性も増す。
上述したように、本実施形態に係る自己運動推定システム100は、明暗画像Itから特徴抽出(エッジ検出)を行うようにし、3D点群からは特徴抽出を行わないので、処理が単純で効率がよい。また、リアルタイムで使える距離センサ200は一般に解像度が低いので、遠方での計測点は疎らになり、そのような計測点からの特徴抽出は不安定になりやすいが、本実施形態に係る自己運動推定システム100は、3D特徴(3D点群から抽出した特徴)を用いないので、遠方で3D点群が疎になって特徴抽出が不安定になるような問題も発生しない。
また自己運動推定システム100は、3D点と2D点の対応しか用いないので、レーザセンサのみを用いる方法の場合に必要になる3D点同士の対応づけのためのデータ管理も不要にできる。
さらに自己運動推定システム100は、平面上のテクスチャなどの画像特徴は得られても3D特徴が得られない場合であっても、問題なく動作することが可能である。
なお、本実施形態に係る自己運動推定システム100は、距離センサ200として3Dレーザスキャナを用いて距離画像Ptを得ている。そのため、遠方の地形まで精度よく計測できるため、とくに屋外での大規模な地図構築に適している。
<自己運動推定システムの処理の流れ>
次に、本実施形態に係る自己運動推定システム100の処理の流れを、図6に示すフローチャートに従って説明する。
まず、自己運動推定システム100は、距離画像Pt及び明暗画像Itを取得する(S1000、S1010)。図6では、便宜上、距離画像Ptを明暗画像Itよりも先に取得するように記載しているが、自己運動推定システム100は、距離画像Ptと明暗画像Itを並列して取得する。
次に、自己運動推定システム100は、明暗画像Itからエッジ点を検出する(S1020)。エッジ点の検出は、公知のアルゴリズムを用いることが可能であり、本実施形態では、たとえば、Canny法を用いる。
そして自己運動推定システム100は、距離画像Ptの各3D点pt,iを、エッジ画像Etに式(1)で透視投影することで、対応する画素qt,iを求め、RGBD特徴ペアの集合Ctを求める(S1030)。
そして自己運動推定システム100は、時刻t-1から時刻tまでの移動体1000の推定移動量をmtとしたときに、この推定移動量mtを所定の初期値から順次更新しながら、式(2)によって、時刻t−1の3D点pt-1,iをEtに投影し、式(3)の値を最小にするような推定移動量mtを求める(S1040)。
以上の処理を繰り返し実行することによって、本実施形態に係る自己運動推定システム100は、より効率的かつ正確に外界を観測しつつリアルタイムに自己の運動状態を推定することができる。
==その他の実施形態==
以下に、自己運動推定システム100のその他の実施形態を説明する。以下に記載する各態様により、より一層効率的かつ正確に自己運動状態を推定することが可能となる。
<取得周期が異なる場合>
上述したように、時刻tの距離画像Ptと明暗画像Itとの組を、フレームFt=(Pt,It)と呼ぶが、一般的に画像センサ300の方が距離センサ200よりも取得周期が短い。この場合、明暗画像取得部121が第1時間毎に明暗画像Itを取得するとすると、距離画像取得部111は、第1時間の整数倍(n倍)の第2時間毎に距離画像Ptを取得する。
このような場合、距離画像Ptが空のフレームが生じるが、本実施形態に係る自己運動推定システム100は以下のような処理を行うことにより、同じ3D点群を複数の明暗画像Itと位置合わせできる。
つまり、本実施形態に係る自己運動推定システム100は、第1実施形態の処理において、明暗画像It−1及び距離画像Pt−1の双方を取得するタイミングを第1タイミングとすると共に、新たな明暗画像It+k−1(k=0,…,n-1)を取得する第1時間毎に到来するタイミングを第2タイミングとして、第1時間毎に、推定移動量を算出する。
またこのとき自己運動推定システム100は、明暗画像取得部121が明暗画像It+k−1を取得する上記第1時間毎に、第1タイミングt−1で取得した距離画像Pt−1と、第1タイミングt−1から第2タイミングt+k−1までの上記推定移動量の累積値とを用いて算出される、第2タイミングt+k−1における距離画像Pt−1の透視変換による投影位置と、第2タイミングにおける明暗画像It+k−1と、を照合し、明暗画像It+k−1におけるエッジの位置に対応する距離画像Pt−1内の距離情報を、エッジ位置距離情報として特定する
より具体的には、画像センサ300の取得周期が距離センサ200の取得周期の1/n倍の場合、1つの3D点群Pt-1に対して、n枚の明暗画像It-1,I…It+n-2が対応するが、自己運動推定システム100は、It+k-1(k=0,…,n-1)までの推定移動量が得られているとして、It+kの位置合せを次のように行う。
まず自己運動推定システム100は、時刻t-1からt+kまでの推定移動量をmt+k=[Rt+k|Tt+k]とした場合に、mt+k-1を用いて、式(4)のように、Pt-1の3D点pt-1,iをエッジ画像Et+k-1に投影する。
そして、自己運動推定システム100は、第1実施形態と同様に、Et+k-1の画素値に基づいて、qt+k-1,iがエッジ点ならば、pt-1,iに対応づけてRGBD特徴ペアとする。
次に、自己運動推定システム100は、mt+kを用いて、式(5)のように、pt-1,iをEt+kに投影する。
そして自己運動推定システム100は、Et+kの中でqt+k,iに最も近いエッジ点et+k,iをpt-1,iに対応づける。
この際自己運動推定システム100は、第1実施形態と同様に、原画像It+k-1とIt+kにおいて、qt+k-1,iとet,iをそれぞれ中心とする局所画像のコサイン相関あるいは正規化相関を計算して相関値が閾値を超えた場合に、et+k,iをpt-1,iに対応づける。なお相関計算にはqt-1,iを用いてもよいが、qt+k-1,iの方が視点変化による画像の歪みを小さくできる。
次に自己運動推定システム100は、第1実施形態と同様に、式(6)を最小化する移動量mt+kを求める。mt+kの初期値はmt+k-1とする。
このような、対応づけと投影誤差の最小化の処理を、自己運動推定システム100は交互に繰り返し行う。
このような態様によって、同じ3D点群に対して複数の明暗画像を位置合せできるようになるため、画像センサ300の取得周期が距離センサ200の取得周期より短くても対応することが可能となる。これらの特長により、取得周期が長い、低性能で安価な3Dレーザスキャナを用いることも可能となる。
<画像の階層化>
次に、本実施形態に係る自己運動推定システム100は、明暗画像Itを階層化して処理することも可能である。
この場合、自己運動推定システム100は、処理の効率化とICPの極値回避のために、明暗画像Itを階層化して位置合せを行う。階層の数は画像サイズを考慮して適宜決めればよいが、ここでは、例えば100万画素程度の明暗画像Itを2段階で処理することとし、1/4縮小画像(解像度が相対的に低い第1明暗画像)と原画像(解像度が相対的に高い第2明暗画像)の2つを用いる。
具体的には、自己運動推定システム100は、まず、1/4縮小画像に対して、第1実施形態に記載した方法で位置合せを行うことで、推定移動量mt(あるいはmt+k)を求める。
そして、この1/4縮小画像を用いて算出した推定移動量mt(あるいはmt+k)を、ICPの初期値として、原画像を用いて、推定移動量m’t(あるいはm’t+k)を求める。
より具体的に説明すると、エッジ検出部122は、1/4縮小画像である第1明暗画像、及び原画像である第2明暗画像のそれぞれについてエッジを検出する。
そして特徴ペア生成部131は、時刻t−1(第1タイミング)で取得した距離画像と第1明暗画像とを照合し、第1明暗画像におけるエッジの位置に対応する距離画像内の3D点を、第1エッジ位置距離情報として特定する。
そして移動量算出部141は、第1タイミングにおける第1エッジ位置距離情報と、時刻t−1(第1タイミング)から時刻t(第2タイミング)までの所定時間における移動体1000の推定移動量mtと、を用いて算出される、第1エッジ位置距離情報の時刻t(第2タイミング)における明暗画像内での透視変換による投影位置が、時刻t(第2タイミング)で取得される第1明暗画像におけるエッジの位置に近づくように、推定移動量mtを算出する。
そして次に、特徴ペア生成部131は、距離画像と第2明暗画像とを照合し、第2明暗画像におけるエッジの位置に対応する距離画像内の3D点を、第2エッジ位置距離情報として特定する。
そして移動量算出部141は、上記第1明暗画像を用いて算出された推定移動量mtを初期値として、第2エッジ位置距離情報と、時刻t−1(第1タイミング)から時刻t(第2タイミング)までの所定時間における移動体1000の推定移動量m’tと、を用いて算出される、第2エッジ位置距離情報の時刻t(第2タイミング)における明暗画像内での透視変換による投影位置が、時刻t(第2タイミング)で取得される第2明暗画像におけるエッジの位置に近づくように、推定移動量m’tを算出する。
この方法は、いわゆるピラミッド探索に似ているが、対応点を求めるだけでなく縮小画像でICP全体を行う点が異なる。その利点は、縮小画像では画素数が少ないので対応点の探索範囲が小さくて済み、また原画像では移動量のよい初期値が縮小画像により得られているので、対応点の探索範囲も移動量の探索範囲も非常に小さくて済むことである。これにより処理効率と極値回避性を向上することができる。
なお、階層の数が3以上の場合は、同様の処理を繰り返し行えばよい。例えば1/8縮小画像と1/4縮小画像と原画像との3つを用いて3段階で処理する場合は、初めに解像度が最も低い1/8縮小画像(第1明暗画像)を用いて推定移動量を算出し、次いで解像度が2番目に低い1/4縮小画像(第2明暗画像)を用いて推定移動量を算出し、最後に解像度が最も高い原画像(第3明暗画像)を用いて推定移動量を算出する。このように、N(Nは2以上の自然数)階層で処理する場合は、各階層の明暗画像を解像度が低い順に用いて、推定移動量をN回算出する。
<移動量の予測>
次に、本実施形態に係る自己運動推定システム100は、移動量を推定する処理を以下のように改良することも可能である。つまり、過去のフレームで算出した推定移動量を用いて、ICPの探索範囲を狭める。
具体的には、移動量算出部141は、所定時間毎に推定移動量を算出する際に、直近に算出した移動体1000の推定移動量を予測値として用いるようにする。
このような態様によって、例えば明暗画像It中に、隣接する走行レーンを走る車などの移動物体が写り込んでいる場合や、環境内に目印となる大きな物体(ランドマーク)が少なく、また、繰り返し構造(同じ形状が繰り返し続く構造物)が続く場合であっても、ICPの探索範囲を狭めることが可能となり、処理効率を向上させ、また対応誤りを減らすことが可能である。
つまり、ICPの探索には、対応点の探索と移動量の探索の2つがあるが、まず、対応点の探索範囲は次のように狭められる。
すなわち、移動量の予測値によって、移動体1000の次の位置を予測する。その予測位置に基づいて、3D点群を次フレームの明暗画像に投影して、その近傍で対応点候補を探索する。予測によって3D点は真の対応点の近くに投影されるので、予測値がない場合よりもはるかに狭い範囲を探索すればすむ。
一方、移動量の探索では、予測値を初期値として、式(3)または式(6)の最適化を行う。予測により初期値が真の解に近づくので、極値に陥る可能性が低くなる。
移動量の予測により、移動物体の問題は次のように解決される。
つまり、移動体1000と静止物体および移動体1000と移動物体の相対速度の差が一定量より大きければ、移動物体の対応点は予測による探索範囲からはずれるため、対応点候補とならない。そのため、誤った対応づけで位置がずれることを防ぐことができる。
また繰り返し構造の問題は以下のように解決される。予測による対応点の探索範囲が繰り返し間隔より小さければ、誤対応点は探索範囲からはずれるため、対応点候補とならない。そのため、誤った対応づけで位置がずれることを防ぐことができる。
<複数フレームの統合>
次に、本実施形態に係る自己運動推定システム100は、以下のようにして過去Nフレームの距離画像を用いて距離画像Ptを強化することで、よりロバストに運動推定を行うことも可能である。
つまり、距離画像取得部111は、距離センサ200から新たな距離画像Ptを取得した際に、過去に取得した距離画像Pt−k(k=1,…,N)と、過去の距離画像Pt−kを取得した時点から現在までの移動体1000の推定移動量と、を用いて、過去の距離画像Pt−kに含まれる3D点の位置を現在の距離センサ200の座標系に変換し、変換後の3D点を新たな距離画像Ptに追加するようにする。
このような態様によって、よいランドマークがなく位置合せの手がかりとなる3D点が少ししかとれない環境の中で、3D点群の解像度が低い距離センサ200を用いるような場合であっても、複数フレームを統合することにより、そのような3D点を増やすことが可能となる。
そのため、時刻t-1のフレームの3D点群だけでなく、過去のいくつかの3D点群を統合して用いる。
これにより距離画像Ptの点密度が高くなり、ランドマークが小さかったり、遠方で疎な場合でも、そこに当たる3D点の数が増えて、ICPの誤差を小さくしたり、極値を回避する可能性が高くなる。
このために、式(7)のようにして、過去Nフレームの3D点群を統合した局所地図(過去の3D点を追加した距離画像P t-1)を生成し、これを用いてICPを行う。まず、世界座標系での局所地図P’ t-1を、普通の地図と同様に3D点群を移動体1000の姿勢に沿って配置して生成する。
さらに、式(9)のようにして、P’ t-1を時刻t−1の距離センサ200の座標系に変換し、ICPを行う。
本実施形態ではN=5としているが、この限りではなく、移動体1000の速度などを考慮して決めればよい。
以上、本実施形態に係る自己運動推定システム100について説明したが、本実施形態に係る自己運動推定システム100によれば、より効率的かつ正確に外界を観測しつつリアルタイムに自己の運動状態を推定することが可能となる。
例えば、本実施形態に係る自己運動推定システム100は、3D特徴(距離画像Ptから抽出されるエッジ点などの特徴点)を抽出することなく、3D点群と画像エッジ点群の位置合せによって運動推定する。
このため、例えば低密度・低速な3Dレーザスキャナ(距離センサ200)を用いた場合には利用できる3D点が少なくなるが、このような場合であっても、位置合せの精度を低下させずに済む。
また本実施形態に係る自己運動推定システム100は、レーザスキャナ(距離センサ200)とカメラ(画像センサ300)を組合せて用いているが、このことは、取得周期の観点からも重要である。
つまり、機械駆動の3Dスキャナでは、カメラほど取得周期を短くすることは一般的に困難である。そのため、仮に、3D点群だけを用いて制御を行う場合には、取得周期が長いとフレーム間の移動距離が増えてしまい、データの対応づけが難しくなる。
とくに、移動体1000が単調な環境を走行する場合のように、目立ったランドマークが少なく、また、繰り返し構造があるような場合に顕著である。フレーム間の移動距離が大きいほど予測誤差は大きくなり、はずれる可能性も高くなる。
しかしながら、本実施形態に係る自己運動推定システム100は、レーザスキャナ(距離センサ200)に加えて、カメラ(画像センサ300)を組合せて用いることにより、取得周期を短く保ち、正確に位置合せをすることが可能である。さらに本実施形態に係る自己運動推定システム100は、移動量の予測を取り入れることで、より正確な位置合わせを行うこともできる。
本実施形態に係る自己運動推定システム100は、3Dレーザスキャナ(距離センサ200)とカメラ(画像センサ300)を用いて、3次元6自由度の運動推定を行い、3D 地図を構築する。この自己運動推定システム100では、まず、同一フレームにおいて3Dレーザスキャナの3D点群と画像エッジ点群を対応づけてRGBD特徴ペアを生成し、次に、時刻t-1のRGBD特徴ペアと時刻tの画像エッジ点を対応づけて、画像空間でICPを行うことにより、ロボット(移動体1000)の移動量を求める。さらに、移動量の予測値によって探索範囲を狭め、また、複数フレームの点群を統合して点群密度を増やすことで、移動物体や単調環境・繰り返し構造による移動量推定の障害に対処することもできる。
なお上述した実施の形態は本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明はその趣旨を逸脱することなく変更、改良され得るとともに、本発明にはその等価物も含まれる。
例えば、移動体1000は、自らの判断で自らの運動を自律的に制御することが可能な装置であるが、人間や他の制御装置からの操作に従って移動する機能を有していても良い。さらには人間が3Dレーザスキャナ(距離センサ200)、カメラ(画像センサ300)及び自己運動推定システム100を携帯して移動することで、人間の移動経路を推定する形態であってもよい。
また移動体1000が、複数の画像センサ300を備える場合には、明暗画像取得部121は、これらの画像センサ300により撮影された明暗画像をそれぞれ保持するようにしても良い。
例えば移動体1000が第1画像センサ300A及び第2画像センサ300Bの2つの画像センサ300を備える場合には、明暗画像取得部121は、第1画像センサ300Aにより撮影された第1撮影範囲の第1明暗画像と、第2画像センサ300Bにより撮影された第2撮影範囲の第2明暗画像と、を持つようにする。
この場合エッジ検出部122は、第1明暗画像及び第2明暗画像それぞれから第1エッジ画像E1t及び第2エッジ画像E2tを生成し、特徴ペア生成部131は、距離画像Ptの各3D点pt,iを、第1画像センサ300Aと距離センサ200との相対位置で決まる変換行列Tlc1及び第2画像センサ300Bと距離センサ200との相対位置で決まる変換行列Tlc2に基づいて、これらのエッジ画像E1t及びE2tに透視投影することで、対応する画素qt,iを求め、RGBD特徴ペアの集合Ctを求めるようにする。さらに、移動量算出部141は、距離画像Pt−1の各3D点pt−1,iを、エッジ画像E1t及びE2tに透視投影する際にこれらの変換行列Tlc1及びTlc2を用いるようにする。この際、式(3)および式(6)は、エッジ画像E1t及びE2tに対して計算した値を合計すればよい。
このような態様によって、自己運動推定システム100は、より広範囲の外界の存在物の位置変化に基づいて自己の運動状態を推定することができるため、運動状態の推定精度を向上させることが可能となる。
100 自己運動推定システム
111 距離画像取得部
112 距離測定データ記憶部
121 明暗画像取得部
122 エッジ検出部
131 特徴ペア生成部
132 特徴ペア記憶部
141 移動量算出部
142 移動量記憶部
150 3次元地図生成部
200 距離センサ
300 画像センサ
400 運動制御部
500 アクチュエータ
1000 移動体

Claims (8)

  1. 移動体に搭載され、外界の存在物との相対的な位置の変化を検出することにより、前記移動体の運動状態を推定する自己運動推定システムであって、
    前記移動体に搭載される画像センサによって所定周期で撮影される外界の明暗画像を取得する明暗画像取得部と、
    前記移動体に搭載される距離センサによって所定周期で計測される、前記画像センサの撮影範囲に含まれる外界の各点までの複数の距離情報を有する距離画像を取得する距離画像取得部と、
    前記明暗画像からエッジを検出するエッジ検出部と、
    第1タイミングで取得した前記距離画像と前記明暗画像とを照合し、前記明暗画像におけるエッジの位置に対応する前記距離画像内の距離情報を、エッジ位置距離情報として特定するエッジ位置距離情報特定部と、
    前記第1タイミングにおける前記エッジ位置距離情報と、前記第1タイミングから第2タイミングまでの間の所定時間における前記移動体の推定移動量と、を用いて算出される、前記エッジ位置距離情報の前記第2タイミングにおける明暗画像内での透視変換による投影位置が、前記第2タイミングで取得される前記明暗画像から検出されるエッジの位置に近づくように、前記移動体の前記推定移動量を算出する移動量算出部と、
    を備えることを特徴とする自己運動推定システム。
  2. 請求項1に記載の自己運動推定システムであって、
    前記明暗画像取得部は、第1時間毎に前記明暗画像を取得し、
    前記距離画像取得部は、前記第1時間の整数倍の第2時間毎に前記距離画像を取得し、
    前記移動量算出部は、前記明暗画像及び前記距離画像の双方を取得するタイミングを前記第1タイミングとすると共に、新たな前記明暗画像を取得する前記第1時間毎に到来するタイミングを前記第2タイミングとして、前記第1時間毎に、前記推定移動量を算出し、
    前記エッジ位置距離情報特定部は、前記明暗画像取得部が前記明暗画像を取得する前記第1時間毎に、前記第1タイミングで取得した前記距離画像と、前記第1タイミングから前記第2タイミングまでの前記推定移動量の累積値とを用いて算出される、前記第2タイミングにおける前記距離画像の透視変換による投影位置と、前記第2タイミングにおける前記明暗画像と、を照合し、前記明暗画像におけるエッジの位置に対応する前記距離画像内の距離情報を、エッジ位置距離情報として特定する
    ことを特徴とする自己運動推定システム。
  3. 請求項1又は2に記載の自己運動推定システムであって、
    前記明暗画像には、解像度が相対的に低い第1明暗画像と、解像度が相対的に高い第2明暗画像と、が含まれ、
    前記エッジ検出部は、前記第1明暗画像及び前記第2明暗画像のそれぞれについてエッジを検出し、
    前記エッジ位置距離情報特定部は、前記第1タイミングで取得した前記距離画像と前記第1明暗画像とを照合し、前記第1明暗画像におけるエッジの位置に対応する前記距離画像内の距離情報を第1エッジ位置距離情報として特定すると共に、前記第1タイミングで取得した前記距離画像と前記第2明暗画像とを照合し、前記第2明暗画像におけるエッジの位置に対応する前記距離画像内の距離情報を第2エッジ位置距離情報として特定し、
    前記移動量算出部は、前記第1タイミングにおける前記第1エッジ位置距離情報と、前記第1タイミングから前記第2タイミングまでの前記所定時間における前記移動体の推定移動量と、を用いて算出される、前記第1エッジ位置距離情報の前記第2タイミングにおける明暗画像内での透視変換による投影位置が、前記第2タイミングで取得される第1明暗画像におけるエッジの位置に近づくように、前記推定移動量を算出した後に、前記算出した推定移動量を初期値として、前記第1タイミングにおける前記第2エッジ位置距離情報と、前記第1タイミングから前記第2タイミングまでの前記所定時間における前記移動体の推定移動量と、を用いて算出される、前記第2エッジ位置距離情報の前記第2タイミングにおける明暗画像内での透視変換による投影位置が、前記第2タイミングで取得される第2明暗画像におけるエッジの位置に近づくように、前記推定移動量を算出する
    ことを特徴とする自己運動推定システム。
  4. 請求項1〜3のいずれかに記載の自己運動推定システムであって、
    前記移動量算出部は、前記所定時間毎に前記推定移動量を算出する際に、直近に算出した前記移動体の推定移動量を予測値として用いる
    ことを特徴とする自己運動推定システム。
  5. 請求項1〜4のいずれかに記載の自己運動推定システムであって、
    前記距離画像取得部は、前記距離センサから新たな距離画像を取得した際に、過去に取得した距離画像と、前記過去の距離画像を取得した時点から現在までの前記移動体の推定移動量と、を用いて、前記過去の距離画像に含まれる距離情報の位置を現在の位置に投影し、投影後の前記距離情報を前記新たな距離画像に追加する
    ことを特徴とする自己運動推定システム。
  6. 請求項1〜5のいずれかに記載の自己運動推定システムであって、
    前記画像センサは、第1撮影範囲の撮影を行う第1画像センサと、第2撮影範囲の撮影を行う第2画像センサと、を有して構成され、
    前記明暗画像取得部が取得する前記明暗画像には、前記第1画像センサにより撮影された第1明暗画像と、前記第2画像センサにより撮影された第2明暗画像と、が含まれる
    ことを特徴とする自己運動推定システム。
  7. 移動体に搭載され、外界の存在物との相対的な位置の変化を検出することにより、前記移動体の運動状態を推定する自己運動推定システムの制御方法であって、
    前記自己運動推定システムは、前記移動体に搭載される画像センサによって所定周期で撮影される外界の明暗画像を取得し、
    前記自己運動推定システムは、前記移動体に搭載される距離センサによって所定周期で計測される、前記画像センサの撮影範囲に含まれる外界の各点までの複数の距離情報を有する距離画像を取得し、
    前記自己運動推定システムは、前記明暗画像からエッジを検出し、
    前記自己運動推定システムは、第1タイミングで取得した前記距離画像と前記明暗画像とを照合し、前記明暗画像におけるエッジの位置に対応する前記距離画像内の距離情報を、エッジ位置距離情報として特定し、
    前記自己運動推定システムは、前記第1タイミングにおける前記エッジ位置距離情報と、前記第1タイミングから第2タイミングまでの間の所定時間における前記移動体の推定移動量と、を用いて算出される、前記エッジ位置距離情報の前記第2タイミングにおける明暗画像内での透視変換による投影位置が、前記第2タイミングで取得される前記明暗画像から検出されるエッジの位置に近づくように、前記移動体の前記推定移動量を算出する
    ことを特徴とする自己運動推定システムの制御方法。
  8. 移動体に搭載され、外界の存在物との相対的な位置の変化を検出することにより、前記移動体の運動状態を推定するコンピュータからなる自己運動推定システムに、
    前記移動体に搭載される画像センサによって所定周期で撮影される外界の明暗画像を取得する手順と、
    前記移動体に搭載される距離センサによって所定周期で計測される、前記画像センサの撮影範囲に含まれる外界の各点までの複数の距離情報を有する距離画像を取得する手順と、
    前記明暗画像からエッジを検出する手順と、
    第1タイミングで取得した前記距離画像と前記明暗画像とを照合し、前記明暗画像におけるエッジの位置に対応する前記距離画像内の距離情報を、エッジ位置距離情報として特定する手順と、
    前記第1タイミングにおける前記エッジ位置距離情報と、前記第1タイミングから第2タイミングまでの間の所定時間における前記移動体の推定移動量と、を用いて算出される、前記エッジ位置距離情報の前記第2タイミングにおける明暗画像内での透視変換による投影位置が、前記第2タイミングで取得される前記明暗画像から検出されるエッジの位置に近づくように、前記移動体の前記推定移動量を算出する手順と、
    を実行させるためのプログラム。
JP2015255056A 2015-12-25 2015-12-25 自己運動推定システム、自己運動推定システムの制御方法及びプログラム Active JP6782903B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015255056A JP6782903B2 (ja) 2015-12-25 2015-12-25 自己運動推定システム、自己運動推定システムの制御方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015255056A JP6782903B2 (ja) 2015-12-25 2015-12-25 自己運動推定システム、自己運動推定システムの制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2017117386A true JP2017117386A (ja) 2017-06-29
JP6782903B2 JP6782903B2 (ja) 2020-11-11

Family

ID=59231729

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015255056A Active JP6782903B2 (ja) 2015-12-25 2015-12-25 自己運動推定システム、自己運動推定システムの制御方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6782903B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019044500A1 (ja) * 2017-09-04 2019-03-07 日本電産株式会社 位置推定システム、および当該位置推定システムを備える移動体
WO2019053986A1 (ja) * 2017-09-14 2019-03-21 ソニー株式会社 自己位置推定装置と自己位置推定方法とプログラムおよび移動体装置
JP2019187908A (ja) * 2018-04-26 2019-10-31 株式会社三共 遊技機
JP2020148700A (ja) * 2019-03-15 2020-09-17 オムロン株式会社 距離画像センサ、および角度情報取得方法
JP2020161141A (ja) * 2019-03-27 2020-10-01 エルジー エレクトロニクス インコーポレイティド 移動ロボット及びその制御方法
CN112649815A (zh) * 2019-10-10 2021-04-13 华为技术有限公司 处理数据的方法和装置
JP2021101365A (ja) * 2020-06-22 2021-07-08 北京百度網訊科技有限公司 測位方法、測位装置及び電子機器
WO2021181686A1 (ja) * 2020-03-13 2021-09-16 学校法人 千葉工業大学 自己位置推定装置
JP2022504787A (ja) * 2018-10-31 2022-01-13 ルノー エス.ア.エス. 自動車両の移動ベクトルを決定するための方法、車両の速度を判断するための方法、および関連する車両

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007316966A (ja) * 2006-05-26 2007-12-06 Fujitsu Ltd 移動ロボット、その制御方法及びプログラム
JP2008197884A (ja) * 2007-02-13 2008-08-28 Toyota Motor Corp 環境地図の生成方法及び移動ロボット
JP2009017462A (ja) * 2007-07-09 2009-01-22 Sanyo Electric Co Ltd 運転支援システム及び車両
JP2010060451A (ja) * 2008-09-04 2010-03-18 Toyota Motor Corp ロボット装置及び物体の位置姿勢推定方法
JP2012123781A (ja) * 2010-11-19 2012-06-28 Canon Inc 情報処理装置、情報処理システム及び情報処理方法
JP2013003110A (ja) * 2011-06-21 2013-01-07 Denso Corp 車両状態検出装置
WO2015072217A1 (ja) * 2013-11-13 2015-05-21 日産自動車株式会社 移動体位置推定装置および移動体位置推定方法
US20150292891A1 (en) * 2014-04-11 2015-10-15 Nissan North America, Inc Vehicle position estimation system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007316966A (ja) * 2006-05-26 2007-12-06 Fujitsu Ltd 移動ロボット、その制御方法及びプログラム
JP2008197884A (ja) * 2007-02-13 2008-08-28 Toyota Motor Corp 環境地図の生成方法及び移動ロボット
JP2009017462A (ja) * 2007-07-09 2009-01-22 Sanyo Electric Co Ltd 運転支援システム及び車両
JP2010060451A (ja) * 2008-09-04 2010-03-18 Toyota Motor Corp ロボット装置及び物体の位置姿勢推定方法
JP2012123781A (ja) * 2010-11-19 2012-06-28 Canon Inc 情報処理装置、情報処理システム及び情報処理方法
JP2013003110A (ja) * 2011-06-21 2013-01-07 Denso Corp 車両状態検出装置
WO2015072217A1 (ja) * 2013-11-13 2015-05-21 日産自動車株式会社 移動体位置推定装置および移動体位置推定方法
US20150292891A1 (en) * 2014-04-11 2015-10-15 Nissan North America, Inc Vehicle position estimation system

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
JI ZHANG,外1名: ""Visual-lidar Odometry and Mapping: Low-drift, Robust, and Fast"", 2015 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION (ICRA), JPN6019033590, 2015, pages 2174 - 2181, XP033168700, ISSN: 0004354852, DOI: 10.1109/ICRA.2015.7139486 *
JOHN CANNY: ""A Computational Approach to Edge Detection"", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. 8, no. 6, JPN6019033593, 1986, pages 679 - 698, ISSN: 0004354854 *
MASAHIRO TOMONO: ""Line-based 3D Mapping from Edge-Points Using a Stereo Camera"", 2014 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION (ICRA), JPN6019033596, 2014, pages 3728 - 3734, ISSN: 0004354856 *
MASAHIRO TOMONO: ""Robust 3D SLAM with a Stereo Camera Based on an Edge-Point ICP Algorithm"", 2009 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION, JPN6019033591, 2009, pages 4306 - 4311, XP031509763, ISSN: 0004354853 *
PAUL J. BESL,外1名: ""A Method of Registration of 3-D Shapes"", ,IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. 14, no. 2, JPN6019033595, 1992, pages 239 - 256, XP002809829, ISSN: 0004354855 *
友納正裕: "「エッジ点追跡に基づくステレオカメラを用いた三次元SLAM」", 日本ロボット学会誌, vol. 27巻,7号, JPN6019033598, 2009, pages 759 - 767, ISSN: 0004354857 *

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019044500A1 (ja) * 2017-09-04 2019-03-07 日本電産株式会社 位置推定システム、および当該位置推定システムを備える移動体
JPWO2019044500A1 (ja) * 2017-09-04 2020-10-01 日本電産株式会社 位置推定システム、および当該位置推定システムを備える移動体
WO2019053986A1 (ja) * 2017-09-14 2019-03-21 ソニー株式会社 自己位置推定装置と自己位置推定方法とプログラムおよび移動体装置
JP2019187908A (ja) * 2018-04-26 2019-10-31 株式会社三共 遊技機
JP7166447B2 (ja) 2018-10-31 2022-11-07 ルノー エス.ア.エス. 自動車両の移動ベクトルを決定するための方法、車両の速度を判断するための方法、および関連する車両
JP2022504787A (ja) * 2018-10-31 2022-01-13 ルノー エス.ア.エス. 自動車両の移動ベクトルを決定するための方法、車両の速度を判断するための方法、および関連する車両
CN113508309A (zh) * 2019-03-15 2021-10-15 欧姆龙株式会社 距离图像传感器以及角度信息获取方法
JP2020148700A (ja) * 2019-03-15 2020-09-17 オムロン株式会社 距離画像センサ、および角度情報取得方法
WO2020189071A1 (ja) * 2019-03-15 2020-09-24 オムロン株式会社 距離画像センサ、および角度情報取得方法
JP2020161141A (ja) * 2019-03-27 2020-10-01 エルジー エレクトロニクス インコーポレイティド 移動ロボット及びその制御方法
US11400600B2 (en) 2019-03-27 2022-08-02 Lg Electronics Inc. Mobile robot and method of controlling the same
JP7150773B2 (ja) 2019-03-27 2022-10-11 エルジー エレクトロニクス インコーポレイティド 移動ロボット及びその制御方法
AU2020247141B2 (en) * 2019-03-27 2023-05-11 Lg Electronics Inc. Mobile robot and method of controlling the same
CN112649815A (zh) * 2019-10-10 2021-04-13 华为技术有限公司 处理数据的方法和装置
JPWO2021181686A1 (ja) * 2020-03-13 2021-09-16
WO2021181686A1 (ja) * 2020-03-13 2021-09-16 学校法人 千葉工業大学 自己位置推定装置
JP7199772B2 (ja) 2020-03-13 2023-01-06 学校法人千葉工業大学 自己位置推定装置
JP2021101365A (ja) * 2020-06-22 2021-07-08 北京百度網訊科技有限公司 測位方法、測位装置及び電子機器
JP7258066B2 (ja) 2020-06-22 2023-04-14 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 測位方法、測位装置及び電子機器
US11713970B2 (en) 2020-06-22 2023-08-01 Beijing Baidu Netcom Science Technology Co., Ltd. Positioning method, electronic device and computer readable storage medium

Also Published As

Publication number Publication date
JP6782903B2 (ja) 2020-11-11

Similar Documents

Publication Publication Date Title
JP6782903B2 (ja) 自己運動推定システム、自己運動推定システムの制御方法及びプログラム
CN112785702B (zh) 一种基于2d激光雷达和双目相机紧耦合的slam方法
Ishikawa et al. Lidar and camera calibration using motions estimated by sensor fusion odometry
CN107160395B (zh) 地图构建方法及机器人控制系统
US10334168B2 (en) Threshold determination in a RANSAC algorithm
CN106940186B (zh) 一种机器人自主定位与导航方法及系统
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
CN108020827B (zh) 移动成像平台校准
US11003939B2 (en) Information processing apparatus, information processing method, and storage medium
CN104848858B (zh) 二维码以及用于机器人的视觉-惯性组合导航系统及方法
EP3028252B1 (en) Rolling sequential bundle adjustment
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US10529076B2 (en) Image processing apparatus and image processing method
JP7134012B2 (ja) 視差推定装置及び方法
KR101776620B1 (ko) 검색 기반 상관 매칭을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US8824775B2 (en) Robot and control method thereof
CN110689584A (zh) 多相机环境中主动式刚体的位姿定位方法及相关设备
Muñoz-Bañón et al. Targetless camera-LiDAR calibration in unstructured environments
CN109214254B (zh) 一种确定机器人位移的方法及装置
Cvišić et al. Recalibrating the KITTI dataset camera setup for improved odometry accuracy
CN111998862A (zh) 一种基于bnn的稠密双目slam方法
JP6410231B2 (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
El Bouazzaoui et al. Enhancing RGB-D SLAM performances considering sensor specifications for indoor localization
Herau et al. MOISST: Multimodal Optimization of Implicit Scene for SpatioTemporal Calibration
US20220291009A1 (en) Information processing apparatus, information processing method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201007

R150 Certificate of patent or registration of utility model

Ref document number: 6782903

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250