JP2015215651A - ロボットおよび自己位置推定方法 - Google Patents

ロボットおよび自己位置推定方法 Download PDF

Info

Publication number
JP2015215651A
JP2015215651A JP2014096462A JP2014096462A JP2015215651A JP 2015215651 A JP2015215651 A JP 2015215651A JP 2014096462 A JP2014096462 A JP 2014096462A JP 2014096462 A JP2014096462 A JP 2014096462A JP 2015215651 A JP2015215651 A JP 2015215651A
Authority
JP
Japan
Prior art keywords
class
unit
self
robot
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014096462A
Other languages
English (en)
Inventor
敬介 藤本
Keisuke Fujimoto
敬介 藤本
宣隆 木村
Nobutaka Kimura
宣隆 木村
守屋 俊夫
Toshio Moriya
俊夫 守屋
大樹 藤
Daiki Fuji
大樹 藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2014096462A priority Critical patent/JP2015215651A/ja
Priority to EP15164147.9A priority patent/EP2947533A3/en
Priority to US14/693,282 priority patent/US9802310B2/en
Priority to CN201510212751.4A priority patent/CN105091885B/zh
Publication of JP2015215651A publication Critical patent/JP2015215651A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Abstract

【課題】可動物体が支配的な領域と完全静止物体が支配的な領域との間をロボットが往来する際にも、シームレスな自己位置推定結果を得ることが可能なロボットを提供する。【解決手段】移動体110と、環境内の状況を計測する計測部100と、予め準備しておいた環境内の存在物情報を示す地図に対して計測部の計測データとを照合し移動体の自己位置を算出する自己位置推定部108を備えたロボットにおいて、計測部100によって計測した計測データを予め定義された2つ以上のクラスに分類する分類部101と、クラス毎の存在物の位置を記録したクラス別地図103に対して、分類部101によって分類したクラス別計測データ102を照合し幾何的に一致させることで、それぞれのクラスごとにクラス別自己位置を推定するクラス別自己位置推定部104と、推定した各クラス別自己位置105を統合することで自己位置を求める統合部107を備える。【選択図】図1

Description

本発明は、ロボットおよびロボットのための自己位置推定方法に関する。
ロボットが自律的に空間内を移動し、ある特定の作業を行うためには、周囲環境に対する自己位置を推定する必要がある。その手法の一つとして、ロボットが搭載した距離センサを用いて計測した周囲環境の形状と予め用意した環境地図とを照合する方法が知られている。
また、特許文献1には、時間と共に空間内の物体の配置や形状が変化する領域が存在する場合においてもロボットの動作を継続するため、設定した更新する領域に基づきロボットが環境地図を自動更新する方法が開示されている。
特許第5452442号
特許文献1に記載の地図更新方法は、更新しない領域に存在する完全静止物体をロボットが頻繁に計測可能であることが前提となる。更新する領域が広大で、その領域に対し距離センサの計測範囲が狭い場合、長い間、完全静止物体を計測することなく地図を更新することになり、その領域内では歪んだ地図が作成されてしまう。すると、可動物体が支配的な領域から完全静止物体が支配的な領域へとロボットが抜け出した際に、自己位置推定結果が瞬間的に大きく飛ぶような現象が発生し、ロボットが正常に動作しない可能性があることが課題であった。
そこで本発明は、以上の問題意識の下に開発されたものである。本発明は、可動物体が支配的な領域と完全静止物体が支配的な領域との間をロボットが往来する際にも、シームレスな自己位置推定結果を得ることが可能なロボットを提供することを目的とする。
本願において開始される発明のうち、代表的なものの概要を簡単に説明すれば、下記の通りである。
移動体と、環境内の存在物の形状を計測するセンサと、予め準備しておいた環境内の存在物情報を示す地図に対して前記センサの計測データを照合し前記移動体の自己位置を算出する自己位置推定部を備えたロボットであって、前記ロボットは、前記センサによって計測した計測データを予め定義された2つ以上のクラスに分類する分類部と、前記地図に記録された環境内の存在物情報に対して前記分類部によって分類した前記計測データとを照合し幾何的に一致させることで、それぞれのクラスごとに自己位置を推定するクラス別自己位置推定部と、推定した各自己位置を統合することで自己位置を求める自己位置統合部を備え、前記自己位置ならびに存在物の位置情報に基づき、移動体の制御を行う。
本発明のロボットによれば、可動物体や完全静止物体などのようにクラス分けされた計測データから得られたクラス別の自己位置推定結果を、その存在比率に応じた重み付けなどにより適切に統合することで、可動物体が支配的な領域と完全静止物体が支配的な領域との間をロボットが往来する際にも、シームレスな自己位置推定結果を得ることが可能となる。
全体図 ロボットによる計測事例 計測結果例 分類部 計測データの分類例 地図データ 地図データに対する照合 統合部 移動モードに基づく自己位置認識 移動モード付き統合部 棚付近における自己位置推定 広い空間内での自己位置推定 地図更新 移動前・移動後の計測 移動前・移動後の計測結果 2計測データ間の照合 棚下での自己位置推定 広いエリアでの自己位置推定 他ロボットに囲まれた際の移動 計測結果に基づく移動モード決定 数式 数式
以下、図面を用いて本発明の実施例について述べる。本実施例ではマニピュレータを乗せた移動ロボットが動作する手順を対象とする。
図1は、本実施にかかるロボットを表す概念図である。まず、本発明のロボットは周囲の存在物を計測する計測部100およびロボットの自己位置を推定する自己位置推定部10を備える。前記計測部によって計測した計測データに対し、分類部101によって予め定義された2つ以上のクラスに分類を行い、クラス別計測データ102とする。さらに、各クラスについて存在物の位置情報を示すクラス別地図103を予め用意しておき、前記クラス別計測データ102を、そのクラスに対応する地図103と幾何的に照合することで自己位置を推定するクラス別自己位置推定部104を備える。さらに推定したクラス別自己位置105に対し、各地図間の相対的な位置関係から得られる座標変換量106を加えることで所定の共通座標系に変換し、前記各クラス別自己位置を統合することで、ロボットの自己位置を決定する統合部107を備える。前記統合部によって得られた自己位置を自己位置記憶部108に記憶した上で、制御部109は周囲の存在物の位置をクラス別地図記憶部から読み取り、ロボットが空間内の存在物と衝突しないように移動体110を制御することでロボットを自律移動させる。
図2は、計測部100が周囲に存在する存在物200までの距離を計測する場合の概念図である。ここでは説明のため、計測部100の計測装置としてレーザ201を用いた距離センサを採用することとする。計測部100は照射したレーザ201を周囲の存在物200に当て、その反射光を計測部100が受光することで、照射から受光までの時間によって存在物200までの距離を計測する。これを周囲全方向に対して行うことで、周囲の存在物の形状を計測することが可能となる。また、対象物から返ってきたレーザ光の強さを測る事により対象物の反射強度を得ることもできる。
なお、周囲の存在物を計測するものであれば、レーザに基づく距離センサに限らず、カメラやソナーを用いても良い。カメラを用いた場合、マーカ認識や画像特徴点抽出などを行うことで、存在物の形状や存在物に対する計測部100の相対姿勢を測ることができる。また、計測部は2つ以上のセンサを備えるものでも良い。
図3に計測部100によって周辺の存在物の形状を計測した場合の例を示す。本実施例において計測部100は、周囲に赤外線レーザを照射し、各方向に存在する物体に当たったレーザの反射光を受光し、照射から受光までの時間差により、物体までの距離を計測する。計測部100は、計測方向φを所定の角度分解能δφずつ変化させながらn個のデータを同時に計測する。i番目の計測データの計測方向をφi、計測した距離riとする。その際の距離と方向の組み合わせ(ri, φi)が、計測部100を中心として、計測対象物体を極座標系で表した位置となる。なお、点線矢印で表す計測データ201は計測の際のレーザの軌跡を表し、矢印の終端が計測点位置300となる。細い実線は空間上の存在物200を示し、この物体とぶつかる点線矢印が計測に成功したデータである。細い実線にぶつからなかったレーザは、何も計測できなかったことを示す。太い実線は、最終的に計測された形状301を示す。極座標系で表された位置(ri, φi)から計測部100を原点とした直交座標系(sxi,syi)への変換は数1によって行う。
図4に前記分類部101での処理例を示す。分類部101は形状照合部400と輝度値判定部401を備え、それらの結果を用いて前記計測データを分離する分離部402を備える。形状照合部400は、前記計測部100によって計測した存在物のうち所定の形状と一致するものを探索する。直線形状を探索する場合であれば、計測して得られた存在物の形状に直線を当てはめ、直線上に乗っている領域が一定以上存在する場合に、それを直線として出力する。また、計測した点周囲に他の形状が存在しなければ、その領域を抽出することで、棚の足などの小さな柱を得られる。さらに、輝度値判定部401では、前記計測部100によって得られる計測対象の存在物の反射強度を用い、前記反射強度値が閾値以上であるかどうかによって計測データを分類する。これらの処理によって得られる分類結果を、分離部402によって、それぞれ異なるデータであるクラス別計測データ102として出力する。なお、分類部101では形状照合部400と輝度値判定部401のうちいずれか一方のみを備えるものでも良い。
図5に前記分類部によって分類した結果の例を示す。環境内に、反射強度の高いポール500・壁501・細い柱502があることとする。これを計測部によって計測し、前記ポール500・直線形状501、柱502に分類する。前述のように、まず計測データのうち反射強度の高い計測結果のみを抽出し、ポールを分離し、ポールに関するクラス別計測データ503とする。続いて、残りの計測データより直線成分を探索し、これを分離することで壁を抽出、壁に関するクラス別計測データ504とする。最後に、計測点周辺に他の形状がない物体を探索することで細い柱を抽出し、柱に関するクラス別計測データ505とする。
図6はクラス別地図103の表現方法の概念図である。地図の表現形式として、格子地図600のような細かい格子に分割することとする。但し、空間全体の形状を格子として図示すると、格子の表記が小さくなりすぎるため、格子を用いた説明の際は一部を拡大して示すこととする。地図の座標系は、中心を(0,0)とし、右方向をx軸の正方向、上方向をy軸の正方向とする。なお、地図の座標系はこれに限るものではない。空間内に存在する形状は、黒線として存在物601のように表現する。ここで表現される存在物は、過去の時点で計測し、地図上に記録したものである。続いて、格子における表現の例について説明する。空格子602は、空間内で対応する領域において、何も存在していないことを表す。また、占有格子603は、格子内に物体が存在することを表す。物体が存在するか否かについては、以下に述べる多値の確率の形式として、物体の存在確率を表現する。
本実施例では、空間内の物体の形状を物体の存在確率として地図上に表現する。地図の内部では、投票値によって物体の情報を記録しておき、読み出し時に存在確率に変換する。まず、地図座標系の座標(x,y)における格子セルの値m(x,y)に対し、物体が存在する確率をp(m(x,y))とする。ここでは、p(m)は投票値の値に従うシグモイド関数によって数2のように定義することとする。ここではp(m(x,y))の値から、例えばパラメータとの比較結果に応じて、物体が存在するかどうかを判定する。また、各格子は、投票値m(x,y)を保持しており投票値m(x,y)の値から確率p(m(x,y))を計算する。これらの地図の表現方法は、上記に限定されず、計測した形状を記録できる形式であればよい。本実施例における地図は予め与えるものとし、地図生成技術(Simultaneous Localization and Mapping)などを使って作成できる。
図7に前記クラス別自己位置推定部104によって、周囲の存在物形状を前記クラス別地図103と照合することで計測地点の位置姿勢を推定する例を示す。本処理では、計測部100で計測した計測データの各計測点700が、地図701と幾何的に一致するような回転および並進変換量を探索することにより、計測部100の地図上における位置姿勢を推定できる。地図701の座標系における計測地点の位置姿勢を(x,y,θ)とする。ここで、数1のセンサ座標系で示した計測結果の座標を、地図の座標系(txi,tyi)に変換すると数3となる。地図の座標系は、計測部100の座標系からの線形変換として求まる。上記地図の座標系に変換した結果を地図に幾何学的に合わせ込んだ際の最適な位置(x,y)は数4のようにして求まる。数4の解は、予め最適解に近い初期値を与え、最急降下法などの探索手法で解くことができる。
図8では、前記統合部107が前記クラス別自己位置推定部104によって得た前記クラス別自己位置105を統合する処理を示す。前記クラス別地図103が、それぞれ異なる座標系で記録されている場合、各地図に合わせて推定したクラス別自己位置105も、各地図の座標系で表されたものとなる。そこで、それぞれの自己位置推定結果を統合するため、一つの座標系に変換する必要がある。そこで、地図間の相対的な位置関係から予め所定の座標への座標変換量106(px,py,pθ)を予め求めておき、数5に示すように各自己位置推定結果を変換する。さらに、一つの座標系に変換した各自己位置推定値を、重みテーブル800に記録した重みを用い、自己位置計算部801によって重み付き平均を取ることで自己位置を求め、自己位置記憶部108に記憶する。
ロボットが環境内を移動する際には、場所や状況によって、自己位置を推定する際に優先的に利用すべき存在物を変更できることが望ましい。図9では移動モードに基づく自己位置認識の手順を示す。自己位置記憶部108は、直前に計測した計測結果から得られる自己位置を記憶しているものとする。移動モード判定マップ900には、空間内の各地点について所定のモードを対応づけておき、移動モード判定部901はロボットの位置に対応するモードを算出し、そのモードを前記統合部107に通知する。前記統合部107は通知されたモードに従ってクラス別自己位置を統合する。図10に前記統合部107が所定の移動モードに従って自己位置を算出する際の手順を示す。移動モードは、モードに応じてどのクラスを優先的に自己位置推定に利用するかを示すもので、モード毎に異なる重みテーブル800を用意しておく。図10では3種類のモードを図示するが、3種類に限るものではない。統合部107は各モードに応じてそれぞれ重みテーブル800を記憶しておき、移動モード判定部901によって判定されたモードに対応する重みテーブル800を用いて自己位置を算出する。
図11には棚1100付近における関節型ロボット1101について、前記移動モードの判定例および自己位置推定処理について示す。関節型ロボットが棚内の物品を掴む際には、棚の詳細な位置を知る必要がある。一方、環境内の全ての棚の正確な位置までを事前に地図に記録しておくことは難しく、実際の配置に対して地図に誤差が乗る。そのため、空間全体の地図の参照のみで棚内の物品を把持しようとすると、誤差の影響で棚の物品を把持できない問題が発生する。このため図11のように棚付近において棚に衝突しないように、かつ棚内の物品を掴む場合、その場で計測できる棚位置とロボット位置の相対的な関係が重要となる。よって、この場合、前記重みテーブルについて棚足の重みを大きくすることが重要となる。よって、棚足の重みを大きくした重みテーブルを用意し、棚が設置されている領域に、その重みテーブルに対応する移動モードを前記モード判定マップに登録しておく。
さらに、ロボットが棚内の物品を把持する場合、把持対象の詳細な位置が必要となる。把持対象の正確な位置は未知であることから、ロボットの自己位置と、関節角度情報のみで対象の物品を掴むことは難しい。そこで、ロボットの手先に距離センサを搭載しておき、棚内の計測を行う。棚内の物品を掴む際の移動モードでは、棚内の形状から得られる把持対象物品との相対姿勢に関する自己位置の重みを大きく、ロボットの自己位置および関節角度情報から得られる重みを小さくする。これにより、正確に対象の物品を把持することが可能となる。
図12では広い場所での移動モードの判定例および自己位置推定例を示す。この場合、ロボットは壁1200や棚1100に衝突しないように移動すればよく、棚の詳細な位置を利用する必要がない。その一方で、壁の配置などから得られる、空間全体のおおよそどの位置にいるかという情報が重要となる。そこで、前記重みとして壁の重みを増やし、棚足の重みを減らすことで、壁と棚両方の位置に基づく自己位置推定が可能となる。つまり、図12に示すような広いエリアにおいては、壁に基づく重みテーブルが選択されるように移動モードを選択する。
本実施例では、棚を持ち上げて運ぶ低床型ロボットの移動手順について述べる。
図13に前記地図を計測データに従って更新する手順について述べる。ロボットが棚を運ぶ場合、棚の位置が時間と共に変化する。そのため、環境の形状が変化するため、地図に記載された存在物の位置情報の更新が必要となる。地図の更新では、前記座標変換量106と自己位置記憶部108に記憶された推定済み自己位置によってクラス別自己位置推定105を修正し、修正した自己位置と前記クラス別計測データ102を用い、対応するクラスのクラス別地図103を更新する。更新では、存在物が計測された位置に対応する座標に保存されている投票値m(x,y)を増減させる。それにより、当該位置における物体の存在確率を増減させることができる。格子地図の位置(tx,ty)は、計測した形状と計測時点での計測部100の位置から、数6および数7によって求める。この際の更新度合いに関するパラメータαおよびβは、クラス毎に所定の値を更新度合いテーブル1300に予め入力しておくこととする。
図14から図16では、前記分類部が移動中の他ロボットなどの移動物体を計測データから分離する手順について述べる。図14に2回連続で計測した際の、1回目の環境形状、2回目の環境形状をそれぞれ示す。ここでは、2回目に計測した時点で、右側の丸および長方形は動かない静止物体1400となり、左側の正方形の物体が左に移動する移動物体1401となる、さらにロボット自体も右上に移動した状況であったとする。この状況における2つの計測結果を図15に示す。図15に示すように、ロボットが移動したために計測データの原点が変わったことと、計測された移動物体1500の存在物の配置が変化したことが確認できる。これらの計測データ同士を幾何的に一致するように変換した結果を図16に示す。図16に示すように、形状データ間を幾何的に一致させたうえでデータ間の差分となる部位を抽出することで、抽出された移動物体1600を得られる。本処理を図4で示した前記分類部に加えることで、形状照合に基づいて抽出するクラスと輝度に基づいて抽出するクラスに加えて、移動中の物体を示すクラスに分離できる。
図17に、低床型ロボット1700が棚下において移動モードを判定し、自己位置推定する際の手順について述べる。低床型ロボット1700が棚1701の下にいる場合、棚足1702と接触しないように精度良く移動する必要がある。この場合は、図11に示した場合と同様に棚足1702の重みを大きくすることで、棚足1702に対しての相対姿勢として自己位置を求めることができ、正確に棚足に接触しないような移動が可能となる。
また、距離センサではなくカメラを使う場合は、棚の下面にマーカを張りマーカを観測し、低床型ロボットの位置と棚位置との相対関係を認識してもよい。棚の下にロボットが入っているエリアにおいては、カメラで棚との相対関係の重みを高く、距離センサで得られる自己位置推定結果の重みを低く設定した重みテーブルを選択することで、低床型ロボットは棚の真下での正確な自己位置推定が可能となる。
図18では、広いエリアで自己位置推定した際の様子述べる。広い空間内を移動する際は、図12で述べた例と同じように、壁1800の位置を優先して自己位置推定することが望ましい。この場合は、壁の重みを大きくする重みテーブルを用いることで自己位置推定を行う。
図19は、他のロボット1900が多数存在する環境で自己位置推定を行った様子である。移動物体は地図に記載されていないため、移動物体の情報を用いても自らの空間全体における位置を決定できない。この場合は、前記分類部で分類した移動物体のクラスの重みを小さくし、環境の静止物に対する位置姿勢を求めることで正確な動作が可能となる。
さらに、他ロボット1900の追従を行う場合は、追従対象のロボットの重みを大きくし、そのロボット1900に追従するような制御を移動体に与えることで、対象ロボット1900の追従が可能となる。
図20に計測結果に基づく移動モードの決定手順について述べる。本実施例では、周囲の計測結果を用いて移動モードを判定することとする。本実施例では、クラス別計測データ102を用いて、最も計測データ量が多かったクラスを重視する重みテーブルを選択することで、統合部107が自己位置推定を行う際の重みを決定する。具体的な統合処理は、図9と同様にクラス別自己位置105と座標変換量106を用いて、所定の座標系での自己位置に変換した上で、移動モード判定部901によって決定した重みテーブル800に従い、前記自己位置を統合する。例えば、計測結果として、反射強度の強い存在物が多く計測された場合、そのクラスの自己位置の重みを強くする。
100・・・計測部、10・・・自己位置推定部、101・・・分類部、102・・・クラス別計測データ、103・・・クラス別地図、104・・・クラス別自己位置推定部、105・・・クラス別自己位置、106・・・座標変換量、107・・・統合部、108・・・自己位置記憶部、109・・・制御部、110・・・移動体、200・・・存在物、201・・・レーザ、300・・・計測点位置、301・・・計測された形状、400・・・形状照合部、401・・・輝度値判定部、402・・・分離部、500・・・反射強度の高いポール、501・・・壁、502・・・細い柱、503・・・ポールに関するクラス別計測データ、504・・・壁に関するクラス別計測データ、505・・・柱に関するクラス別計測データ、600・・・格子地図、601・・・存在物、602・・・空格子、603・・・占有格子、計測点・・・700、地図・・・701、800・・・重みテーブル、801・・・自己位置計算部、1100・・・棚、1101・・・関節型ロボット、1200・・・壁、1300・・・更新度合いテーブル、1400・・・静止物体、1401・・・移動物体、1500・・・計測された移動物体、1600・・・抽出された移動物体、1700・・・低床型ロボット、1701・・・棚、1702・・・棚足、1800・・・壁、1900・・・他のロボット

Claims (15)

  1. 空間内の存在物を計測する計測部と、
    予め定められた前記空間内の存在物情報を示す地図データを記憶する記憶部と、
    前記計測部によって取得された計測データと前記地図データとを照合し、前記空間内を移動する移動体の自己位置を算出する自己位置推定部と、
    前記計測データを所定の2以上のクラスに分類したクラス別計測データを取得する分類部と、
    前記クラス毎の存在物の位置を記録したクラス別地図と前記クラス別計測データとを照合し、前記2以上のクラス夫々ごとに前記移動体の自己位置を推定するクラス別自己位置推定部と、
    前記2以上のクラス夫々ごとに推定した自己位置を統合する統合部と、を備え、
    前記統合部からの情報に基づいて、前記移動体の制御を実行する制御部と、
    を備えることを特徴とする特徴とするロボット。
  2. 前記地図は前記クラスごとに予め定められた座標系で記録されたものであって、前記地図に定義された座標系間の相対的な位置関係を座標変換量とし、
    前記統合部は前記座標量に基づき、前記2以上のクラスで推定した夫々の自己位置を統合することを特徴とする請求項1記載のロボット。
  3. 前記統合部は、予め設定された移動モードに従い前記クラスごとの前記自己位置の統合方法を変化させる手段を備えることを特徴とする請求項1または2記載のロボット。
  4. 前記統合部は、前記クラスごとに設定された所定の重みに基づいて前記自己位置を統合する事を特徴とする請求項1から3迄の何れかに記載のロボット。
  5. 前記統合部は、前記クラスごとに設定された所定の優先度に基づいて、優先度の高いクラスによって推定された前記自己位置を用いることを特徴とする請求項1から3迄の何れかに記載のロボット。
  6. 前記空間内の地点毎に所定の移動モードを予め設定した移動モード判定マップを備え、
    前記自己位置に対応する前記移動モード判定マップに記載された前記移動モードを選択する移動モード判定部を備えることを特徴とする請求項3から5迄の何れかに記載のロボット。
  7. 前記移動モード判定部は、前記クラス別計測データのうち最も多くの計測データが得られたクラスの自己位置を判定することを特徴とする請求項6記載のロボット。
  8. 1または複数の関節型ロボットが搭載され、
    前記関節型ロボットは、前記自己位置に基づき制御されることを特徴とする請求項1から7迄の何れかに記載のロボット。
  9. 前記計測部によって新たに計測した存在物の情報を、前記分類部で算出したクラスに基づき、当該クラスに分類される存在物の記録されている地図を更新する更新部を備えることを特徴とすることを特徴とする請求項1から8迄の何れかに記載のロボット。
  10. 前記更新部は、更新度合いを前記クラスに応じて予め与えておき、前記地図を更新する際には前記更新度合いに基づくことを特徴とする請求項9記載のロボット。
  11. 前記計測部は前記空間内の存在物の所定の属性を計測可能であって、
    前記クラスは前記計測部が計測する前記属性について分類されるものであって、前記分類部は前記属性に従ってクラス分けを行うことを特徴とする請求項1から10迄の何れかに記載のロボット。
  12. 前記分類部は、前記計測データから所定の形状との幾何照合を行い、所定の形状と類似した部位を抽出することでクラス分けを行うことを特徴とする請求項1から11迄の何れかに記載のロボット。
  13. 前記分類部は、前記計測データから角および端点に関する特徴点の抽出を行い、
    特徴点同士の間に存在する形状の大きさおよび平面性に応じて分類を行うことを特徴とする請求項11記載のロボット。
  14. 前記クラスは前記空間内に固定された所定の形状の静的物体および柱状の物体に更に分けられ、
    前記分類部は前記計測データの各部位と、前記静的物体および柱状物体とをそれぞれ幾何的に比較し、クラスを決定することを特徴とする請求項1から13迄の何れかに記載のロボット。
  15. 前記クラスは更に移動中の移動物体に更に分類されるものであって、前記分類部は直前に計測した前記計測データとそれ以前に計測した計測データとを比較し、差異があった部位を前記移動物体とすることを特徴とする請求項1から14迄の何れかに記載のロボット。
JP2014096462A 2014-05-08 2014-05-08 ロボットおよび自己位置推定方法 Pending JP2015215651A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014096462A JP2015215651A (ja) 2014-05-08 2014-05-08 ロボットおよび自己位置推定方法
EP15164147.9A EP2947533A3 (en) 2014-05-08 2015-04-17 Robot
US14/693,282 US9802310B2 (en) 2014-05-08 2015-04-22 Mobile robot estimating own position using a class-based own-position estimation unit
CN201510212751.4A CN105091885B (zh) 2014-05-08 2015-04-29 机器人及自身位置推定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014096462A JP2015215651A (ja) 2014-05-08 2014-05-08 ロボットおよび自己位置推定方法

Publications (1)

Publication Number Publication Date
JP2015215651A true JP2015215651A (ja) 2015-12-03

Family

ID=53015527

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014096462A Pending JP2015215651A (ja) 2014-05-08 2014-05-08 ロボットおよび自己位置推定方法

Country Status (4)

Country Link
US (1) US9802310B2 (ja)
EP (1) EP2947533A3 (ja)
JP (1) JP2015215651A (ja)
CN (1) CN105091885B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018020423A (ja) * 2016-08-05 2018-02-08 株式会社日立製作所 ロボットシステム及びピッキング方法
WO2019044498A1 (ja) * 2017-09-04 2019-03-07 日本電産株式会社 移動体、位置推定装置、およびコンピュータプログラム
JP2019160147A (ja) * 2018-03-16 2019-09-19 トヨタ自動車株式会社 自己位置検出装置

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6659599B2 (ja) * 2017-01-10 2020-03-04 株式会社東芝 自己位置推定装置、および自己位置推定方法
JPWO2019064913A1 (ja) * 2017-09-27 2020-10-15 日本電産株式会社 移動体及び生産システム
US11097897B1 (en) * 2018-07-13 2021-08-24 Vecna Robotics, Inc. System and method of providing delivery of items from one container to another container via robot movement control to indicate recipient container
DE102019204837B4 (de) * 2019-04-04 2024-04-18 BSH Hausgeräte GmbH 3D Umfeldabtastung
CN111267103A (zh) * 2020-03-09 2020-06-12 深圳拓邦股份有限公司 机器人初始位置的获取方法、装置、机器人以及存储介质
WO2023068542A1 (ko) * 2021-10-21 2023-04-27 한국전자통신연구원 모바일 로봇의 전역 위치인식을 위한 방법 및 컴퓨팅 장치

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007316924A (ja) * 2006-05-25 2007-12-06 Toyota Motor Corp 自律移動装置
JP2009205226A (ja) * 2008-02-26 2009-09-10 Toyota Motor Corp 自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造
JP2012242967A (ja) * 2011-05-17 2012-12-10 Fujitsu Ltd 地図処理方法及びプログラム、並びにロボットシステム
JP2012248032A (ja) * 2011-05-27 2012-12-13 Fujitsu Ltd 地図処理方法及びプログラム、並びにロボットシステム
WO2013011543A1 (ja) * 2011-07-15 2013-01-24 株式会社日立製作所 自律移動装置およびその制御方法
JP2014056506A (ja) * 2012-09-13 2014-03-27 Toyota Central R&D Labs Inc 障害物検出装置及びそれを備えた移動体

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7774158B2 (en) * 2002-12-17 2010-08-10 Evolution Robotics, Inc. Systems and methods for landmark generation for visual simultaneous localization and mapping
JP2004298977A (ja) * 2003-03-28 2004-10-28 Sony Corp 行動制御装置、行動制御方法及び行動制御プログラム、並びに移動型ロボット装置
US7689321B2 (en) * 2004-02-13 2010-03-30 Evolution Robotics, Inc. Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system
KR100561863B1 (ko) * 2004-02-19 2006-03-16 삼성전자주식회사 가상 센서를 이용한 로봇의 네비게이션 방법 및 장치
JP4261466B2 (ja) * 2004-11-17 2009-04-30 株式会社日立製作所 自律移動装置、並びに物体及び自己位置検出システム
JP4375320B2 (ja) * 2005-10-27 2009-12-02 株式会社日立製作所 移動ロボット
WO2008013568A2 (en) * 2005-12-30 2008-01-31 Irobot Corporation Autonomous mobile robot
CN100449444C (zh) 2006-09-29 2009-01-07 浙江大学 移动机器人在未知环境中同时定位与地图构建的方法
JP5215740B2 (ja) * 2008-06-09 2013-06-19 株式会社日立製作所 移動ロボットシステム
US8855819B2 (en) * 2008-10-09 2014-10-07 Samsung Electronics Co., Ltd. Method and apparatus for simultaneous localization and mapping of robot
CN101509781B (zh) 2009-03-20 2011-09-14 同济大学 基于单目摄像头的步行机器人定位系统
JP5452442B2 (ja) 2010-10-25 2014-03-26 株式会社日立製作所 ロボットシステム及び地図更新方法
US8798840B2 (en) * 2011-09-30 2014-08-05 Irobot Corporation Adaptive mapping with spatial summaries of sensor data
JP6000579B2 (ja) * 2012-03-09 2016-09-28 キヤノン株式会社 情報処理装置、情報処理方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007316924A (ja) * 2006-05-25 2007-12-06 Toyota Motor Corp 自律移動装置
JP2009205226A (ja) * 2008-02-26 2009-09-10 Toyota Motor Corp 自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造
JP2012242967A (ja) * 2011-05-17 2012-12-10 Fujitsu Ltd 地図処理方法及びプログラム、並びにロボットシステム
JP2012248032A (ja) * 2011-05-27 2012-12-13 Fujitsu Ltd 地図処理方法及びプログラム、並びにロボットシステム
WO2013011543A1 (ja) * 2011-07-15 2013-01-24 株式会社日立製作所 自律移動装置およびその制御方法
JP2014056506A (ja) * 2012-09-13 2014-03-27 Toyota Central R&D Labs Inc 障害物検出装置及びそれを備えた移動体

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018020423A (ja) * 2016-08-05 2018-02-08 株式会社日立製作所 ロボットシステム及びピッキング方法
WO2019044498A1 (ja) * 2017-09-04 2019-03-07 日本電産株式会社 移動体、位置推定装置、およびコンピュータプログラム
JPWO2019044498A1 (ja) * 2017-09-04 2020-08-27 日本電産株式会社 移動体、位置推定装置、およびコンピュータプログラム
JP2019160147A (ja) * 2018-03-16 2019-09-19 トヨタ自動車株式会社 自己位置検出装置
JP7077691B2 (ja) 2018-03-16 2022-05-31 トヨタ自動車株式会社 自己位置検出装置

Also Published As

Publication number Publication date
EP2947533A2 (en) 2015-11-25
EP2947533A3 (en) 2016-01-13
CN105091885B (zh) 2018-12-07
US9802310B2 (en) 2017-10-31
US20150321346A1 (en) 2015-11-12
CN105091885A (zh) 2015-11-25

Similar Documents

Publication Publication Date Title
JP2015215651A (ja) ロボットおよび自己位置推定方法
US10549430B2 (en) Mapping method, localization method, robot system, and robot
JP6117901B1 (ja) 複数の物品の位置姿勢計測装置及び該位置姿勢計測装置を含むロボットシステム
WO2019140745A1 (zh) 机器人定位方法及装置
US8380384B2 (en) Apparatus and method for localizing mobile robot
KR101553654B1 (ko) 이동 로봇 및 이동 로봇의 이동 방법
Sadat et al. Feature-rich path planning for robust navigation of MAVs with mono-SLAM
EP2144131B1 (en) Apparatus and method of building map for mobile robot
KR101708061B1 (ko) 제어 장치, 제어 방법 및 기록 매체
KR101493075B1 (ko) 이동 로봇의 위치 인식 장치 및 방법
KR20170088228A (ko) 다중로봇의 자기위치인식에 기반한 지도작성 시스템 및 그 방법
KR102075844B1 (ko) 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템 및 방법
WO2017038012A1 (ja) 地図生成方法、自己位置推定方法、ロボットシステム、およびロボット
JP2010061484A (ja) 移動体および移動体の位置推定誤り状態からの復帰方法
Xie et al. A real-time robust global localization for autonomous mobile robots in large environments
TWI772743B (zh) 資訊處理裝置以及移動機器人
US10902610B2 (en) Moving object controller, landmark, and moving object control method
KR101167627B1 (ko) 이동 로봇의 위치 및 지도의 이중 보정 장치 및 방법
JP5819257B2 (ja) 移動体位置推定方法及び移動体
JP2017217726A (ja) ロボット
JP2021139882A5 (ja)
US20220100201A1 (en) Information processing device and mobile robot
Watkins-Valls et al. Mobile manipulation leveraging multiple views
JP2011511943A (ja) コンピュータを援用してセンサデータから物体の運動を計算する方法
KR100835906B1 (ko) 로봇 전역 위치 추정 방법 및 로봇 전역 위치 추정 장치

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170110

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170112

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171031

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180313

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180911