JP2012064131A - 地図生成装置、地図生成方法、移動体の移動方法、及びロボット装置 - Google Patents

地図生成装置、地図生成方法、移動体の移動方法、及びロボット装置 Download PDF

Info

Publication number
JP2012064131A
JP2012064131A JP2010209657A JP2010209657A JP2012064131A JP 2012064131 A JP2012064131 A JP 2012064131A JP 2010209657 A JP2010209657 A JP 2010209657A JP 2010209657 A JP2010209657 A JP 2010209657A JP 2012064131 A JP2012064131 A JP 2012064131A
Authority
JP
Japan
Prior art keywords
feature amount
map
local
continuous
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010209657A
Other languages
English (en)
Inventor
Osamu Hasegawa
修 長谷川
Hiroshi Morioka
博史 森岡
Noppharit Tongprasit
ノッパリット トンプラシット
Sang-Gyu Yi
想揆 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Institute of Technology NUC
Original Assignee
Tokyo Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Institute of Technology NUC filed Critical Tokyo Institute of Technology NUC
Priority to JP2010209657A priority Critical patent/JP2012064131A/ja
Priority to EP11824727.9A priority patent/EP2618232A4/en
Priority to PCT/JP2011/004840 priority patent/WO2012035707A1/ja
Priority to US13/824,855 priority patent/US9224043B2/en
Publication of JP2012064131A publication Critical patent/JP2012064131A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】たくさんの人が存在する混雑な環境下で地図構築を行う。
【解決手段】ロボットが移動する間に連続して撮影した連続画像を取得する連続画像取得部11と、連続画像から各特徴点における局所特徴量を抽出する局所特徴量抽出部12と、局所特徴量抽出部12により抽出した局所特徴量について、連続する入力画像間でマッチングをとる特徴量マッチング13と、特徴量マッチング部13により所定数連続する画像間でマッチングが取れた局所特徴量の平均を不変特徴量として求める不変特徴量算出部14と、連続画像を取得した各時刻におけるロボットの位置に基づき各不変特徴量に対応する距離情報を算出する距離情報取得部15と、当該不変特徴量及び距離情報を有するハイブリッド地図として、局所メトリカル地図を生成する地図生成部16とを有する。
【選択図】図2

Description

本発明は、複数の連続する連続画像から特徴量を抽出し、これに基づき地図を作成する地図生成装置及び方法、この地図に基づき移動する移動体の移動方法、並びにこの地図生成装置を搭載したロボット装置に関する。
近年のロボット産業の発展に伴い、警備ロボットや介護ロボットなどの、自律移動ロボットの導入が期待されている。一般に、移動ロボットが自律的にナビゲーションを行うためには、障害物の位置情報などを表した地図が必要となる。未知の環境で移動ロボットが自律的に地図構築・自己位置推定を行う問題はSLAM(Simultaneously Localization And Mapping) と呼ばれており、従来から広く研究されてきた。
C.Bibby, I.Reid: "Simultaneous localisation and mapping in dynamic environments (SLAMIDE) with reversible data association", Proc. of Robotics: Scienceand Systems (RSS), 2007 W.Burgard, et al.:"Experiences with an interactive museum tour-guide robot", Arti_cial Intelligence, 114(1-2), 3-55, 1999 C.C.Wang: "Simultaneous Localization, Mapping and Moving Object Tracking", The International Journal of Robotics Research (IJRR), 2007 D.Wolf, G.S.Sukhatme: "Online Simultaneous Localization and Mapping in Dynamic Environments", Proc. of ICRA, 2004 F.T.Ramos, et al.:"Recognising and Modelling Landmarks to Close Loops in Outdoor SLAM", Proc. Of ICRA, 2007 P.Biber, T.Duckett: "Dynamic Maps for Long Term Operation of Mobile Service Robots", Proc. of Robotics: Science and Systems (RSS), 2005
しかしながら、従来のシステムでは、駅構内やショッピングモールのようにたくさんの人が入り乱れている環境下では、安定した地図構築・自己位置推定ができないという問題点がある。
一般的なSLAMの手法では、環境は静的であると仮定して処理を行う。そのため、それらの手法を混雑な環境下で用いた場合、誤って人間のような、動いている物をランドマークとして認識してしまうことによって、地図構築・自己位置推定に誤りが生じ、アルゴリズムが破綻してしまうという問題が起こる。このような問題に対応するためには、大きく分けて2種類の方法が考えられる。1つ目は、動いている物体を陽に扱う方法であり、2つ目は動いている物体を外れ値として取り除いて処理する方法である。
動いている物体を陽に扱う方法としては、例えば非特許文献1では、最小二乗法とEMアルゴリズムを用いることで過去の観測点に対するデータ対応付けのやり直しを可能とし、動的な物体と静的な物体とを同じ枠組みで扱う手法が提案されている。
また、動いている物を外れ値として取り除く方法としては、例えば非特許文献2ではエントロピーフィルタを用い、すでに知っている物と、人のように動いている障害物を分離することで、美術館という人が多い環境下で自己位置推定を行うツアーロボットが提案されたが、事前に正確な地図が与えられている必要があった。
また、非特許文献3、4では動く物体をトラッキングし、SLAMの処理から除外することで、精度の向上を行っている。しかしこれらの研究においては、環境の表現方法や、動いている物と止まっている物の分離方法など、未解決の問題が残されている。
さらに、非特許文献5では、事前に画像データから木などの静的なものを学習しておき、それをランドマークとしてSLAM に利用することで、人や車などの、事前に学習したランドマーク以外の物体による誤差を抑えるという手法がとられている。しかし、事前に画像からランドマークを学習しておく必要があるため、ロボットを違う環境に適応させる際、新しくランドマークを覚えなおす必要がある。
非特許文献6では、障害物の配置の変化など、長い時間尺度での環境の変化による新しい観測データと、過去に訪れた際の観測データとのトレードオフを考え、徐々に地図を修正する手法がとられている。しかし、動いている人のような、短い時間尺度での環境の変化に対するロバスト性については考慮されていなかった。
本発明は、このような問題点を解決するためになされたものであり、たくさんの人が存在する混雑な環境下でオンライン・追加的に地図構築・自己位置推定を行い、人間が教えた道順通りに自律的に移動するロボット装置、移動体の移動方法、当該ロボット装置が使用する地図を生成する地図生成装置及び地図生成方法を提供することを目的とする。
本発明に係る地図生成方法は、移動体が移動する間に連続して撮影した連続画像を取得する連続画像取得工程と、前記連続画像取得工程にて取得された連続画像から各特徴点における局所特徴量を抽出する局所特徴量抽出工程と、前記局所特徴量抽出工程にて抽出された前記局所特徴量について、前記連続する入力画像間でマッチングをとる特徴量マッチング工程と、前記特徴量マッチング工程にて所定数連続する画像間でマッチングが取れた局所特徴量の平均を不変特徴量として求める不変特徴量算出工程と、前記連続画像を取得した各時刻における前記移動体の位置に基づき前記各不変特徴量に対応する距離情報を算出する距離情報取得工程と、当該不変特徴量及び前記距離情報を有するハイブリッド地図として、局所メトリカル地図を生成する地図生成工程とを有するものである。
本発明においては、不変特徴量(PIRF)を算出し、連続画像を取得した各時刻における移動体の位置に基づき各PIRFに対応する距離情報を算出し、PIRFに距離情報を付加してハイブリッド地図である局所メトリカル地図を作成することができる。このハイブリッド地図の作成により、経路計画が容易となり、距離情報を有するため、最短経路の探索など、高度な経路計画を行うことが可能となる。
また、連続する複数の連続画像を取得した各時刻における前記移動体の移動に関する情報と、前記不変特徴量を有する特徴点の前記移動体からの計測方向を示す観測値とから、前記移動体の位置及び姿勢と、前記不変特徴量に対応する特徴点の位置とを求める位置情報取得工程とを有し、前記地図生成工程では、前記移動体の位置及び姿勢、並びに特徴点の位置及びその不変特徴量を有する前記ハイブリッド地図を生成することができる。移動に関する情報と観測値とから移動体の位置及び姿勢と特徴点の位置を求めることができ、これにより、より実用性の高いハイブリッド地図を生成することができる。
さらに、前記位置情報取得工程では、前記不変特徴量を求めた複数の連続画像を取得した各時刻における前記移動に関する情報の系列と、前記観測値の系列とから、確率的に尤もらしい前記移動体の位置及び姿勢、並びに前記特徴点の位置を算出することができ、より正確に移動体の位置及び姿勢と特徴点の位置を算出することができる。
更にまた、前記位置情報取得工程は、xを前記移動体の位置及び姿勢としたとき、前記複数の連続画像間において、前記不変特徴量が各時刻において前記移動体からどの方向に見えるかを示す前記観測値zij、及び前記移動体がxからxi−1まで移動するのに用いた距離情報を示す入力uを取得し、前記観測値zijと前記入力uとから下記式を最小化することで得られる、各時刻における前記移動体の位置及び姿勢、及び前記特徴点の位置を含む前記ハイブリッド地図を作成することができる。PIRFに関する距離情報を求めるために、SWF(Sliding Window Filter)を使用することができる。
を示す。
また、前記不変特徴量と、前記移動体の位置及び姿勢とは、複数枚の連続画像から得られるものであって、前記地図生成工程は、前記移動体の位置及び姿勢及び前記不変特徴量を算出するために使用する連続画像が各時刻において同数となるよう、過去の連続画像を削除すると共に、当該連続画像を削除することで見えなくなる前記不変特徴量を削除する過去画像削除工程を有することができる。これにより、常に計算速度を一定に保つことができる。
さらに、現在の場所が過去に訪れたことがある場所か否かを判定する場所判定工程と、現在の場所が過去に訪れたことがある場所である場合に、前回の前記移動体の位置及び姿勢xLi0と、今回の前記移動体の位置及び姿勢xLiとから、xLi0及びxLiを修正する軌跡修正工程とを有することができる。これにより、より正確な地図を作成することができる。
さらに、前記軌跡修正工程では、下記の式を最小化することで、前記xLi0及びxLiを修正することができる。
ここで、P、Qは、マハラノビス距離を算出する際の共分散、xLiは、i番目に過去に訪れた場所であることが検出された位置、xLi0は、xLiと同じ場所であると認識された場所、Nは、過去に訪れた場所であることが検出された回数、Tは現在までの総ステップ数、vは、xt−1からみたxの相対座標、
x_(t-1)?v_tは、移動体の軌跡xt−1の相対座標上でv移動した場合に到達する位置を示す。
本発明にかかる地図生成装置は、移動体が移動する間に連続して撮影した連続画像を取得する連続画像取得手段と、前記連続画像取得手段により取得した連続画像から各特徴点における局所特徴量を抽出する局所特徴量抽出手段と、前記局所特徴量抽出手段により抽出した前記局所特徴量について、前記連続する入力画像間でマッチングをとる特徴量マッチング手段と、前記特徴量マッチング手段により所定数連続する画像間でマッチングが取れた局所特徴量の平均を不変特徴量として求める不変特徴量算出手段と、前記連続画像を取得した各時刻における前記移動体の位置に基づき前記各不変特徴量に対応する距離情報を算出する距離情報取得手段と、当該不変特徴量及び前記距離情報を有するハイブリッド地図として、局所メトリカル地図を生成する地図生成手段とを有するものである。
本発明にかかる移動体の移動方法は、予め作成された局所メトリカル地図に従って経路計画を行い移動する移動体の移動方法であって、移動体が移動する間に連続画像を取得する連続画像取得工程と、前記連続画像取得工程にて取得された連続画像から各特徴点における局所特徴量を抽出する局所特徴量抽出工程と、前記局所特徴量抽出工程にて抽出された前記局所特徴量について、前記連続する入力画像間でマッチングをとる特徴量マッチング工程と、前記特徴量マッチング工程にて所定数連続する画像間でマッチングが取れた局所特徴量の平均を不変特徴量として求める不変特徴量算出工程と、前記連続画像を取得した各時刻における前記移動体の位置に基づき前記各不変特徴量に対応する距離情報を算出する距離情報取得工程と、算出した不変特徴量及び距離情報と、前記局所メトリカル地図上に登録されている不変特徴量及び距離情報を比較し、現在の位置が登録されているか否かを判定し、登録されている場合は、当該局所メトリカル地図の情報に基づき現在位置の修正を行う軌跡修正工程とを有し、前記局所メトリカル地図は、前記移動体が前記連続画像を取得した各時刻における位置情報に基づき算出された前記各不変特徴量に対応する距離情報と、前記不変特徴量とを有するハイブリッド地図とすることができる。
本発明においては、不変特徴量と距離情報を有するハイブリッド地図によりナビゲーションを実施するため、例えば食堂などの複雑な環境下においても、安定した特徴量が抽出されているため、極めて正確なナビゲーションを実施することができる。
また、前記軌跡修正工程では、現在の場所が前記局所メトリカル地図上に登録されていた場合に、登録されている前記移動体の位置及び姿勢xLearnedi0と、今回の前記移動体の位置及び姿勢xLiとから、xLearnedi0及びxLiを修正することができ、Loop−closingにより、正確なナビゲーションを実施することができる。
さらに、前記軌跡修正工程では、下記の式を最小化することで、前記xLearnedi0及びxLiを修正することができる。
ここで、P、Qは、マハラノビス距離を算出する際の共分散、xLiは、i番目に地図に登録されている場所であることが検出された位置、xLearnedi0は、xLiと同じ場所であると認識された場所、Nは、地図に登録された場所であることが検出された回数、Tは現在までの総ステップ数、vは、xt−1からみたxの相対座標、
x_(t-1)?v_tは、移動体の軌跡xt−1の相対座標上でv移動した場合に到達する位置を示す。
さらにまた、現在の位置が、地図に登録されている場所とどれだけ違うかを示す相対座標を算出する相対座標算出工程を更に有し、前記軌跡修正工程では、前記xLiとして前記相対座標を使用して、前記軌跡の修正を行うことができる。現在の位置と登録位置との相対座標を求めてLoop−Closingすることにより、更に正確なナビゲーションを実施することができる。
本発明にかかるロボット装置は、予め作成された局所メトリカル地図に従って経路計画を行い移動するロボット装置であって、移動体が移動する間に連続画像を取得する連続画像取得手段と、前記連続画像取得手段により取得した連続画像から各特徴点における局所特徴量を抽出する局所特徴量抽出手段と、前記局所特徴量抽出手段により抽出した前記局所特徴量について、前記連続する入力画像間でマッチングをとる特徴量マッチング手段と、前記特徴量マッチング手段により所定数連続する画像間でマッチングが取れた局所特徴量の平均を不変特徴量として求める不変特徴量算出手段と、前記連続画像を取得した各時刻における前記移動体の位置に基づき前記各不変特徴量に対応する距離情報を算出する距離情報取得手段と、算出した不変特徴量及び距離情報と、前記局所メトリカル地図上に登録されている不変特徴量及び距離情報を比較し、現在の位置が登録されているか否かを判定し、登録されている場合は、当該局所メトリカル地図の情報に基づき現在位置の修正を行う軌跡修正手段とを有し、前記局所メトリカル地図は、前記移動体が前記連続画像を取得した各時刻における位置情報に基づき算出された前記各不変特徴量に対応する距離情報と、前記不変特徴量とを有するハイブリッド地図とすることができる。
本発明によれば、たくさんの人が存在する混雑な環境下で地図構築を行い、人間が教えた道順通りに自律的に移動するロボット装置、移動体の移動方法、当該ロボット装置が使用する地図を生成する地図生成装置及び地図生成方法を提供することができる。
本発明の実施の形態1にかかるハイブリッド地図を示す図である。 本発明の実施の形態1にかかる地図生成装置を示す図である。 本発明の実施の形態1にかかる特徴量PIRFを抽出する方法を説明する図である。 本発明の実施の形態1におけるPIRF及び3D−PIRFの概念を示す図である。 本発明の実施の形態1におけるSWFを示す図であって、3D−PIRFを算出方法を説明する図である。 本発明の実施の形態1にかかる地図生成方法を示すフローチャートです。 本発明の実施の形態2にかかる本実施の形態にかかるナビゲーション装置を示すブロック図である。 本発明の実施の形態2における相対座標の算出方法を説明する図である。 本発明の実施の形態2にかかるロボットのナビゲーション方法を示す図である。 本発明の実施の形態2にかかるロボットを示すブロック図である。 本発明の実施例の屋内環境を示す図である。 本発明の実施例の環境の真値地図と、学習フェーズでロボットを移動させた道順を示す図である。 本発明の実施例において、カメラの情報を使わずオドメトリのみから計算したロボットの軌跡を示す図である。 本実施の形態の方法により、ロボットが学習した軌跡を示す図である。 ロボットが自律的に移動した軌跡を示す図である。
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。この実施の形態は、本発明を、局所地図を用いたハイブリッド地図(局所メトリカル地図)を生成する地図生成装置、及びこの局所メトリカル地図を利用してナビゲーションするロボット装置に適用したものである。
本発明においては、たくさんの人が存在する混雑な環境下でオンライン・追加的に地図構築・自己位置推定を行い、人間が教えた道順通りに自律的に移動することを目的としている。
混雑な環境下でも安定な3次元上の特徴点の抽出画像を用いたSLAMにおいて多く用いられている特徴点として、SIFTやコーナー点がある。一般にSIFTやコーナー点などの局所特徴点は対応付けが取りやすく、画像を用いたSLAMに適している。しかし、多くの人が入り乱れる混雑な環境下でロボットが取得した画像からSIFTを抽出すると、ロボットが少し移動しただけで消えてしまうような弱い特徴点や、動いている人物からの特徴点が多く抽出されてしまうという問題があった。そのような不安定な特徴点が多いと、無駄に処理時間が延びるだけでなく、地図構築に悪影響を及ぼすという問題が起こる。
これに対し、本件出願人は、特願2009−200764、特願2010−081027、及び特願2010−115307において、PIRF(Position Invariant Robust Feature)という特徴量を提案している。PIRFは、後述するように、複数枚の連続画像からSIFTを抽出して連続的にマッチングを取り、全ての画像でマッチングが取れた特徴点のみを抽出する手法である。
PIRFはロボットの移動に対して見た目の変化の小さい部分を特徴として抽出することができ、それにともなって、動いている人物などから抽出される見た目の変化の大きい部分の特徴点を除外できるという特徴がある。
ところで、SLAMには大きく分けて、地図を連続的な空間配置で表すメトリカルな手法と、地図が離散的なグラフ構造で表されるトポロジカルな手法と、それらを組み合わせたハイブリッドな手法がある。ハイブリッドな手法では、各ノードが局所的なメトリカル地図の情報を持つようなトポロジカルな地図が構築される。一方、ハイブリッドな手法はグラフ構造を有するため経路計画が容易であり、距離情報も用いることが可能であるため、最短経路の探索など、より高度な経路計画を行うことが可能であるという特徴がある。
そこで、本願発明者等は鋭意実験研究し、上記PIRFを利用して複数の画像データから特徴点を取り出すことで、たくさんの人が存在する混雑な環境下でも安定した特徴点を抽出し、これを3次元空間にマッピングすることで、PIRFを利用したハイブリッド地図を構築する方法を見出した。
本来PIRFは、画像から抽出される画像上の特徴点であり、直接SLAMに適用することはできない。さらに、PIRFは、1枚の画像からではなく、複数枚の連続する連続画像から抽出される特徴量である。したがって、単純には、この特徴量に距離情報を結びつけることができない。そこで、本願発明者等は、鋭意実験研究し、連続画像のSIFTにオドメトリの情報を組み合わせることで、PIRFを3次元空間にマッピングする(3D−PIRF)手法を見出した。
本発明の実施の形態1.
図1は、本実施の形態にかかるハイブリッド地図を示す図である。ロボットの軌跡はノードxとエッジvによるグラフで表され、各ノードは3D−PIRFの位置mと分散Πの情報を有し、各エッジはノード間の相対位置vの情報を有する。なお、vは、xt−1から見たxの相対座標として計算することができる。
まず、本実施の形態にかかる地図生成装置について説明する。図2は、本実施の形態にかかる地図生成装置を示す図である。図2に示すように、本実施の形態にかかる地図生成装置1は、連続画像取得部11、局所特徴量抽出部12、特徴量マッチング部13、不変特徴量算出部14、距離情報取得部15、及び地図生成部16を有する。
連続画像取得部11は、ロボット等の移動体が移動する間に連続して撮影した連続画像を取得する。局所特徴量抽出部12は、連続画像取得部11により取得した連続画像から各特徴点における局所特徴量を抽出する。特徴量マッチング部13は、局所特徴量抽出部12により抽出した局所特徴量について、連続する入力画像間でマッチングをとる。不変特徴量算出部14は、特徴量マッチング部13により所定数連続する画像間でマッチングが取れた局所特徴量の平均を不変特徴量として求める。距離情報取得部15は、連続画像を取得した各時刻におけるロボットの位置(座標等)に基づき各不変特徴量に対応する距離情報を算出する。地図生成部16は、この不変特徴量及び距離情報を有するハイブリッド地図として、局所メトリカル地図を生成する。
ここで、距離情報取得部15又は地図生成部16は、連続する複数の連続画像を取得した各時刻におけるロボットの移動に関する情報と、不変特徴量(PIRF)を有する特徴点のロボットからの計測方向を示す観測値とから、ロボットの位置及び姿勢と、PIRFに対応する特徴点の位置とを求める位置情報取得部(不図示)を有している。これにより、地図生成部16は、ロボットの位置及び姿勢、並びに特徴点の位置及びそのPIRFを有するハイブリッド地図を生成することができる。
また、位置情報取得部は、PIRFを求めた複数の連続画像を取得した各時刻におけるロボットに関する情報の系列と、観測値の系列とから、確率的に最も尤もらしいロボットの位置及び姿勢、並びに特徴点の位置を算出する。このロボットの位置及び姿勢、特徴点の位置の求め方についての詳細は後述する。
以下、本実施の形態にかかる地図生成装置1について、詳細い説明する。先ず最初に、不変特徴量であるPIRFの算出方法について説明する。上述したように、本件出願人は、先に特願2009−200764、特願2010−081027、及び特願2010−115307により、PIRFの算出方法について開示している。
PIRFは、近くの対象については撮影位置や撮影時間帯の変化による見え方の差(特徴量変化)が大きいが、遠くの対象については変化が小さい(ランドマークの特徴量はあまり変化しない)ことに着目し、混雑下でも誤認識しにくい特徴量として考えられたものである。
簡単には、連続画像間で局所特徴のマッチングを行い、予め定めた枚数間で、連続してマッチングのとれている特徴を選択し、選択された特徴において、それとマッチングのとれている全特徴の平均を特徴量PIRFとして抽出・記述するものである。
先ず、連続画像取得部11は、連続画像を取得する。PIRFは、複数枚の連続画像から抽出される特徴量であるため、入力としては、連続する画像、すなわちビデオ画像が必要となり、例えば全方位画像を使用することができる。PIRFで要求される連続画像とは、ある画像セットであって、一定のフレームで、例えば1秒毎に2フレームなど、毎秒毎に連続的に撮影されたビデオ画像をいう。すなわち、ビデオからキャプチャされた画像は一般的に連続的であり、PIRFにおける連続画像は、ビデオ画像を使用したものでなければならない。画像の取得率は、カメラの速度に応じて設定される。たとえば、カメラが車に搭載されていた場合、カメラの速度は1分間に約1000m/分であり、ビデオからキャプチャされる連続画像はおよそ50乃至100フレーム/秒となる。
図3は、本実施の形態にかかる特徴量PIRFを抽出する方法を説明する図である。局所特徴量抽出部12は、既存の局所特徴量抽出方法を使用して局所特徴量を抽出する。局所特徴量抽出部12は、例えば、SIFT(Scale Invariant Feature Transformation)、又はSURF(Speed Up Robustness Features)の特徴量を使用することができる。または、これらSIFTやSURFに限らず、他の局所特徴量を使用することができることは勿論である。特に、スケール、回転の変動、又はノイズ等に対してロバストな他の局所特徴量を用いることが好ましい。これらの局所特徴量を用いることで、既存の特徴量が有する性能もそのまま引き継がれ、照明変化等にも頑健な特徴として抽出・記述することが可能となる。ここで、i番目のエリアにおける全方位画像の数をnとし、その中でj番目の画像から抽出された局所特徴量の集合をU とする。ここでは、局所特徴量はu→で表す。
次に、特徴量マッチング部13が、連続する2枚の画像間全てについて局所特徴量u→を構成する各特徴量のマッチングを行う。すなわち、j=q番目の画像の全局所特徴量について、j=q+1番目の画像の全局所特徴量に対してマッチングを行う。ここでは、それぞれマッチングのとれた特徴へのインデックスをマッチング結果ベクトルm →として求める。
ここで、マッチング方法の一例について、SIFTを例にとって説明する。画像Iから抽出される特徴をvとする。この特徴vが次の画像Ia+1の特徴v'とマッチングするか否かを判定する。先ず、特徴vと画像Ia+1から抽出した全ての特徴との間のドット積(dot product)を求める。そして、最も類似する特徴vfirstと、2番目に類似する特徴vsecondを求めるために、この結果をソートする。もし、
(vfirst・v)/(vsecond・v)>θ
が成立する場合、マッチングのとれた特徴v'=vfirstと判定する。ここで、閾値θはたとえば0.6とすることができる。上記が成立しない場合は、画像Iにおける特徴vにマッチングする特徴は、画像Ia+1には存在しないと判定する。
図3に示すように、各入力画像から6つの局所特徴量が抽出された場合について説明する。これら6つの局所特徴量間でマッチングを取り、マッチングが取れた場合にのみ、マッチングが取れた特徴量へのインデックスを付す。例えば、m →の1番目の局所特徴量は、m →の3番目の局所特徴量とマッチングがとれていることを示し、m →の3番目の特徴量は、m →の6番目の特徴量とマッチングが取れていることを示す。
次に、連続特徴量選択部(不図示)は、連続特徴量を選択する。先ず、いくつのm →を使用して連続特徴量を求めるかを決定する。このm →の数を、本明細書においては、ウィンドウサイズwともいう。また、このウィンドウサイズwに含まれるm →の集合を、サブプレイスという。ここで、ウィンドウサイズwが大きいほどより頑健な、識別力の高い連続特徴量のみを抽出できるが、大きすぎると特徴数が極端に少なくなってしまう。また、小さすぎると、頑健ではない、識別力のないような特徴量も抽出してしまうので、目的等に応じて最適な大きさとする必要がある。
本実施の形態においては、ウィンドウサイズwを3とする。したがって、連続する4枚の入力画像を使用して連続特徴量を求める。すなわち、図2に示すように、1番目のサブプレイスには、m →、m →、m →が含まれ、入力画像I、I、I、Iが対応する。なお、インデックスの数が0の場合は、次にマッチングする特徴量がないことを示す。よって、図2の場合、1番目のサブプレイスには、3つの連続特徴量が含まれることになる。
連続特徴量選択部23は、ウィンドウサイズwを設定したらこのウィンドウwをひとつずつずらしながら、そのウィンドウサイズに含まれる全方位画像4枚内で共通して出現する特徴を連続特徴量として抽出する。ウィンドウサイズwを設定したら、連続特徴量を抽出するために用いる関数を以下のように定義する。ただし、bは注目するインデックスベクトルの番号とする。
そして、全てのマッチング結果ベクトルm →について、f(mx,y )を計算し、f(mx,y )>0となるときの局所特徴量ux,y →のみを抽出する。入力画像の数がn、ウィンドウサイズがwのとき、サブプレイスの数は、n−w+1となる。なお、このウィンドウサイズは、可変であってもよく、周りの状況等に合わせて、適宜変更してもよい。
不変特徴量算出部14は、同一ウィンドウグループであるサブプレイス内においてマッチングがとれた局所特徴量の平均を求める。これらの平均値からなるベクトルによりPIFR辞書が構成される。全サブプレイス(n−w+1)個から抽出された(n−w+1)個のサブプレイスPIRF辞書(D ,j≦n−w+1)をPIRF辞書(D)に登録する。このPIRF辞書を構成する、マッチングがとれた局所特徴量の平均各がPIRFである。
このように抽出されたPIRFは各画像から抽出されたSIFT特徴点のうち、すべての隣り合った画像間でマッチングがとれた特徴点として抽出されるため、見た目の変化の大きい部分の特徴点を除外することができる。
次に、このPIRFを使用して局所メトリカル地図を生成する方法について説明する。図1に戻って、先ず、連続画像とオドメトリから3D−PIRFを算出する(S101)。ここで、3D−PIRFを抽出するためには、特徴点の3次元位置を計算する必要があるが、3D−PIRFは、過去数ステップの観測データを用いるため、ロボット等の移動体の現在の状態しか保持しないカルマンフィルタなどの手法と組み合わせることができない。
そこで、本実施の形態においては、SWF(Sliding Window Filter)を用いる。SWFは、一定期間よりも古い姿勢・特徴点を消去していくことで、計算時間を一定に保つことができるという特徴がある。これを用いることで、3D−PIRFの3次元位置を計算することができ、連続画像とオドメトリの情報から3D−PIRFを抽出することが可能となる。この3D−PIRFは複数のステップにおいて、取得された連続画像と、各ステップ間のオドメトリの情報から、3次元上の特徴点として抽出される。なお、本実施の形態においては、PIRFと位置情報を結びつける手段としてSWFの手法を用いるが、PIRFを用いたハイブリッド地図を作成できればよく、その他の方法を用いてもよい。
図4は、PIRF及び3D−PIRFの概念を示す図である。各時刻における連続画像のSIFTからPIRFが算出されると共に、各時刻におけるロボットなどの移動体の位置(座標)及び姿勢(角度)、オドメトリ、各時刻における移動体からみた特徴点に観測値(移動体に対する特徴点の角度)から、3D−PIRFが算出される。
図5は、SWFを示す図であって、3D−PIRFを算出方法を説明する図である。ベクトルx=[x ,・・・,x ]は、各時刻での移動体(ロボット)の位置及び姿勢を示す。zijは、ロボットの姿勢jから観測した特徴点iの観測値を示す。観測値とは、特徴点のロボットからの計測方向を示し、ロボットに対する特徴点の角度として表わされる。また、uは、ロボットがある位置及び姿勢xi−1から次の位置及び姿勢(次の時刻の位置及び姿勢)xまで移動するのに用いた入力を示す。この入力とは、例えば、車輪型のロボットであれば、車輪に与えられたスピード及び回転数を示し、これらの値により、距離を算出することができる。
SWFは、入力の系列u=[u1,・・・,um−1]Tと、観測値z=[z11,・・・,znm]Tから、事後確率p(x,m│u,z)を最大化する
まず、x、m、u、zの同時確率は、以下のようになる。
ここで、p(x)は、ロボットの位置と姿勢に関する事前分布、p(m)は、地図に関する事前分布、p(x│xt−1,u)は、姿勢xt−1で入力uが加わった時のxの動作モデル、p(z│x,m)は、ロボットの位置xから特徴点mを見たときの観測値zの計測モデルである。
これらを、それぞれ以下のようなガウス分布と仮定する。
fは動作モデル、hは観測モデルを示す。
以上の設定の下、以下の(8)式を最小化することにより、最大事後確率となるx^、m^を求めることができる。
この(8)式を最適化することにより、x^、m^と、それに対応する共分散(共分散行列Π^)を求めることができる。
次に、これらの値を用いて、ロボットの状態と各特徴点の相対的な位置関係(局所地図)が登録されたハイブリッド地図17を構築する。
先ず、特徴点の位置m^と、その共分散行列Π^を、局所地図として保存する。特徴点の位置m^及び共分散行列Π^を各ステップで保存していくことで、ハイブリッド地図のノード(局所地図)を構築することができる。
また、ハイブリッド地図のエッジが有する情報である、ノード間の相対位置を求める。この相対位置は、まず、(8)式を最小化することで、上記のようにロボットの位置・姿勢x^を求めることができる。それによって、各時刻でのロボットの位置及び姿勢xが求められる。これにより、下記式(9)
によってxt−1から見たxの相対座標vを求めることができる。式(9)は、xt−1から見たxの相対座標を示している。この相対座標vをエッジの情報として保存する。以上の処理により、ハイブリッド地図を構築することができる。
次に、本実施の形態においては、ロボットの位置及び姿勢及びPIRFを算出するために使用する連続画像が各時刻において同数となるよう、過去の連続画像を削除すると共に、当該連続画像を削除することで見えなくなるPIRFを削除する。
なお、ロボットの位置及び姿勢及びPIRFは、複数の連続画像から算出するが、この複数の連続画像の枚数は可変であってもよい。例えば、特徴量が特に多い場所では、連続画像の枚数を増やしたり、逆に、特徴量が少ない場所では、連続画像の枚数を減らしたりすることも可能である。
ここで、ある時刻でロボットの位置及び姿勢及びPIRFを算出し、次の時刻でロボットの位置及び姿勢及びPIRFを算出する際に、もっとも過去の連続画像を破棄することができる。これにより、メモリ容量を減らし、演算速度を一定に保つことができる。
これは、SWFにおいては、marginalizing outと呼ばれる手法である。marginalizing out は、過去のロボットの姿勢、その姿勢から見えていた特徴点を周辺化によって削除する処理であり、この処理によって、計算で扱われるロボットの姿勢数Mが常に一定となり、各ステップの計算時間を一定に保つことができる。
以上のように、過去数ステップ分の観測値を用いることができるSWFを用いることで、特徴量としてPIRFを用いた地図を構築することが可能となる。なお、本実施の形態においては、ロボットは各ステップごとに、特徴点の位置m^をロボットから見た相対座標上に座標変換したものと、その共分散を、局所地図として保存することで、各ノードが局所地図を表すハイブリッド地図を構築する。このように3次元上の特徴点である3D−PIRFを用いることで、後述するように、人の多い混雑な環境下でもロバストに、かつ特徴点の位置情報を用いたSLAMナビゲーションを行うことが可能となる。
次に、本実施の形態にかかる地図生成部16は、現在の場所が過去に訪れたことがある場所か否かを判定し、現在の場所が過去に訪れたことがある場所である場合に、前回の移動体の位置及び姿勢xLi0と、今回の移動体の位置及び姿勢xLiとから、xLi0及びxLiを修正する。これを、Loop−Closingという(図1,S102)。
一般的にSLAMにおいては、移動距離が長くなるほど誤差が蓄積していくという問題がある。したがって、これを修正する必要がある。地図の誤差修正を行うためには、現在いる場所が過去に訪れたことのある場所かどうかを認識する必要がある。
過去に一度訪れたことがある場所であれば、局所メトリカル地図が構築されている。局所メトリカル地図には、その位置におけるPIRFが保存されている。ロボット装置は、連続画像を取り込む各タイミング(ノード)において、PIRFを算出し、保存されている各ノードのPIRFと一致するか否かを判定する。例えば、90%以上の特徴量が一致した場合、その位置は、過去に訪れたことがある位置であると判定することができる。なお、判定基準は、90%に限らず、90%以下でも以上であってもよい。
そして、過去に訪れた場所であると判定された場合は、下記数(10)を最小化することで、xLi0及びxLiを修正する。
ここで、P、Qは、マハラノビス距離を算出する際の共分散、xLiは、i番目に過去に訪れた場所であることが検出された位置、xLi0は、xLiと同じ場所であると認識された場所、Nは、過去に訪れた場所であることが検出された回数、Tは現在までの総ステップ数、vは、xt−1からみたxの相対座標、
は、移動体の軌跡xt−1の相対座標上でv移動した場合に到達する位置を示す。この(10)式を最小化することにより、軌跡x=[x ,・・・,x ]の修正を行うことができる。また、Loop−Closingが検出された位置では、地図の事前分布として、前に訪れた際に構築した局所地図の特徴点の位置を(8)式のmの平均に代入し、共分散をΠに代入することで、過去の局所マップを考慮した地図構築を行うことができる。このように過去の局所地図と現在の観測データを組み合わせることで、局所地図の精度の向上を行うことが可能となる。
次に、本実施の形態にかかる地図生成方法について説明する。図6は、本実施の形態の地図生成方法を示すフローチャートです。地図は、例えば、連続画像を取得できる移動体が移動しながら連続画像を取得しつつ、順次構築することができる。ここでは、ロボットが連続画像を取得しながら、地図を構築する例について説明する。当該ロボットには、図2に示す地図生成装置が搭載されている。なお、ロボットの構成例については、後述する。
図6に示すように、先ず、連続画像を取得する(ステップS1)。次に、局所特徴量抽出部12は、複数の連続画像のSIFTを計算する(ステップS2)。特徴量マッチング部13が各連続画像間でSIFTのマッチングを取り、不変特徴量算出部14が、マッチングが取れたSIFTの平均値をPIRFとして算出する。
これと並行して、距離情報取得部15又は地図生成部16の有する位置情報取得部は、上記(8)式を最小化し、最大事後確率x^、m^及びそれに対応する共分散を算出する(ステップS4)。
ここで、最大事後確率算出の際には、例えば、ロボットの位置x、x、xの地点で撮影された3つの連続画像を使用するとする。この場合、次の最大事後確率及びPIRFの算出には、ロボットの位置x、x、xの地点で撮影された3つの連続画像を使用し、地点xの連続画像は使用しない。そして、このxの地点の連続画像が含まれないことで、認識されなくなったPIRFも削除される。いいかえれば、過去のロボットの姿勢、その姿勢から見えていた特徴点を周辺化によって削除する(ステップS4)。これにより、計算で扱われるロボットの姿勢数Mが常に一定となり、各ステップの計算時間を一定に保つ。
地図生成部16は、ステップS3で得られた最大事後確率x^、m^及びそれに対応する共分散を用いて、ロボットの状態と各特徴点の相対的な位置関係(局所地図)を構築する(ステップS5)。
ここで、ロボットは、常に、現在の場所が過去に訪れたことがある場所か否かの判断を行っている(ステップS6)。ロボットは、連続画像を取得した各地点におけるPIRFの情報を有している。したがって、ロボットは移動しながらPIRFを算出するが、算出したPIRFが、保有しているPIRFと一致するか否かの判定を行っている。例えば90%以上のPIRFが一致した場所を、過去に訪れたことがある場所と判定する。
過去に訪れたことがある場所と判定された場合は、上記(9)式を最小化することで、軌跡xの修正を行う(ステップS7)。移動距離が長くなると、誤差が蓄積してしまうが、このステップS7(Loop−closing)を実施することで、蓄積する誤差をリセットすることができる。そして、以上のステップS1乃至S7の処理を繰り返すことで、所望の地図を生成することができる。なお、ステップS7を実行するために、地図を作成する場合は、同一の経路を2回通る必要がある。これにより、より精度が高い地図を生成することができる。ただし、1回通ったのみで精度が高い地図が得られる場合は、ステップS7の処理を省略することも可能である。
本発明の実施の形態2.
次に、実施の形態2について説明する。本実施の形態においては、動いている物体を取り除いて処理する方法として、画像から混雑な環境下でも安定な3次元上の特徴点を抽出し、その特徴点を用いることで、ロバストにSLAM・ナビゲーションを行う。その一例として本実施の形態においては、ロボットが、実施の形態1で作成した局所メトリカル地図を用いて、ナビゲーションする方法について説明する。
図7は、本実施の形態にかかるナビゲーション装置を示すブロック図である。図7に示すように、ナビゲーション装置は、連続画像取得部31、局所特徴量抽出部32、特徴量マッチング部33、不変特徴量算出部34、位置情報取得部35、地図生成部36、及び相対座標算出部37を有し、局所メトリカル地図格納部40に接続され、局所メトリカル地図が参照可能に構成されている。ここで、相対座標算出部37以外の構成は、実施の形態1と同様であり、その動作も同様である。
このナビゲーション装置30は、実施の形態1同様、ロボットに搭載される。ロボットは、始点と終点が与えられると、局所メトリカル地図格納部40の局所メトリカル地図を参照し、経路計画を立てる。そして、その経路計画にしたがって、始点から終点まで移動する。その際、移動しながら、上述のステップS1乃至ステップS6までの処理を実施し、ナビゲーションフェーズにおいても、ハイブリッド地図17を生成する。
なお、ステップS7までの処理を繰り返し、軌道を修正しながら、終点まで移動することも可能である。ここで、本実施の形態にかかるナビゲーション装置30は、相対座標算出部37を有している。この相対座標算出部37は、ステップS6を実施し、現在の位置が過去に訪れた位置であると判定した場合、現在の位置が、過去における位置とどれだけずれているかを示す相対座標を算出する。
図8は、相対座標の算出方法を説明する図である。図8において、局所メトリカル地図を生成する際に通った位置をx、x、xとする。現在の位置をx'とする。この場合、現在の位置x'から見た特徴点m、mの位置は、(8)式を最小化することで得られる。局所メトリカル地図には、位置xからの特徴点m、mの位置の情報を含む。したがって、現在の位置x'が、過去の位置xからどれだけずれているかを算出することができる。
例えば、現在の位置x'=x+αとすると、相対位置αは、観測データから相対座標を計算できる任意のアルゴリズムを用いることで計算することができる。この任意のアルゴリズムとしては、5点アルゴリズム、8点アルゴリズム等がある(Richard I. Hartley: "In Defense of the Eight-Point Algorithm," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.19, No.6, pp.580-583(1997))。
例えば、8点アルゴリズムは、図8において、xとx'の観測データ(特徴点の位置)を比較し、相対姿勢を求めるための手法である。8点アルゴリズムによって相対座標αが計算された場合には、以下の(11)式を最小化することによって軌跡を修正することができる。
ここで、αは8点アルゴリズムによって計算されたxLiと、xLearnedi0との間の相対姿勢を示す。また、P、Qは、マハラノビス距離を算出する際の共分散、xLiは、i番目に地図に登録されている場所であることが検出された位置、xLearnedi0は、xLiと同じ場所であると認識された場所であり、固定値である。Nは、地図に登録された場所であることが検出された回数、Tは現在までの総ステップ数、vは、xt−1からみたxの相対座標、
は、移動体の軌跡xt−1の相対座標上でv移動した場合に到達する位置を示す。
このように、本実施の形態においては、単に(11)式を最小化して軌跡の修正を行うのではなく、現在の位置x'と、局所メトリカル地図に登録されている過去の位置xとの相対座標を算出し、これを使用して、(11)式を最小化することにより、より精度よく、ナビゲーションを行うことができる。
図9は、本実施の形態にかかるロボットのナビゲーション方法を示す図である。図9において、ステップS11乃至S16は、実施の形態1における図6のステップS1乃至S6と同様である。すなわち、実施の形態1と同様、3D−PIRFを算出し、現在の位置が過去に訪れた位置であるかの判定を行う(ステップS16)。そして、現在の位置が過去に訪れた位置である場合は、現在の位置と過去の位置の相対座標を算出する(ステップS17)。そして、この相対座標を、(11)式に代入し、これを最小化することで、軌跡xの修正を行う(ステップS18)。その後は、ステップS11からの処理を繰り返す。
ナビゲーションフェーズでは、学習フェーズで教えられた道順通りにロボットが自律的に移動する。移動ロボットは学習フェーズと同様にハイブリッド地図を構築しながら移動するが、ナビゲーションフェーズでは、教えられた道順通りに移動するために、学習フェーズで学習したハイブリッド地図と現在のハイブリッド地図それぞれの軌跡と局所マップを比較し、学習した軌跡の方向にロボットの位置を修正することで、学習した軌跡に追従するように行動計画を行う。
このようなナビゲーションを行うロボットの一例について説明しておく。図10は、本実施の形態にかかるロボットを示すブロック図である。ロボット50は、制御部51、入出力部52、駆動部53、電源部54、及び外部記憶部55などを有している。
入出力部52は、周囲の映像を取得するためのCCD(Charge Coupled Device)などからなるカメラ61、周囲の音を集音するための1又は複数の内蔵マイク62、音声を出力してユーザと対話等を行なうためのスピーカ63、ユーザへの応答や感情等を表現するためのLED64、タッチセンサなどからなるセンサ部65などを備える。
また、駆動部53は、モー71及びモータを駆動するドライバ72などを有し、ユーザの指示などに従って脚部ユニットや腕部ユニットを動作させる。電源部54は、バッテリ81及びその放充電を制御するバッテリ制御部82を有し、各部に電源を供給する。
外部記憶部55は、着脱可能なHDD、光ディスク、光磁気ディスク等からなり、各種プログラムや制御パラメータなどを記憶し、そのプログラムやデータを必要に応じて制御部101内のメモリ(不図示)等に供給する。
制御部は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、無線通信用のインターフェースなどを有し、ロボット50の各種動作を制御する。そして、この制御部51は、例えばROMに格納された制御プログラムに従って、カメラ61により取得した映像を解析することによりハイブリッド地図を生成する地図生成モジュール41、生成したハイブリッド地図に基づき、経路計画を行なう経路計画モジュール42、始点と終点を与えられると経路計画に従ってナビゲーションするナビゲーションモジュール43、音声認識を行なう音声認識モジュール44などを有する。特に、本実施の形態においては、地図生成モジュール41により、複雑な環境下でも安定な特徴点を抽出したハイブリッド地図が生成され、これに基づき経路計画を立て、行動を決定し、駆動部53を制御するため、ロボット50はより正確にナビゲーションを行うことができる。
実施例
20m×20m程度の屋内環境で地図生成を行った。図11にその環境を示す。この環境は食堂であり、常に多くの人が出入りし、混雑している。このような常に人が出入りする環境の場合、従来の手法では動いている人から抽出される特徴点が悪影響を与え、ロバストにSLAM・ナビゲーションを行うことができなかった。
一方、本実施例では、混雑な環境下でもロバストにSLAM・ナビゲーションを行えるという特徴がある。まず学習フェーズでは、全方位カメラとエンコーダセンサを搭載したロボットが人間の操縦によって、上述の方法を用いて自己位置推定と地図構築を行いながら移動する。図12は環境の真値地図と、学習フェーズでロボットを移動させた道順を表しており、まず左下の実線で示した小さいループA1を2周、次に右上に移動し、そこから点線で示した大きなループA2を2周、最後に右上の一点鎖線で示した小さいループA3を2周させた。
図13は以上の経路に対して、カメラの情報を使わずオドメトリのみから計算したロボットの軌跡である。図13において、B1は、スタート地点、B2は、ゴール地点を表しており、ルートはスタート地点から徐々に色が薄くなるように描かれている。この図から、オドメトリのみから計測した場合には移動距離が延びるほど自己位置推定の誤差が溜まり、正しい軌跡が学習できていないことがわかる。
一方、図14は、本実施の形態の方法により、ロボットが学習した軌跡である。図14において、丸印は過去に訪れたことがあると認識(Loop−Closing検出)された位置を表している。この図から、移動距離が延びても誤差が溜まっておらず、ルートを正しく学習出来ていることが分かる。
次にナビゲーションフェーズでは、学習フェーズで学習した軌跡に沿うように、ロボットが自律的に移動する。図15は、ロボットが自律的に移動した軌跡である。今回は左下C1から右上C2まで移動するように経路計画を行った。図15において、学習フェーズで学習した軌跡をD1で、ロボットが移動した軌跡をD2で示しており、学習フェーズで学習した軌跡に対してLoop−Closing検出がされた位置を丸で示している。この図から、ロボットは学習フェーズで学習した左下C1から右上C2に至る経路に沿うように自律的に移動し、ゴール地点まで到達できていることがわかる。
なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
例えば、上述の実施の形態では、ハードウェアの構成として説明したが、これに限定されるものではなく、任意の処理を、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。この場合、コンピュータプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
1 地図生成装置
11 連続画像取得部
12 局所特徴量抽出部
13 特徴量マッチング部
14 不変特徴量算出部
15 距離情報取得部
16 地図生成部
30 ナビゲーション装置
31 連続画像取得部
32 局所特徴量抽出部
33 特徴量マッチング部
34 不変特徴量算出部
35 距離情報取得部
36 地図生成部
37 相対座標算出部
40 局所メトリカル地図格納部
541 地図生成モジュール
542 経路計画モジュール
543 ナビゲーションモジュール
544 音声認識モジュール
50 ロボット
51 制御部
552 入出力部
553 駆動部
554 電源部
555 外部記憶部
561 カメラ
562 内蔵マイク
563 スピーカ
565 センサ部
571 モータ
572 ドライバ
581 バッテリ
582 バッテリ制御部

Claims (15)

  1. 移動体が移動する間に連続して撮影した連続画像を取得する連続画像取得工程と、
    前記連続画像取得工程にて取得された連続画像から各特徴点における局所特徴量を抽出する局所特徴量抽出工程と、
    前記局所特徴量抽出工程にて抽出された前記局所特徴量について、前記連続する入力画像間でマッチングをとる特徴量マッチング工程と、
    前記特徴量マッチング工程にて所定数連続する画像間でマッチングが取れた局所特徴量の平均を不変特徴量として求める不変特徴量算出工程と、
    前記連続画像を取得した各時刻における前記移動体の位置に基づき前記各不変特徴量に対応する距離情報を算出する距離情報取得工程と、
    当該不変特徴量及び前記距離情報を有するハイブリッド地図として、局所メトリカル地図を生成する地図生成工程とを有する、地図生成方法。
  2. 連続する複数の連続画像を取得した各時刻における前記移動体の移動に関する情報と、前記不変特徴量を有する特徴点の前記移動体からの計測方向を示す観測値とから、前記移動体の位置及び姿勢と、前記不変特徴量に対応する特徴点の位置とを求める位置情報取得工程とを有し、
    前記地図生成工程では、前記移動体の位置及び姿勢、並びに特徴点の位置及びその不変特徴量を有する前記ハイブリッド地図を生成する、請求項1記載の地図生成方法。
  3. 前記位置情報取得工程では、前記不変特徴量を求めた複数の連続画像を取得した各時刻における前記移動に関する情報の系列と、前記観測値の系列とから、確率的に尤もらしい前記移動体の位置及び姿勢、並びに前記特徴点の位置を算出する、請求項2記載の地図生成方法。
  4. 前記位置情報取得工程は、xを前記移動体の位置及び姿勢としたとき、前記複数の連続画像間において、前記不変特徴量が各時刻において前記移動体からどの方向に見えるかを示す前記観測値zij、及び前記移動体がxからxi−1まで移動するのに用いた距離情報を示す入力uを取得し、前記観測値zijと前記入力uとから下記式を最小化することで得られる、各時刻における前記移動体の位置及び姿勢、及び前記特徴点の位置を含む前記ハイブリッド地図を作成する、請求項2又は3記載の地図生成方法。
    を示す。
  5. 前記不変特徴量と、前記移動体の位置及び姿勢とは、複数枚の連続画像から得られるものであって、
    前記地図生成工程は、前記移動体の位置及び姿勢及び前記不変特徴量を算出するために使用する連続画像が各時刻において同数となるよう、過去の連続画像を削除すると共に、当該連続画像を削除することで見えなくなる前記不変特徴量を削除する過去画像削除工程を有する、請求項2乃至4のいずれか1項記載の地図生成方法。
  6. 現在の場所が過去に訪れたことがある場所か否かを判定する場所判定工程と、
    現在の場所が過去に訪れたことがある場所である場合に、前回の前記移動体の位置及び姿勢xLi0と、今回の前記移動体の位置及び姿勢xLiとから、xLi0及びxLiを修正する軌跡修正工程とを有する、請求項2乃至4のいずれか1項記載の地図生成方法。
  7. 前記軌跡修正工程では、下記式を最小化することで、前記xLi0及びxLiを修正する請求項6記載の地図生成方法。
  8. 移動体が移動する間に連続して撮影した連続画像を取得する連続画像取得手段と、
    前記連続画像取得手段により取得した連続画像から各特徴点における局所特徴量を抽出する局所特徴量抽出手段と、
    前記局所特徴量抽出手段により抽出した前記局所特徴量について、前記連続する入力画像間でマッチングをとる特徴量マッチング手段と、
    前記特徴量マッチング手段により所定数連続する画像間でマッチングが取れた局所特徴量の平均を不変特徴量として求める不変特徴量算出手段と、
    前記連続画像を取得した各時刻における前記移動体の位置に基づき前記各不変特徴量に対応する距離情報を算出する距離情報取得手段と、
    当該不変特徴量及び前記距離情報を有するハイブリッド地図として、局所メトリカル地図を生成する地図生成手段とを有する、地図生成装置。
  9. 連続する複数の連続画像を取得した各時刻における前記移動体の移動に関する情報と、前記不変特徴量を有する特徴点の前記移動体からの計測方向を示す観測値とから、前記移動体の位置及び姿勢と、前記不変特徴量に対応する特徴点の位置とを求める位置情報取得工程とを有し、
    前記地図生成手は、前記移動体の位置及び姿勢、並びに特徴点の位置及びその不変特徴量を有する前記ハイブリッド地図を生成する、、請求項8記載の地図生成装置。
  10. 前記位置情報取得手段は、前記不変特徴量を求めた複数の連続画像を取得した各時刻における前記移動に関する情報の系列と、前記観測値の系列とから、確率的に最も尤もらしい前記移動体の位置及び姿勢、並びに前記特徴点の位置を算出する、請求項9記載の地図生成装置。
  11. 予め作成された局所メトリカル地図に従って経路計画を行い移動する移動体の移動方法であって、
    移動体が移動する間に連続画像を取得する連続画像取得工程と、
    前記連続画像取得工程にて取得された連続画像から各特徴点における局所特徴量を抽出する局所特徴量抽出工程と、
    前記局所特徴量抽出工程にて抽出された前記局所特徴量について、前記連続する入力画像間でマッチングをとる特徴量マッチング工程と、
    前記特徴量マッチング工程にて所定数連続する画像間でマッチングが取れた局所特徴量の平均を不変特徴量として求める不変特徴量算出工程と、
    前記連続画像を取得した各時刻における前記移動体の位置に基づき前記各不変特徴量に対応する距離情報を算出する距離情報取得工程と、
    算出した不変特徴量及び距離情報と、前記局所メトリカル地図上に登録されている不変特徴量及び距離情報を比較し、現在の位置が登録されているか否かを判定し、登録されている場合は、当該局所メトリカル地図の情報に基づき現在位置の修正を行う軌跡修正工程とを有し、
    前記局所メトリカル地図は、前記移動体が前記連続画像を取得した各時刻における位置情報に基づき算出された前記各不変特徴量に対応する距離情報と、前記不変特徴量とを有するハイブリッド地図である、移動体の移動方法。
  12. 前記軌跡修正工程では、現在の場所が前記局所メトリカル地図上に登録されていた場合に、登録されている前記移動体の位置及び姿勢xLearnedi0と、今回の前記移動体の位置及び姿勢xLiとから、xLearnedi0及びxLiを修正する、請求項11記載の移動体の移動方法。
  13. 前記軌跡修正工程では、下記式を最小化することで、前記xLearnedi0及びxLiを修正する請求項12記載の移動体の移動方法。
  14. 現在の位置が、地図に登録されている場所とどれだけ違うかを示す相対座標を算出する相対座標算出工程を更に有し、
    前記軌跡修正工程では、前記xLiとして前記相対座標を使用して、前記軌跡の修正を行う、請求項13記載の移動体の移動方法。
  15. 予め作成された局所メトリカル地図に従って経路計画を行い移動するロボット装置であって、
    移動体が移動する間に連続画像を取得する連続画像取得手段と、
    前記連続画像取得手段により取得した連続画像から各特徴点における局所特徴量を抽出する局所特徴量抽出手段と、
    前記局所特徴量抽出手段により抽出した前記局所特徴量について、前記連続する入力画像間でマッチングをとる特徴量マッチング手段と、
    前記特徴量マッチング手段により所定数連続する画像間でマッチングが取れた局所特徴量の平均を不変特徴量として求める不変特徴量算出手段と、
    前記連続画像を取得した各時刻における前記移動体の位置に基づき前記各不変特徴量に対応する距離情報を算出する距離情報取得手段と、
    算出した不変特徴量及び距離情報と、前記局所メトリカル地図上に登録されている不変特徴量及び距離情報を比較し、現在の位置が登録されているか否かを判定し、登録されている場合は、当該局所メトリカル地図の情報に基づき現在位置の修正を行う軌跡修正手段とを有し、
    前記局所メトリカル地図は、前記移動体が前記連続画像を取得した各時刻における位置情報に基づき算出された前記各不変特徴量に対応する距離情報と、前記不変特徴量とを有するハイブリッド地図である、ロボット装置。
JP2010209657A 2010-09-17 2010-09-17 地図生成装置、地図生成方法、移動体の移動方法、及びロボット装置 Pending JP2012064131A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2010209657A JP2012064131A (ja) 2010-09-17 2010-09-17 地図生成装置、地図生成方法、移動体の移動方法、及びロボット装置
EP11824727.9A EP2618232A4 (en) 2010-09-17 2011-08-30 Map generation device, map generation method, method for moving mobile body, and robot device
PCT/JP2011/004840 WO2012035707A1 (ja) 2010-09-17 2011-08-30 地図生成装置、地図生成方法、移動体の移動方法、及びロボット装置
US13/824,855 US9224043B2 (en) 2010-09-17 2011-08-30 Map generation apparatus, map generation method, moving method for moving body, and robot apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010209657A JP2012064131A (ja) 2010-09-17 2010-09-17 地図生成装置、地図生成方法、移動体の移動方法、及びロボット装置

Publications (1)

Publication Number Publication Date
JP2012064131A true JP2012064131A (ja) 2012-03-29

Family

ID=45831202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010209657A Pending JP2012064131A (ja) 2010-09-17 2010-09-17 地図生成装置、地図生成方法、移動体の移動方法、及びロボット装置

Country Status (4)

Country Link
US (1) US9224043B2 (ja)
EP (1) EP2618232A4 (ja)
JP (1) JP2012064131A (ja)
WO (1) WO2012035707A1 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013537995A (ja) * 2010-09-24 2013-10-07 エボリューション・ロボティクス・インコーポレイテッド Vslam最適化のためのシステムおよび方法
JP2016167126A (ja) * 2015-03-09 2016-09-15 Kddi株式会社 情報端末装置
JP2016534450A (ja) * 2013-08-12 2016-11-04 フライバイ・メディア・インコーポレイテッドFlyby Media, Inc. 視覚に基づく慣性ナビゲーション
WO2017145711A1 (ja) * 2016-02-24 2017-08-31 Soinnホールディングス合同会社 特徴量抽出方法及び特徴量抽出装置
JP2017162457A (ja) * 2016-03-11 2017-09-14 株式会社東芝 画像分析システムおよび方法
JP2018120460A (ja) * 2017-01-26 2018-08-02 学校法人千葉工業大学 移動軌跡算定システム、移動軌跡算定システムの制御方法及びプログラム
WO2019082670A1 (ja) * 2017-10-25 2019-05-02 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び、移動体
JP2019212196A (ja) * 2018-06-08 2019-12-12 株式会社ミツバ 制御装置及び制御方法
JP2019537077A (ja) * 2017-08-16 2019-12-19 北京極智嘉科技有限公司 指標を使用した同時位置決め地図作成ナビゲーション方法、装置及びシステム
JP2020030568A (ja) * 2018-08-22 2020-02-27 株式会社ダイヘン 移動体
CN111292420A (zh) * 2020-02-28 2020-06-16 北京百度网讯科技有限公司 用于构建地图的方法和装置
JP2020135595A (ja) * 2019-02-22 2020-08-31 株式会社豊田中央研究所 グラフ構造推定装置、slam装置、グラフ構造推定方法、コンピュータプログラム、および記憶媒体

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8798840B2 (en) * 2011-09-30 2014-08-05 Irobot Corporation Adaptive mapping with spatial summaries of sensor data
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US9324245B2 (en) * 2012-12-13 2016-04-26 Korea Institute Of Industrial Technology Apparatus and method for creating artificial feelings
US9211645B2 (en) * 2012-12-13 2015-12-15 Korea Institute Of Industrial Technology Apparatus and method for selecting lasting feeling of machine
WO2015006784A2 (en) 2013-07-12 2015-01-15 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US10533850B2 (en) 2013-07-12 2020-01-14 Magic Leap, Inc. Method and system for inserting recognized object data into a virtual world
US9964409B1 (en) * 2014-05-27 2018-05-08 Apple Inc. Localized map generation
GB2529847B (en) * 2014-09-03 2018-12-19 Dyson Technology Ltd A mobile Robot with Independently Adjustable Light Sources
GB2541884A (en) 2015-08-28 2017-03-08 Imp College Of Science Tech And Medicine Mapping a space using a multi-directional camera
GB2552648B (en) 2016-07-22 2020-09-16 Imperial College Sci Tech & Medicine Estimating dimensions for an enclosed space using a multi-directional camera
US10274325B2 (en) * 2016-11-01 2019-04-30 Brain Corporation Systems and methods for robotic mapping
KR20180070932A (ko) * 2016-12-19 2018-06-27 삼성전자주식회사 이동체 및 이동체의 제어 방법
CN110226186B (zh) * 2016-12-26 2023-08-04 宝马股份公司 表示地图元素的方法和装置以及定位的方法和装置
WO2018148574A1 (en) * 2017-02-09 2018-08-16 Google Llc Agent navigation using visual inputs
US10990829B2 (en) * 2017-04-28 2021-04-27 Micro Focus Llc Stitching maps generated using simultaneous localization and mapping
GB201718507D0 (en) 2017-07-31 2017-12-27 Univ Oxford Innovation Ltd A method of constructing a model of the motion of a mobile device and related systems
CN108038139B (zh) * 2017-11-10 2021-08-13 未来机器人(深圳)有限公司 地图构建方法、装置和机器人定位方法、装置、计算机设备和存储介质
CN108256463B (zh) * 2018-01-10 2022-01-04 南开大学 基于esn神经网络的移动机器人场景识别方法
JP7047576B2 (ja) * 2018-04-27 2022-04-05 株式会社豊田中央研究所 地図作成装置
WO2019210978A1 (en) * 2018-05-04 2019-11-07 Huawei Technologies Co., Ltd. Image processing apparatus and method for an advanced driver assistance system
CN110727265B (zh) * 2018-06-28 2022-09-23 深圳市优必选科技有限公司 机器人重定位的方法、装置以及存储装置
KR102147211B1 (ko) * 2018-10-22 2020-08-24 엘지전자 주식회사 인공지능 이동 로봇의 제어 방법
CN109541612A (zh) * 2018-11-09 2019-03-29 同济大学 基于单线激光雷达识别柱状物的机器人室内自定位系统
CN111260779B (zh) * 2018-11-30 2022-12-27 华为技术有限公司 地图构建方法、装置及系统、存储介质
CN111080703B (zh) * 2019-12-31 2022-05-27 芜湖哈特机器人产业技术研究院有限公司 基于直线匹配的移动机器人重定位方法
US11501334B2 (en) * 2020-01-09 2022-11-15 Walmart Apollo, Llc Methods and apparatuses for selecting advertisements using semantic matching
CN111248815B (zh) * 2020-01-16 2021-07-16 珠海格力电器股份有限公司 一种工作地图的生成方法、装置、设备及存储介质
CN112162551B (zh) * 2020-09-10 2021-11-16 珠海格力电器股份有限公司 障碍物探测方法、装置、设备及计算机可读介质
CN112464989B (zh) * 2020-11-02 2024-02-20 北京科技大学 一种基于目标检测网络的闭环检测方法
CN113490146B (zh) * 2021-05-08 2022-04-22 湖南大学 一种基于WiFi与视觉融合的SLAM方法
US20230097749A1 (en) * 2021-09-30 2023-03-30 Woven Alpha, Inc. Vehicle data collection system and method of using

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2689455B2 (ja) * 1988-01-14 1997-12-10 株式会社豊田自動織機製作所 画像式無人車の走行経路決定方法
US7546117B2 (en) * 2005-06-08 2009-06-09 At&T Mobility Ii Llc Method and apparatus for blocking ID information associated with a sender of a short messaging service (SMS) message
JP4824362B2 (ja) * 2005-08-01 2011-11-30 本田技研工業株式会社 移動ロボットの制御装置
US8352208B2 (en) * 2005-12-15 2013-01-08 Yamaguchi University Method for evaluating tree production capacity, image capture device for evaluating tree production capacity, and program for evaluating tree production capacity
JP5103216B2 (ja) 2008-02-21 2012-12-19 株式会社オーディオテクニカ リボン型マイクロホンユニットおよびリボン型マイクロホン
JP2010009370A (ja) * 2008-06-27 2010-01-14 Kansai Electric Power Co Inc:The 移動体制御システムおよび移動体制御方法
JP2010033447A (ja) 2008-07-30 2010-02-12 Toshiba Corp 画像処理装置および画像処理方法
US8127999B2 (en) * 2008-08-14 2012-03-06 Visa U.S.A. Inc. Wireless mobile communicator for contactless payment on account read from removable card
JP2010081027A (ja) 2008-09-24 2010-04-08 Nippon Telegr & Teleph Corp <Ntt> 通信装置
JP2010115307A (ja) 2008-11-12 2010-05-27 Sozosha:Kk モイスチャ処理装置
JP2010209657A (ja) 2009-03-12 2010-09-24 Katsuhiro Kamijo 樹脂サッシのリフォーム構造

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9286810B2 (en) 2010-09-24 2016-03-15 Irobot Corporation Systems and methods for VSLAM optimization
US9910444B2 (en) 2010-09-24 2018-03-06 Irobot Corporation Systems and methods for VSLAM optimization
JP2013537995A (ja) * 2010-09-24 2013-10-07 エボリューション・ロボティクス・インコーポレイテッド Vslam最適化のためのシステムおよび方法
JP2016534450A (ja) * 2013-08-12 2016-11-04 フライバイ・メディア・インコーポレイテッドFlyby Media, Inc. 視覚に基づく慣性ナビゲーション
US10152795B2 (en) 2013-08-12 2018-12-11 Apple Inc. Visual-based inertial navigation
JP2016167126A (ja) * 2015-03-09 2016-09-15 Kddi株式会社 情報端末装置
WO2017145711A1 (ja) * 2016-02-24 2017-08-31 Soinnホールディングス合同会社 特徴量抽出方法及び特徴量抽出装置
JPWO2017145711A1 (ja) * 2016-02-24 2018-04-05 Soinnホールディングス合同会社 特徴量抽出方法及び特徴量抽出装置
US10366305B2 (en) 2016-02-24 2019-07-30 Soinn Inc. Feature value extraction method and feature value extraction apparatus
JP2017162457A (ja) * 2016-03-11 2017-09-14 株式会社東芝 画像分析システムおよび方法
JP2018120460A (ja) * 2017-01-26 2018-08-02 学校法人千葉工業大学 移動軌跡算定システム、移動軌跡算定システムの制御方法及びプログラム
JP2019537077A (ja) * 2017-08-16 2019-12-19 北京極智嘉科技有限公司 指標を使用した同時位置決め地図作成ナビゲーション方法、装置及びシステム
WO2019082670A1 (ja) * 2017-10-25 2019-05-02 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び、移動体
JPWO2019082670A1 (ja) * 2017-10-25 2020-11-12 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び、移動体
JP2019212196A (ja) * 2018-06-08 2019-12-12 株式会社ミツバ 制御装置及び制御方法
JP2020030568A (ja) * 2018-08-22 2020-02-27 株式会社ダイヘン 移動体
JP2020135595A (ja) * 2019-02-22 2020-08-31 株式会社豊田中央研究所 グラフ構造推定装置、slam装置、グラフ構造推定方法、コンピュータプログラム、および記憶媒体
JP7031625B2 (ja) 2019-02-22 2022-03-08 株式会社豊田中央研究所 グラフ構造推定装置、slam装置、グラフ構造推定方法、コンピュータプログラム、および記憶媒体
CN111292420A (zh) * 2020-02-28 2020-06-16 北京百度网讯科技有限公司 用于构建地图的方法和装置
JP2021140780A (ja) * 2020-02-28 2021-09-16 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 地図作成のためのコンピュータ実施方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム
US11417014B2 (en) * 2020-02-28 2022-08-16 Beijing Baidu Netcom Science And Technology Co., Ltd. Method and apparatus for constructing map
JP7150917B2 (ja) 2020-02-28 2022-10-11 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 地図作成のためのコンピュータ実施方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム
CN111292420B (zh) * 2020-02-28 2023-04-28 北京百度网讯科技有限公司 用于构建地图的方法和装置

Also Published As

Publication number Publication date
US9224043B2 (en) 2015-12-29
EP2618232A4 (en) 2017-03-29
US20130216098A1 (en) 2013-08-22
EP2618232A1 (en) 2013-07-24
WO2012035707A1 (ja) 2012-03-22

Similar Documents

Publication Publication Date Title
WO2012035707A1 (ja) 地図生成装置、地図生成方法、移動体の移動方法、及びロボット装置
Li et al. Deep sensor fusion between 2D laser scanner and IMU for mobile robot localization
US10939791B2 (en) Mobile robot and mobile robot control method
US11340610B2 (en) Autonomous target following method and device
Sim et al. A study of the Rao-Blackwellised particle filter for efficient and accurate vision-based SLAM
Gross et al. Shopbot: Progress in developing an interactive mobile shopping assistant for everyday use
WO2018111920A1 (en) System and method for semantic simultaneous localization and mapping of static and dynamic objects
US11348276B2 (en) Mobile robot control method
JP2020505614A (ja) 1つ以上の慣性センサからの向き情報を補正する装置および方法
JP6187623B1 (ja) 自律移動装置、自律移動方法及びプログラム
JP7339314B2 (ja) 室内測位および追跡のための深層スマートフォンセンサ融合
EP3644154B1 (en) Controlling method for artificial intelligence moving robot
Ishihara et al. Deep radio-visual localization
Lekkala et al. Accurate and augmented navigation for quadcopter based on multi-sensor fusion
Bazeille et al. Combining odometry and visual loop-closure detection for consistent topo-metrical mapping
Zhao et al. Building a grid-point cloud-semantic map based on graph for the navigation of intelligent wheelchair
KR102601141B1 (ko) 이미지 센서와 복수의 지자기 센서를 융합하여 위치 보정하는 이동 로봇 장치 및 제어 방법
Clark et al. Increasing the efficiency of 6-DoF visual localization using multi-modal sensory data
Koenig et al. A graph matching technique for an appearance-based, visual slam-approach using rao-blackwellized particle filters
Juan et al. A method to generate stable, collision free configurations for tensegrity based robots
Chella et al. Automatic place detection and localization in autonomous robotics
Li et al. Robust target detection, tracking and following for an indoor mobile robot
Nowicki Non-metric constraints in the graph-based optimization for personal indoor localization
Chame et al. Embodied localization in visually-guided walk of humanoid robots
Muravyev et al. PRISM-TopoMap: Online Topological Mapping with Place Recognition and Scan Matching