JP2021077287A - 自己位置推定モデル学習方法、自己位置推定モデル学習装置、自己位置推定モデル学習プログラム、自己位置推定方法、自己位置推定装置、自己位置推定プログラム、及びロボット - Google Patents

自己位置推定モデル学習方法、自己位置推定モデル学習装置、自己位置推定モデル学習プログラム、自己位置推定方法、自己位置推定装置、自己位置推定プログラム、及びロボット Download PDF

Info

Publication number
JP2021077287A
JP2021077287A JP2019205691A JP2019205691A JP2021077287A JP 2021077287 A JP2021077287 A JP 2021077287A JP 2019205691 A JP2019205691 A JP 2019205691A JP 2019205691 A JP2019205691 A JP 2019205691A JP 2021077287 A JP2021077287 A JP 2021077287A
Authority
JP
Japan
Prior art keywords
self
position estimation
bird
eye view
local image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019205691A
Other languages
English (en)
Other versions
JP7322670B2 (ja
Inventor
真衣 黒瀬
Mai Kurose
真衣 黒瀬
竜 米谷
Ryo Yonetani
竜 米谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2019205691A priority Critical patent/JP7322670B2/ja
Priority to EP20886244.1A priority patent/EP4060445A4/en
Priority to CN202080076842.9A priority patent/CN114698388A/zh
Priority to PCT/JP2020/039553 priority patent/WO2021095463A1/ja
Priority to US17/774,605 priority patent/US20220397903A1/en
Publication of JP2021077287A publication Critical patent/JP2021077287A/ja
Application granted granted Critical
Publication of JP7322670B2 publication Critical patent/JP7322670B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/243Means capturing signals occurring naturally from the environment, e.g. ambient optical, acoustic, gravitational or magnetic signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/247Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons
    • G05D1/249Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons from positioning sensors located off-board the vehicle, e.g. from cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】自己位置推定対象の自己位置を推定するのが従来困難であった動的な環境においても、自己位置推定対象の自己位置を推定することができる。【解決手段】自己位置推定モデル学習装置10は、動的な環境において自己位置推定対象からの視点で撮影された局所画像と、自己位置推定対象を俯瞰した位置から撮影された俯瞰画像であって、前記局所画像と同期した俯瞰画像と、を時系列で取得する取得部30と、時系列で取得された局所画像及び俯瞰画像を入力として、自己位置推定対象の位置を出力する自己位置推定モデルを学習する学習部32と、を含む。【選択図】図3

Description

本発明は、自己位置推定モデル学習方法、自己位置推定モデル学習装置、自己位置推定モデル学習プログラム、自己位置推定方法、自己位置推定装置、自己位置推定プログラム、及びロボットに関する。
従来の特徴点ベースの自己位置推定(Simultaneously Localization and Mapping:SLAM)アルゴリズム(例えば非特許文献1参照)では、3次元空間における静的な特徴点を複数の視点で観測することにより、回転や並進のような移動情報を算出する。
しかし、群衆シーンなど動物体及び遮蔽が多く含まれる環境下では幾何制約が破綻し、安定した位置復元ができず、マップ上での自己位置を頻繁に見失ってしまう(例えば非特許文献2参照)。
この他に動物体を扱う方法として、動物体の動きを陽にモデル化する方法や、動物体に相当する箇所の影響を低減するような誤差関数を用いるロバスト推定手法があるが、何れも群衆のような複雑かつ密な動的環境では適用することができない。
また、非特許文献1記載の技術に代表される特徴点ベースのSLAMでは、シーンの特徴点からVisual Vocabraryを作成し、それをデータベースに保存することで同一なシーンを認識することができる。
また、非特許文献3、4には、俯瞰画像と局所画像からそれぞれ特徴抽出を行い、局所画像がそれぞれ俯瞰画像のどのブロックに対応するかを検索可能にする技術が開示されている。
ORB-SLAM2: an Open-Source {SLAM} System for Monocular, Stereo and {RGB-D} Cameras https://128.84.21.199/pdf/1610.06475.pdf Getting Robots Unfrozen and Unlost in Dense Pedestrian Crowds https://arxiv.org/pdf/1810.00352.pdf [N.N+,ECCV’16] Localizing and Orienting Street Views Using Overhead Imagery https://lugiavn.github.io/gatech/crossview_eccv2016/nam_eccv2016.pdf [S.Workman+,ICCV’15] Wide-Area Image Geolocalization with Aerial Reference Imagery https://www.cv-foundation.org/openaccess/content_iccv_2015/papers/Workman_Wide-Area_Image_Geolocalization_ICCV_2015_paper.pdf
しかしながら、上記非特許文献3、4記載の技術では、何れも静的なシーン間での画像類似度のみをマッチングの手がかりとするため、マッチング精度は低く、候補領域が大量に出てきてしまう。
本発明は、上記の点に鑑みてなされたものであり、自己位置推定対象の自己位置を推定するのが従来困難であった動的な環境においても、自己位置推定対象の自己位置を推定することができる自己位置推定モデル学習方法、自己位置推定モデル学習装置、自己位置推定モデル学習プログラム、自己位置推定方法、自己位置推定装置、自己位置推定プログラム、及びロボットを提供することを目的とする。
開示の第1態様は、自己位置推定モデル学習方法であって、コンピュータが、動的な環境において自己位置推定対象からの視点で撮影された局所画像と、前記自己位置推定対象を俯瞰した位置から撮影された俯瞰画像であって、前記局所画像と同期した俯瞰画像と、を時系列で取得する取得工程と、時系列で取得された前記局所画像及び前記俯瞰画像を入力として、前記自己位置推定対象の位置を出力する自己位置推定モデルを学習する学習工程と、を含む処理を実行する。
上記第1態様において、前記学習工程は、前記局所画像に基づいて第1の軌跡情報を算出すると共に、前記俯瞰画像に基づいて第2の軌跡情報を算出する軌跡情報算出工程と、前記第1の軌跡情報に基づいて第1の特徴量を算出すると共に、前記第2の軌跡情報に基づいて第2の特徴量を算出する特徴量算出工程と、前記第1の特徴量と前記第2の特徴量との距離を算出する距離算出工程と、前記距離に基づいて前記自己位置推定対象の位置を推定する推定工程と、前記第1の特徴量と前記第2の特徴量との類似度が高いほど距離が小さくなるように前記自己位置推定モデルのパラメータを更新する更新工程と、を含むようにしてもよい。
上記第1態様において、前記特徴量算出工程は、前回推定された前記自己位置推定対象の位置の近傍の領域から選択された複数の部分領域における前記第2の軌跡情報に基づいて前記第2の特徴量を算出し、前記距離算出工程は、前記複数の部分領域毎に前記距離を算出し、前記推定工程は、前記複数の部分領域毎に算出した前記距離のうち、最も距離が小さい部分領域の予め定めた位置を前記自己位置推定対象の位置として推定してもよい。
開示の第2態様は、自己位置推定モデル学習装置であって、動的な環境において自己位置推定対象からの視点で撮影された局所画像と、前記自己位置推定対象を俯瞰した位置から撮影された俯瞰画像であって、前記局所画像と同期した俯瞰画像と、を時系列で取得する取得部と、時系列で取得された前記局所画像及び前記俯瞰画像を入力として、前記自己位置推定対象の位置を出力する自己位置推定モデルを学習する学習部と、を含む。
開示の第3態様は、自己位置推定モデル学習プログラムであって、コンピュータに、動的な環境において自己位置推定対象からの視点で撮影された局所画像と、前記自己位置推定対象を俯瞰した位置から撮影された俯瞰画像であって、前記局所画像と同期した俯瞰画像と、を時系列で取得する取得工程と、時系列で取得された前記局所画像及び前記俯瞰画像を入力として、前記自己位置推定対象の位置を出力する自己位置推定モデルを学習する学習工程と、を含む処理を実行させるためのプログラムである。
開示の第4態様は、自己位置推定方法であって、コンピュータが、動的な環境において自己位置推定対象からの視点で撮影された局所画像と、前記自己位置推定対象を俯瞰した位置から撮影された俯瞰画像であって、前記局所画像と同期した俯瞰画像と、を時系列で取得する取得工程と、時系列で取得された前記局所画像及び前記俯瞰画像と、上記第1態様に記載の自己位置推定モデル学習方法により学習された自己位置推定モデルと、に基づいて、前記自己位置推定対象の自己位置を推定する推定工程と、を含む処理を実行する。
開示の第5態様は、自己位置推定装置であって、動的な環境において自己位置推定対象からの視点で撮影された局所画像と、前記自己位置推定対象を俯瞰した位置から撮影された俯瞰画像であって、前記局所画像と同期した俯瞰画像と、を時系列で取得する取得部と、時系列で取得された前記局所画像及び前記俯瞰画像と、上記第2態様に記載の自己位置推定モデル学習装置により学習された自己位置推定モデルと、に基づいて、前記自己位置推定対象の自己位置を推定する推定部と、を含む。
開示の第6態様は、自己位置推定プログラムであって、コンピュータに、動的な環境において自己位置推定対象からの視点で撮影された局所画像と、前記自己位置推定対象を俯瞰した位置から撮影された俯瞰画像であって、前記局所画像と同期した俯瞰画像と、を時系列で取得する取得工程と、時系列で取得された前記局所画像及び前記俯瞰画像と、上記第1態様に記載の自己位置推定モデル学習方法により学習された自己位置推定モデルと、に基づいて、前記自己位置推定対象の自己位置を推定する推定工程と、を含む処理を実行させるためのプログラムである。
開示の第7態様は、ロボットであって、動的な環境においてロボットからの視点で撮影された局所画像と、前記ロボットを俯瞰した位置から撮影された俯瞰画像であって、前記局所画像と同期した俯瞰画像と、を時系列で取得する取得部と、時系列で取得された前記局所画像及び前記俯瞰画像と、上記第2態様に記載の自己位置推定モデル学習装置により学習された自己位置推定モデルと、に基づいて、前記ロボットの自己位置を推定する推定部と、前記ロボットを自律走行させる自律走行部と、前記推定部により推定された位置に基づいて、前記ロボットが目的地に移動するように前記自律走行部を制御する制御部と、を含む。
本発明によれば、自己位置推定対象の自己位置を推定するのが従来困難であった動的な環境においても、自己位置推定対象の自己位置を推定することができる。
自己位置推定モデル学習システムの概略構成を示す図である。 自己位置推定モデル学習装置のハードウェア構成を示すブロック図である。 自己位置推定モデル学習装置の機能構成を示すブロック図である。 ロボットが群衆の中を目的地まで移動する様子を示す図である。 自己位置推定モデル学習装置の学習部の機能構成を示すブロック図である。 部分領域について説明するための図である。 自己位置推定モデル学習装置による自己位置推定モデル学習処理の流れを示すフローチャートである。 自己位置推定装置の機能構成を示すブロック図である。 自己位置推定装置のハードウェア構成を示すブロック図である。 自己位置推定装置によるロボット制御処理の流れを示すフローチャートである。
以下、本発明の実施形態の一例を、図面を参照しつつ説明する。なお、各図面において同一又は等価な構成要素及び部分には同一の参照符号を付与している。また、図面の寸法比率は、説明の都合上誇張されている場合があり、実際の比率とは異なる場合がある。
図1は、自己位置推定モデル学習システム1の概略構成を示す図である。
図1に示すように、自己位置推定モデル学習システム1は、自己位置推定モデル学習装置10及びシミュレータ20を備える。シミュレータ20については後述する。
次に、自己位置推定モデル学習装置10について説明する。
図2は、自己位置推定モデル学習装置10のハードウェア構成を示すブロック図である。
図2に示すように、自己位置推定モデル学習装置10は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、ストレージ14、入力部15、モニタ16、光ディスク駆動装置17及び通信インタフェース18を有する。各構成は、バス19を介して相互に通信可能に接続されている。
本実施形態では、ストレージ14には、自己位置推定モデル学習プログラムが格納されている。CPU11は、中央演算処理ユニットであり、各種プログラムを実行したり、各構成を制御したりする。すなわち、CPU11は、ストレージ14からプログラムを読み出し、RAM13を作業領域としてプログラムを実行する。CPU11は、ストレージ14に記録されているプログラムに従って、上記各構成の制御及び各種の演算処理を行う。
ROM12は、各種プログラム及び各種データを格納する。RAM13は、作業領域として一時的にプログラム又はデータを記憶する。ストレージ14は、HDD(Hard Disk Drive)又はSSD(Solid State Drive)により構成され、オペレーティングシステムを含む各種プログラム、及び各種データを格納する。
入力部15は、キーボード151、及びマウス152等のポインティングデバイスを含み、各種の入力を行うために使用される。モニタ16は、例えば、液晶ディスプレイであり、各種の情報を表示する。モニタ16は、タッチパネル方式を採用して、入力部15として機能してもよい。光ディスク駆動装置17は、各種の記録媒体(CD−ROM又はブルーレイディスクなど)に記憶されたデータの読み込みや、記録媒体に対するデータの書き込み等を行う。
通信インタフェース18は、シミュレータ20等の他の機器と通信するためのインタフェースであり、例えば、イーサネット(登録商標)、FDDI又はWi−Fi(登録商標)等の規格が用いられる。
次に、自己位置推定モデル学習装置10の機能構成について説明する。
図3は、自己位置推定モデル学習装置10の機能構成の例を示すブロック図である。
図3に示すように、自己位置推定モデル学習装置10は、機能構成として、取得部30及び学習部32を有する。各機能構成は、CPU11がストレージ14に記憶された自己位置推定プログラムを読み出し、RAM13に展開して実行することにより実現される。
取得部30は、シミュレータ20から目的地情報、局所画像、及び俯瞰画像を取得する。シミュレータ20は、例えば図4に示すように、自律走行型のロボットRBが、目的地情報で表される目的地pまで移動する場合における局所画像と、局所画像と同期した俯瞰画像と、を時系列で出力する。
なお、本実施形態では、図4に示すように、ロボットRBは、周囲に存在する人間HB等のように、移動する物体を含む動的な環境を目的地pまで移動する。本実施形態では、移動する物体が人間HBである場合、すなわち動的な環境が群衆である場合について説明するが、これに限られるものではない。例えば、動的な環境の他の例としては、自動車、自律走行型ロボット、ドローン、航空機、及び艦船等が存在する環境等が挙げられる。
ここで、局所画像とは、図4に示すような動的な環境において、自己位置推定対象としてのロボットRBからの視点で撮影された画像である。なお、以下では、局所画像が光学カメラで撮像された画像である場合について説明するが、これに限られるものではない。すなわち、ロボットRBの視界の範囲内に存在する物体がどのように動いたのかを表す動作情報を取得できればよく、例えばイベントカメラ(Event Based Camera)で取得された動作情報を用いてもよいし、オプティカルフローオプティカルフロー(Optical flow)等の公知の手法により局所画像を画像処理した後の動作情報を用いても良い。
また、俯瞰画像とは、ロボットRBを俯瞰した位置から撮影された画像である。具体的には、俯瞰画像は、例えばロボットRBを含む範囲をロボットRBの上方から撮影した画 像であり、局所画像で表される範囲よりも広い範囲を撮影した画像である。なお、俯瞰画像は、RAW(Raw image format)画像を用いても良いし、画像処理後の映像等の動画を用いてもよい。
学習部32は、取得部30により時系列で取得された局所画像及び俯瞰画像を入力として、ロボットRBの位置を出力する自己位置推定モデルを学習する。
次に、学習部32について詳細に説明する。
図5に示すように、学習部32は、第1の軌跡情報算出部33−1、第2の軌跡情報算出部33−2、第1の特徴ベクトル算出部34−1、第2の特徴ベクトル算出部34−2、距離算出部35、及び自己位置推定部36を含む。
第1の軌跡情報算出部33−1は、取得部30から入力された、時間的に連続するN個(Nは複数)の局所画像I1(={I1、I1、・・・、I1})に基づいて、人間HBの第1の軌跡情報tを算出する。第1の軌跡情報tの算出には、例えば前述したオプティカルフローやMOT(Multi Object Tracking)等の公知の手法を用いることができるが、これに限られるものではない。
第2の軌跡情報算出部33−2は、取得部30から入力された、時間的に連続し、且つ、局所画像I1と同期したN個の俯瞰画像I2(={I2、I2、・・・、I2})に基づいて、人間HBの第2の軌跡情報tを算出する。第2の軌跡情報tの算出には、第1の軌跡情報の算出と同様に、オプティカルフロー等の公知の手法を用いることができるが、これに限られるものではない。
第1の特徴ベクトル算出部34−1は、第1の軌跡情報tのK次元の第1の特徴ベクトルφ(t)を算出する。具体的には、第1の特徴ベクトル算出部34−1は、例えば第1の畳み込みニューラルネットワーク(CNN:Convolutional neural network)に第1の軌跡情報tを入力することにより、K次元の第1の特徴ベクトルφ(t)を算出する。なお、第1の特徴ベクトルφ(t)は、第1の特徴量の一例であり、特徴ベクトルに限らず、他の特徴量を算出してもよい。
第2の特徴ベクトル算出部34−2は、第2の軌跡情報tのK次元の第2の特徴ベクトルφ(t)を算出する。具体的には、第2の特徴ベクトル算出部34−2は、第1の特徴ベクトル算出部34−1と同様に、例えば第1の特徴ベクトル算出部34−1で用いる第1の畳み込みニューラルネットワークとは別の第2の畳み込みニューラルネットワークに第2の軌跡情報tを入力することにより、K次元の第2の特徴ベクトルφ(t)を算出する。なお、第2の特徴ベクトルφ(t)は、第2の特徴量の一例であり、特徴ベクトルに限らず、他の特徴量を算出してもよい。
ここで、第2の畳み込みニューラルネットワークに入力する第2の軌跡情報tは、図6に示すように、俯瞰画像I2全体の軌跡情報ではなく、前回検出されたロボットRBの位置pt−1の近傍のローカル領域Lの中からランダムに選択したM個(Mは複数)の部分領域W〜Wにおける第2の軌跡情報t21〜t2Mとする。これにより、部分領域W〜Wの各々について第2の特徴ベクトルφ(t21)〜φ(t2M)が算出される。以下では、第2の軌跡情報t21〜t2Mを区別しない場合は、単に第2の軌跡情報tと称する場合がある。同様に、第2の特徴ベクトルφ(t21)〜φ(t2M)を区別しない場合は、単に第2の特徴ベクトルφ(t)と称する場合がある。
なお、ローカル領域Lは、ロボットRBが前回検出されたロボットRBの位置pt−1から移動可能な範囲を含むように設定される。また、部分領域W〜Wの位置は、ローカル領域Lの中からランダムに選択される。また、部分領域W〜Wの数及び部分領域W〜Wのサイズは、処理速度及び自己位置の推定精度に影響を及ぼす。従って、部分領域W〜Wの数及び部分領域W〜Wのサイズは、所望の処理速度及び自己位置の推定精度に応じて任意の値に設定される。以下では、部分領域W〜Wを特に区別しない場合は、単に部分領域Wと称する場合がある。なお、本実施形態では、部分領域W〜Wがローカル領域Lの中からランダムに選択される場合について説明するが、これに限られない。例えばローカル領域Lを均等分割して部分領域W〜Wを設定してもよい。
距離算出部35は、第1の特徴ベクトルφ(t)と、部分領域W〜Wの第2の特徴ベクトルφ(t21)〜φ(t2M)の各々との類似度を表す距離g(φ(t)、φ(t21))〜g(φ(t)、φ(t2M))を、例えばニューラルネットワークを用いて算出する。そして、このニューラルネットワークは、第1の特徴ベクトルφ(t)と第2の特徴ベクトルφ(t)との類似度が高いほど、距離g(φ(t)、φ(t))が小さくなるように学習される。
なお、第1の特徴ベクトル算出部34−1、第2の特徴ベクトル算出部34−2、及び距離算出部35は、例えばContrastive lossを用いたSiamese Networkや、triplet loss等の公知の学習モデルを用いることができる。この場合、第1の特徴ベクトルφ(t)と第2の特徴ベクトルφ(t)との類似度が高いほど、距離g(φ(t)、φ(t))が小さくなるように、第1の特徴ベクトル算出部34−1、第2の特徴ベクトル算出部34−2、及び距離算出部35で用いられるニューラルネットワークのパラメータが学習される。また、距離の算出方法としては、ニューラルネットワークを用いる場合に限らず、距離学習(Metric Learning)手法の一例であるマハラノビス距離学習を用いても良い。
自己位置推定部36は、距離算出部35により算出された距離g(φ(t)、φ(t21))〜g(φ(t)、φ(t2M))のうち、最も小さい距離に対応する第2の特徴ベクトルφ(t)の部分領域Wの予め定めた位置、例えば中心位置を自己位置pとして推定する。
このように、自己位置推定モデル学習装置10は、機能的には、局所画像と俯瞰画像とに基づいて、自己位置を推定して出力する自己位置推定モデルを学習する装置と言える。
次に、自己位置推定モデル学習装置10の作用について説明する。
図7は、自己位置推定モデル学習装置10による自己位置推定モデル学習処理の流れを示すフローチャートである。CPU11がストレージ14から自己位置推定モデル学習プログラムを読み出して、RAM13に展開し実行することにより、自己位置推定モデル学習処理が行なわれる。
ステップS100では、CPU11が、取得部30として、目的地pの位置情報をシミュレータ20から取得する。
ステップS102では、CPU11が、取得部30として、時系列のN個の局所画像I1(={I1、I1、・・・、I1})をシミュレータ20から取得する。
ステップS104では、CPU11が、取得部30として、局所画像I1と同期した時系列のN個の俯瞰画像I2(={I2、I2、・・・、I2})をシミュレータ20から取得する。
ステップS106では、CPU11が、第1の軌跡情報算出部33−1として、局所画像I1に基づいて、第1の軌跡情報tを算出する。
ステップS108では、CPU11が、第2の軌跡情報算出部33−2として、俯瞰画像I2に基づいて、第2の軌跡情報tを算出する。
ステップS110では、CPU11が、第1の特徴ベクトル算出部34−1として、第1の軌跡情報tに基づいて、第1の特徴ベクトルφ(t)を算出する。
ステップS112では、CPU11が、第2の特徴ベクトル算出部34−2として、第2の軌跡情報tのうち、部分領域W〜Wの第2の軌跡情報t21〜t2Mに基づいて、第2の特徴ベクトルφ(t21)〜φ(t2M)を算出する。
ステップS114では、CPU11が、距離算出部35として、第1の特徴ベクトルφ(t)と、第2の特徴ベクトルφ(t21)〜φ(t2M)の各々と、の類似度を表す距離g(φ(t)、φ(t21))〜g(φ(t)、φ(t2M))を算出する。すなわち、部分領域W毎に距離を算出する。
ステップS116では、CPU11が、自己位置推定部36として、ステップS114で算出された距離g(φ(t)、φ(t21))〜g(φ(t)、φ(t2M))のうち、最も小さい距離に対応する第2の特徴ベクトルφ(t)の部分領域Wの代表位置、例えば中心位置を自己位置pとして推定し、シミュレータ20に出力する。
ステップS118では、CPU11が、学習部32として、自己位置推定モデルのパラメータを更新する。すなわち、自己位置推定モデルに含まれる学習モデルとしてSiamese Networkを用いた場合であれば、Siamese Networkのパラメータを更新する。
ステップS120では、CPU11が、自己位置推定部36として、ロボットRBが目的地pに到達したか否かを判定する。すなわち、ステップS116で推定したロボットRBの位置pが、目的地pと一致するか否かを判定する。そして、ロボットRBが目的地pに到達したと判定した場合は、ステップS122へ移行する。一方、ロボットRBが目的地pに到達していないと判定した場合は、ステップS102へ移行し、ロボットRBが目的地pに到達したと判定されるまでステップS102〜S120の処理を繰り返す。すなわち、学習モデルを学習する。なお、ステップS102、S104の処理は取得工程の一例である。また、ステップS108〜S118の処理は、学習工程の一例である。
ステップS122では、CPU11が、自己位置推定部36として、学習を終了する終了条件を満たすか否かを判定する。終了条件は、本実施形態では、例えばロボットRBがスタート地点から目的地pに到着するまでを1エピソードとして、予め定めた数(例えば100)のエピソードが終了した場合である。CPU11は、終了条件を満たすと判定した場合は本ルーチンを終了する。一方、終了条件を満たさない場合はステップS100へ移行し、目的地pを変えて、ステップS100〜S122までの処理を、終了条件を満たすまで繰り返す。
このように、本実施形態では、動的な環境においてロボットRBからの視点で撮影された局所画像と、ロボットRBを俯瞰した位置から撮影された俯瞰画像であって、局所画像と同期した俯瞰画像と、を時系列で取得し、時系列で取得された局所画像及び俯瞰画像を入力として、ロボットRBの位置を出力する自己位置推定モデルを学習する。これにより、ロボットRBの自己位置を推定するのが従来困難であった動的な環境においても、ロボットRBの位置を推定することができる。
なお、前述したステップS116において算出した最も小さい距離が大きすぎる場合、すなわち自己位置の推定が不可能となる場合もあり得る。そこで、ステップS116において、算出した最も小さい距離が予め定めた閾値以上の場合は自己位置の推定が不可能であると判断し、前回検出されたロボットRBの位置pt−1の近傍のローカル領域Lの中から部分領域W〜Wを選択し直して、再度ステップS112〜S116の処理を実行するようにしてもよい。
また、自己位置の推定が不可能となる場合の他の例として、軌跡情報を算出できない場合がある。例えば、ロボットRBの周囲に人間HBが全く存在せず、完全に静的な環境となっている場合等である。このような場合においても、再度ステップS112〜S116の処理を実行することにより自己位置推定をやり直しても良い。
次に、自己位置推定モデル学習装置10により学習された自己位置推定モデルにより自己位置を推定するロボットRBについて説明する。
図8には、ロボットRBの概略構成を示した。図8に示すように、ロボットRBは、自己位置推定装置40、カメラ42、ロボット情報取得部44、報知部46、及び自律走行部48を備える。自己位置推定装置40は、取得部50及び制御部52を備える。
カメラ42は、スタート地点から目的地pに移動するまでの間、ロボットRBの周囲を予め定めた間隔で撮影し、撮影した局所画像を自己位置推定装置40の取得部50に出力する。
取得部50は、ロボットRBを俯瞰した位置から撮影された俯瞰画像を図示しない外部装置に無線通信により要求して取得する。
制御部52は、自己位置推定モデル学習装置10で学習された自己位置推定モデルの機能を有する。すなわち、制御部52は、取得部50により取得された時系列の同期した局所画像及び俯瞰画像に基づいて、ロボットRBの位置を推定する。
ロボット情報取得部44は、ロボットRBの速度をロボット情報として取得する。ロボットRBの速度は、例えば速度センサを用いて取得する。ロボット情報取得部44は、取得したロボットRBの速度を取得部50に出力する。
取得部50は、カメラ42が撮影した局所画像に基づいて人間HBの状態を取得する。具体的には、公知の手法を用いて撮影画像を解析し、ロボットRBの周囲に存在する人間HBの位置及び速度を算出する。
制御部52は、ロボットRBを目的地pまで自律走行するように制御するための学習済みのロボット制御モデルの機能を有する。
ロボット制御モデルは、例えばロボットRBの状態に関するロボット情報、ロボットRBの周囲の環境に関する環境情報、及びロボットRBが到達すべき目的地に関する目的地情報を入力として、ロボットRBの状態に応じた行動を選択して出力するモデルであり、例えば強化学習によって学習済みのモデルが用いられる。ここで、ロボット情報は、ロボットRBの位置及び速度の情報を含む。また、環境情報は、動的な環境に関する情報、具体的には、例えばロボットRBの周囲に存在する人間HBの位置及び速度の情報を含む。
制御部52は、目的地情報、ロボットRBの位置及び速度、及び人間HBの状態情報を入力として、ロボットRBの状態に応じた行動を選択し、選択した行動に基づいて報知部46及び自律走行部48の少なくとも一方を制御する。
報知部46は、音声を出力したり、警告音を出力したりすることにより、ロボットRBの存在を周囲の人間HBに報知する機能を有する。
自律走行部48は、タイヤ及びタイヤを駆動するモータ等のロボットRBを自律走行させる機能を有する。
制御部52は、選択された行動が、指定された方向及び速度でロボットRBを移動させる行動であった場合は、指定された方向及び速度でロボットRBが移動するように自律走行部48を制御する。
また、制御部52は、選択された行動が介入行動であった場合には、「道を空けてください」等のメッセージを音声出力したり、警告音を鳴らすよう報知部46を制御する。
次に、自己位置推定装置40のハードウェア構成について説明する。
図9に示すように、自己位置推定装置40は、CPU(Central Processing Unit)61、ROM(Read Only Memory)62、RAM(Random Access Memory)63、ストレージ64、及び通信インタフェース65を有する。各構成は、バス66を介して相互に通信可能に接続されている。
本実施形態では、ストレージ64には、自己位置推定プログラムが格納されている。CPU61は、中央演算処理ユニットであり、各種プログラムを実行したり、各構成を制御したりする。すなわち、CPU61は、ストレージ64からプログラムを読み出し、RAM63を作業領域としてプログラムを実行する。CPU61は、ストレージ64に記録されているプログラムに従って、上記各構成の制御及び各種の演算処理を行う。
ROM62は、各種プログラム及び各種データを格納する。RAM63は、作業領域として一時的にプログラム又はデータを記憶する。ストレージ64は、HDD(Hard Disk Drive)又はSSD(Solid State Drive)により構成され、オペレーティングシステムを含む各種プログラム、及び各種データを格納する。
通信インタフェース65は、他の機器と通信するためのインタフェースであり、例えば、イーサネット(登録商標)、FDDI又はWi−Fi(登録商標)等の規格が用いられる。
次に、自己位置推定装置40の作用について説明する。
図10は、自己位置推定装置40による自己位置推定処理の流れを示すフローチャートである。CPU51がストレージ64から自己位置推定プログラムを読み出して、RAM63に展開し実行することにより、自己位置推定処理が行なわれる。
ステップS200では、CPU61が、取得部50として、目的地pの位置情報を図示しない外部装置から無線通信により取得する。
ステップS202では、CPU61が、取得部50として、時系列のN個の局所画像I1(={I1、I1、・・・、I1})をカメラ42から取得する。
ステップS204では、CPU61が、取得部50として、局所画像I1と同期した時系列のN個の俯瞰画像I2(={I2、I2、・・・、I2})を図示しない外部装置に要求して取得する。このとき、本ルーチンを前回実行して推定したロボットRBの位置pt−1を外部装置に送信し、前回推定したロボットRBの位置pt−1の周辺を含む俯瞰画像を外部装置から取得する。
ステップS206では、CPU61が、制御部52として、局所画像I1に基づいて、第1の軌跡情報tを算出する。
ステップS208では、CPU61が、制御部52として、俯瞰画像I2に基づいて、第2の軌跡情報tを算出する。
ステップS210では、CPU61が、制御部52として、第1の軌跡情報tに基づいて、第1の特徴ベクトルφ(t)を算出する。
ステップS212では、CPU61が、制御部52として、第2の軌跡情報tのうち、部分領域W〜Wの第2の軌跡情報t21〜t2Mに基づいて、第2の特徴ベクトルφ(t21)〜φ(t2M)を算出する。
ステップS214では、CPU61が、制御部52として、第1の特徴ベクトルφ(t)と、第2の特徴ベクトルφ(t21)〜φ(t2M)の各々と、の類似度を表す距離g(φ(t)、φ(t21))〜g(φ(t)、φ(t2M))を算出する。すなわち、部分領域W毎に距離を算出する。
ステップS216では、CPU61が、制御部52として、ステップS214で算出された距離g(φ(t)、φ(t21))〜g(φ(t)、φ(t2M))のうち、最も小さい距離に対応する第2の特徴ベクトルφ(t)の部分領域Wの代表位置、例えば中心位置を自己位置pとして推定する。
ステップS218では、CPU61が、取得部50として、ロボットRBの状態としてロボットの速度をロボット情報取得部44から取得する。また、ステップS202で取得した局所画像を公知の手法を用いて解析し、ロボットRBの周囲に存在する人間HBの状態に関する状態情報、すなわち人間HBの位置及び速度を算出する。
ステップS220では、CPU61が、制御部52として、ステップS200で取得した目的地情報、ステップS216で推定したロボットRBの位置、ステップS218で取得したロボットRBの速度、及びステップS218で取得した人間HBの状態情報に基づいて、ロボットRBの状態に応じた行動を選択し、選択した行動に基づいて報知部46及び自律走行部48の少なくとも一方を制御する。
ステップS222では、CPU61が、制御部52として、ロボットRBが目的地pに到達したか否かを判定する。すなわち、ロボットRBの位置pが、目的地pと一致するか否かを判定する。そして、ロボットRBが目的地pに到達したと判定した場合は、本ルーチンを終了する。一方、ロボットRBが目的地pに到達していないと判定した場合は、ステップS202へ移行し、ロボットRBが目的地pに到達したと判定されるまでステップS202〜S222の処理を繰り返す。なお、ステップS202、S204の処理は取得工程の一例である。また、ステップS206〜S216の処理は、推定工程の一例である。
このように、ロボットRBは、自己位置推定モデル学習装置10によって学習された自己位置推定モデルに基づいて自己位置を推定しながら目的地まで自律走行する。
なお、本実施形態では、ロボットRBが自己位置推定装置40を備えた場合について説明したが、自己位置推定装置40の機能を外部サーバに設けてもよい。この場合、ロボットRBは、カメラ42で撮影した局所画像を外部サーバに送信する。外部サーバは、ロボットRBから送信された局所画像及び俯瞰画像を提供する装置から取得した俯瞰画像に基づいてロボットRBの位置を推定し、ロボットRBに送信する。そして、ロボットRBは、外部サーバから受信した自己位置に基づいて行動を選択し、目的地まで自律走行する。
また、本実施形態では、自己位置推定対象が自律走行型のロボットRBの場合について説明したが、これに限らず、自己位置推定対象が、人間が携帯する携帯端末装置であってもよい。この場合、携帯端末装置に自己位置推定装置40の機能を設ける。
また、上記各実施形態でCPUがソフトウェア(プログラム)を読み込んで実行したロボット制御処理を、CPU以外の各種のプロセッサが実行してもよい。この場合のプロセッサとしては、FPGA(Field−Programmable Gate Array)等の製造後に回路構成を変更可能なPLD(Programmable Logic Device)、及びASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が例示される。また、自己位置推定モデル学習処理及び自己位置推定処理を、これらの各種のプロセッサのうちの1つで実行してもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、及びCPUとFPGAとの組み合わせ等)で実行してもよい。また、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。
また、上記各実施形態では、自己位置推定モデル学習プログラムがストレージ14に予め記憶され、自己位置推定プログラムがストレージ64に予め記憶されている態様を説明したが、これに限定されない。プログラムは、CD−ROM(Compact Disc Read Only Memory)、DVD−ROM(Digital Versatile Disc Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、プログラムは、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
1 自己位置推定モデル学習システム
10 自己位置推定モデル学習装置
20 シミュレータ
30 取得部
32 学習部
33 軌跡情報算出部
34 特徴ベクトル算出部
35 距離算出部
36 自己位置推定部
40 自己位置推定装置
42 カメラ
44 ロボット情報取得部
46 報知部
48 自律走行部
50 取得部
52 制御部
HB 人間
RB ロボット

Claims (9)

  1. コンピュータが、
    動的な環境において自己位置推定対象からの視点で撮影された局所画像と、前記自己位置推定対象を俯瞰した位置から撮影された俯瞰画像であって、前記局所画像と同期した俯瞰画像と、を時系列で取得する取得工程と、
    時系列で取得された前記局所画像及び前記俯瞰画像を入力として、前記自己位置推定対象の位置を出力する自己位置推定モデルを学習する学習工程と、
    を含む処理を実行する自己位置推定モデル学習方法。
  2. 前記学習工程は、
    前記局所画像に基づいて第1の軌跡情報を算出すると共に、前記俯瞰画像に基づいて第2の軌跡情報を算出する軌跡情報算出工程と、
    前記第1の軌跡情報に基づいて第1の特徴量を算出すると共に、前記第2の軌跡情報に基づいて第2の特徴量を算出する特徴量算出工程と、
    前記第1の特徴量と前記第2の特徴量との距離を算出する距離算出工程と、
    前記距離に基づいて前記自己位置推定対象の位置を推定する推定工程と、
    前記第1の特徴量と前記第2の特徴量との類似度が高いほど距離が小さくなるように前記自己位置推定モデルのパラメータを更新する更新工程と、
    を含む請求項1記載の自己位置推定モデル学習方法。
  3. 前記特徴量算出工程は、前回推定された前記自己位置推定対象の位置の近傍の領域から選択された複数の部分領域における前記第2の軌跡情報に基づいて前記第2の特徴量を算出し、
    前記距離算出工程は、前記複数の部分領域毎に前記距離を算出し、
    前記推定工程は、前記複数の部分領域毎に算出した前記距離のうち、最も距離が小さい部分領域の予め定めた位置を前記自己位置推定対象の位置として推定する
    請求項2記載の自己位置推定モデル学習方法。
  4. 動的な環境において自己位置推定対象からの視点で撮影された局所画像と、前記自己位置推定対象を俯瞰した位置から撮影された俯瞰画像であって、前記局所画像と同期した俯瞰画像と、を時系列で取得する取得部と、
    時系列で取得された前記局所画像及び前記俯瞰画像を入力として、前記自己位置推定対象の位置を出力する自己位置推定モデルを学習する学習部と、
    を含む自己位置推定モデル学習装置。
  5. コンピュータに、
    動的な環境において自己位置推定対象からの視点で撮影された局所画像と、前記自己位置推定対象を俯瞰した位置から撮影された俯瞰画像であって、前記局所画像と同期した俯瞰画像と、を時系列で取得する取得工程と、
    時系列で取得された前記局所画像及び前記俯瞰画像を入力として、前記自己位置推定対象の位置を出力する自己位置推定モデルを学習する学習工程と、
    を含む処理を実行させるための自己位置推定モデル学習プログラム。
  6. コンピュータが、
    動的な環境において自己位置推定対象からの視点で撮影された局所画像と、前記自己位置推定対象を俯瞰した位置から撮影された俯瞰画像であって、前記局所画像と同期した俯瞰画像と、を時系列で取得する取得工程と、
    時系列で取得された前記局所画像及び前記俯瞰画像と、請求項1〜3の何れか1項に記載の自己位置推定モデル学習方法により学習された自己位置推定モデルと、に基づいて、前記自己位置推定対象の自己位置を推定する推定工程と、
    を含む処理を実行する自己位置推定方法。
  7. 動的な環境において自己位置推定対象からの視点で撮影された局所画像と、前記自己位置推定対象を俯瞰した位置から撮影された俯瞰画像であって、前記局所画像と同期した俯瞰画像と、を時系列で取得する取得部と、
    時系列で取得された前記局所画像及び前記俯瞰画像と、請求項4記載の自己位置推定モデル学習装置により学習された自己位置推定モデルと、に基づいて、前記自己位置推定対象の自己位置を推定する推定部と、
    を含む自己位置推定装置。
  8. コンピュータに、
    動的な環境において自己位置推定対象からの視点で撮影された局所画像と、前記自己位置推定対象を俯瞰した位置から撮影された俯瞰画像であって、前記局所画像と同期した俯瞰画像と、を時系列で取得する取得工程と、
    時系列で取得された前記局所画像及び前記俯瞰画像と、請求項1〜3の何れか1項に記載の自己位置推定モデル学習方法により学習された自己位置推定モデルと、に基づいて、前記自己位置推定対象の自己位置を推定する推定工程と、
    を含む処理を実行させるための自己位置推定プログラム。
  9. 動的な環境においてロボットからの視点で撮影された局所画像と、前記ロボットを俯瞰した位置から撮影された俯瞰画像であって、前記局所画像と同期した俯瞰画像と、を時系列で取得する取得部と、
    時系列で取得された前記局所画像及び前記俯瞰画像と、請求項4記載の自己位置推定モデル学習装置により学習された自己位置推定モデルと、に基づいて、前記ロボットの自己位置を推定する推定部と、
    前記ロボットを自律走行させる自律走行部と、
    前記推定部により推定された位置に基づいて、前記ロボットが目的地に移動するように前記自律走行部を制御する制御部と、
    を含むロボット。
JP2019205691A 2019-11-13 2019-11-13 自己位置推定モデル学習方法、自己位置推定モデル学習装置、自己位置推定モデル学習プログラム、自己位置推定方法、自己位置推定装置、自己位置推定プログラム、及びロボット Active JP7322670B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019205691A JP7322670B2 (ja) 2019-11-13 2019-11-13 自己位置推定モデル学習方法、自己位置推定モデル学習装置、自己位置推定モデル学習プログラム、自己位置推定方法、自己位置推定装置、自己位置推定プログラム、及びロボット
EP20886244.1A EP4060445A4 (en) 2019-11-13 2020-10-21 SELF-POSITION ESTIMATION MODEL LEARNING METHOD, SELF-POSITION ESTIMATION MODEL LEARNING DEVICE, SELF-POSITION ESTIMATION MODEL LEARNING PROGRAM, ESTIMATION METHOD SELF-POSITION, SELF-POSITION ESTIMATION DEVICE, SELF-POSITION ESTIMATION PROGRAM AND ROBOT
CN202080076842.9A CN114698388A (zh) 2019-11-13 2020-10-21 自身位置估计模型学习方法、自身位置估计模型学习装置、自身位置估计模型学习程序、自身位置估计方法、自身位置估计装置、自身位置估计程序以及机器人
PCT/JP2020/039553 WO2021095463A1 (ja) 2019-11-13 2020-10-21 自己位置推定モデル学習方法、自己位置推定モデル学習装置、自己位置推定モデル学習プログラム、自己位置推定方法、自己位置推定装置、自己位置推定プログラム、及びロボット
US17/774,605 US20220397903A1 (en) 2019-11-13 2020-10-21 Self-position estimation model learning method, self-position estimation model learning device, recording medium storing self-position estimation model learning program, self-position estimation method, self-position estimation device, recording medium storing self-position estimation program, and robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019205691A JP7322670B2 (ja) 2019-11-13 2019-11-13 自己位置推定モデル学習方法、自己位置推定モデル学習装置、自己位置推定モデル学習プログラム、自己位置推定方法、自己位置推定装置、自己位置推定プログラム、及びロボット

Publications (2)

Publication Number Publication Date
JP2021077287A true JP2021077287A (ja) 2021-05-20
JP7322670B2 JP7322670B2 (ja) 2023-08-08

Family

ID=75898030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019205691A Active JP7322670B2 (ja) 2019-11-13 2019-11-13 自己位置推定モデル学習方法、自己位置推定モデル学習装置、自己位置推定モデル学習プログラム、自己位置推定方法、自己位置推定装置、自己位置推定プログラム、及びロボット

Country Status (5)

Country Link
US (1) US20220397903A1 (ja)
EP (1) EP4060445A4 (ja)
JP (1) JP7322670B2 (ja)
CN (1) CN114698388A (ja)
WO (1) WO2021095463A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023074279A1 (ja) 2021-10-29 2023-05-04 オムロン株式会社 俯瞰データ生成装置、俯瞰データ生成プログラム、俯瞰データ生成方法、及びロボット
WO2023176854A1 (ja) 2022-03-15 2023-09-21 オムロン株式会社 俯瞰データ生成装置、学習装置、俯瞰データ生成プログラム、俯瞰データ生成方法、及びロボット

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7438515B2 (ja) 2022-03-15 2024-02-27 オムロン株式会社 俯瞰データ生成装置、学習装置、俯瞰データ生成プログラム、俯瞰データ生成方法、及びロボット

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005329515A (ja) * 2004-05-21 2005-12-02 Hitachi Ltd サービスロボットシステム
JP2008197733A (ja) * 2007-02-08 2008-08-28 Toshiba Corp トラッキング方法及びトラッキング装置
JP2013114500A (ja) * 2011-11-29 2013-06-10 Hitachi Ltd サービス制御システム、サービスシステム
WO2018235219A1 (ja) * 2017-06-22 2018-12-27 日本電気株式会社 自己位置推定方法、自己位置推定装置および自己位置推定プログラム
JP2019505923A (ja) * 2016-01-28 2019-02-28 フォルヴェルク・ウント・ツェーオー、インターホールディング・ゲーエムベーハーVorwerk & Compagnie Interholding Gesellshaft Mit Beschrankter Haftung 自動的に移動可能な処理装置のための環境マップ生成方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102404791B1 (ko) * 2017-03-30 2022-06-02 삼성전자주식회사 입력 영상에 포함된 객체를 인식하는 디바이스 및 방법
JP2019197350A (ja) * 2018-05-09 2019-11-14 株式会社日立製作所 自己位置推定システム、自律移動システム及び自己位置推定方法
US11380108B1 (en) * 2019-09-27 2022-07-05 Zoox, Inc. Supplementing top-down predictions with image features

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005329515A (ja) * 2004-05-21 2005-12-02 Hitachi Ltd サービスロボットシステム
JP2008197733A (ja) * 2007-02-08 2008-08-28 Toshiba Corp トラッキング方法及びトラッキング装置
JP2013114500A (ja) * 2011-11-29 2013-06-10 Hitachi Ltd サービス制御システム、サービスシステム
JP2019505923A (ja) * 2016-01-28 2019-02-28 フォルヴェルク・ウント・ツェーオー、インターホールディング・ゲーエムベーハーVorwerk & Compagnie Interholding Gesellshaft Mit Beschrankter Haftung 自動的に移動可能な処理装置のための環境マップ生成方法
WO2018235219A1 (ja) * 2017-06-22 2018-12-27 日本電気株式会社 自己位置推定方法、自己位置推定装置および自己位置推定プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023074279A1 (ja) 2021-10-29 2023-05-04 オムロン株式会社 俯瞰データ生成装置、俯瞰データ生成プログラム、俯瞰データ生成方法、及びロボット
WO2023176854A1 (ja) 2022-03-15 2023-09-21 オムロン株式会社 俯瞰データ生成装置、学習装置、俯瞰データ生成プログラム、俯瞰データ生成方法、及びロボット

Also Published As

Publication number Publication date
JP7322670B2 (ja) 2023-08-08
US20220397903A1 (en) 2022-12-15
WO2021095463A1 (ja) 2021-05-20
EP4060445A1 (en) 2022-09-21
EP4060445A4 (en) 2023-12-20
CN114698388A (zh) 2022-07-01

Similar Documents

Publication Publication Date Title
CN111325796B (zh) 用于确定视觉设备的位姿的方法和装置
WO2021095463A1 (ja) 自己位置推定モデル学習方法、自己位置推定モデル学習装置、自己位置推定モデル学習プログラム、自己位置推定方法、自己位置推定装置、自己位置推定プログラム、及びロボット
US10748061B2 (en) Simultaneous localization and mapping with reinforcement learning
US10668921B2 (en) Enhanced vehicle tracking
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
CN107735797B (zh) 用于确定第一坐标系与第二坐标系之间的运动的方法
CN112179330A (zh) 移动设备的位姿确定方法及装置
US11741720B2 (en) System and method for tracking objects using using expanded bounding box factors
CN111292352B (zh) 多目标跟踪方法、装置、设备及存储介质
EP3608874B1 (en) Ego motion estimation method and apparatus
Ioannidis et al. A path planning method based on cellular automata for cooperative robots
KR102694715B1 (ko) 장애물의 검출 방법, 전자 기기, 노변 기기 및 클라우드 컨트롤 플랫폼
US20220397900A1 (en) Robot control model learning method, robot control model learning device, recording medium storing robot control model learning program, robot control method, robot control device, recording medium storing robot control program, and robot
JP2022523312A (ja) Vslam方法、コントローラ及び移動可能機器
WO2024120187A1 (zh) 一种用于信息拒止环境下的无人机动态目标估计方法
CN113479219A (zh) 一种行车轨迹规划方法、装置、计算机设备和介质
EP3598388B1 (en) Method and apparatus for visual odometry, and non-transitory computer-readable recording medium
US11657506B2 (en) Systems and methods for autonomous robot navigation
CN112800822A (zh) 利用结构约束和物理约束进行3d自动标记
JP2024012160A (ja) 目標状態推定方法、装置、電子機器及び媒体
US20230080638A1 (en) Systems and methods for self-supervised learning of camera intrinsic parameters from a sequence of images
Mentasti et al. Two algorithms for vehicular obstacle detection in sparse pointcloud
CN112284390B (zh) 一种基于vslam的室内高精度定位导航方法
JP7438515B2 (ja) 俯瞰データ生成装置、学習装置、俯瞰データ生成プログラム、俯瞰データ生成方法、及びロボット
JP7438510B2 (ja) 俯瞰データ生成装置、俯瞰データ生成プログラム、俯瞰データ生成方法、及びロボット

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230710

R150 Certificate of patent or registration of utility model

Ref document number: 7322670

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150