JP2020149095A - 倒立振子型ロボット - Google Patents

倒立振子型ロボット Download PDF

Info

Publication number
JP2020149095A
JP2020149095A JP2019043577A JP2019043577A JP2020149095A JP 2020149095 A JP2020149095 A JP 2020149095A JP 2019043577 A JP2019043577 A JP 2019043577A JP 2019043577 A JP2019043577 A JP 2019043577A JP 2020149095 A JP2020149095 A JP 2020149095A
Authority
JP
Japan
Prior art keywords
robot
image
moving
movement
determination method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019043577A
Other languages
English (en)
Other versions
JP7250571B2 (ja
Inventor
長谷川 雄二
Yuji Hasegawa
雄二 長谷川
燦心 松▲崎▼
Sango Matsuzaki
燦心 松▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019043577A priority Critical patent/JP7250571B2/ja
Priority to CN202010090222.2A priority patent/CN111673729B/zh
Priority to US16/809,577 priority patent/US11467592B2/en
Publication of JP2020149095A publication Critical patent/JP2020149095A/ja
Application granted granted Critical
Publication of JP7250571B2 publication Critical patent/JP7250571B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Social Psychology (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Electromagnetism (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

【課題】移動装置が交通参加者などの複数の移動物体との干渉を回避しながら目的地点まで円滑に移動しうるように、ロボットの経路を決定する方法を提供する。【解決手段】複数の第2歩行者M2が所定の移動パターンにしたがって移動する環境において、第1歩行者M1が目的地点Poに向かって移動した際の複数の移動経路Rwが認識される。当該複数の移動経路Rwのそれぞれにしたがって移動した際の仮想ロボットの周囲の視覚的環境を表わす環境画像の時系列から構成される複合環境画像と、仮想ロボットの移動方向を表わす移動方向指令とが組み合わせられたデータが学習用データとして生成される。複合環境画像が含まれる環境画像データを入力とする一方で移動方向指令を出力とするCNN(行動モデル)のモデルパラメータが、学習用データを用いて学習され、学習済みCNNが用いられてロボット2の移動速度指令v_cmdが決定される。【選択図】図4

Description

本発明は、自律移動型のロボットの経路決定方法に関する。
従来、自律移動型のロボットの経路決定方法として、特許文献1および特許文献2に記載されたものが知られている。特許文献1の経路決定方法では、ロボットが歩行者などの交通参加者の速度に基づいて、交通参加者に干渉する可能性があると予想される干渉可能性時間が算出され、さらに、交通参加者が所定時間後に移動すると想定される仮想障害物領域が算出される。そして、干渉可能性時間および仮想障害物領域に基づいて、ロボットの経路が決定される。それにより、ロボットと交通参加者との干渉が回避される。
また、特許文献2の経路決定方法では、ロボットの現在位置を計算し、外界センサが測定した距離データに基づいて、障害物地図を生成するとともに、記憶部から地図情報を読み込む。次いで、障害物地図および地図情報を参照して、障害物が地図情報に記憶された経路上に存在するか否かを判定し、障害物が経路上に存在する場合には、ロボットの経路をA*探索アルゴリズムにより実行する。具体的には、現在位置情報、障害物地図および地図情報に基づいて、グリッドマップ上のロボットを取り囲む多数のグリッドにおける障害物の存在確率を算出し、障害物の存在確率が最も低いグリッドが経路として決定される。
特開2009−110495号公報 特開2010−191502号公報
上記特許文献1の経路決定方法によれば、交通参加者の干渉可能性時間および仮想障害物領域を用いている関係上、歩行者などの実際の交通参加者が予測不可能な軌跡で移動したときには、ロボットと交通参加者の干渉状態が頻発してしまう。その結果、ロボットの停止状態が頻発してしまい、商品性が低いという問題がある。特に、人混みが存在する交通環境下では、問題が顕著になる。
また、特許文献2の経路決定方法の場合にも、歩行者などの実際の交通参加者が予測不可能な軌跡で移動したときには、特許文献1と同じ問題が発生する。特に、人混みが存在する交通環境下では、障害物の存在確率が最も低いグリッドが見つからない状態となることで、ロボットの停止時間が長くなってしまう。
そこで、本発明は、移動装置が交通参加者などの複数の移動物体との干渉を回避しながら目的地点まで円滑に移動しうるように、ロボットの経路を決定する方法を提供することを目的とする。
本発明は、移動装置が、当該移動装置の周辺に複数の移動物体が存在する状況で目的地点まで目標移動経路を決定する方法に関する。
本発明の経路決定方法は、複数の第2移動物体が、異なる複数の移動パターンのそれぞれにしたがって移動する状況において、第1移動物体が前記複数の第2移動物体のそれぞれとの干渉を回避しながら前記目的地点まで移動した際の前記第1移動物体の複数の移動経路を認識し、前記移動装置が前記複数の移動経路のそれぞれにしたがって移動した際の、当該移動装置の環境を表わす環境画像の時系列が複合されることにより生成される複合環境画像を含む環境画像データと、当該移動装置の行動を表わす行動パラメータとが関連付けられた複数の学習用データを生成し、前記環境画像データを入力とする一方で前記行動パラメータを出力とする行動モデルのモデルパラメータを、前記複数の学習用データを用いて指定学習方法にしたがって学習することにより、学習済みの当該行動モデルである学習済みモデルを生成し、前記学習済みモデルを用いて、前記移動装置の前記目標移動経路を決定することを特徴とする。
本発明の経路決定方法によれば、複数の第2移動物体が複数の移動パターンのそれぞれにしたがって移動する環境において、第1移動物体が目的地点に向かって当該複数の第2移動物体との干渉を回避しながら移動した際の複数の移動経路が認識される。さらに、仮想空間において仮想移動装置が当該複数の移動経路のそれぞれにしたがって移動したときの、仮想移動装置の周囲の視覚的環境を表わす環境画像の時系列から構成される複合環境画像と、仮想移動装置の移動方向を表わす移動方向指令とが組み合わせられたデータが学習用データとして生成される。複合環境画像が含まれる環境画像データを入力とする一方で移動方向指令を出力とする行動モデルのモデルパラメータが、学習用データを用いて学習されることにより、学習済みモデルが生成される。そして、学習済みモデルを用いて、移動装置の移動速度指令が決定される。
このため、学習モデルのモデルパラメータが、第1移動物体の実際の移動経路および当該第1移動物体に対する第2移動物体の相対的な移動態様を反映させながら、精度よく学習されうる。その結果、複数の移動物体が移動装置の周囲に存在する状況においても、移動装置が複数の移動物体との干渉を回避しながら目的地点まで円滑に移動するように、当該移動装置の目標移動経路が決定されうる。
本発明の経路決定方法において、前記環境画像として、前記移動装置の周辺に存在する複数の移動物体のそれぞれを表わす複数の移動物体画像領域が含まれている画像が認識され、前記複数の環境画像のそれぞれに含まれている前記複数の移動物体画像領域のそれぞれが重ね合わせられている前記複合環境画像が生成されることが好ましい。
当該経路決定方法によれば、複合環境画像には、移動装置の周辺に存在する複数の移動物体のそれぞれが表わされる複数の移動物体画像領域が含まれており、当該移動物体画像領の時系列が重ね合わせられている。これにより、移動物体の時系列的な移動態様が簡略的に表されている環境画像データを含む学習用データが生成されうるので、行動モデルの構造の単純化、ひいてはロボットの経路決定時の演算処理量の低減が図られ、その結果、ロボットの経路が迅速かつ精度よく決定されうる。
本発明の経路決定方法において、前記複数の環境画像のそれぞれの時系列の順の先後に応じて、前記複数の移動物体画像領域のそれぞれの一部または全部の色相、彩度もしくは明度またはこれらの任意の組み合わせが差別化されるように、前記複数の移動物体画像領域が重ね合わせられている前記複合環境画像が生成されることが好ましい。
当該経路決定方法によれば、移動物体の時系列的な移動態様が、時系列の先後に応じて色の3要素のうち少なくとも1つの要素によって差別化されるように簡略的に表されている環境画像データを含む学習用データが生成されうるので、行動モデルの構造の単純化、ひいてはロボットの経路決定時の演算処理量の低減が図られ、その結果、ロボットの経路が迅速かつ精度よく決定されうる。
本発明の経路決定方法において、時系列的に後の前記移動物体画像領域が時系列的に前の前記移動物体画像領域の少なくとも一部を隠すように重ね合わせられている前記複合環境画像が生成されることが好ましい。
当該経路決定方法によれば、移動物体の時系列的な移動態様が、時系列の先後に応じて重なり合わせの上下関係により差別化されるように簡略的に表されている環境画像データを含む学習用データが生成されうるので、行動モデルの構造の単純化、ひいてはロボットの経路決定時の演算処理量の低減が図られ、その結果、ロボットの経路が迅速かつ精度よく決定されうる。
本発明の経路決定方法において、前記環境画像データは、前記複合環境画像に加えて、前記移動装置の速度の高低を表わす速度画像および前記目的地点の方向を表わす方向画像のうち少なくとも一方をさらに含むことが好ましい。
当該経路決定方法によれば、環境画像データには、複合環境画像に加えて、移動装置の速度の高低を表わす速度画像および目的地点の方向を表わす方向画像のうち少なくとも一方がさらに含まれている。このため、行動モデルの構造の単純化、ひいてはロボットの経路決定時の演算処理量の低減が図られ、その結果、ロボットの経路が迅速かつ精度よく決定されうる。
本発明の経路決定方法において、前記複数の学習用データは、仮想空間において仮想の前記ロボットが前記複数の移動経路のそれぞれにしたがって移動した際の、前記環境画像データおよび当該環境画像データに関連付けられた前記行動パラメータにより構成されていることが好ましい。
当該経路決定方法によれば、仮想移動装置を仮想空間において複数の移動経路のそれぞれにしたがって移動させることで、複数の学習用データが生成される。これにより、移動装置(実機)を実際に準備する必要がなくなる分、学習用データ、ひいては当該学習用データを記憶保持するデータベースが容易に生成されうる。
本発明の一実施形態に係る経路決定システムを適用したロボットの外観図。 ロボットによる案内システムの構成図。 ロボットの電気的な構成を示すブロック図。 学習装置の構成を示すブロック図。 第1歩行者の移動経路を取得するときの斜視図。 図5の移動経路の取得結果の例示図。 第2歩行者の配置の第1パターンに関する説明図。 第2歩行者の配置の第2パターンに関する説明図。 第2歩行者の配置の第3パターンに関する説明図。 第2歩行者の配置の第4パターンに関する説明図。 第2歩行者の配置の第5パターンに関する説明図。 第2歩行者の配置の第6パターンに関する説明図。 第2歩行者の配置の第7パターンに関する説明図。 シミュレーション環境下の仮想ロボット視点からの画像に関する説明図。 図14の画像から生成した環境画像としてのマスク画像に関する説明図。 複合環境画像に関する説明図。 経路決定システムの構成を表わすブロック図である。 移動制御処理を示すフローチャートである。
(経路決定システムの構成)
図1に示されている本発明の一実施形態としての経路決定システム1は、倒立振子型のロボット2(「移動装置」に相当する。)に適用されたものであり、後述する手法によって、交通参加者の存在確率が高い条件下で、ロボット2の経路を決定するものである。
ロボット2は、自律移動型のものであり、図2に示す案内システム3で用いられる。案内システム3は、ショッピングモールや空港などにおいて、ロボット2が利用者を先導しながらその目的地点(例えば店舗や搭乗ゲート)まで案内する形式のものである。
図2に示されているように、案内システム3は、所定の領域内を自律移動する複数のロボット2と、複数のロボット2とは別体に設けられ、利用者の目的地点が入力される入力装置4と、ロボット2および入力装置4と相互に無線通信可能なサーバ5とを備えている。
入力装置4は、例えば、マウス、キーボードおよびタッチパネルのうち少なくとも1つにより構成されている。利用者(または操作者)により入力装置4を通じて目的地点が入力されたことに応じて、当該目的地点を表わす目的地点データがサーバ5に送信される。サーバ5により、目的地点データが受信されると、サーバ5が有する記憶装置に格納されている地図データに基づき、当該目的地点データにより表わされる目的地点、または、現在地点から目的地点までの中間地点が指定地点Pobjに設定される。サーバ5から指定地点Pobjを表わす指定地点データがロボット2に送信される。
(ロボットの構成)
ロボット2が有する制御装置10により、サーバ5から送信された指定地点データが無線通信装置14を介して受信された場合、当該指定地点データにより表わされる指定地点Pobjが読み込まれ、当該指定地点Pobjまでの経路が決定される。
次に、ロボット2の機械的な構成について説明する。図1に示されているように、ロボット2は、本体20と、本体20の下部に設けられた移動機構21などを備えており、移動機構21によって路面上を全方位に移動可能に構成されている。
移動機構21は、例えば、特開2017−56763号公報に開示されている移動機構と同様に構成されている。移動機構21は、円環状の芯体22、複数のローラ23、第1アクチュエータ24および第2アクチュエータ25を備えている(図3参照)。複数のローラ23は、芯体22の円周方向(軸心まわり方向)に等角度間隔で並ぶように、芯体22に外挿されており、複数のローラ23の各々は、芯体22の軸心まわりに、芯体22と一体に回転可能になっている。また、各ローラ23は、各ローラ23の配置位置における芯体22の横断面の中心軸(芯体22の軸心を中心とする円周の接線方向の軸)まわりに回転可能になっている。
さらに、第1アクチュエータ24は、電動機で構成されており、後述する制御入力信号が制御装置10から入力されたときに、駆動機構(図示略)を介して、芯体22をその軸心まわりに回転駆動する。
第2アクチュエータ25も、第1アクチュエータ24と同様に、電動機で構成されており、制御入力信号が制御装置10から入力されたときに、図示しない駆動機構を介して、ローラ23をその軸心まわりに回転駆動する。それにより、本体20は、路面上を全方位に移動するように、第1アクチュエータ24および第2アクチュエータ25によって駆動される。以上の構成により、ロボット2は、路面上を全方位に移動可能になっている。
次に、ロボット2の電気的な構成について説明する。図3に示されているように、ロボット2は、制御装置10、カメラ11、LIDAR12、加速度センサ13および無線通信装置14をさらに備えている。
制御装置10は、CPU、シングルコアプロセッサまたは/およびマルチコアプロセッサなどの演算処理装置、RAM、ROMまたは/およびE2PROMなどのメモリ(記憶装置)、ならびに、I/Oインターフェースおよび各種の電気回路などからなるマイクロコンピュータにより構成されている。E2PROM内には、ロボット2が案内する場所の地図データおよびCNN(Convolutional Neural Network)にしたがった演算処理を実行するためのソフトウェアが記憶されている。CNNは、学習装置30(後述する)によって、CNNのモデルパラメータすなわち結合層の重みおよびバイアス項が十分に学習された後のCNNである。
カメラ11(撮像装置)は、ロボット2の周辺環境を撮像し、それを表わす画像信号を制御装置10に出力する。LIDAR12(測距センサ)は、レーザー光を用いて、周辺環境内の対象物までの距離などを計測し、当該距離を表わす計測信号を制御装置10に出力する。さらに、加速度センサ13は、ロボット2の加速度を検出して、当該加速度を表わす検出信号を制御装置10に出力する。
制御装置10は、以上のカメラ11の画像信号およびLIDAR12の計測信号を用いて、amlc(adaptive Monte Carlo localization)手法により、ロボット2の自己位置を推定する。また、制御装置10は、LIDAR12の計測信号および加速度センサ13のそれぞれの検出信号に基づいて、ロボット2のx速度成分v_xおよびy速度成分v_yを算出する。
さらに、制御装置10には、無線通信装置14が接続されており、制御装置10は、無線通信装置14を介してサーバ5との間で無線通信を実行する。
(経路決定方法)
次に、本実施形態の経路決定システム1の構成および経路決定方法の原理について説明する。図4に示されている学習装置30は、CNNのモデルパラメータ(結合層の重みおよびバイアス項)(後述する)を学習するためのものであり、LIDAR31、移動経路取得要素32、学習用データ取得要素33およびCNN学習要素34を備えている。これらの要素32〜34は、演算処理装置および記憶装置などによって構成されている。
まず、一般的な歩行者の移動経路を学習するために、図5に示されているように、基準歩行者としての第1歩行者M1(「第1移動物体」に相当する。)が移動開始地点Ps(図6参照)から目的地点Po(図6参照)まで移動(または歩行)する場合において、移動開始時に、その進行方向に複数の第2歩行者M2(「第2移動物体」に相当する。)が不規則な配置で存在する人混みの状況が設定される。
次いで、LIDAR31が用いられ、第1歩行者M1が移動開始地点Psから目的地点Poまで実際に移動したときの実空間位置の時系列(実空間位置軌道)と、複数の第2歩行者M2の実空間位置の時系列と、が計測され、当該計測結果が移動経路取得要素32に出力される。
そして、移動経路取得要素32では、第1歩行者M1および複数の第2歩行者M2のそれぞれの実空間位置の時系列の計測結果に基づき、例えば、図6に示されているような第1歩行者M1の移動開始地点Psから目的地点Poまでの実空間における移動経路Rwが認識されて記憶装置に記憶される。図6に示されているように、第1歩行者M1の移動経路Rwは、2次元空間の離散的な複数の座標値(x、y)または連続関数y=f(x)により定義される。
例えば、第1歩行者M1の移動開始地点Psの座標値が(0、α)(0<α)に定義され、第1歩行者M1の移動開始方向が+y方向として定義される。第1歩行者M1の移動開始地点Psから目的地点Poに到達するまでの期間における第2歩行者M2の実空間位置の時系列または移動経路が、第1歩行者M1の移動経路Rwと関連付けられて移動経路取得要素32により取得される。
移動経路取得要素32により、第2歩行者M2が図7〜図13のそれぞれに示されている第1〜第7移動パターンのそれぞれにしたがって移動した場合における第1歩行者M1の移動経路Rwが取得される。
第1移動パターンは、図7に示されているように、10人の第2歩行者M2が、第1歩行者M1の前側(x座標値が大きい位置)から後方または−x方向に移動するパターンである。
第2移動パターンは、図8に示されているように、5人の第2歩行者M2が、第1歩行者M1の前側から後方または−x方向に移動するパターンである。
第3移動パターンは、図9に示されているように、10人の第2歩行者M2が、第1歩行者M1の右側(y座標値が小さい位置)から左方向または+y方向に移動するパターンである。
第4移動パターンは、図10に示されているように、5人の第2歩行者M2が、第1歩行者M1の右側から左方向または+y方向に移動するパターンである。
第5移動パターンは、図11に示されているように、10人の第2歩行者M2が、第1歩行者M1の左側(y座標値が大きい位置)から右方向または−y方向に移動するパターンである。
第6移動パターンは、図12に示されているように、5人の第2歩行者M2が、第1歩行者M1の左側から右方向または−y方向に移動するパターンである。
第7移動パターンは、図13に示されているように、5人の第2歩行者M2が、第1歩行者M1の右側から左方向(または+y方向)に移動する一方、その他の5人の第2歩行者M2が第1歩行者M1の左側から右方向(または−y方向)に移動するパターンである。
移動経路取得要素32により、第1歩行者M1の移動経路Rwが第2歩行者M2の位置と関連付けられた状態で取得され、それらの取得結果が学習用データ取得要素33に出力される。
学習用データ取得要素33により、移動経路Rwおよびこれに関連付けられた第2歩行者M2の位置の取得結果に基づき、以下に述べる手法にしたがって、学習用データが取得または生成される。まず、gazeboシミュレータなどのシミュレーション環境下で、前述した第2歩行者M2に相当する仮想第2歩行者M2’(図14参照)と、ロボット2に相当する仮想ロボット(図示せず)と、が生成または顕在化される。
次いで、仮想ロボットを第1歩行者M1の移動経路Rwに対応する移動経路にしたがって仮想空間で移動させながら、仮想第2歩行者M2’を移動経路取得要素32で取得された第2歩行者M2の実空間位置軌道に対応する仮想空間位置軌道にしたがって仮想空間で移動させる。
仮想ロボットの移動中において、当該仮想ロボットの周囲(例えば、前方)の視覚的環境を表わす複数の画像が所定周期で生成される。生成される画像は、実ロボットに搭載されている入力装置の位置、姿勢、画角およびサンプリング周期と一致させるのが望ましい。当該複数の画像に基づいて、SSD(Single Shot MultiBox Detector)手法にしたがって、マスク画像が「環境画像」として逐次的に生成される。
例えば、図14に示されているように、シミュレーション環境下で、3人の仮想第2歩行者M21’、M22’およびM23’が仮想ロボットの前方に位置している場合、SSD手法にしたがって、3人の仮想第2歩行者M21’、M22’およびM23’のそれぞれに対応する画像座標系における3つの矩形状の移動物体画像領域が探索されることにより、図15に示されている環境画像が生成される。移動物体画像領域の形状は、矩形状のほか、円形状、楕円形状、三角形状、台形状もしくは多角形状またはこれらが組み合わせられた形状であってもよい。
図15に示されているように、環境画像では、3人の仮想第2歩行者M21’、M22’およびM23’のそれぞれの占有画像領域(移動物体画像領域)が3つの矩形状の移動物体画像領域S(M21)、S(M22)およびS(M23)のそれぞれとして表示される。
環境画像はサンプリング周期ごとに逐次的に取得されて記憶装置に累積的に記憶される。そして、今回以前の複数回にわたる環境画像が複合されることにより、複合環境画像(複合マスク画像)、さらには当該複合環境画像を表わす環境画像データが生成される。例えば、今回以前の計3回にわたる時系列的な環境画像、すなわち、今回時点t=k(「k」はサンプリング周期を表わす指数である。)ならびに前回時点t=k−1および前々回時点t=k−2のそれぞれにおける環境画像が重ね合わせられることにより、図16に示されているような複合環境画像が生成される。
図16に示されている複合環境画像には、仮想第2歩行者M2i’(i=1、2、3)に対応する、今回以前の3回にわたる移動物体画像領域S(M2i)(t=k−2)、S(M2i)(t=k−1)およびS(M2i)(t=k)が含まれている。本実施形態では、同一の仮想第2歩行者M2i’に関して、前回の環境画像における矩形状領域の上に、今回の環境画像における矩形状領域が重ね合わせられる、というように、環境画像が時系列的に順に重ね合わせられている。このため、図16においては、前々回の移動物体画像領域S(M2i)(t=k−2)の一部が前回の移動物体画像領域S(M2i)(t=k−1)の陰に隠れ、前回の移動物体画像領域S(M2i)(t=k−1)の一部が今回の移動物体画像領域S(M2i)(t=k)の陰に隠れている。
図16に示されている複合環境画像において、過去にいくほど移動物体画像領域S(M2i)の全体的な明度が低くなっている。移動物体画像領域S(M2i)の明度に代えてまたは加えて、彩度および色相のうち少なくとも一方が時系列的に変化するように環境画像データが生成されてもよく、移動物体画像領域S(M2i)の全体ではなく境界部分などの一部のみの色相、彩度および明度のうち少なくとも1つが時系列的に変化するように環境画像データが生成されてもよい。
複合環境画像の上端部には、今回の目的地点Po(t=k)が矩形の白色ボックス等の所定形状および所定色彩を有する図形を表わす画像領域(または画素)および複合環境画像における当該画像領域の位置として表現されている。目的地点Poの位置は、仮想ロボットの現時点の自己位置を基準としたときの前方の中央に相当する方位を基準方位角(=0deg)として、−90deg〜90degの方位角範囲の値を表わす、複合環境画像の横方向の画素位置により定義されている。目的地点Poの位置は、複合環境画像の縦方向の画素位置または画像座標値により定義されていてもよい。
さらに、複合環境画像の下端には、仮想ロボットの今回の仮想x速度成分v_x’(t=k)および仮想y速度成分v_y’(t=k)が、2つの矩形の白色ボックス等の所定形状および所定色彩を有する図形を表わす画像領域(または画素)および複合環境画像における当該画像領域の位置として表現されている。仮想x速度成分v_x’は、仮想ロボットの仮想空間における速度のx成分であり、仮想ロボットの最小移動速度v_min(例えば0)から最大移動速度v_maxまでの範囲の値を表わす、複合環境画像の横方向の画素位置により定義されている。同様に、仮想y速度成分v_y’は、仮想ロボットの仮想空間における速度のy成分であり、仮想ロボットの最小移動速度v_min(例えば0)から最大移動速度v_maxまでの範囲の値を表わす、複合環境画像の横方向の画素位置により定義されている。仮想x速度成分v_x’および仮想y速度成分v_y’のうち少なくとも一方が、複合環境画像の縦方向の画素位置または画像座標値により定義されていてもよい。
学習用データ取得要素33では、サンプリング時の仮想ロボットの移動方向指令が、「左方向」、「中央方向(前方向)」および「右方向」の3つの方向を要素とするベクトルとして設定される。例えば、移動方向指令が仮想ロボットを前方に移動させる指令である場合、「中央方向」に対応する要素が「1」に設定され、「左方向」および「右方向」のそれぞれに対応する要素が「0」に設定される。
移動方向指令が仮想ロボットを右方向(前方向に対して右側に第1所定方位角θ1以上の方位角の方向)に移動させる指令である場合、「右方向」に対応する要素が「1」に設定され、それ以外の方向に対応する要素が「0」に設定される。同様に、移動方向指令が仮想ロボットを左方向(前方向に対して左側に第2所定方位角θ2以上の方位角の方向)に移動させる指令である場合、「左方向」に対応する要素が「1」に設定され、それ以外の方向に対応する要素が「0」に設定される。第1所定方位角θ1および第2所定方位角θ2は同一であっても異なっていてもよい。
次いで、学習用データ取得要素33により、複合環境画像(図16参照)およびこれに関連付けられた移動方向指令の1組のデータが、学習用データとして所定周期で生成される。そして、所定数の(例えば数千以上)の学習用データが生成されたことに応じて、当該学習用データがCNN学習要素34に出力される。学習用データ取得要素33により、一または複数の学習用データが一の所定周期または複数の所定周期で生成されるたびに、学習用データがCNN学習要素34に出力されてもよい。
CNN学習要素34により、入力された学習用データを用いて、CNNのモデルパラメータの学習が実行される。具体的には、1組の学習用データにおける環境画像がCNNに入力され、当該入力に応じたCNNの出力に対して、移動方向指令が教師データとして用いられる。
CNNの出力層は3ユニットで構成されている。当該3ユニットのそれぞれからの3つのsoftmax値を要素とする指令(以下「CNN出力指令」という)がCNNから出力される。CNN出力指令は、移動方向指令と同じ3つの方向(「左方向」、「中央方向」および「右方向」)を要素とする指令で構成されている。
次いで、移動方向指令とCNN出力指令の損失関数(例えば平均2乗和誤差)が用いられ、勾配法にしたがって、CNNの結合層の重みおよびバイアス項が決定される。すなわち、CNNのモデルパラメータの学習演算が実行される。そして、当該学習演算が学習用データの組数分(すなわち数千回分)にわたり実行されることにより、CNN学習要素34におけるCNNのモデルパラメータの学習演算が終了する。学習装置30では、以上のように、CNNのモデルパラメータの学習が実行される。
次に、図17を参照しながら、本実施形態の経路決定システム1などの構成について説明する。経路決定システム1は、以下に述べる手法によって、ロボット2の経路としての移動速度指令v_cmdを決定(算出)するものであり、移動速度指令v_cmdは、ロボット2のx速度成分v_xおよびy速度成分v_yの目標値である目標x速度成分v_x_cmdおよび目標y速度成分v_y_cmdを要素とするものである。
図17に示されているように、経路決定システム1は、複合環境画像生成要素50、移動方向決定要素51、暫定移動速度決定要素52および移動速度決定要素53を備えており、これらの要素50〜53は、具体的には、制御装置10によって構成されている。なお、以下に述べる各種の制御処理は所定の制御周期ΔTで実行されるものとする。
複合環境画像生成要素50により、カメラ11からの画像信号およびLIDAR12からの計測信号が入力されたことに応じて、前述したSSD手法にしたがって複合環境画像が生成される。当該複合環境画像には、図16に示されている複合環境画像と同様に、前方の移動物体を表わす矩形状領域の時系列が表示され、仮想x速度成分v_x’、仮想y速度成分v_y’および目的地点Poに代えて、ロボット2のx速度成分v_x、y速度成分v_yおよび指定地点Pobj(図示略)が表示される。
交通参加者の位置およびサイズは、カメラ11の画像信号およびLIDAR12の計測信号に基づいて決定される。また、ロボット2のx速度成分v_xおよびy速度成分v_yは、LIDAR12の計測信号および加速度センサ13の検出信号に基づいて決定される。さらに、指定地点Pobjは、サーバ5からの目的地点信号によって決定される。以上のように生成された環境画像は、環境画像生成要素50から移動方向決定要素51に出力される。
移動方向決定要素51は、前述したCNN学習要素34でモデルパラメータが学習されたCNN(学習済みモデル)を備えており、CNNを用いて、ロボット2の移動方向を以下のように決定する。
まず、移動方向決定要素51では、環境画像生成要素50からの環境画像がCNNに入力されると、前述したCNN出力指令がCNNから出力される。次いで、CNN出力指令の3つの要素(「左方向」、「中央方向」および「右方向」)のうち、最大値の要素の方向がロボット2の移動方向として決定される。そして、以上のように決定されたロボット2の移動方向は、移動方向決定要素51から暫定移動速度決定要素52に出力される。
暫定移動速度決定要素52では、移動方向決定要素51からのロボット2の移動方向と、ロボット2のx速度成分v_xおよびy速度成分v_yとに基づき、暫定移動速度指令v_cmd_cnnが算出される。暫定移動速度指令v_cmd_cnnは、ロボット2のx速度成分の暫定値v_x_cnnおよびy速度成分の暫定値v_y_cnnを要素とするベクトルである。次いで、以上のように決定されたロボット2の暫定移動速度指令v_cmd_cnnは、暫定移動速度決定要素52から移動速度決定要素53に出力される。
移動速度決定要素53では、暫定移動速度指令v_cmd_cnnに基づき、DWA(Dynamic Window Approach)を適用したアルゴリズムにしたがって、移動速度指令v_cmdが決定される。移動速度指令v_cmdは、目標x速度成分v_x_cmdおよび目標y速度成分v_y_cmdを要素とするものであり、これらの2つの速度成分v_x_cmd,v_y_cmdは、後述する移動制御処理において、ロボット2のx速度成分およびy速度成分の目標値として用いられる。
具体的には、関係式(1)にしたがって目的関数G(v)が定義され、目的関数G(v)が最大値になるように移動速度指令v_cmdが決定される。
G(v)= α・cnn(v)+ β・dist(v) ‥(1)。
「α」および「β」のそれぞれは、所定の重みパラメータであり、ロボット2の動作特性に基づいて決定される。「cnn(v)」は、Dynamic Window 内のx速度成分およびy速度成分を要素とする速度指令と暫定移動速度指令v_cmd_cnnとの偏差を主変数とし、主変数の値が小さいほどより大きな値を示す従変数または関数である。
「dist(v)」は、ロボット2がx速度成分の暫定値v_x_cnnおよびy速度成分の暫定値v_y_cnnで移動すると想定したときの、ロボット2(移動装置)に最も近接する交通参加者(移動物体)との距離を表わす値であり、LIDAR12の計測信号に基づいて決定される。
本実施形態の経路決定システム1では、以上のように、目標x速度成分v_x_cmdおよび目標y速度成分v_y_cmdを要素とする移動速度指令v_cmdが決定される。なお、本実施形態では、移動速度指令v_cmdを決定することが、ロボットの経路を決定することに相当する。
次に、図18を参照しながら、移動制御処理について説明する。移動制御処理は、ロボット2が上述した2つの目標速度v_x_cmd,v_y_cmdで移動するように、移動機構21の2つのアクチュエータ24,25を制御するためのものであり、制御装置10によって所定の制御周期ΔTで実行される。
図18に示されているように、まず、各種データが読み込まれる(図18/STEP1)。各種データは、前述したカメラ11、LIDAR12、加速度センサ13および無線通信装置14のそれぞれから制御装置10に入力された信号のデータである。
次いで、指定地点データにより表わされる指定地点Pobjが読み込まれ済みであるか否かが判定される(図18/STEP2)。当該判定結果が否定的である場合(図18/STEP2…NO)、すなわち指定地点データをサーバ5から受信してない場合、そのまま本処理を終了する。
一方、当該判定結果が肯定的である場合(図18/STEP2…YES)、前述した図17の手法にしたがって、目標x速度成分v_x_cmdおよび目標y速度成分v_y_cmdxを算出する(図18/STEP3)。
次いで、目標x速度成分v_x_cmdおよび目標y速度成分v_y_cmdxに応じて、所定の制御アルゴリズムにしたがって、x制御入力成分Uxおよびy制御入力成分Uyを算出する(図18/STEP4)。場合、所定の制御アルゴリズムとしては、マップ検索などのフィードフォワード制御アルゴリズムや、フィードバック制御アルゴリズムを用いればよい。
次に、x制御入力成分Ux対応する制御入力信号を第1アクチュエータ24に出力するとともに、y制御入力成分Uyに対応する制御入力信号を第2アクチュエータ25に出力する(図18/STEP5)。その後、本処理を終了する。それにより、ロボット2の実際のx速度成分v_xおよびy速度成分v_yが、目標x速度成分v_x_cmdおよび目標y速度成分v_y_cmdになるよう制御される。その結果、ロボット2は、これらの目標速度v_x_cmd,v_y_cmdで決まる経路に沿って、前方の交通参加者をよけながら指定地点Pobjに向かって移動することになる。
(効果)
本発明の一実施形態としての経路決定システム1によれば、複数の第2歩行者M2(第2移動物体)が複数の移動パターンのそれぞれにしたがって移動する環境において、第1歩行者M1(第1移動物体)が目的地点Poに向かって当該複数の第2歩行者M2との干渉を回避しながら移動した際の複数の移動経路Rwが認識される(図7〜図13参照)。
さらに、仮想空間においてが当該複数の移動経路のそれぞれにしたがって移動したときの仮想ロボット(仮想移動装置)の周囲の視覚的環境を表わす環境画像(図15参照)の時系列から構成される複合環境画像(図16参照)と、仮想ロボットの移動方向を表わす移動方向指令とが組み合わせられたデータが学習用データとして生成される。
複合環境画像が含まれる環境画像データを入力とする一方で移動方向指令を出力とするCNN(行動モデル)のモデルパラメータが、学習用データを用いて学習されることにより、学習済みモデルとして学習済みCNNが生成される。そして、学習済みCNNを用いて、ロボット2(移動装置)の移動速度指令v_cmdが決定される。
このため、学習モデルとしてのCNNのモデルパラメータが、第1歩行者M1(第1移動物体)の実際の移動経路および当該第1歩行者M1に対する第2歩行者M2の相対的な移動態様を反映させながら、精度よく学習されうる。その結果、複数の歩行者(移動物体)がロボット2の周囲に存在する状況においても、ロボット2が複数の移動物体との干渉を回避しながら目的地点まで円滑に移動するように、当該ロボット2の目標移動経路が決定されうる。
また、複合環境画像には、ロボット2の前方の環境画像に加えて、x速度成分v_xおよびy速度成分v_yを表わす2つの矩形の白色ボックスと、目的地点Poを表わす矩形の白色ボックスとが表現されているので、CNNの構造の単純化、ひいては、ロボット2の目標移動経路の決定に要する演算処理量の低減が図られる。これにより、ロボット2の目標移動経路が迅速かつ精度よく決定されうる。
さらに、学習用データは、仮想空間において仮想ロボットを複数の移動経路Rwのそれぞれにしたがって移動させることで生成されるので、ロボット2(実機)および交通参加者(複数の移動物体)が存在する環境を準備する必要がなくなる分、学習用データが容易に生成されうる。
(本発明の他の実施形態)
前記実施形態では、自律移動可能なロボット2が「移動装置」として採用されたが、他の実施形態として、一または複数の車輪を回転させることにより移動する車両、クローラ式の移動装置、または、2足歩行型のロボットなどが移動装置として採用されてもよい。移動装置2が、移動装置2に搭乗した人間により操作されることにより移動する移動装置、または、人間により遠隔操作されることにより移動する移動装置であってもよい。
前記実施形態では、第1移動物体および複数の第2移動物体がともに歩行者であったが、他の実施形態として、第1移動物体および複数の第2移動物体のうち一部または全部が歩行者以外の移動する物体であってもよい。例えば、当該物体が、自律移動可能な移動装置もしくは操縦者により操縦される移動装置、自転車もしくは車椅子に乗った人間、犬もしくは猫などの人間以外の動物であってもよい。
仮想移動装置として仮想ロボットではなく、第1移動物体の種類に応じた仮想移動装置が定義されてもよい。複数の仮想移動物体のうち少なくとも一部として歩行者(仮想歩行者)ではなく、第2移動物体の種類に応じた仮想移動物体が生成されてもよい。
前記実施形態では、行動モデルとしてCNNが採用されたが、他の実施形態として、行動モデルとして、RNN(Recurrent Neural Network)およびDQN(deep Q−network)など、環境画像データを入力とする一方で行動パラメータを出力とする他の行動モデルが採用されてもよい。
前記実施形態では、所定の学習法として、勾配法を用いた例であるが、本発明の所定の学習法は、これに限らず、行動モデルのモデルパラメータを学習するものであればよい。
前記実施形態では、ロボット2の移動機構として、芯体22および複数のローラ23を備えた移動機構21が採用されたが、他の実施形態として、ロボット2を全方位に移動させることが可能な他の構成の移動機構が採用されてもよい。例えば、移動機構として、球体と複数のローラとが組み合わせられ、当該複数のローラによって球体を回転駆動することにより、ロボット2を全方位に移動させる構成の移動機構が採用されてもよい。
前記実施形態は、CNNにしたがった演算処理を実行するためのソフトウェアをロボット2の制御装置10を構成する記憶装置に記憶保持させたが、他の実施形態として、サーバ5を構成する記憶装置に当該ソフトウェアを記憶させ、目標移動経路の決定演算処理がサーバ5により実行され、当該演算処理結果としての目標移動経路がサーバ5からロボット2に送信されてもよい。
さらに、実施形態は、移動速度決定要素53において、ロボット2の移動速度として、x速度成分v_xおよびy速度成分v_yを要素とする移動速度指令v_cmdをDWA手法により算出した例であるが、これに代えて、移動速度決定要素53において、ロボット2の移動速度として、x速度成分v_xおよび角速度ωがDWA手法にしたがって算出されてもよい。
前記実施形態は、移動経路取得要素32において、第2歩行者M2の移動パターンとして、第1〜第7移動パターンにしたがって複数の第2歩行者M2が移動した場合における第1歩行者M1の移動経路Rwが取得された(図7〜図13参照)。他の実施形態として、付加的または代替的に、第2歩行者M2の移動方向および数が当該7つの移動パターンとは異なる移動パターンにしたがって第2歩行者M2が移動した場合における第1歩行者M1の移動経路Rwが取得されてもよい。
例えば、第1群を構成する複数の第2歩行者M2と第2群を構成する複数の第2歩行者M2とが、互いに斜めに交差するように移動するような移動パターン、または、第1群を構成する複数の第2歩行者M2がx方向に移動し、第2群を構成する複数の第2歩行者M2がy方向に移動することで互いに交差するような移動パターンなどが用いられてもよい。
1‥経路決定システム、2‥ロボット(移動装置)、32‥移動経路取得要素、33‥学習用データ取得要素、34‥CNN学習要素、Pobj‥指定地点、M1‥第1歩行者(第1移動物体)、M2‥第2歩行者(第2移動物体)、Po‥目的地点、Rw‥第1歩行者の移動経路、v‥移動速度指令(ロボットの目標移動経路)。

Claims (6)

  1. 移動装置が、当該移動装置の周辺に複数の移動物体が存在する状況で目的地点まで目標移動経路を決定する方法であって、
    複数の第2移動物体が、異なる複数の移動パターンのそれぞれにしたがって移動する状況において、第1移動物体が前記複数の第2移動物体のそれぞれとの干渉を回避しながら前記目的地点まで移動した際の前記第1移動物体の複数の移動経路を認識し、
    前記移動装置が前記複数の移動経路のそれぞれにしたがって移動した際の、当該移動装置の環境を表わす環境画像の時系列が複合されることにより生成される複合環境画像を含む環境画像データと、当該移動装置の行動を表わす行動パラメータとが関連付けられた複数の学習用データを生成し、
    前記環境画像データを入力とする一方で前記行動パラメータを出力とする行動モデルのモデルパラメータを、前記複数の学習用データを用いて指定学習方法にしたがって学習することにより、学習済みの当該行動モデルである学習済みモデルを生成し、
    前記学習済みモデルを用いて、前記移動装置の前記目標移動経路を決定することを特徴とする経路決定方法。
  2. 請求項1に記載の経路決定方法において、
    前記環境画像として、前記移動装置の周辺に存在する複数の移動物体のそれぞれを表わす複数の移動物体画像領域が含まれている画像が認識され、
    前記複数の環境画像のそれぞれに含まれている前記複数の移動物体画像領域のそれぞれが重ね合わせられている前記複合環境画像が生成されることを特徴とする経路決定方法。
  3. 請求項2に記載の経路決定方法において、
    前記複数の環境画像のそれぞれの時系列の順の先後に応じて、前記複数の移動物体画像領域のそれぞれの一部または全部の色相、彩度もしくは明度またはこれらの任意の組み合わせが差別化されるように、前記複数の移動物体画像領域が重ね合わせられている前記複合環境画像が生成されることを特徴とする経路決定方法。
  4. 請求項2または3に記載の経路決定方法において、
    時系列的に後の前記移動物体画像領域が時系列的に前の前記移動物体画像領域の少なくとも一部を隠すように重ね合わせられている前記複合環境画像が生成されることを特徴とする経路決定方法。
  5. 請求項1〜4のうちいずれか1項に記載の経路決定方法において、
    前記環境画像データは、前記複合環境画像に加えて、前記移動装置の速度の高低を表わす速度画像および前記目的地点の方向を表わす方向画像のうち少なくとも一方をさらに含むことを特徴とする経路決定方法。
  6. 請求項1〜5のうちいずれか1項に記載の経路決定方法において、
    前記複数の学習用データは、仮想空間において仮想の前記ロボットが前記複数の移動経路のそれぞれにしたがって移動した際の、前記環境画像データおよび当該環境画像データに関連付けられた前記行動パラメータにより構成されていることを特徴とする経路決定方法。
JP2019043577A 2019-03-11 2019-03-11 倒立振子型ロボット Active JP7250571B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019043577A JP7250571B2 (ja) 2019-03-11 2019-03-11 倒立振子型ロボット
CN202010090222.2A CN111673729B (zh) 2019-03-11 2020-02-13 路径决定方法
US16/809,577 US11467592B2 (en) 2019-03-11 2020-03-05 Route determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019043577A JP7250571B2 (ja) 2019-03-11 2019-03-11 倒立振子型ロボット

Publications (2)

Publication Number Publication Date
JP2020149095A true JP2020149095A (ja) 2020-09-17
JP7250571B2 JP7250571B2 (ja) 2023-04-03

Family

ID=72424087

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019043577A Active JP7250571B2 (ja) 2019-03-11 2019-03-11 倒立振子型ロボット

Country Status (3)

Country Link
US (1) US11467592B2 (ja)
JP (1) JP7250571B2 (ja)
CN (1) CN111673729B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022102078A1 (ja) * 2020-11-13 2022-05-19 三菱電機株式会社 経路生成システム、経路生成方法、経路生成プログラム、及び自律移動体

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112276950B (zh) * 2020-10-21 2021-08-24 乐聚(深圳)机器人技术有限公司 抗扰动模型训练、控制方法、装置、设备、机器人及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005071265A (ja) * 2003-08-27 2005-03-17 Matsushita Electric Ind Co Ltd 学習装置および方法、並びにロボットのカスタマイズ方法
JP2008204102A (ja) * 2007-02-19 2008-09-04 Yokohama National Univ 画像処理システム
JP2018124982A (ja) * 2017-01-31 2018-08-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 制御装置および制御方法
JP2018190241A (ja) * 2017-05-09 2018-11-29 オムロン株式会社 タスク実行システム、タスク実行方法、並びにその学習装置及び学習方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009020897A (ja) * 2002-09-26 2009-01-29 Toshiba Corp 画像解析方法、画像解析装置、画像解析プログラム
JP4154980B2 (ja) * 2002-09-30 2008-09-24 アイシン精機株式会社 移動体周辺監視装置
JP4576445B2 (ja) 2007-04-12 2010-11-10 パナソニック株式会社 自律移動型装置および自律移動型装置用プログラム
JP5402057B2 (ja) 2009-02-16 2014-01-29 トヨタ自動車株式会社 移動ロボット制御システム、経路探索方法、経路探索プログラム
KR101401311B1 (ko) * 2012-03-21 2014-05-29 한국과학기술원 복수의 이동체의 경로를 계획하는 장치 및 방법
JP6372402B2 (ja) * 2015-03-16 2018-08-15 株式会社デンソー 画像生成装置
JP6798206B2 (ja) * 2016-09-14 2020-12-09 トヨタ自動車株式会社 移動体の推奨ルート決定システム
US10268200B2 (en) * 2016-12-21 2019-04-23 Baidu Usa Llc Method and system to predict one or more trajectories of a vehicle based on context surrounding the vehicle
DE102017105879A1 (de) * 2017-03-20 2018-09-20 Valeo Schalter Und Sensoren Gmbh Verfahren und Auswertevorrichtung zum Erfassen einer Umgebung eines Fahrzeugs und Fahrzeug
US10751877B2 (en) * 2017-12-31 2020-08-25 Abb Schweiz Ag Industrial robot training using mixed reality

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005071265A (ja) * 2003-08-27 2005-03-17 Matsushita Electric Ind Co Ltd 学習装置および方法、並びにロボットのカスタマイズ方法
JP2008204102A (ja) * 2007-02-19 2008-09-04 Yokohama National Univ 画像処理システム
JP2018124982A (ja) * 2017-01-31 2018-08-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 制御装置および制御方法
JP2018190241A (ja) * 2017-05-09 2018-11-29 オムロン株式会社 タスク実行システム、タスク実行方法、並びにその学習装置及び学習方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022102078A1 (ja) * 2020-11-13 2022-05-19 三菱電機株式会社 経路生成システム、経路生成方法、経路生成プログラム、及び自律移動体

Also Published As

Publication number Publication date
US11467592B2 (en) 2022-10-11
US20200293051A1 (en) 2020-09-17
CN111673729B (zh) 2023-06-13
JP7250571B2 (ja) 2023-04-03
CN111673729A (zh) 2020-09-18

Similar Documents

Publication Publication Date Title
JP7130062B2 (ja) 経路決定方法
JP7469850B2 (ja) 経路決定装置、ロボット及び経路決定方法
CN103324196A (zh) 基于模糊逻辑的多机器人路径规划与协调避碰方法
KR102303432B1 (ko) 장애물의 특성을 고려한 dqn 및 slam 기반의 맵리스 내비게이션 시스템 및 그 처리 방법
Zhu et al. A hierarchical deep reinforcement learning framework with high efficiency and generalization for fast and safe navigation
CN113848974A (zh) 一种基于深度强化学习的飞行器轨迹规划方法及系统
JP7250571B2 (ja) 倒立振子型ロボット
CN116804879A (zh) 一种改进蜣螂算法融合dwa算法的机器人路径规划框架方法
JP7258046B2 (ja) 経路決定装置、ロボット及び経路決定方法
Kim et al. An open-source low-cost mobile robot system with an RGB-D camera and efficient real-time navigation algorithm
Ma et al. Towards navigation without precise localization: Weakly supervised learning of goal-directed navigation cost map
JP7250572B2 (ja) 倒立振子型ロボット
JP7250573B2 (ja) 倒立振子型ロボット
Tao et al. Fast and Robust Training and Deployment of Deep Reinforcement Learning Based Navigation Policy
Afonso et al. Autonomous Navigation of Wheelchairs in Indoor Environments using Deep Reinforcement Learning and Computer Vision
US20220076004A1 (en) Model parameter learning method and movement mode parameter determination method
Wang et al. EMBEDDED NAVIGATION SYSTEM OF MECHATRONICS ROBOT BY FUZZY CONTROL ALGORITHM
Haapajärvi Software toolkits for prototyping autonomous mobile robots
Ramane et al. Autonomous Racing Vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230322

R150 Certificate of patent or registration of utility model

Ref document number: 7250571

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150