JP2020149097A - 倒立振子型ロボット - Google Patents

倒立振子型ロボット Download PDF

Info

Publication number
JP2020149097A
JP2020149097A JP2019043579A JP2019043579A JP2020149097A JP 2020149097 A JP2020149097 A JP 2020149097A JP 2019043579 A JP2019043579 A JP 2019043579A JP 2019043579 A JP2019043579 A JP 2019043579A JP 2020149097 A JP2020149097 A JP 2020149097A
Authority
JP
Japan
Prior art keywords
moving
robot
movement
pedestrian
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019043579A
Other languages
English (en)
Other versions
JP7250573B2 (ja
Inventor
長谷川 雄二
Yuji Hasegawa
雄二 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019043579A priority Critical patent/JP7250573B2/ja
Priority to CN202010095774.2A priority patent/CN111673730B/zh
Priority to US16/812,383 priority patent/US11669096B2/en
Publication of JP2020149097A publication Critical patent/JP2020149097A/ja
Application granted granted Critical
Publication of JP7250573B2 publication Critical patent/JP7250573B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • G05D1/0291Fleet control
    • G05D1/0297Fleet control by controlling means in a control room
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Electromagnetism (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Optics & Photonics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

【課題】移動装置が交通参加者などの複数の移動物体との干渉を回避しながら目的地点まで円滑に移動しうるように、ロボットの経路を決定する方法を提供する。【解決手段】複数の第2歩行者M2が所定の移動パターンにしたがって移動する環境において、第1歩行者M1が目的地点Poに向かって移動した際の複数の移動経路Rwが認識される。各移動経路Rwにしたがって移動した際の仮想ロボットの前方の視覚的環境を表わす環境画像と、仮想ロボットの移動方向を表わす移動方向指令とが組み合わせられたデータが学習用データとして生成される。環境画像において、ロボット2の周辺に存在する歩行者(移動物体)を表わす移動物体画像領域の少なくとも一部に対して、当該移動物体の種類に応じた色彩が付されている。環境画像が含まれる環境画像データを入力とする一方で移動方向指令を出力とするCNN(行動モデル)のモデルパラメータが、学習用データを用いて学習され、学習済みCNNが用いられてロボット2の移動速度指令v_cmdが決定される。【選択図】図4

Description

本発明は、自律移動型のロボットの経路決定方法に関する。
従来、自律移動型のロボットの経路決定方法として、特許文献1および特許文献2に記載されたものが知られている。特許文献1の経路決定方法では、ロボットが歩行者などの交通参加者の速度に基づいて、交通参加者に干渉する可能性があると予想される干渉可能性時間が算出され、さらに、交通参加者が所定時間後に移動すると想定される仮想障害物領域が算出される。そして、干渉可能性時間および仮想障害物領域に基づいて、ロボットの経路が決定される。それにより、ロボットと交通参加者との干渉が回避される。
また、特許文献2の経路決定方法では、ロボットの現在位置を計算し、外界センサが測定した距離データに基づいて、障害物地図を生成するとともに、記憶部から地図情報を読み込む。次いで、障害物地図および地図情報を参照して、障害物が地図情報に記憶された経路上に存在するか否かを判定し、障害物が経路上に存在する場合には、ロボットの経路をA*探索アルゴリズムにより実行する。具体的には、現在位置情報、障害物地図および地図情報に基づいて、グリッドマップ上のロボットを取り囲む多数のグリッドにおける障害物の存在確率を算出し、障害物の存在確率が最も低いグリッドが経路として決定される。
特開2009−110495号公報 特開2010−191502号公報
上記特許文献1の経路決定方法によれば、交通参加者の干渉可能性時間および仮想障害物領域を用いている関係上、歩行者などの実際の交通参加者が予測不可能な軌跡で移動したときには、ロボットと交通参加者の干渉状態が頻発してしまう。その結果、ロボットの停止状態が頻発してしまい、商品性が低いという問題がある。特に、人混みが存在する交通環境下では、問題が顕著になる。
また、特許文献2の経路決定方法の場合にも、歩行者などの実際の交通参加者が予測不可能な軌跡で移動したときには、特許文献1と同じ問題が発生する。特に、人混みが存在する交通環境下では、障害物の存在確率が最も低いグリッドが見つからない状態となることで、ロボットの停止時間が長くなってしまう。
そこで、本発明は、移動装置が交通参加者などの複数の移動物体との干渉を回避しながら目的地点まで円滑に移動しうるように、ロボットの経路を決定する方法を提供することを目的とする。
本発明は、移動装置が、当該移動装置の周辺に複数の移動物体が存在する状況で目的地点まで目標移動経路を決定する方法に関する。
本発明の経路決定方法は、複数の第2移動物体が、異なる複数の移動パターンのそれぞれにしたがって移動する状況において、第1移動物体が前記複数の第2移動物体のそれぞれとの干渉を回避しながら前記目的地点まで移動した際の前記第1移動物体の複数の移動経路を認識し、前記移動装置が前記複数の移動経路のそれぞれにしたがって移動した際の、当該移動装置の周辺の視覚的環境を表わす環境画像として、当該移動装置の周辺に存在する移動物体を表わす移動物体画像領域の少なくとも一部に対して、当該移動物体の種類に応じた色彩が付されている環境画像が生成され、当該環境画像を含む環境画像データと、当該移動装置の行動を表わす行動パラメータとが関連付けられた複数の学習用データを生成し、前記環境画像データを入力とする一方で前記行動パラメータを出力とする行動モデルのモデルパラメータを、前記複数の学習用データを用いて指定学習方法にしたがって学習することにより、学習済みの当該行動モデルである学習済みモデルを生成し、前記学習済みモデルを用いて、前記移動装置の前記目標移動経路を決定することを特徴とする。
本発明の経路決定方法によれば、複数の第2移動物体が複数の移動パターンのそれぞれにしたがって移動する環境において、第1移動物体が目的地点に向かって当該複数の第2移動物体との干渉を回避しながら移動した際の複数の移動経路が認識される。さらに、仮想空間において当該複数の移動経路のそれぞれにしたがって移動したときの、仮想移動装置の周辺の視覚的環境を表わす環境画像として、仮想移動装置の周辺に存在する移動物体を表わす移動物体画像領域のそれぞれに対して、当該移動物体の種類に応じた色彩が付されている環境画像と、仮想移動装置の移動方向を表わす移動方向指令とが組み合わせられたデータが学習用データとして生成される。環境画像が含まれる環境画像データを入力とする一方で移動方向指令を出力とする行動モデルのモデルパラメータが、学習用データを用いて学習されることにより、学習済みモデルが生成される。そして、学習済みモデルを用いて、移動装置の移動速度指令が決定される。
このため、学習モデルのモデルパラメータが、第1移動物体の実際の移動経路および当該第1移動物体に対する第2移動物体の相対的な移動態様を反映させながら、精度よく学習されうる。その結果、複数の移動物体が移動装置の周囲に存在する状況においても、移動装置が複数の移動物体との干渉を回避しながら目的地点まで円滑に移動するように、当該移動装置の目標移動経路が決定されうる。
本発明の経路決定方法において、前記環境画像データは、前記環境画像に加えて、前記移動装置の速度の高低を表わす速度画像および前記目的地点の方向を表わす方向画像のうち少なくとも一方をさらに含むことが好ましい。
当該経路決定方法によれば、環境画像データには、環境画像に加えて、移動装置の速度の高低を表わす速度画像および目的地点の方向を表わす方向画像のうち少なくとも一方がさらに含まれている。このため、行動モデルの構造の単純化、ひいてはロボットの経路決定時の演算処理量の低減が図られ、その結果、ロボットの経路が迅速かつ精度よく決定されうる。
本発明の経路決定方法において、前記複数の学習用データは、仮想空間において仮想の前記ロボットが前記複数の移動経路のそれぞれにしたがって移動した際の、前記環境画像データおよび当該環境画像データに関連付けられた前記行動パラメータにより構成されていることが好ましい。
当該経路決定方法によれば、仮想移動装置を仮想空間において複数の移動経路のそれぞれにしたがって移動させることで、複数の学習用データが生成される。これにより、移動装置(実機)を実際に準備する必要がなくなる分、学習用データ、ひいては当該学習用データを記憶保持するデータベースが容易に生成されうる。
本発明の一実施形態に係る経路決定システムを適用したロボットの外観図。 ロボットによる案内システムの構成図。 ロボットの電気的な構成を示すブロック図。 学習装置の構成を示すブロック図。 第1歩行者の移動経路を取得するときの斜視図。 図5の移動経路の取得結果の例示図。 第2歩行者の配置の第1パターンに関する説明図。 第2歩行者の配置の第2パターンに関する説明図。 第2歩行者の配置の第3パターンに関する説明図。 第2歩行者の配置の第4パターンに関する説明図。 第2歩行者の配置の第5パターンに関する説明図。 第2歩行者の配置の第6パターンに関する説明図。 第2歩行者の配置の第7パターンに関する説明図。 シミュレーション環境下の仮想ロボット視点からの画像に関する説明図。 図14の画像から生成した環境画像としてのマスク画像に関する説明図。 経路決定システムの構成を表わすブロック図。 移動制御処理を示すフローチャート。
(経路決定システムの構成)
図1に示されている本発明の一実施形態としての経路決定システム1は、倒立振子型のロボット2(「移動装置」に相当する。)に適用されたものであり、後述する手法によって、交通参加者の存在確率が高い条件下で、ロボット2の経路を決定するものである。
ロボット2は、自律移動型のものであり、図2に示す案内システム3で用いられる。案内システム3は、ショッピングモールや空港などにおいて、ロボット2が利用者を先導しながらその目的地点(例えば店舗や搭乗ゲート)まで案内する形式のものである。
図2に示されているように、案内システム3は、所定の領域内を自律移動する複数のロボット2と、複数のロボット2とは別体に設けられ、利用者の目的地点が入力される入力装置4と、ロボット2および入力装置4と相互に無線通信可能なサーバ5とを備えている。
入力装置4は、例えば、マウス、キーボードおよびタッチパネルのうち少なくとも1つにより構成されている。利用者(または操作者)により入力装置4を通じて目的地点が入力されたことに応じて、当該目的地点を表わす目的地点データがサーバ5に送信される。サーバ5により、目的地点データが受信されると、サーバ5が有する記憶装置に格納されている地図データに基づき、当該目的地点データにより表わされる目的地点、または、現在地点から目的地点までの中間地点が指定地点Pobjに設定される。サーバ5から指定地点Pobjを表わす指定地点データがロボット2に送信される。
(ロボットの構成)
ロボット2が有する制御装置10により、サーバ5から送信された指定地点データが無線通信装置14を介して受信された場合、当該指定地点データにより表わされる指定地点Pobjが読み込まれ、当該指定地点Pobjまでの経路が決定される。
次に、ロボット2の機械的な構成について説明する。図1に示されているように、ロボット2は、本体20と、本体20の下部に設けられた移動機構21などを備えており、移動機構21によって路面上を全方位に移動可能に構成されている。
移動機構21は、例えば、特開2017−56763号公報に開示されている移動機構と同様に構成されている。移動機構21は、円環状の芯体22、複数のローラ23、第1アクチュエータ24および第2アクチュエータ25を備えている(図3参照)。複数のローラ23は、芯体22の円周方向(軸心まわり方向)に等角度間隔で並ぶように、芯体22に外挿されており、複数のローラ23の各々は、芯体22の軸心まわりに、芯体22と一体に回転可能になっている。また、各ローラ23は、各ローラ23の配置位置における芯体22の横断面の中心軸(芯体22の軸心を中心とする円周の接線方向の軸)まわりに回転可能になっている。
さらに、第1アクチュエータ24は、電動機で構成されており、後述する制御入力信号が制御装置10から入力されたときに、駆動機構(図示略)を介して、芯体22をその軸心まわりに回転駆動する。
第2アクチュエータ25も、第1アクチュエータ24と同様に、電動機で構成されており、制御入力信号が制御装置10から入力されたときに、図示しない駆動機構を介して、ローラ23をその軸心まわりに回転駆動する。それにより、本体20は、路面上を全方位に移動するように、第1アクチュエータ24および第2アクチュエータ25によって駆動される。以上の構成により、ロボット2は、路面上を全方位に移動可能になっている。
次に、ロボット2の電気的な構成について説明する。図3に示されているように、ロボット2は、制御装置10、カメラ11、LIDAR12、加速度センサ13および無線通信装置14をさらに備えている。
制御装置10は、CPU、シングルコアプロセッサまたは/およびマルチコアプロセッサなどの演算処理装置、RAM、ROMまたは/およびE2PROMなどのメモリ(記憶装置)、ならびに、I/Oインターフェースおよび各種の電気回路などからなるマイクロコンピュータにより構成されている。E2PROM内には、ロボット2が案内する場所の地図データおよびCNN(Convolutional Neural Network)にしたがった演算処理を実行するためのソフトウェアが記憶されている。CNNは、学習装置30(後述する)によって、CNNのモデルパラメータすなわち結合層の重みおよびバイアス項が十分に学習された後のCNNである。
カメラ11(撮像装置)は、ロボット2の周辺環境を撮像し、それを表わす画像信号を制御装置10に出力する。LIDAR12(測距センサ)は、レーザー光を用いて、周辺環境内の対象物までの距離などを計測し、当該距離を表わす計測信号を制御装置10に出力する。さらに、加速度センサ13は、ロボット2の加速度を検出して、当該加速度を表わす検出信号を制御装置10に出力する。
制御装置10は、以上のカメラ11の画像信号およびLIDAR12の計測信号を用いて、amlc(adaptive Monte Carlo localization)手法により、ロボット2の自己位置を推定する。また、制御装置10は、LIDAR12の計測信号および加速度センサ13のそれぞれの検出信号に基づいて、ロボット2のx速度成分v_xおよびy速度成分v_yを算出する。
さらに、制御装置10には、無線通信装置14が接続されており、制御装置10は、無線通信装置14を介してサーバ5との間で無線通信を実行する。
(経路決定方法)
次に、本実施形態の経路決定システム1の構成および経路決定方法の原理について説明する。図4に示されている学習装置30は、CNNのモデルパラメータ(結合層の重みおよびバイアス項)(後述する)を学習するためのものであり、LIDAR31、移動経路取得要素32、学習用データ取得要素33およびCNN学習要素34を備えている。これらの要素32〜34は、演算処理装置および記憶装置などによって構成されている。
まず、一般的な歩行者の移動経路を学習するために、図5に示されているように、基準歩行者としての第1歩行者M1(「第1移動物体」に相当する。)が移動開始地点Ps(図6参照)から目的地点Po(図6参照)まで移動(または歩行)する場合において、移動開始時に、その進行方向に複数の第2歩行者M2(「第2移動物体」に相当する。)が不規則な配置で存在する人混みの状況が設定される。第2歩行者M2のうち少なくとも一部は、スーツケースまたはカートなどの付属移動物体と一緒に移動していてもよい。
次いで、LIDAR31が用いられ、第1歩行者M1が移動開始地点Psから目的地点Poまで実際に移動したときの実空間位置の時系列(実空間位置軌道)と、複数の第2歩行者M2の実空間位置の時系列と、が計測され、当該計測結果が移動経路取得要素32に出力される。
そして、移動経路取得要素32では、第1歩行者M1および複数の第2歩行者M2のそれぞれの実空間位置の時系列の計測結果に基づき、例えば、図6に示されているような第1歩行者M1の移動開始地点Psから目的地点Poまでの実空間における移動経路Rwが認識されて記憶装置に記憶される。図6に示されているように、第1歩行者M1の移動経路Rwは、2次元空間の離散的な複数の座標値(x、y)または連続関数y=f(x)により定義される。
例えば、第1歩行者M1の移動開始地点Psの座標値が(0、α)(0<α)に定義され、第1歩行者M1の移動開始方向が+y方向として定義される。第1歩行者M1の移動開始地点Psから目的地点Poに到達するまでの期間における第2歩行者M2の実空間位置の時系列または移動経路が、第1歩行者M1の移動経路Rwと関連付けられて移動経路取得要素32により取得される。
移動経路取得要素32により、第2歩行者M2が図7〜図13のそれぞれに示されている第1〜第7移動パターンのそれぞれにしたがって移動した場合における第1歩行者M1の移動経路Rwが取得される。
第1移動パターンは、図7に示されているように、10人の第2歩行者M2が、第1歩行者M1の前側(x座標値が大きい位置)から後方または−x方向に移動するパターンである。
第2移動パターンは、図8に示されているように、5人の第2歩行者M2が、第1歩行者M1の前側から後方または−x方向に移動するパターンである。
第3移動パターンは、図9に示されているように、10人の第2歩行者M2が、第1歩行者M1の右側(y座標値が小さい位置)から左方向または+y方向に移動するパターンである。
第4移動パターンは、図10に示されているように、5人の第2歩行者M2が、第1歩行者M1の右側から左方向または+y方向に移動するパターンである。
第5移動パターンは、図11に示されているように、10人の第2歩行者M2が、第1歩行者M1の左側(y座標値が大きい位置)から右方向または−y方向に移動するパターンである。
第6移動パターンは、図12に示されているように、5人の第2歩行者M2が、第1歩行者M1の左側から右方向または−y方向に移動するパターンである。
第7移動パターンは、図13に示されているように、5人の第2歩行者M2が、第1歩行者M1の右側から左方向(または+y方向)に移動する一方、その他の5人の第2歩行者M2が第1歩行者M1の左側から右方向(または−y方向)に移動するパターンである。
移動経路取得要素32により、第1歩行者M1の移動経路Rwが第2歩行者M2の位置と関連付けられた状態で取得され、それらの取得結果が学習用データ取得要素33に出力される。
学習用データ取得要素33により、移動経路Rwおよびこれに関連付けられた第2歩行者M2の位置の取得結果に基づき、以下に述べる手法にしたがって、学習用データが取得または生成される。まず、gazeboシミュレータなどのシミュレーション環境下で、前述した第2歩行者M2に相当する仮想第2歩行者M2’(図14参照)と、ロボット2に相当する仮想ロボット(図示せず)と、が生成または顕在化される。
次いで、仮想ロボットを第1歩行者M1の移動経路Rwに対応する移動経路にしたがって仮想空間で移動させながら、仮想第2歩行者M2’を移動経路取得要素32で取得された第2歩行者M2の実空間位置軌道に対応する仮想空間位置軌道にしたがって仮想空間で移動させる。
仮想ロボットの移動中において、当該仮想ロボットの前方の視覚的環境を表わす複数の画像が所定周期で生成される。生成される画像は、実ロボットに搭載されている入力装置の位置、姿勢、画角およびサンプリング周期と一致させるのが望ましい。当該複数の画像に基づいて、SSD(Single Shot MultiBox Detector)手法にしたがって、マスク画像が「環境画像」として逐次的に生成される。
例えば、図14に示されているように、シミュレーション環境下で、3人の仮想第2歩行者M21’、M22’およびM23’が仮想ロボットの前方に位置している場合、SSD手法にしたがって、3人の仮想第2歩行者M21’、M22’およびM23’のそれぞれに対応する画像座標系における3つの矩形状領域が探索される。さらに、第1の仮想第2歩行者M21’が引いているトランクA21’、第2の仮想第2歩行者M22’が押しているカートA22’、および、第3の仮想第2歩行者M23’が押しているカートA23’のそれぞれに対応する画像座標系における3つの矩形状領域が探索される。これにより、図15に示されている環境画像が生成される。移動物体画像領域の形状は、矩形状のほか、円形状、楕円形状、三角形状、台形状もしくは多角形状またはこれらが組み合わせられた形状であってもよい。
図15に示されているように、環境画像では、3人の仮想第2歩行者M21’、M22’およびM23’のそれぞれの占有画像領域が3つの矩形状の移動物体画像領域S(M21)、S(M22)およびS(M23)のそれぞれとして表示される。さらに、第1の仮想第2歩行者M21’が引いているスーツケースA21’、第2の仮想第2歩行者M22’が押しているカートA22’、および、第3の仮想第2歩行者M23’が押しているカートA23’のそれぞれに対応する画像領域が移動物体矩形状領域S(A21)、S(A22)およびS(A23)のそれぞれとして表示される。
また、複数の移動物体画像領域S(M21)、S(M22)およびS(M23)ならびにS(A21)、S(A22)およびS(A23)のそれぞれに対応する移動物体の種類を表わす色彩が、複数の移動物体画像領域S(M21)、S(M22)およびS(M23)ならびにS(A21)、S(A22)およびS(A23)のそれぞれに対して付されている。移動物体の種類は、パターンマッチングなどの画像解析手法にしたがって判定される。
例えば、歩行者を表わす移動物体画像領域S(M21)、S(M22)およびS(M23)に黄色が付され、スーツケースを表わす移動物体画像領域S(A21)に緑色が付され、カートを表わす移動物体画像領域S(A22)およびS(A23)に青色が付される。
環境画像の上端部には、目的地点Poが矩形の白色ボックス等の所定形状および所定色彩を有する図形を表わす画像領域(または画素)および環境画像における当該画像領域の位置として表現されている。目的地点Poの位置は、仮想ロボットの現時点の自己位置を基準としたときの前方の中央に相当する方位を基準方位角(=0deg)として、−90deg〜90degの方位角範囲の値を表わす、環境画像の横方向の画素位置により定義されている。目的地点Poの位置は、環境画像の縦方向の画素位置または画像座標値により定義されていてもよい。
さらに、環境画像の下端には、仮想ロボットの今回の仮想x速度成分v_x’および仮想y速度成分v_y’が、2つの矩形の白色ボックス等の所定形状および所定色彩を有する図形を表わす画像領域(または画素)および環境画像における当該画像領域の位置として表現されている。仮想x速度成分v_x’は、仮想ロボットの仮想空間における速度のx成分であり、仮想ロボットの最小移動速度v_min(例えば0)から最大移動速度v_maxまでの範囲の値を表わす、環境画像の横方向の画素位置により定義されている。同様に、仮想y速度成分v_y’は、仮想ロボットの仮想空間における速度のy成分であり、仮想ロボットの最小移動速度v_min(例えば0)から最大移動速度v_maxまでの範囲の値を表わす、環境画像の横方向の画素位置により定義されている。仮想x速度成分v_x’および仮想y速度成分v_y’のうち少なくとも一方が、環境画像の縦方向の画素位置または画像座標値により定義されていてもよい。
学習用データ取得要素33では、サンプリング時の仮想ロボットの移動方向指令が、「左方向」、「中央方向(前方向)」および「右方向」の3つの方向を要素とするベクトルとして設定される。例えば、移動方向指令が仮想ロボットを前方に移動させる指令である場合、「中央方向」に対応する要素が「1」に設定され、「左方向」および「右方向」のそれぞれに対応する要素が「0」に設定される。
移動方向指令が仮想ロボットを右方向(前方向に対して右側に第1所定方位角θ1以上の方位角の方向)に移動させる指令である場合、「右方向」に対応する要素が「1」に設定され、それ以外の方向に対応する要素が「0」に設定される。同様に、移動方向指令が仮想ロボットを左方向(前方向に対して左側に第2所定方位角θ2以上の方位角の方向)に移動させる指令である場合、「左方向」に対応する要素が「1」に設定され、それ以外の方向に対応する要素が「0」に設定される。第1所定方位角θ1および第2所定方位角θ2は同一であっても異なっていてもよい。
次いで、学習用データ取得要素33により、環境画像(図16参照)およびこれに関連付けられた移動方向指令の1組のデータが、学習用データとして所定周期で生成される。そして、所定数の(例えば数千以上)の学習用データが生成されたことに応じて、当該学習用データがCNN学習要素34に出力される。学習用データ取得要素33により、一または複数の学習用データが一の所定周期または複数の所定周期で生成されるたびに、学習用データがCNN学習要素34に出力されてもよい。
CNN学習要素34により、入力された学習用データを用いて、CNNのモデルパラメータの学習が実行される。具体的には、1組の学習用データにおける環境画像がCNNに入力され、当該入力に応じたCNNの出力に対して、移動方向指令が教師データとして用いられる。
CNNの出力層は3ユニットで構成されている。当該3ユニットのそれぞれからの3つのsoftmax値を要素とする指令(以下「CNN出力指令」という)がCNNから出力される。CNN出力指令は、移動方向指令と同じ3つの方向(「左方向」、「中央方向」および「右方向」)を要素とする指令で構成されている。
次いで、移動方向指令とCNN出力指令の損失関数(例えば平均2乗和誤差)が用いられ、勾配法にしたがって、CNNの結合層の重みおよびバイアス項が決定される。すなわち、CNNのモデルパラメータの学習演算が実行される。そして、当該学習演算が学習用データの組数分(すなわち数千回分)にわたり実行されることにより、CNN学習要素34におけるCNNのモデルパラメータの学習演算が終了する。学習装置30では、以上のように、CNNのモデルパラメータの学習が実行される。
次に、図16を参照しながら、本実施形態の経路決定システム1などの構成について説明する。経路決定システム1は、以下に述べる手法によって、ロボット2の経路としての移動速度指令v_cmdを決定(算出)するものであり、移動速度指令v_cmdは、ロボット2のx速度成分v_xおよびy速度成分v_yの目標値である目標x速度成分v_x_cmdおよび目標y速度成分v_y_cmdを要素とするものである。
図16に示されているように、経路決定システム1は、環境画像生成要素50、移動方向決定要素51、暫定移動速度決定要素52および移動速度決定要素53を備えており、これらの要素50〜53は、具体的には、制御装置10によって構成されている。なお、以下に述べる各種の制御処理は所定の制御周期ΔTで実行されるものとする。
環境画像生成要素50により、カメラ11からの画像信号およびLIDAR12からの計測信号が入力されたことに応じて、前述したSSD手法にしたがって環境画像が生成される。当該環境画像には、図15に示されている環境画像と同様に、前方の移動物体を表わす矩形状領域の時系列が表示され、仮想x速度成分v_x’、仮想y速度成分v_y’および目的地点Poに代えて、ロボット2のx速度成分v_x、y速度成分v_yおよび指定地点Pobj(図示略)が表示される。
交通参加者の位置およびサイズは、カメラ11の画像信号およびLIDAR12の計測信号に基づいて決定される。また、ロボット2のx速度成分v_xおよびy速度成分v_yは、LIDAR12の計測信号および加速度センサ13の検出信号に基づいて決定される。さらに、指定地点Pobjは、サーバ5からの目的地点信号によって決定される。以上のように生成された環境画像は、環境画像生成要素50から移動方向決定要素51に出力される。
移動方向決定要素51は、前述したCNN学習要素34でモデルパラメータが学習されたCNN(学習済みモデル)を備えており、CNNを用いて、ロボット2の移動方向を以下のように決定する。
まず、移動方向決定要素51では、環境画像生成要素50からの環境画像がCNNに入力されると、前述したCNN出力指令がCNNから出力される。次いで、CNN出力指令の3つの要素(「左方向」、「中央方向」および「右方向」)のうち、最大値の要素の方向がロボット2の移動方向として決定される。そして、以上のように決定されたロボット2の移動方向は、移動方向決定要素51から暫定移動速度決定要素52に出力される。
暫定移動速度決定要素52では、移動方向決定要素51からのロボット2の移動方向と、ロボット2のx速度成分v_xおよびy速度成分v_yとに基づき、暫定移動速度指令v_cmd_cnnが算出される。暫定移動速度指令v_cmd_cnnは、ロボット2のx速度成分の暫定値v_x_cnnおよびy速度成分の暫定値v_y_cnnを要素とするベクトルである。次いで、以上のように決定されたロボット2の暫定移動速度指令v_cmd_cnnは、暫定移動速度決定要素52から移動速度決定要素53に出力される。
移動速度決定要素53では、暫定移動速度指令v_cmd_cnnに基づき、DWA(Dynamic Window Approach)を適用したアルゴリズムにしたがって、移動速度指令v_cmdが決定される。移動速度指令v_cmdは、目標x速度成分v_x_cmdおよび目標y速度成分v_y_cmdを要素とするものであり、これらの2つの速度成分v_x_cmd,v_y_cmdは、後述する移動制御処理において、ロボット2のx速度成分およびy速度成分の目標値として用いられる。
具体的には、関係式(1)にしたがって目的関数G(v)が定義され、目的関数G(v)が最大値になるように移動速度指令v_cmdが決定される。
G(v)= α・cnn(v)+ β・dist(v) ‥(1)。
「α」および「β」のそれぞれは、所定の重みパラメータであり、ロボット2の動作特性に基づいて決定される。「cnn(v)」は、Dynamic Window 内のx速度成分およびy速度成分を要素とする速度指令と暫定移動速度指令v_cmd_cnnとの偏差を主変数とし、主変数の値が小さいほどより大きな値を示す従変数または関数である。
「dist(v)」は、ロボット2がx速度成分の暫定値v_x_cnnおよびy速度成分の暫定値v_y_cnnで移動すると想定したときの、ロボット2(移動装置)に最も近接する交通参加者(移動物体)との距離を表わす値であり、LIDAR12の計測信号に基づいて決定される。
本実施形態の経路決定システム1では、以上のように、目標x速度成分v_x_cmdおよび目標y速度成分v_y_cmdを要素とする移動速度指令v_cmdが決定される。なお、本実施形態では、移動速度指令v_cmdを決定することが、ロボットの経路を決定することに相当する。
次に、図17を参照しながら、移動制御処理について説明する。移動制御処理は、ロボット2が上述した2つの目標速度v_x_cmd,v_y_cmdで移動するように、移動機構21の2つのアクチュエータ24,25を制御するためのものであり、制御装置10によって所定の制御周期ΔTで実行される。
図17に示されているように、まず、各種データが読み込まれる(図17/STEP1)。各種データは、前述したカメラ11、LIDAR12、加速度センサ13および無線通信装置14のそれぞれから制御装置10に入力された信号のデータである。
次いで、指定地点データにより表わされる指定地点Pobjが読み込まれ済みであるか否かが判定される(図17/STEP2)。当該判定結果が否定的である場合(図17/STEP2…NO)、すなわち指定地点データをサーバ5から受信してない場合、そのまま本処理を終了する。
一方、当該判定結果が肯定的である場合(図17/STEP2…YES)、前述した図16の手法にしたがって、目標x速度成分v_x_cmdおよび目標y速度成分v_y_cmdxを算出する(図17/STEP3)。
次いで、目標x速度成分v_x_cmdおよび目標y速度成分v_y_cmdxに応じて、所定の制御アルゴリズムにしたがって、x制御入力成分Uxおよびy制御入力成分Uyを算出する(図17/STEP4)。場合、所定の制御アルゴリズムとしては、マップ検索などのフィードフォワード制御アルゴリズムや、フィードバック制御アルゴリズムを用いればよい。
次に、x制御入力成分Ux対応する制御入力信号を第1アクチュエータ24に出力するとともに、y制御入力成分Uyに対応する制御入力信号を第2アクチュエータ25に出力する(図17/STEP5)。その後、本処理を終了する。それにより、ロボット2の実際のx速度成分v_xおよびy速度成分v_yが、目標x速度成分v_x_cmdおよび目標y速度成分v_y_cmdになるよう制御される。その結果、ロボット2は、これらの目標速度v_x_cmd,v_y_cmdで決まる経路に沿って、前方の交通参加者をよけながら指定地点Pobjに向かって移動することになる。
(効果)
本発明の一実施形態としての経路決定システム1によれば、複数の第2歩行者M2(第2移動物体)が複数の移動パターンのそれぞれにしたがって移動する環境において、第1歩行者M1(第1移動物体)が目的地点Poに向かって当該複数の第2歩行者M2との干渉を回避しながら移動した際の複数の移動経路Rwが認識される(図7〜図13参照)。
さらに、仮想空間においてが当該複数の移動経路のそれぞれにしたがって移動したときの仮想ロボット(仮想移動装置)の前方の視覚的環境を表わす環境画像として、仮想ロボットの周辺に存在する歩行者等の移動物体を表わす移動物体画像領域S(M2i)またはS(A2i)のそれぞれに対して、当該移動物体の変位態様に応じた色彩が付されている環境画像(図15参照)と、仮想移動装置の移動方向を表わす移動方向指令とが組み合わせられたデータが学習用データとして生成される。
環境画像が含まれる環境画像データを入力とする一方で移動方向指令を出力とするCNN(行動モデル)のモデルパラメータが、学習用データを用いて学習されることにより、学習済みモデルとして学習済みCNNが生成される。そして、学習済みCNNを用いて、ロボット2(移動装置)の移動速度指令v_cmdが決定される。
このため、学習モデルとしてのCNNのモデルパラメータが、第1歩行者M1(第1移動物体)の実際の移動経路および第2移動体M2の種類を反映させながら、精度よく学習されうる。その結果、複数の歩行者(移動物体)がロボット2の周囲に存在する状況においても、ロボット2が複数の移動物体との干渉を回避しながら目的地点まで円滑に移動するように、当該ロボット2の目標移動経路が決定されうる。
また、環境画像には、ロボット2の前方の環境画像に加えて、x速度成分v_xおよびy速度成分v_yを表わす2つの矩形の白色ボックスと、目的地点Poを表わす矩形の白色ボックスとが表現されているので、CNNの構造の単純化、ひいては、ロボット2の目標移動経路の決定に要する演算処理量の低減が図られる。これにより、ロボット2の目標移動経路が迅速かつ精度よく決定されうる。
さらに、学習用データは、仮想空間において仮想ロボットを複数の移動経路Rwのそれぞれにしたがって移動させることで生成されるので、ロボット2(実機)および交通参加者(複数の移動物体)が存在する環境を準備する必要がなくなる分、学習用データが容易に生成されうる。
(本発明の他の実施形態)
前記実施形態では、自律移動可能なロボット2が「移動装置」として採用されたが、他の実施形態として、一または複数の車輪を回転させることにより移動する車両、クローラ式の移動装置、または、2足歩行型のロボットなどが移動装置として採用されてもよい。移動装置2が、移動装置2に搭乗した人間により操作されることにより移動する移動装置、または、人間により遠隔操作されることにより移動する移動装置であってもよい。
前記実施形態では、第1移動物体および複数の第2移動物体がともに歩行者であったが、他の実施形態として、第1移動物体および複数の第2移動物体のうち一部または全部が歩行者以外の移動する物体であってもよい。例えば、当該物体が、自律移動可能な移動装置もしくは操縦者により操縦される移動装置、自転車もしくは車椅子に乗った人間、犬もしくは猫などの人間以外の動物であってもよい。
前記実施形態では、歩行者と当該歩行者に付属するスーツケースまたはカートなどの物体とが別個の移動物体として種類が判定されたが、歩行者およびその付属する物体の組み合わせが別個の移動体として種類が判定されてもよい。例えば、スーツケースを引いている歩行者が単一の移動体画像領域により表わされ、カートを押している歩行者が単一の移動体画像領域により表わされ、当該2つの移動体画像領域に異なる色彩が付された環境画像が生成されてもよい。
仮想移動装置として仮想ロボットではなく、第1移動物体の種類に応じた仮想移動装置が定義されてもよい。複数の仮想移動物体のうち少なくとも一部として歩行者(仮想歩行者)ではなく、第2移動物体の種類に応じた仮想移動物体が生成されてもよい。
前記実施形態では、行動モデルとしてCNNが採用されたが、他の実施形態として、行動モデルとして、RNN(Recurrent Neural Network)およびDQN(deep Q−network)など、環境画像データを入力とする一方で行動パラメータを出力とする他の行動モデルが採用されてもよい。
前記実施形態では、所定の学習法として、勾配法を用いた例であるが、本発明の所定の学習法は、これに限らず、行動モデルのモデルパラメータを学習するものであればよい。
前記実施形態では、ロボット2の移動機構として、芯体22および複数のローラ23を備えた移動機構21が採用されたが、他の実施形態として、ロボット2を全方位に移動させることが可能な他の構成の移動機構が採用されてもよい。例えば、移動機構として、球体と複数のローラとが組み合わせられ、当該複数のローラによって球体を回転駆動することにより、ロボット2を全方位に移動させる構成の移動機構が採用されてもよい。
前記実施形態は、CNNにしたがった演算処理を実行するためのソフトウェアをロボット2の制御装置10を構成する記憶装置に記憶保持させたが、他の実施形態として、サーバ5を構成する記憶装置に当該ソフトウェアを記憶させ、目標移動経路の決定演算処理がサーバ5により実行され、当該演算処理結果としての目標移動経路がサーバ5からロボット2に送信されてもよい。
さらに、実施形態は、移動速度決定要素53において、ロボット2の移動速度として、x速度成分v_xおよびy速度成分v_yを要素とする移動速度指令v_cmdをDWA手法により算出した例であるが、これに代えて、移動速度決定要素53において、ロボット2の移動速度として、x速度成分v_xおよび角速度ωがDWA手法にしたがって算出されてもよい。
前記実施形態は、移動経路取得要素32において、第2歩行者M2の移動パターンとして、第1〜第7移動パターンにしたがって複数の第2歩行者M2が移動した場合における第1歩行者M1の移動経路Rwが取得された(図7〜図13参照)。他の実施形態として、付加的または代替的に、第2歩行者M2の移動方向および数が当該7つの移動パターンとは異なる移動パターンにしたがって第2歩行者M2が移動した場合における第1歩行者M1の移動経路Rwが取得されてもよい。
例えば、第1群を構成する複数の第2歩行者M2と第2群を構成する複数の第2歩行者M2とが、互いに斜めに交差するように移動するような移動パターン、または、第1群を構成する複数の第2歩行者M2がx方向に移動し、第2群を構成する複数の第2歩行者M2がy方向に移動することで互いに交差するような移動パターンなどが用いられてもよい。
1‥経路決定システム、2‥ロボット(移動装置)、32‥移動経路取得要素、33‥学習用データ取得要素、34‥CNN学習要素、Pobj‥指定地点、M1‥第1歩行者(第1移動物体)、M2‥第2歩行者(第2移動物体)、Po‥目的地点、Rw‥第1歩行者の移動経路、v‥移動速度指令(ロボットの目標移動経路)。

Claims (3)

  1. 移動装置が、当該移動装置の周辺に複数の移動物体が存在する状況で目的地点まで目標移動経路を決定する方法であって、
    複数の第2移動物体が、異なる複数の移動パターンのそれぞれにしたがって移動する状況において、第1移動物体が前記複数の第2移動物体のそれぞれとの干渉を回避しながら前記目的地点まで移動した際の前記第1移動物体の複数の移動経路を認識し、
    前記移動装置が前記複数の移動経路のそれぞれにしたがって移動した際の、当該移動装置の周辺の視覚的環境を表わす環境画像として、当該移動装置の周辺に存在する移動物体を表わす移動物体画像領域の少なくとも一部に対して、当該移動物体の種類に応じた色彩が付されている環境画像が生成され、当該環境画像を含む環境画像データと、当該移動装置の行動を表わす行動パラメータとが関連付けられた複数の学習用データを生成し、
    前記環境画像データを入力とする一方で前記行動パラメータを出力とする行動モデルのモデルパラメータを、前記複数の学習用データを用いて指定学習方法にしたがって学習することにより、学習済みの当該行動モデルである学習済みモデルを生成し、
    前記学習済みモデルを用いて、前記移動装置の前記目標移動経路を決定することを特徴とする経路決定方法。
  2. 請求項1に記載の経路決定方法において、
    前記環境画像データは、前記環境画像に加えて、前記移動装置の速度の高低を表わす速度画像および前記目的地点の方向を表わす方向画像のうち少なくとも一方をさらに含むことを特徴とする経路決定方法。
  3. 請求項1または2に記載の経路決定方法において、
    前記複数の学習用データは、仮想空間において仮想の前記ロボットが前記複数の移動経路のそれぞれにしたがって移動した際の、前記環境画像データおよび当該環境画像データに関連付けられた前記行動パラメータにより構成されていることを特徴とする経路決定方法。
JP2019043579A 2019-03-11 2019-03-11 倒立振子型ロボット Active JP7250573B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019043579A JP7250573B2 (ja) 2019-03-11 2019-03-11 倒立振子型ロボット
CN202010095774.2A CN111673730B (zh) 2019-03-11 2020-02-17 路径决定方法
US16/812,383 US11669096B2 (en) 2019-03-11 2020-03-09 Route determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019043579A JP7250573B2 (ja) 2019-03-11 2019-03-11 倒立振子型ロボット

Publications (2)

Publication Number Publication Date
JP2020149097A true JP2020149097A (ja) 2020-09-17
JP7250573B2 JP7250573B2 (ja) 2023-04-03

Family

ID=72422439

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019043579A Active JP7250573B2 (ja) 2019-03-11 2019-03-11 倒立振子型ロボット

Country Status (3)

Country Link
US (1) US11669096B2 (ja)
JP (1) JP7250573B2 (ja)
CN (1) CN111673730B (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005071265A (ja) * 2003-08-27 2005-03-17 Matsushita Electric Ind Co Ltd 学習装置および方法、並びにロボットのカスタマイズ方法
JP2008204102A (ja) * 2007-02-19 2008-09-04 Yokohama National Univ 画像処理システム
JP2018124982A (ja) * 2017-01-31 2018-08-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 制御装置および制御方法
JP2018190241A (ja) * 2017-05-09 2018-11-29 オムロン株式会社 タスク実行システム、タスク実行方法、並びにその学習装置及び学習方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4361389B2 (ja) * 2004-02-26 2009-11-11 本田技研工業株式会社 道路交通シミュレーション装置
JP4650079B2 (ja) * 2004-11-30 2011-03-16 日産自動車株式会社 物体検出装置、および方法
JP4852753B2 (ja) * 2006-05-24 2012-01-11 国立大学法人鳥取大学 学習機能をもつ自律移動ロボット
JP4576445B2 (ja) 2007-04-12 2010-11-10 パナソニック株式会社 自律移動型装置および自律移動型装置用プログラム
JP5402057B2 (ja) 2009-02-16 2014-01-29 トヨタ自動車株式会社 移動ロボット制御システム、経路探索方法、経路探索プログラム
US9965957B2 (en) * 2014-11-26 2018-05-08 Mitsubishi Electric Corporation Driving support apparatus and driving support method
US10268200B2 (en) * 2016-12-21 2019-04-23 Baidu Usa Llc Method and system to predict one or more trajectories of a vehicle based on context surrounding the vehicle
JP2019008519A (ja) * 2017-06-23 2019-01-17 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 移動体検出方法、移動体学習方法、移動体検出装置、移動体学習装置、移動体検出システム、および、プログラム
CN110163904B (zh) * 2018-09-11 2022-04-22 腾讯大地通途(北京)科技有限公司 对象标注方法、移动控制方法、装置、设备及存储介质
CN109376664B (zh) * 2018-10-29 2021-03-09 百度在线网络技术(北京)有限公司 机器学习训练方法、装置、服务器和介质
CN109445440B (zh) * 2018-12-13 2022-03-22 重庆邮电大学 基于传感器融合与改进q学习算法的动态避障方法
WO2020184281A1 (ja) * 2019-03-08 2020-09-17 マツダ株式会社 自動車用演算装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005071265A (ja) * 2003-08-27 2005-03-17 Matsushita Electric Ind Co Ltd 学習装置および方法、並びにロボットのカスタマイズ方法
JP2008204102A (ja) * 2007-02-19 2008-09-04 Yokohama National Univ 画像処理システム
JP2018124982A (ja) * 2017-01-31 2018-08-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 制御装置および制御方法
JP2018190241A (ja) * 2017-05-09 2018-11-29 オムロン株式会社 タスク実行システム、タスク実行方法、並びにその学習装置及び学習方法

Also Published As

Publication number Publication date
CN111673730B (zh) 2023-07-07
US11669096B2 (en) 2023-06-06
CN111673730A (zh) 2020-09-18
JP7250573B2 (ja) 2023-04-03
US20200293053A1 (en) 2020-09-17

Similar Documents

Publication Publication Date Title
JP7130062B2 (ja) 経路決定方法
JP7469850B2 (ja) 経路決定装置、ロボット及び経路決定方法
KR102303432B1 (ko) 장애물의 특성을 고려한 dqn 및 slam 기반의 맵리스 내비게이션 시스템 및 그 처리 방법
CN103324196A (zh) 基于模糊逻辑的多机器人路径规划与协调避碰方法
Zhu et al. A hierarchical deep reinforcement learning framework with high efficiency and generalization for fast and safe navigation
CN113848974A (zh) 一种基于深度强化学习的飞行器轨迹规划方法及系统
US11467592B2 (en) Route determination method
CN116804879A (zh) 一种改进蜣螂算法融合dwa算法的机器人路径规划框架方法
Gonçalves et al. A line follower educational mobile robot performance robustness increase using a competition as benchmark
JP7258046B2 (ja) 経路決定装置、ロボット及び経路決定方法
JP7250573B2 (ja) 倒立振子型ロボット
JP7250572B2 (ja) 倒立振子型ロボット
Kivrak et al. A multilevel mapping based pedestrian model for social robot navigation tasks in unknown human environments
Tao et al. Fast and Robust Training and Deployment of Deep Reinforcement Learning Based Navigation Policy
Afonso et al. Autonomous Navigation of Wheelchairs in Indoor Environments using Deep Reinforcement Learning and Computer Vision
US20220076004A1 (en) Model parameter learning method and movement mode parameter determination method
Wang et al. EMBEDDED NAVIGATION SYSTEM OF MECHATRONICS ROBOT BY FUZZY CONTROL ALGORITHM
Haapajärvi Software toolkits for prototyping autonomous mobile robots
MASIN Validation of robotic navigation strategies in unstructured environments: from autonomous to reactive

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230322

R150 Certificate of patent or registration of utility model

Ref document number: 7250573

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150