JP2020160603A - 経路決定装置、ロボット及び経路決定方法 - Google Patents

経路決定装置、ロボット及び経路決定方法 Download PDF

Info

Publication number
JP2020160603A
JP2020160603A JP2019057103A JP2019057103A JP2020160603A JP 2020160603 A JP2020160603 A JP 2020160603A JP 2019057103 A JP2019057103 A JP 2019057103A JP 2019057103 A JP2019057103 A JP 2019057103A JP 2020160603 A JP2020160603 A JP 2020160603A
Authority
JP
Japan
Prior art keywords
route
reliability
robot
cnn
traffic participant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019057103A
Other languages
English (en)
Other versions
JP7469850B2 (ja
Inventor
長谷川 雄二
Yuji Hasegawa
雄二 長谷川
燦心 松▲崎▼
Sango Matsuzaki
燦心 松▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019057103A priority Critical patent/JP7469850B2/ja
Priority to CN202010111310.6A priority patent/CN111736592A/zh
Priority to US16/820,738 priority patent/US11604469B2/en
Publication of JP2020160603A publication Critical patent/JP2020160603A/ja
Application granted granted Critical
Publication of JP7469850B2 publication Critical patent/JP7469850B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0217Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with energy consumption, time reduction or distance reduction criteria
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks

Abstract

【課題】人混みなどの交通環境下においても、移動装置が交通参加者との干渉を回避しながら目的地まで円滑に移動するように、移動装置の経路を決定できる経路決定装置などを提供することを目的とする。【解決手段】経路決定装置1は、CNNを用いて、ロボット2と交通参加者との干渉が回避されるように、暫定移動速度指令v_cnnを決定し、ロボット2が現在位置から指令v_cnnで移動すると想定したときに、ロボット2に最も近い交通参加者との距離distを、指令v_cnnの信頼度Pに応じて決定し、距離dist及びロボット2の移動速度指令vを独立変数として含む目的関数Gが最大値になるように、DWAを用いて、ロボット2の移動速度指令vを決定する。【選択図】図16

Description

本発明は、ロボットなどの移動装置の経路を決定する経路決定装置などに関する。
従来、移動装置としてのロボットの経路を決定する経路決定装置として、特許文献1に記載されたものが知られている。この経路決定装置では、歩行者などの交通参加者の速度に基づいて、ロボットが交通参加者に干渉する可能性があると予想される干渉可能性時間が算出され、さらに、交通参加者が所定時間後に移動すると想定される仮想障害物領域が算出される。そして、干渉可能性時間及び仮想障害物領域に基づいて、ロボットの経路が決定される。それにより、ロボットと交通参加者との干渉が回避される。
特開2009−110495号公報
上記従来の経路決定装置によれば、交通参加者の干渉可能性時間及び仮想障害物領域を用いている関係上、歩行者などの実際の交通参加者が予測不可能な軌跡で移動したときには、ロボットと交通参加者の干渉状態が頻発してしまう。その結果、ロボットの停止状態が頻発してしまい、商品性が低いという問題がある。特に、人混みが存在する交通環境下では、この問題が顕著になる。
本発明は、上記課題を解決するためになされたもので、人混みなどの交通環境下においても、移動装置が交通参加者との干渉を回避しながら目的地まで円滑に移動するように、移動装置の経路を決定できる経路決定装置などを提供することを目的とする。
上記目的を達成するために、請求項1に係る経路決定装置は、移動装置が目的地まで移動するときの経路を、交通参加者が目的地までの交通環境に存在する条件下で決定する経路決定装置であって、所定の予測アルゴリズムを用いて、移動装置と交通参加者との干渉が回避されるように、移動装置の経路の予測結果である予測経路を決定する予測経路決定部と、予測経路の信頼度を算出する信頼度算出部と、移動装置が現在位置から予測経路で移動すると想定したときの、移動装置に最も近い交通参加者と移動装置との距離である交通参加者距離を、予測経路の信頼度に応じて決定する距離決定部と、交通参加者距離及び移動装置の速度を独立変数として含む目的関数が最大値になるように、所定の制御アルゴリズムを用いて、移動装置の経路を決定する経路決定部と、を備えることを特徴とする。
この経路決定装置によれば、所定の予測アルゴリズムを用いて、移動装置と交通参加者との干渉が回避されるように、移動装置の経路の予測結果である予測経路が決定される。さらに、予測経路の信頼度が算出され、移動装置が現在位置から予測経路で移動すると想定したときの、移動装置に最も近い交通参加者と移動装置との距離である交通参加者距離が、予測経路の信頼度に応じて決定される。そして、交通参加者距離及び移動装置の速度を独立変数として含む目的関数が最大値になるように、所定の制御アルゴリズムを用いて、移動装置の経路が決定される。このように、予測経路の信頼度に応じて決定された交通参加者距離を用いて、移動装置の経路が決定されるので、移動装置の経路は、予測経路の信頼度が高いときには、予測経路又はそれに近い経路になるように決定され、一方、予測経路の信頼度が低いときには、予測経路と異なる経路になるように決定されることになる。
それにより、人混みなどの、予測経路の誤差が大きくなる交通条件下においても、自律移動型の移動装置が交通参加者との干渉を回避しながら目的地まで円滑に移動するように、移動装置の経路を決定することができる。その結果、移動装置の商品性を向上させることができる(なお、本明細書における「移動装置の経路を決定する」ことは、移動装置の移動方向及び移動速度を表す値(例えば、後述する移動速度指令)を所定の制御周期で逐次、決定することを含む。さらに、本明細書における「交通参加者」は、歩行者及び車両などの移動可能対象に加えて、不動の障害物も含むとともに、屋外に限らず、屋内に存在する対象も含む。さらに、「交通環境」は、屋外を移動する際の環境に限らず、屋内を移動する際の環境も含む)。
請求項2に係る発明は、請求項1に記載の経路決定装置において、所定の予測アルゴリズムは、ニューラルネットワークであり、信頼度算出部は、ニューラルネットワークの出力のばらつきを表すばらつきパラメータを算出し、ばらつきパラメータと信頼度との関係を表すモデルを用いて、信頼度を算出することを特徴とする。
この経路決定装置によれば、ニューラルネットワークの出力のばらつきを表すばらつきパラメータと信頼度との関係を表すモデルを用いて、信頼度が算出される。この場合、ニューラルネットワークの出力のばらつきは、ニューラルネットワークのモデル化誤差すなわち予測誤差を表すものであるので、そのようなぱらつきパラメータと信頼度との関係を表すモデルを用いることによって、予測経路の信頼度を精度よく算出することができる。
請求項3に係る発明は、請求項1又は2に記載の経路決定装置において、距離決定部は、移動装置の予測経路の周辺領域を複数のセルに分割したときに、信頼度に基づいて、複数のセルの各々におけるコスト値の大小を算出し、コスト値の大小に基づいて、交通参加者距離を決定することを特徴とする。
この経路決定装置によれば、移動装置の予測経路の周辺領域を複数のセルに分割したときに、信頼度に基づいて、複数のセルの各々におけるコスト値の大小が算出され、このコスト値の大小に基づいて、交通参加者距離が決定されるので、交通参加者距離を迅速に決定することができる。
請求項4に係る発明は、請求項1ないし3のいずれかに記載の経路決定装置において、所定の制御アルゴリズムは、Dynamic Window Approach を適用したアルゴリズムであることを特徴とする。
一般に、Dynamic Window Approach は、他の手法と比べて、移動装置の経路決定に要する時間を短縮できるとともに、演算負荷を低減できるという特性を備えている。したがって、この経路決定装置によれば、Dynamic Window Approach を適用したアルゴリズムを用いることによって、経路決定に要する時間の短縮化と演算負荷の低減化を実現しながら、移動装置の経路を決定することができる。
前述した目的を達成するために、請求項5に係るロボットは、請求項1ないし4のいずれかに記載の経路決定装置と、移動機構と、経路決定装置によって決定された経路で移動するように移動機構を制御する制御部と、を備えることを特徴とする。
このロボットによれば、交通参加者との干渉を回避しながら目的地まで円滑に移動することができる。
本発明の一実施形態に係る経路決定装置を適用したロボットの外観を示す図である。 ロボットによる案内システムの構成を示す図である。 ロボットの電気的な構成を示すブロック図である。 学習装置の構成を示すブロック図である。 第1歩行者の歩行経路を取得するときの斜視図である。 図5の歩行経路の取得結果の一例を示す図である。 歩行経路の取得開始時における第2歩行者の配置の第1パターンを示す図である。 第2歩行者の配置の第2パターンを示す図である。 第2歩行者の配置の第3パターンを示す図である。 第2歩行者の配置の第4パターンを示す図である。 第2歩行者の配置の第5パターンを示す図である。 第2歩行者の配置の第6パターンを示す図である。 第2歩行者の配置の第7パターンを示す図である。 シミュレーション環境下の仮想ロボット視点での画像を示す図である。 図14の画像から作成したマスク画像を示す図である。 経路決定装置などの機能を示すブロック図である。 移動制御処理を示すフローチャートである。 暫定移動速度指令の信頼度が高いときの経路決定を示す図である。 暫定移動速度指令の信頼度が低いときの経路決定を示す図である。
以下、図面を参照しながら、本発明の一実施形態に係る経路決定装置について説明する。図1に示すように、本実施形態の経路決定装置1は、移動装置としての倒立振子型のロボット2に適用されたものであり、後述する手法によって、交通参加者の存在確率が高い条件下で、ロボット2の経路を決定するものである。
このロボット2は、自律移動型のものであり、図2に示す案内システム3で用いられる。この案内システム3は、ショッピングモールや空港などにおいて、ロボット2が利用者を先導しながらその目的地(例えば店舗や搭乗ゲート)まで案内する形式のものである。
図2に示すように、案内システム3は、所定の領域内を自律移動する複数のロボット2と、複数のロボット2とは別体に設けられ、利用者の目的地が入力される入力装置4と、ロボット2及び入力装置4と相互に無線通信可能なサーバ5とを備えている。
この入力装置4は、パソコンタイプのものであり、利用者(又は操作者)のマウス及びキーボードの操作によって、利用者の目的地が入力されたときに、それを表す無線信号をサーバ5に送信する。サーバ5は、入力装置4からの無線信号を受信すると、内部の地図データに基づき、利用者の目的地自体又は目的地までの中継地点を目的地Pobjに設定し、それを表す目的地信号をロボット2に送信する。
後述するように、ロボット2内の制御装置10(制御部)は、サーバ5からの目的地信号を無線通信装置14を介して受信したときには、その目的地信号に含まれる目的地Pobjを読み込み、この目的地Pobjまでの経路を決定する。
次に、ロボット2の機械的な構成について説明する。図1に示すように、ロボット2は、本体20と、本体20の下部に設けられた移動機構21などを備えており、この移動機構21によって路面上を全方位に移動可能に構成されている。
この移動機構21は、具体的には、例えば特開2017−56763号のものと同様に構成されているので、その詳細な説明はここでは省略するが、円環状の芯体22、複数のローラ23、第1アクチュエータ24(図3参照)及び第2アクチュエータ25(図3参照)などを備えている。
複数のローラ23は、芯体22の円周方向(軸心周り方向)に等角度間隔で並ぶように、芯体22に外挿されており、複数のローラ23の各々は、芯体22の軸心周りに、芯体22と一体に回転可能になっている。また、各ローラ23は、各ローラ23の配置位置における芯体22の横断面の中心軸(芯体22の軸心を中心とする円周の接線方向の軸)周りに回転可能になっている。
さらに、第1アクチュエータ24は、電動機で構成されており、後述する制御入力信号が制御装置10から入力されたときに、図示しない駆動機構を介して、芯体22をその軸心周りに回転駆動する。
一方、第2アクチュエータ25も、第1アクチュエータ24と同様に、電動機で構成されており、制御入力信号が制御装置10から入力されたときに、図示しない駆動機構を介して、ローラ23をその軸心周りに回転駆動する。それにより、本体20は、路面上を全方位に移動するように、第1アクチュエータ24及び第2アクチュエータ25によって駆動される。以上の構成により、ロボット2は、路面上を全方位に移動可能になっている。
次に、ロボット2の電気的な構成について説明する。図3に示すように、ロボット2は、制御装置10、カメラ11、LIDAR12、加速度センサ13及び無線通信装置14をさらに備えている。
この制御装置10(制御部)は、CPU、RAM、ROM、E2PROM、I/Oインターフェース及び各種の電気回路(いずれも図示せず)などからなるマイクロコンピュータで構成されている。このE2PROM内には、ロボット2が案内する場所の地図データ及びCNN(Convolutional Neural Network)が記憶されている。この場合、CNNとしては、後述する学習装置30によって、CNNのモデルパラメータすなわち結合層の重み及びバイアス項が十分に学習されたものが記憶されている。
カメラ11は、ロボット2の周辺環境を撮像し、それを表す画像信号を制御装置10に出力する。また、LIDAR12は、レーザ光を用いて、周辺環境内の対象物までの距離などを計測し、それを表す計測信号を制御装置10に出力する。さらに、加速度センサ13は、ロボット2の加速度を検出して、それを表す検出信号を制御装置10に出力する。
制御装置10は、以上のカメラ11の画像信号及びLIDAR12の計測信号を用いて、amlc(adaptive Monte Carlo localization)手法により、ロボット2の自己位置を推定する。また、制御装置10は、LIDAR12の計測信号及び加速度センサ13の検出信号に基づいて、ロボット2の後述するx軸速度v_x及びy軸速度v_yを算出する。
さらに、制御装置10には、無線通信装置14が電気的に接続されており、制御装置10は、この無線通信装置14を介してサーバ5との間で無線通信を実行する。
次に、本実施形態の経路決定装置1の構成及び経路決定方法の原理について説明する。まず、図4に示す学習装置30について説明する。この学習装置30は、後述するCNNのモデルパラメータ(結合層の重み及びバイアス項)の学習などを実行するためのものであり、LIDAR31、歩行経路取得部32、学習用データ取得部33及びCNN学習部34を備えている。これらの要素32〜34は、具体的には、図示しないコントローラなどによって構成されている。
まず、一般的な歩行者の歩行経路を学習するために、図5に示すように、第1歩行者M1を基準となる歩行者として設定し、この第1歩行者M1が歩行開始地点Ps(図6参照)から目的地点Po(図6参照)まで歩行する場合において、歩行開始時に、その進行方向に複数の第2歩行者M2が不規則な配置で存在する人混みの交通環境下を設定する。
次いで、LIDAR31を用いて、第1歩行者M1が歩行開始地点Psから目的地点Poまで実際に歩行したときの位置の変化と、複数の第2歩行者M2の位置の変化とを計測し、その計測結果を歩行経路取得部32に出力する。
そして、歩行経路取得部32では、LIDAR31の計測結果に基づき、第1歩行者M1の歩行開始地点Psから目的地点Poまでの歩行経路Rwを、例えば図6に示すように逐次、取得して記憶する。同図に示すように、第1歩行者M1の歩行経路Rwは、第1歩行者M1の進行方向に延びる軸をx軸と規定し、第1歩行者M1の進行方向に直交する軸をy軸と規定したときの、2次元のx−y座標値として取得される。なお、以下の説明におけるx軸及びy軸の定義は、図6と同じである。
このx軸の原点は、第1歩行者M1の歩行開始地点Psに設定され、y軸の原点は、第1歩行者M1の進行方向の右側の所定位置に設定される。さらに、第1歩行者M1の歩行開始地点Psから目的地点Poに到達するまでの間における第2歩行者M2の位置が、第1歩行者M1の歩行経路Rwと紐付けた状態で歩行経路取得部32に取得される。
これに加えて、歩行経路取得部32では、第1歩行者M1の歩行経路Rwが、第2歩行者M2の歩行パターンを図7〜13にそれぞれ示す第1〜第7パターンに切り換えながら取得される。この場合、第1及び第2パターンはそれぞれ、図7及び図8に示すように、10人及び5人の第2歩行者M2が、その一部が第1歩行者M1とすれ違いながらx軸と平行に第1歩行者M1側に向かって歩行するパターンである。
また、第3及び第4パターンはそれぞれ、図9及び図10に示すように、10人及び5人の第2歩行者M2が、その一部が第1歩行者M1と交差しながら、第1歩行者M1の右側から左側に向かって歩行するパターンである。さらに、第5及び第6パターンはそれぞれ、図11及び図12に示すように、第3及び第4パターンとは逆に、10人及び5人の第2歩行者M2が、その一部が第1歩行者M1と交差しながら、第1歩行者M1の左側から右側に向かって歩行するパターンである。
これに加えて、第7パターンは、図13に示すように、10人のうちの5人の第2歩行者M2が、第1歩行者M1の右側から左側に向かって歩行し、残りの5人の第2歩行者M2が第1歩行者M1の左側から右側に向かって歩行するとともに、それらの一部が第1歩行者M1と交差しながら歩行するパターンである。
以上のように、歩行経路取得部32では、第1歩行者M1の歩行経路Rwが第2歩行者M2の位置と紐付けた状態で取得され、それらの取得結果が学習用データ取得部33に出力される。
学習用データ取得部33では、歩行経路Rwなどの取得結果が歩行経路取得部32から入力されると、これに基づき、以下に述べる手法により、学習用データを取得/作成する。まず、gazeboシミュレータなどのシミュレーション環境下で、前述した第2歩行者M2に相当する仮想第2歩行者M2’(図14参照)と、ロボット2に相当する仮想ロボット(図示せず)を作成する。
次いで、仮想ロボットを、前述した第1歩行者M1の歩行経路Rwに追従するように移動させながら、仮想第2歩行者M2’を、歩行経路取得部32で取得された第2歩行者M2の位置に従って移動させる。
その移動中において、仮想ロボットの前方の視覚的環境の画像を所定周期でサンプリングし、そのサンプリング結果に基づいて、SSD(Single Shot MultiBox Detector)手法により、マスク画像を逐次作成する。例えば、図14に示すように、シミュレーション環境下で、3人の仮想第2歩行者M2’が仮想ロボットの前方に位置している場合には、SSD手法により、3人の仮想第2歩行者M2’の位置を取得することにより、図15に示すマスク画像が作成される。
同図に示すように、このマスク画像では、3人の仮想第2歩行者M2’の位置が3つの矩形のボックスBとして表示される。同図において、3つのボックスBの破線で示す領域は実際には赤色で表示され、それ以外の点描で示す領域は実際には黒色で表示される。
これと同時に、マスク画像の上端部には、サンプリング時の目的地点Poが矩形の白色ボックスとして表示される。この目的地点Poは、仮想ロボットの現時点の自己位置を基準としたときの前方の中央位置を0degとして、−90deg〜90degの範囲内の値として設定される。
さらに、このマスク画像の下端には、サンプリング時の仮想ロボットの仮想x軸速度v_x’及び仮想y軸速度v_y’が、2つの矩形の白色ボックスとして表示される。これらの仮想x軸速度v_x’及び仮想y軸速度v_y’はそれぞれ、仮想ロボットのx軸方向及びy軸方向の速度成分であり、仮想ロボットの最小移動速度v_min(例えば値0)と最大移動速度v_maxの範囲内の値として設定される。この場合の仮想ロボットのx軸方向及びy軸方向は、前述した図7などと同様に定義される。
これに加えて、学習用データ取得部33では、サンプリング時の仮想ロボットの移動方向指令が、「左方向」、「中央方向」及び「右方向」の3つの方向を要素とするベクトル値として設定される。この移動方向指令の場合、例えば、仮想ロボットが直進しているときには、「中央方向」が値1に設定され、それ以外の「左方向」及び「右方向」が値0に設定される。
また、仮想ロボットが右方向に移動しているときには、「右方向」が値1に設定され、それ以外の方向が値0に設定される。この場合、「右方向」は仮想ロボットが直進方向に対して所定角度θ以上、右側の方向に移動するときに値1に設定される。さらに、仮想ロボットが左方向に移動しているときには、「左方向」が値1に設定され、それ以外の方向が値0に設定される。この場合、「左方向」は仮想ロボットが直進方向に対して所定角度θ以上、左側の方向に移動するときに値1に設定される。
次いで、学習用データ取得部33では、学習用データとして、前述したマスク画像(図15参照)と移動方向指令とを1組のデータとして紐付けしたものが、前述した所定周期で逐次作成される。そして、最終的に、多数組(数千組以上)の学習用データが作成されたタイミングで、これらの学習用データがCNN学習部34に出力される。なお、学習用データ取得部33において、学習用データを所定周期で作成する毎に、この学習用データをCNN学習部34に出力するように構成してもよい。
CNN学習部34では、学習用データ取得部33から多数組の学習用データが入力されると、これらの学習用データを用いて、CNNのモデルパラメータの学習が実行される。具体的には、1組の学習用データにおけるマスク画像をCNNに入力し、そのときのCNNの出力に対して、移動方向指令を教師データとして用いる。
この場合、CNNの出力層は、3ユニットで構成されており、これらの3ユニットからの3つのsoftmax値を要素とする指令(以下「CNN出力指令」という)がCNNから出力される。このCNN出力指令は、移動方向指令と同じ3つの方向(「左方向」、「中央方向」及び「右方向」)を要素とする指令で構成されている。
次いで、移動方向指令とCNN出力指令の損失関数(例えば平均2乗和誤差)を用い、勾配法により、CNNの結合層の重み及びバイアス項を演算する。すなわち、CNNのモデルパラメータの学習演算を実行する。そして、以上の学習演算を学習用データの組数分(すなわち数千回分)、実行することにより、CNN学習部34におけるCNNのモデルパラメータの学習演算が終了する。
さらに、このCNN学習部34では、モデルパラメータの学習演算が終了したCNNを用いて、CNN出力の信頼度Pの学習が以下に述べるように実行される。具体的には、ドロップアウト手法により、CNN出力の標準偏差σ及び信頼度Pの関係が十分に推論演算され、その演算データがサンプリングされる。
そして、サンプリングされたCNN出力の標準偏差σ及び信頼度Pの演算データに対して、最小2乗法などの回帰分析アルゴリズムを適用することにより、後述する式(6),(7)が導出される。この学習装置30では、以上のように、CNNのモデルパラメータの学習及びCNN出力の信頼度Pの学習が実行される。
次に、図16を参照しながら、本実施形態の経路決定装置1などの構成について説明する。経路決定装置1は、以下に述べる手法によって、ロボット2の経路としての移動速度指令vを決定(算出)するものであり、この移動速度指令vは、ロボット2のx軸速度v_x及びy軸速度v_yの目標となる目標x軸速度v_x_cmd及び目標y軸速度v_y_cmdを要素とするものである。
同図に示すように、経路決定装置1は、マスク画像作成部50、移動方向決定部51、暫定移動速度決定部52及び移動速度決定部53を備えており、これらの要素50〜53は、具体的には、制御装置10によって構成されている。なお、以下に述べる各種の制御処理は所定の制御周期ΔTで実行されるものとする。
まず、マスク画像作成部50について説明する。このマスク画像作成部50では、カメラ11からの画像信号及びLIDAR12からの計測信号が入力されると、前述したSSD手法により、マスク画像が作成される。
このマスク画像内には、前述した図15のマスク画像のボックスBと同様に、前方の交通参加者のボックス(図示せず)が表示され、仮想x軸速度v_x’、仮想y軸速度v_y’及び目的地点Poに代えて、ロボット2のx軸速度v_x、y軸速度v_y及び目的地Pobj(いずれも図示せず)が表示される。
この場合、交通参加者の位置及びサイズは、カメラ11の画像信号及びLIDAR12の計測信号に基づいて決定される。また、ロボット2のx軸速度v_x及びy軸速度v_yは、LIDAR12の計測信号及び加速度センサ13の検出信号に基づいて決定される。さらに、目的地Pobjは、サーバ5からの目的地信号によって決定される。以上のように作成されたマスク画像は、マスク画像作成部50から移動方向決定部51に出力される。
移動方向決定部51は、前述したCNN学習部34でモデルパラメータが学習されたCNN(図示せず)を備えており、このCNNを用いて、ロボット2の移動方向を以下のように決定する。
まず、移動方向決定部51では、マスク画像作成部50からのマスク画像がCNNに入力されると、前述したCNN出力指令がCNNから出力される。次いで、CNN出力指令の3つの要素(「左方向」、「中央方向」及び「右方向」)のうち、最大値の要素の方向がロボット2の移動方向として決定される。そして、以上のように決定されたロボット2の移動方向は、移動方向決定部51から暫定移動速度決定部52に出力される。
この暫定移動速度決定部52では、移動方向決定部51からのロボット2の移動方向と、ロボット2のx軸速度v_x及びy軸速度v_yとに基づき、暫定移動速度指令v_cnnを算出する。この暫定移動速度指令v_cnnは、ロボット2のx軸速度の暫定値v_x_cnn及びy軸速度の暫定値v_y_cnnを要素とするものである。次いで、以上のように決定されたロボット2の暫定移動速度指令v_cnnは、暫定移動速度決定部52から移動速度決定部53に出力される。
この移動速度決定部53では、暫定移動速度指令v_cnnに基づき、DWA(Dynamic Window Approach)を適用したアルゴリズムにより、移動速度指令vが決定される。この移動速度指令vは、目標x軸速度v_x_cmd及び目標y軸速度v_y_cmdを要素とするものであり、Dynamic Windowで決定される。また、これらの2つの速度v_x_cmd,v_y_cmdは、後述する移動制御処理において、ロボット2のx軸速度及びy軸速度の目標値として用いられる。
移動速度指令vは、具体的には、下式(1)に示すように定義された目的関数G(v)が最大値になるように決定される。
G(v)= α・cnn(v)+ β・dist(v) ・・・(1)
上式(1)のα,βは、所定の重みパラメータであり、ロボット2の動特性に基づいて決定される。また、上式(1)のcnn(v)は、下式(2)によって算出される関数である。
Figure 2020160603
さらに、上式(1)のdist(v)は、ロボット2がx軸速度の暫定値v_x_cnn及びy軸速度の暫定値v_y_cnnで移動すると想定したときの、ロボット2に最も近接する交通参加者(障害物)との距離を表す距離関数値であり、この距離関数値dist(v)は以下に述べるコストマップ手法によって算出される。
まず、前述した暫定移動速度指令v_cnnからロボット2の進行方向を求め、この進行方向の周辺領域を複数のセルを設定する。そして、各セルのコスト値C_Valueを下式(3),(4)により算出する。
・d<r_infのとき
C_Value=d/r_inf ・・・(3)
・d≧r_infのとき
C_Value=1 ・・・(4)
上式(3)のdは、各セルにおいて交通参加者に最も近い距離である。また、r_infは、Dynamic Windowにおいて、交通参加者からのコストの影響範囲を決定する影響範囲パラメータであり、下式(5)に示す加重平均演算式により算出される。
r_inf=r_max・(1−P(σ))+r_min・P(σ) ・・・(5)
この式(5)のr_max,r_minはそれぞれ、影響範囲パラメータの所定の最大値及び所定の最小値であり、ロボット2の動特性に基づいて決定される。また、P(σ)は、前述したCNN学習部34で学習された信頼度であり、下式(6),(7)により算出される。
・σ<Tのとき
P(σ)=a・σ+b ・・・(6)
・σ≧Tのとき
P(σ)=0 ・・・(7)
上式(6)において、σは、前述したように、CNN学習部34で推論演算をN回実行したときのCNN出力(Softmax値)の標準偏差である。また、iは推定クラスであり、推論演算をN回実行したときの最大クラス(maximum voting class)が割り当てられる。また、a,bは、回帰分析アルゴリズムにより導出されるモデルパラメータである。さらに、Tは、各クラスのσの最大値である。
以上の式(3)〜(7)によって各セルのコスト値C_Valueを算出し、それらの算出結果において、最もコスト値C_Valueの高いセルから交通参加者までの距離が前述した距離関数値dist(v)に設定される。
距離関数値dist(v)は、以上の手法によって算出されるので、CNN出力すなわち暫定移動速度指令v_cnnの信頼度P(σ)が高いほど、より大きい値になるように算出されることになる。すなわち、影響範囲パラメータr_infは、上式(5)の加重平均演算式で算出される関係上、暫定移動速度指令v_cnnの信頼度P(σ)が大きいほど、より小さい値になるように算出される。一方、前述した式(3)を参照すると明らかなように、コスト値C_Valueは、影響範囲パラメータr_infが小さいほど、より大きくなるように算出されることになる。
その結果、コスト値C_Valueは、暫定移動速度指令v_cnnの信頼度P(σ)が大きいほど、より大きい値として算出されることになる。すなわち、距離関数値dist(v)は、暫定移動速度指令v_cnnの信頼度P(σ)が高いほど、より大きい値として算出されることになる。
以上の理由により、暫定移動速度指令v_cnnの信頼度P(σ)が高い条件下では、前述した式(1)の右辺第2項が大きくなるのに伴い、右辺第1項を大きくする必要がなくなることで、v=v_cnnが成立するように、移動速度指令vが決定されることになる。すなわち、CNN出力である暫定移動速度指令v_cnnの信頼度P(σ)が高い条件下では、暫定移動速度指令v_cnnがそのまま移動速度指令vとして算出されることになる。
例えば、図18に示すように、二人の交通参加者(歩行者)70,71がロボット2の進行方向に存在する場合において、CNN出力である暫定移動速度指令v_cnnの信頼度P(σ)が高いときには、v=v_cnnが成立することになる。
一方、図19に示すように、二人の交通参加者72,73がロボット2の進行方向に存在する場合において、暫定移動速度指令v_cnnの信頼度P(σ)が低い条件下では、移動速度指令vは、暫定移動速度指令v_cnnと異なる方向の指令として算出されることになる。この場合、両図17,18において、半径の異なる複数の円で示す領域(ハッチングで示す領域)は、歩行者からのコストの影響範囲を表しており、この影響範囲は、影響範囲パラメータr_infが大きいほど、より広い範囲になる。
なお、本実施形態では、移動方向決定部51及び暫定移動速度決定部52が予測経路決定部に相当し、暫定移動速度指令v_cnnが予測経路に相当する。さらに、移動速度決定部53が信頼度算出部、距離決定部及び経路決定部に相当し、移動速度指令vが移動装置の速度及び移動装置の経路に相当する。また、距離関数値distが交通参加者距離に相当し、標準偏差σがばらつきパラメータに相当する。
本実施形態の経路決定装置1では、以上のように、目標x軸速度v_x_cmd及び目標y軸速度v_y_cmdを要素とする移動速度指令vが決定される。
次に、図17を参照しながら、移動制御処理について説明する。この移動制御処理は、ロボット2が上述した2つの目標速度v_x_cmd,v_y_cmdで移動するように、移動機構21の2つのアクチュエータ24,25を制御するためのものであり、制御装置10によって所定の制御周期ΔTで実行される。
同図に示すように、まず、各種データを読み込む(図17/STEP1)。この各種データは、前述したカメラ11、LIDAR12、加速度センサ13及び無線通信装置14から制御装置10に入力された信号のデータである。
次いで、前述した目的地信号に含まれる目的地Pobjを読込済みであるか否かを判定する(図17/STEP2)。この判定が否定であるとき(図17/STEP2…NO)、すなわち目的地信号をサーバ5から受信してないときには、そのまま本処理を終了する。
一方、この判定が肯定であるとき(図17/STEP2…YES)には、前述した図16の手法により、目標x軸速度v_x_cmd及び目標y軸速度v_y_cmdを算出する(図17/STEP3)。
次いで、目標x軸速度v_x_cmd及び目標y軸速度v_y_cmdに応じて、所定の制御アルゴリズムにより、x軸制御入力Ux及びy軸制御入力Uyを算出する(図17/STEP4)。この場合、所定の制御アルゴリズムとしては、マップ検索などのフィードフォワード制御アルゴリズムや、フィードバック制御アルゴリズムを用いればよい。
次に、x軸制御入力Ux対応する制御入力信号を第1アクチュエータ24に出力するとともに、y軸制御入力Uyに対応する制御入力信号を第2アクチュエータ25に出力する(図17/STEP5)。その後、本処理を終了する。それにより、ロボット2の実際のx軸速度v_x及びy軸速度v_yが、目標x軸速度v_x_cmd及び目標y軸速度v_y_cmdになるよう制御される。その結果、ロボット2は、これらの目標速度v_x_cmd,v_y_cmdで決まる経路に沿って、前方の交通参加者をよけながら目的地Pobjに向かって移動することになる。
以上のように、本実施形態の経路決定装置1によれば、CNNを用いて、ロボット2と交通参加者との干渉が回避されるように、暫定移動速度指令v_cnnが決定される。さらに、暫定移動速度指令v_cnnの信頼度P(σ)が算出され、ロボット2が現在位置から暫定移動速度指令v_cnnで移動すると想定したときの、ロボット2に最も近い交通参加者とロボット2との距離を表す距離関数値dist(v)が、信頼度P(σ)に応じて決定される。
そして、距離関数値dist(v)及びロボット2の移動速度指令vを独立変数として含む目的関数G(v)が最大値になるように、DWAを用いて、ロボット2の移動速度指令vが決定される。このように、暫定移動速度指令v_cnnの信頼度P(σ)に応じて決定された距離dist(v)を用いて、ロボット2の移動速度指令vが決定されるので、ロボット2の移動速度指令vは、暫定移動速度指令v_cnnの信頼度P(σ)が高いときには、暫定移動速度指令v_cnn又はそれに近い値になるように決定される。一方、暫定移動速度指令v_cnnの信頼度P(σ)が低いときには、ロボット2の移動速度指令vは、暫定移動速度指令v_cnnと異なる値になるように決定されることになる。
それにより、人混みなどの、暫定移動速度指令v_cnnの誤差が大きくなる交通条件下においても、自律移動型のロボット2が交通参加者との干渉を回避しながら目的地まで円滑に移動するように、ロボット2の移動速度指令vを決定することができる。
また、信頼度P(σ)が、これとCNN出力の標準偏差σとの関係を定義したモデル式(6)を用いて算出される。この場合、CNN出力の標準偏差σは、CNNの出力のばらつきを表すものであるので、CNNモデル化誤差すなわち予測誤差を表すものに相当する。したがって、そのような標準偏差σと信頼度P(σ)との関係を定義したモデル式(6)を用いることによって、CNN出力である暫定移動速度指令v_cnnの信頼度P(σ)を精度よく算出することができる。それにより、ロボット2の移動速度指令vを精度よく決定することができる。
さらに、ロボット2の暫定移動速度指令v_cnnが表す進行方向の周辺領域を複数のセルに分割したときに、信頼度P(σ)に基づいて、複数のセルの各々におけるコスト値の大小が算出され、このコスト値の大小に基づいて、距離関数値dist(v)が決定されるので、この距離関数値dist(v)を迅速に決定することができる。以上のように、DWAを適用したアルゴリズムを用いることによって、ロボット2の移動速度指令vを、その演算時間の短縮化と演算負荷の低減化を実現しながら決定することができる。
以上の手法により、人混みなどの、CNNを用いて決定された移動方向の誤差が大きくなる交通条件下においても、自律移動型のロボット2が交通参加者との干渉を回避しながら目的地Pobjまで円滑に移動するように、ロボット2の経路に相当する移動速度指令vを決定することができる。それにより、ロボット2が交通参加者に干渉する状態の発生を低下させることができ、商品性を向上させることができる。
なお、実施形態は、移動装置として、ロボット2を用いた例であるが、本発明の移動装置は、これに限らず、目的地まで移動するものであればよい。例えば、車両、車両型のロボット及び2足歩行型のロボットを用いてもよい。
また、実施形態は、所定の予測アルゴリズムとしてCNNを用いた例であるが、本発明の予測アルゴリズムは、これに限らず、ロボットの経路の予測値である予測経路を決定できるものであればよい。例えば、所定の予測アルゴリズムとして、RNN(Recurrent Neural Network)及びDQN(deep Q-network)などを用いてもよい。
さらに、実施形態は、ニューラルネットワークとして、CNNを用いた例であるが、これに代えて、RNN(Recurrent Neural Network)及びDQN(deep Q-network)などを用いてもよい。
一方、実施形態は、ばらつきパラメータとして、標準偏差σを用いた例であるが、本発明のばらつきパラメータは、これに限らず、ニューラルネットワークの出力のばらつきを表すものであればよい。例えば、ニューラルネットワークの出力とその期待値との2乗平均誤差、すなわち標準偏差σの2乗値を用いてもよい。
また、実施形態は、ばらつきパラメータと信頼度との関係を表すモデルとして、モデル式(6)を用いた例であるが、本発明のモデルは、これに限らず、ばらつきパラメータと信頼度との関係を表すものであればよい。例えば、モデルとして、ばらつきパラメータと信頼度との関係を表すマップを用いてもよい。
さらに、実施形態は、移動機構として、芯体22及び複数のローラ23を備えた移動機構21を用いた例であるが、本発明の移動機構は、これに限らず、ロボットを全方位に移動させることが可能なものであればよい。例えば、移動機構として、球体と複数のローラを組み合わせ、これらのローラによって球体を回転駆動することにより、ロボットを全方位に移動させる構成のものを用いてもよい。
一方、実施形態は、CNNをロボット2の制御装置10のE2PROM内に記憶させた例であるが、CNNをサーバ5側に記憶させ、経路決定の演算をサーバ5側で実施し、これをロボット2に送信するように構成してもよい。
また、実施形態は、移動速度決定部53において、ロボット2の移動速度として、x軸速度v_x及びy軸速度v_yを要素とする移動速度指令vをDWA手法により算出した例であるが、これに代えて、移動速度決定部53において、ロボット2の移動速度として、x軸速度v_x及び角速度ωをDWA手法により算出してもよい。
1 経路決定装置
2 ロボット(移動装置)
10 制御装置(制御部)
21 移動機構
51 移動方向決定部(予測経路決定部)
52 暫定移動速度決定部(予測経路決定部)
53 移動速度決定部(信頼度算出部、距離決定部、経路決定部)
70〜73 交通参加者
Pobj 目的地
v_cnn 暫定移動速度指令(予測経路)
v 移動速度指令(移動装置の速度、移動装置の経路)
dist 距離関数値(交通参加者距離)
P 信頼度
G 目的関数
σ 標準偏差(ばらつきパラメータ)
V_Value コスト値

Claims (9)

  1. 移動装置が目的地まで移動するときの経路を、交通参加者が当該目的地までの交通環境に存在する条件下で決定する経路決定装置であって、
    所定の予測アルゴリズムを用いて、前記移動装置と前記交通参加者との干渉が回避されるように、前記移動装置の経路の予測結果である予測経路を決定する予測経路決定部と、
    当該予測経路の信頼度を算出する信頼度算出部と、
    前記移動装置が現在位置から前記予測経路で移動すると想定したときの、前記移動装置に最も近い前記交通参加者と当該移動装置との距離である交通参加者距離を、前記予測経路の前記信頼度に応じて決定する距離決定部と、
    前記交通参加者距離及び前記移動装置の速度を独立変数として含む目的関数が最大値になるように、所定の制御アルゴリズムを用いて、前記移動装置の前記経路を決定する経路決定部と、
    を備えることを特徴とする経路決定装置。
  2. 請求項1に記載の経路決定装置において、
    前記所定の予測アルゴリズムは、ニューラルネットワークであり、
    前記信頼度算出部は、当該ニューラルネットワークの出力のばらつきを表すばらつきパラメータを算出し、当該ばらつきパラメータと前記信頼度との関係を表すモデルを用いて、前記信頼度を算出することを特徴とする経路決定装置。
  3. 請求項1又は2に記載の経路決定装置において、
    前記距離決定部は、前記移動装置の前記予測経路の周辺領域を複数のセルに分割したときに、前記信頼度に基づいて、当該複数のセルの各々におけるコスト値の大小を算出し、当該コスト値の大小に基づいて、前記交通参加者距離を決定することを特徴とする経路決定装置。
  4. 請求項1ないし3のいずれかに記載の経路決定装置において、
    前記所定の制御アルゴリズムは、Dynamic Window Approach を適用したアルゴリズムであることを特徴とする経路決定装置。
  5. 請求項1ないし4のいずれかに記載の経路決定装置と、
    移動機構と、
    前記経路決定装置によって決定された経路で移動するように前記移動機構を制御する制御部と、
    を備えることを特徴とするロボット。
  6. 移動装置が目的地まで移動するときの経路を、交通参加者が当該目的地までの交通環境に存在する条件下で決定する経路決定方法であって、
    所定の予測アルゴリズムを用いて、前記移動装置と前記交通参加者との干渉が回避されるように、前記移動装置の経路の予測値である予測経路を決定し、
    当該予測経路の信頼度を算出し、
    前記移動装置が現在位置から前記予測経路で移動すると想定したときの、前記移動装置に最も近い前記交通参加者と当該移動装置との距離である交通参加者距離を、前記信頼度に応じて決定し、
    前記交通参加者距離及び前記移動装置の速度を独立変数として含む目的関数が最大値になるように、所定の制御アルゴリズムを用いて、前記移動装置の前記経路を決定することを特徴とする経路決定方法。
  7. 請求項6に記載の経路決定方法において、
    前記所定の予測アルゴリズムは、ニューラルネットワークであり、
    当該ニューラルネットワークの出力のばらつきを表すばらつきパラメータを算出し、
    当該ばらつきパラメータと前記信頼度との関係を表すモデルを用いて、前記信頼度を算出することを特徴とする経路決定方法。
  8. 請求項6又は7に記載の経路決定方法において、
    前記移動装置の周辺領域を複数のセルに分割したときに、前記信頼度に基づいて、当該複数のセルの各々における安全性の高低を算出し、
    当該安全性の高低に基づいて、前記交通参加者距離を決定することを特徴とする経路決定方法。
  9. 請求項6ないし8のいずれかに記載の経路決定方法において、
    前記所定の制御アルゴリズムは、Dynamic Window Approach を適用したアルゴリズムであることを特徴とする経路決定方法。
JP2019057103A 2019-03-25 2019-03-25 経路決定装置、ロボット及び経路決定方法 Active JP7469850B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019057103A JP7469850B2 (ja) 2019-03-25 2019-03-25 経路決定装置、ロボット及び経路決定方法
CN202010111310.6A CN111736592A (zh) 2019-03-25 2020-02-24 路径决定装置、机器人以及路径决定方法
US16/820,738 US11604469B2 (en) 2019-03-25 2020-03-17 Route determining device, robot, and route determining method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019057103A JP7469850B2 (ja) 2019-03-25 2019-03-25 経路決定装置、ロボット及び経路決定方法

Publications (2)

Publication Number Publication Date
JP2020160603A true JP2020160603A (ja) 2020-10-01
JP7469850B2 JP7469850B2 (ja) 2024-04-17

Family

ID=72606013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019057103A Active JP7469850B2 (ja) 2019-03-25 2019-03-25 経路決定装置、ロボット及び経路決定方法

Country Status (3)

Country Link
US (1) US11604469B2 (ja)
JP (1) JP7469850B2 (ja)
CN (1) CN111736592A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022103737A1 (en) * 2020-11-10 2022-05-19 Nec Laboratories America, Inc. Divide-and-conquer for lane-aware diverse trajectory prediction
WO2023170864A1 (ja) * 2022-03-10 2023-09-14 日本電気株式会社 ルート算出装置、ルート算出方法、および記録媒体

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7221839B2 (ja) * 2019-10-08 2023-02-14 国立大学法人静岡大学 自律移動ロボットおよび自律移動ロボットの制御プログラム
CN112223301B (zh) * 2020-12-17 2021-04-13 江西赛特智能科技有限公司 一种机器人路径规划及调度方法
WO2023076242A1 (en) * 2021-10-29 2023-05-04 Rutgers, The State University Of New Jersey Collision-free dynamic window approach for moving obstacles
CN114296455B (zh) * 2021-12-27 2023-11-10 东南大学 一种基于行人预测的移动机器人避障方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006113627A (ja) * 2004-10-12 2006-04-27 Honda Motor Co Ltd 車両用制御対象判定装置
JP2012200818A (ja) * 2011-03-25 2012-10-22 Advanced Telecommunication Research Institute International 歩行者の軌跡を予測して自己の回避行動を決定するロボット
WO2015072002A1 (ja) * 2013-11-15 2015-05-21 株式会社日立製作所 移動ロボットシステム
JP2016030511A (ja) * 2014-07-29 2016-03-07 日産自動車株式会社 車両制御装置及び車両制御方法
WO2017002258A1 (ja) * 2015-07-02 2017-01-05 三菱電機株式会社 経路予測装置
WO2018084324A1 (en) * 2016-11-03 2018-05-11 Mitsubishi Electric Corporation Method and system for controlling vehicle

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004029562A (ja) 2002-06-27 2004-01-29 Fuji Photo Film Co Ltd 画像記録材料包装体及び画像記録材料装填装置
JP3768957B2 (ja) * 2002-12-27 2006-04-19 本田技研工業株式会社 移動ロボットの経路設定方法
JP2005172628A (ja) * 2003-12-11 2005-06-30 Nissan Motor Co Ltd 経路案内装置及び経路案内プログラム
JP4773823B2 (ja) * 2005-12-28 2011-09-14 クラリオン株式会社 交通状況予測方法およびその装置ならびにプログラム
JP4576445B2 (ja) 2007-04-12 2010-11-10 パナソニック株式会社 自律移動型装置および自律移動型装置用プログラム
US9996944B2 (en) * 2016-07-06 2018-06-12 Qualcomm Incorporated Systems and methods for mapping an environment
US10268200B2 (en) * 2016-12-21 2019-04-23 Baidu Usa Llc Method and system to predict one or more trajectories of a vehicle based on context surrounding the vehicle
US10429847B2 (en) * 2017-09-22 2019-10-01 Locus Robotics Corp. Dynamic window approach using optimal reciprocal collision avoidance cost-critic
US20190113919A1 (en) * 2017-10-18 2019-04-18 Luminar Technologies, Inc. Controlling an autonomous vehicle using smart control architecture selection
EP3837641A1 (en) * 2018-09-14 2021-06-23 Google LLC Deep reinforcement learning-based techniques for end to end robot navigation
US11110922B2 (en) * 2018-11-05 2021-09-07 Zoox, Inc. Vehicle trajectory modification for following
US11548533B2 (en) * 2019-03-23 2023-01-10 Uatc, Llc Perception and motion prediction for autonomous devices

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006113627A (ja) * 2004-10-12 2006-04-27 Honda Motor Co Ltd 車両用制御対象判定装置
JP2012200818A (ja) * 2011-03-25 2012-10-22 Advanced Telecommunication Research Institute International 歩行者の軌跡を予測して自己の回避行動を決定するロボット
WO2015072002A1 (ja) * 2013-11-15 2015-05-21 株式会社日立製作所 移動ロボットシステム
JP2016030511A (ja) * 2014-07-29 2016-03-07 日産自動車株式会社 車両制御装置及び車両制御方法
WO2017002258A1 (ja) * 2015-07-02 2017-01-05 三菱電機株式会社 経路予測装置
WO2018084324A1 (en) * 2016-11-03 2018-05-11 Mitsubishi Electric Corporation Method and system for controlling vehicle

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022103737A1 (en) * 2020-11-10 2022-05-19 Nec Laboratories America, Inc. Divide-and-conquer for lane-aware diverse trajectory prediction
WO2023170864A1 (ja) * 2022-03-10 2023-09-14 日本電気株式会社 ルート算出装置、ルート算出方法、および記録媒体

Also Published As

Publication number Publication date
JP7469850B2 (ja) 2024-04-17
US11604469B2 (en) 2023-03-14
US20200310444A1 (en) 2020-10-01
CN111736592A (zh) 2020-10-02

Similar Documents

Publication Publication Date Title
JP7469850B2 (ja) 経路決定装置、ロボット及び経路決定方法
JP7130062B2 (ja) 経路決定方法
CN103324196A (zh) 基于模糊逻辑的多机器人路径规划与协调避碰方法
KR102303432B1 (ko) 장애물의 특성을 고려한 dqn 및 slam 기반의 맵리스 내비게이션 시스템 및 그 처리 방법
Özdemir et al. A hybrid obstacle avoidance method: follow the gap with dynamic window approach
Zhu et al. A hierarchical deep reinforcement learning framework with high efficiency and generalization for fast and safe navigation
JP7258046B2 (ja) 経路決定装置、ロボット及び経路決定方法
JP7250571B2 (ja) 倒立振子型ロボット
Kim et al. Single 2D lidar based follow-me of mobile robot on hilly terrains
JP7250572B2 (ja) 倒立振子型ロボット
JP7250573B2 (ja) 倒立振子型ロボット
Kivrak et al. A multilevel mapping based pedestrian model for social robot navigation tasks in unknown human environments
US20220076004A1 (en) Model parameter learning method and movement mode parameter determination method
Tao et al. Fast and Robust Training and Deployment of Deep Reinforcement Learning Based Navigation Policy
Karakaya et al. A novel local motion planner: Navibug
JP2022044980A (ja) モデルパラメータ学習方法及び移動態様決定方法
Della Vedova et al. Platooning control of autonomous nonholonomic mobile robots in a human-robot coexisting environment
Afonso et al. Autonomous Navigation of Wheelchairs in Indoor Environments using Deep Reinforcement Learning and Computer Vision
Evans et al. High-performance Racing on Unmapped Tracks using Local Maps

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240405

R150 Certificate of patent or registration of utility model

Ref document number: 7469850

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150