JP2019036192A - 歩行者の歩行行動を模倣する移動ロボット - Google Patents

歩行者の歩行行動を模倣する移動ロボット Download PDF

Info

Publication number
JP2019036192A
JP2019036192A JP2017157894A JP2017157894A JP2019036192A JP 2019036192 A JP2019036192 A JP 2019036192A JP 2017157894 A JP2017157894 A JP 2017157894A JP 2017157894 A JP2017157894 A JP 2017157894A JP 2019036192 A JP2019036192 A JP 2019036192A
Authority
JP
Japan
Prior art keywords
mobile robot
pedestrians
pedestrian
speed
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017157894A
Other languages
English (en)
Other versions
JP6993638B2 (ja
JP2019036192A5 (ja
Inventor
隼 丸山
Jun Maruyama
隼 丸山
ハルヒコ ハリー アサダ,
Harry Asada Haruhiko
ハルヒコ ハリー アサダ,
コウタ ウィーバー,
Weaver Kota
コウタ ウィーバー,
ボルディン ローレン−ボニラ,
Boldin Lauren-Bonilla
ボルディン ローレン−ボニラ,
申 劉
Shen Liu
申 劉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Boston Incubation Center LLC
East Japan Railway Co
Original Assignee
Boston Incubation Center LLC
East Japan Railway Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Boston Incubation Center LLC, East Japan Railway Co filed Critical Boston Incubation Center LLC
Priority to JP2017157894A priority Critical patent/JP6993638B2/ja
Publication of JP2019036192A publication Critical patent/JP2019036192A/ja
Publication of JP2019036192A5 publication Critical patent/JP2019036192A5/ja
Application granted granted Critical
Publication of JP6993638B2 publication Critical patent/JP6993638B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】本願では、訓練されたナビゲーションモデルに基づいて、歩行者で混雑した環境において移動ロボットを誘導する方法及びシステムを提供する。【解決手段】訓練されたナビゲーションモデルは、付近の歩行者、当該歩行者各々の移動ロボットに対する速度、歩行者で混雑した環境内の移動ロボットの現在位置及び所望の目的位置を特定する測定データを受信する。訓練されたナビゲーションモデルは、これらの情報に基づいて、移動ロボットに速度を調整させる指令信号を生成する。周囲の歩行者の速度と現在位置を繰り返しサンプリングすることにより、ナビゲーションモデルは、歩行者の通行の流れの途絶を最小限に留めて、移動ロボットを目的位置に導く。ナビゲーションモデルは、歩行者で混雑した環境を通る行動訓練者の動きを追跡することにより、歩行者で混雑した環境において好ましい歩行者の歩行行動を模倣するように訓練される。【選択図】図3

Description

説明する実施形態は、歩行者で混雑した環境において移動ロボットを誘導するシステム及び方法に関する。
病院や公共交通機関のステーションなどのサービス環境において作動するロボット車両は、頻繁に、混雑した空間で自律的に作動することが求められる。歩行者で混雑した環境内を所定経路に沿って進む移動ロボットは、歩行者の通行の流れを著しく阻害し、歩行者と衝突する場合がある。逆に、周囲の歩行者を避けて歩行者で混雑した環境内を進む移動ロボットは、所望の目的位置まで進むことが、仮に不可能でないとしても、困難である。歩行者で混雑した環境における移動ロボットの不適切な誘導は、移動ロボットが人のすぐ近くで作動するなど、危険な状況を引き起こす。このような移動ロボットが重量物を運んでいたり、急加速行動可能であったりする場合、特に懸念される。
すなわち、歩行者で混雑した環境における動作の安全性を向上させるため、車輪付きロボット車両の設計及び制御の向上が望まれる。具体的には、歩行者の通行の流れの著しい阻害の回避と所望の目的位置への誘導という相容れない目的の解決策が望まれる。
本願では、訓練されたナビゲーションモデルに基づいて、歩行者で混雑した環境において移動ロボットを誘導する方法及びシステムを説明する。一側面において、訓練されたナビゲーションモデルは、付近の歩行者、当該歩行者各々の移動ロボットに対する速度、歩行者で混雑した環境内の移動ロボットの現在位置及び所望の目的位置を特定する測定データを受信する。訓練されたナビゲーションモデルは、これらの情報に基づいて、移動ロボットに速度を調整させる指令信号を生成する。周囲の歩行者の速度と現在位置を繰り返しサンプリングすることにより、ナビゲーションモデルは、歩行者の通行の流れの途絶を最小限に留めて、移動ロボットを目的位置に導く。
更なる側面において、ナビゲーションモデルは、歩行者で混雑した環境において歩行者の歩行行動を模倣するように訓練される。ナビゲーションモデルは、歩行者歩行動作の多数の群に基づいて訓練される。各動作は、歩行者で混雑した環境を通って特定の出発位置から特定の目的位置まで進む行動訓練者の動きを追跡することを含む。訓練者付近の歩行者の位置及び速度は、訓練者の位置及び速度と共に周期的に測定される。これらの情報は、ナビゲーションモデルの訓練に用いられる。
更なる側面において、ナビゲーションモデル訓練用教示データを生成するための行動訓練者は、好ましい歩行者歩行行動を強化するように選出される。行動訓練者群は、好ましい歩行者歩行行動を示す行動訓練者に限定し、好ましくない歩行者歩行行動を示す行動訓練者は除外することが望ましい。
上記は概要であり、よって必然的に、単純化及び一般化され、詳細は省略されている。当業者であれば、概要は例示的なものであって、いかなる点においても限定するものではないことを理解するであろう。本願で説明する装置及び/又はプロセスのその他の側面、発明の特徴及び効果は、本願に記載の限定されない詳細な説明により明らかになるであろう。
少なくとも一の新たな側面における移動ロボット100の実施形態を示す図である。 一実施形態における移動ロボット100の上面図である。 移動ロボット100のいくつかの構成要素を示す概略図である。 一実施形態におけるナビゲーションモデル訓練エンジン170の例を示す図である。 一実施形態におけるナビゲーションエンジン185の例を示す図である。 一例としての歩行者で混雑した環境230を示す図である。 一例としての歩行者で混雑した環境210を示し、一歩行者を行動訓練者として強調した図である。 同一例である歩行者で混雑した環境210を示し、他の一歩行者を行動訓練者として強調した図である。 本願で説明するような歩行者で混雑した環境において移動ロボットの誘導を実行する方法300を示す図である。
本発明の背景例及びいくつかの実施形態について詳細に説明する。実施形態の例を添付の図面に示す。
訓練されたナビゲーションモデルに基づいて、歩行者で混雑した環境において移動ロボットを誘導する方法及びシステムを説明する。歩行者で混雑した環境には、移動する人々の激しい流れが含まれる(例えば、鉄道駅、病院、空港など)。
一側面において、移動ロボットは、訓練されたナビゲーションモデルに基づいて、歩行者で混雑した環境内を進む。いずれのサンプリング点においても、訓練されたナビゲーションモデルは、付近の歩行者及び当該歩行者各々の移動ロボットに対する速度を特定する測定データを受信する。訓練されたナビゲーションモデルは、歩行者の速度情報と、サービス環境内の移動ロボットの現在位置及び所望の目的位置に基づいて、移動ロボットに速度を調整させる指令信号を生成する。ナビゲーションモデルは、周囲の歩行者の速度と現在位置を繰り返しサンプリングすることにより、サービス環境内の歩行者の通行の流れの途絶を最小限に留めて、移動ロボットをサービス環境内の目的位置に導く。
更なる側面において、ナビゲーションモデルは、歩行者で混雑した環境において歩行者の歩行行動を模倣するように訓練される。ナビゲーションモデルは、歩行者歩行動作の多数の群に基づいて訓練される。各動作は、歩行者で混雑した環境を通って特定の出発位置から特定の目的位置まで進む行動訓練者(例えば、特定の歩行者、人に制御された移動ロボット)の動きを追跡することを含む。種々の歩行者歩行動作の群は、サービス環境内の多数の異なる出発位置と目的位置を含む。各歩行者歩行動作中、訓練者付近の歩行者の位置及び速度は、訓練者の位置及び速度と共に周期的に測定される。これらの情報は、ナビゲーションモデルの訓練に用いられる。ナビゲーションモデルは、このような方法で、歩行者で混雑した特定の環境を通り抜ける人の歩行行動を模倣するように訓練される。その結果、ナビゲーションモデルを用いる移動ロボットは、逆方向又は異なる方向に移動している歩行者に抗うのではなく、同一方向又は同様の方向に歩いている歩行者の流れに沿ってついて行くことができる。訓練されたナビゲーションモデルは、訓練用データを得たサービス環境に特有のものである。
図1は、一実施形態におけるサービスロボットとして構成された移動ロボット100を示す。移動ロボット100は車輪付きロボット車両101を備える。車輪付きロボット車両101のフレーム105には、駆動輪及び操縦輪が取り付けられている。また、移動ロボット100は、荷物104の運搬のために構成された荷台102を備える。また、移動ロボット100は、荷物104を荷台102に固定し、移動ロボット100のユーザーと対話するように構成された上半身ロボット103を備える。一例として、移動ロボット100は、公共交通機関のステーション(例えば、鉄道駅)で作動し、構内で旅客の荷物運搬を手助けする。他の例として、移動ロボット100は、公共区域で作動し、一般の人々のゴミ処理を手助けする。この例では、荷物104はゴミ容器を含む。
図2は、移動ロボット100の車輪付きロボット車両101と荷台102の上面図を示す。図2に示すように、車輪付きロボット車両101は、駆動輪106A、106Bと、操縦輪106C、106Dを備える。いくつかの実施形態では、操縦輪106C、106Dは、複数の軸を中心に自由に回転する受動輪である。これらの実施形態では、操縦輪106C、106Dは、主に、積荷を地面に対して垂直に支持するように機能する。一方、駆動輪106A、106Dの回転は、車輪付きロボット車両101の移動軌道を決定する。いくつかの他の実施形態では、操縦輪106C、106Dの地面に垂直な軸を中心とする向きは、能動的に制御される。また、これらの実施形態では、操縦輪106C、106Dは、車輪付きロボット車両101の移動軌道の方向を制御するように機能する。いくつかの他の実施形態では、操縦輪106C、106Dの回転と、操縦輪106C、106Dの地面に垂直な軸を中心とする向きの両方が、能動的に制御される。これらの実施形態では、操縦輪106C、106Dは、車輪付きロボット車両101の移動軌道の方向と、当該移動軌道に沿った速度の両方を制御するように機能する。
図1に示すように、移動ロボット100は、画像撮影システム107、距離測定センサーシステム108及びライダー(LIDAR)センサーシステム109を備える。画像撮影システム107は、移動ロボット100近辺の人や物を撮影する一以上の画像撮影装置(例えば、カメラなど)を備える。距離測定センサーシステム108は、移動ロボット100と、移動ロボット100近辺の人や物との距離を推定する一以上の距離測定センサー(例えば、レーザーベース、ソナー、レーダーベースの距離測定センサー)を備える。ライダーセンサーシステム109は、移動ロボット100と、移動ロボット100近辺の人や物との距離を推定する一以上のライダー装置を備える。画像撮影システム107によって収集された画像データ、距離測定センサーシステム108によって収集された距離データ、ライダーセンサーシステム109によって収集された距離データ又は任意の組み合わせを用いて、移動ロボット100近辺の歩行者の存在及び当該歩行者の移動ロボット100に対する速度を推定する。
画像撮影システム、距離測定センサーシステム及びライダーセンサーシステムは、適切な視野で構成される。いくつかの実施形態では、画像撮影システム、距離測定センサーシステム及びライダーセンサーシステムは、移動ロボット100を中心とする360度の視野内の人や物を検知するように構成されている。一方、いくつかの他の実施形態では、画像撮影システム、距離測定センサーシステム及びライダーセンサーシステムの視野は、移動ロボット100を中心とする特定の角度範囲又は角度範囲群に限定される。画像撮影システム、距離測定センサーシステム及びライダーセンサーシステムの視野は、完全に重なるように、部分的に重なるように、又は全く重ならないように構成される。好ましい実施形態では、少なくとも二のセンサーサブシステムの視野が重なり、収集されたセンサーデータに重複が生じる。いくつかの例では、重複データを収集することは、移動ロボット100付近の歩行者の速度の特定及び推定を向上させる。
図1に示す移動ロボット100は、画像撮影システム、距離測定センサーシステム及びライダーセンサーシステムを備えるが、本願で説明する移動ロボットは、これらのシステムのいずれの組み合わせを備えてもよい。同様に、本願で説明するような移動ロボットは、移動ロボット100付近の歩行者の速度の特定及び推定に適していれば、いかなるセンサー配置を有してもよい。
いくつかの実施形態では、移動ロボット100は、移動ロボット100が収容され作動するサービス環境(例えば、鉄道駅)における移動ロボット100の位置検出に適切な電子機器(図示なし)を備える。一実施形態では、移動ロボット100は、サービス環境内に固定して配置される同様のビーコンと通信する無線(RF)ビーコンを、屋内測位システムの一部として備える。これらのビーコン間の通信に基づいて、移動ロボット100はサービス環境における自身の位置を検出することができる。
いくつかの他の実施形態では、画像撮影システム107によって収集された画像データ、距離測定センサーシステム108によって収集された距離データ、ライダーセンサーシステム109によって収集された距離データ又は任意の組み合わせを用いて、サービス環境内の移動ロボットの現在位置を推定する。一例として、画像撮影システム107によって収集された画像データは、サービス環境(例えば、鉄道駅、病院など)内の至る所に固定して取り付けられている基準の画像を含む。基準画像に画像処理操作を行うことによって、コンピューティングシステム200は、サービス環境に係る移動ロボットの位置と向き(例えば、x位置、y位置、Rz方向)を判定する。一例として、基準及び画像処理ソフトウェアは、アメリカ合衆国ミシガン州アナーバー市のミシガン大学のエイプリル・ロボット・ラボラトリー(April Robotics Laboratory)から入手可能である。他の例として、コンピューティングシステム200は、ライダーセンサーシステム109によって収集された距離データから画像を組み立てる。また、サービス環境のイメージマップをメモリー搭載移動ロボット100に記憶させる。コンピューティングシステム200は、SLAM(Simultaneous Localization And Mapping)技術を用いて、組み立てられた画像とサービス環境のイメージマップを比較して、サービス環境内の移動ロボット100の位置を推定する。
図3は、コンピューティングシステム200、画像撮影システム107、距離測定センサーシステム108、ライダーセンサーシステム109及び車両用アクチュエーター162を備える移動ロボット100の構成要素を示す図である。図3に示す実施形態では、コンピューティングシステム200は、画像撮影システム107、距離測定センサーシステム108、ライダーセンサーシステム109及び車両用アクチュエーター162と、有線通信リンクで通信可能に接続されている。しかし、コンピューティングシステム200は、本願で説明するセンサー及び装置と、有線通信リンク、無線通信リンクのいずれで通信可能に接続されてもよい。通常、サービス環境における移動ロボット100の位置の検出や、付近の歩行者及び当該歩行者各々の移動ロボット100に対する速度の特定を行うセンサーの数がいくつであっても、これらのセンサーはコンピューティングシステム200と通信可能に接続される。
図3に示すように、コンピューティングシステム200は、センサーインターフェース110、少なくとも一のプロセッサー120、メモリー130、バス140、無線通信トランシーバー150及び被制御装置インターフェース160を備える。センサーインターフェース110、プロセッサー120、メモリー130、無線通信トランシーバー150及び被制御装置インターフェース160は、バス140を介して通信可能に構成されている。
図3に示すように、センサーインターフェース110は、デジタル入力/出力インターフェース112を備える。いくつかの他の実施形態では、センサーインターフェース110は、アナログ→デジタル変換(ADC)電子機器(図示なし)、無線通信トランシーバー(図示なし)又はこれらの組み合わせを備え、センサーシステムと通信して、一以上のセンサーから測定データを受信する。概して、本願で説明するセンサーはデジタル又はアナログセンサーであり、適切なインターフェースによってコンピューティングシステム200と通信可能に接続される。
図3に示すように、デジタルインターフェース112は、画像撮影システム107からの信号113、距離測定センサーシステム108からの信号114及びライダーセンサーシステム109からの信号115を受信するように構成されている。この例では、画像撮影システム107は、検出画像を示すデジタル信号113を生成する内蔵電子機器を備える。同様に、距離測定センサーシステム108は、当該距離測定システム108によって得られた距離測定値を示すデジタル信号114を生成する内蔵電子機器を備え、ライダーセンサーシステム109は、当該ライダーセンサーシステム109によって得られた距離測定値を示すデジタル信号115を生成する内蔵電子機器を備える。
被制御装置インターフェース160は、適切なデジタル→アナログ変換(DAC)電子機器を備える。また、いくつかの実施形態では、被制御装置インターフェース160は、デジタル入力/出力インターフェースを備える。いくつかの他の実施形態では、被制御装置インターフェース160は、装置と通信するように構成された無線通信トランシーバーを備える。上記通信には制御信号の送信が含まれる。
図3に示すように、被制御装置インターフェース160は、制御指令161を車両用アクチュエーター162に送信するように構成されている。車両用アクチュエーター162は、車輪付きロボット車両101を所望の速度(すなわち、速さと進行方向の両方)で歩行者で混雑した環境内を移動させる。
メモリー130は、センサー107〜109から収集された測定データを記憶するメモリー量131を有する。また、メモリー130は、プログラムコードを記憶するメモリー量132を有する。プロセッサー120は、プログラムコードを実行することで、本願で説明するナビゲーションモデル訓練機能及びモデルベースナビゲーション機能を実行する。
いくつかの例では、プロセッサー120は、センサーインターフェース110によって生成されたデジタル信号をメモリー131に記憶させるように構成されている。また、プロセッサー120は、メモリー131に記憶されているデジタル信号を読み出して、無線通信トランシーバー150に送信するように構成されている。無線通信トランシーバー150は、コンピューティングシステム200から外部のコンピューティング装置(図示なし)に、無線通信リンクを介してデジタル信号を通信するように構成されている。図3に示すように、無線通信トランシーバーは、アンテナ151を介して無線信号152を送信する。無線信号152には、コンピューティングシステム200から外部のコンピューティング装置に通信されるデジタル信号を示すデジタル情報が含まれる。一例として、画像撮影装置123によって収集された画像と、距離測定センサーシステム108及びライダーセンサーシステム109によって測定された距離は、移動ロボットの活動をモニタリングするために、外部のコンピューティングシステムに通信される。
他の例として、無線通信トランシーバー150は、外部のコンピューティング装置(図示なし)からのデジタル信号を、無線通信リンクを介してコンピューティングシステム200に通信するように構成されている。図3に示すように、無線通信トランシーバーは、アンテナ151を介して無線信号153を受信する。一例として、無線信号153には、サービス環境内の移動ロボット100の位置を示すデジタル情報が含まれる。
一側面において、コンピューティングシステムはナビゲーションモデル訓練エンジンとして構成され、ナビゲーションモデルを訓練する。ナビゲーションモデルは、歩行者の歩行行動を模倣することによって、歩行者で混雑した環境において移動ロボット100を誘導するために用いられる。いくつかの例では、コンピューティングシステム200がナビゲーションモデル訓練エンジンとして構成される。他のいくつかの例では、外部のコンピューティング装置がナビゲーションモデル訓練エンジンとして構成される。図4は、一実施形態におけるナビゲーションモデル訓練エンジン170の例を示す図である。図4に示すように、ナビゲーションモデル訓練エンジン130は、移動センサーベースの群集分析モジュール171、固定センサーベースの群集分析モジュール172及びナビゲーションモデル訓練モジュール174を備える。
移動センサーベースの群集分析モジュール171は、歩行者で混雑した環境を通って或る位置から他の位置まで巧みに進む行動訓練者に取り付けられたセンサーによって生成された信号175を受信する。信号175は、行動訓練者が歩行者で混雑した環境内を進んでいる間に、周期的に収集される。一例として、行動訓練者は、歩行者で混雑した環境内を人によって誘導される移動ロボット100である。この例では、信号175には、移動ロボット100が人による制御下で歩行者で混雑した環境内を進んでいる間に画像撮影システム107によって収集された画像データ、距離測定センサーシステム108によって収集された距離データ及びライダーシステム109によって収集された距離データが含まれる。他の例として、行動訓練者は、歩行者で混雑した環境を或る位置から他の位置まで進む特定の歩行者である。この例では、上記歩行者に一以上のセンサー(例えば、画像撮影システム107、距離センサーシステム108、ライダーシステム109など)が取り付けられている。信号175は、上記歩行者が歩行者で混雑した環境内を進んでいる間に、周期的に収集される。
移動センサーベースの群集分析モジュール171は信号175を処理し、各サンプリング時点における行動訓練者付近の各歩行者の行動訓練者に対する相対速度177(すなわち、速さと進行方向)を判定する。いくつかの例では、移動センサーベースの群集分析モジュール171は、画像データ、距離測定データ、ライダーデータ又はこれらの組み合わせに基づいて、行動訓練者付近の歩行者の時間系列の画像を生成する。行動訓練者に対する付近の歩行者の速度は、各サンプリング時点における画像シーケンスデータから判定される。
図6は、一例としての歩行者で混雑した環境230を示す図である。歩行者で混雑した環境230には、多くの固定構造物239(例えば、建物外壁、回転式ゲートなど)と、環境内を進む多くの歩行者が含まれる。環境230内の行動訓練者237は、ベクトル238が示す特定の速度で移動する。同様に、付近の歩行者232〜236は、各々、図示したベクトルが示す速度で移動する。この例では、付近の歩行者232〜236はいずれも、行動訓練者237から距離R内の歩行者として特定される。
一例として、移動センサーベースの群集分析モジュール171は信号175を処理し、図6に示す例における行動訓練者237に対する歩行者232〜236の各追加サンプリング時点における速度177(すなわち、速さと進行方向)を判定する。
付近の歩行者は、ナビゲーションモデルの訓練及び使用のため、任意の適切な方法で特定される。一例として、付近の歩行者は、最も近いN人の歩行者として特定される。ここで、Nは任意の正の整数である。他の例として、付近の歩行者は、行動訓練者又は自律性移動ロボットの視界に入った全ての歩行者として特定される。
固定センサーベースの群集分析モジュール172は、歩行者で混雑した環境内の固定構造物に取り付けられたセンサーによって生成された信号176を受信する。例えば、図7及び8は、一例としての歩行者で混雑した環境210を示す図である。歩行者で混雑した環境210には、固定構造物239間を通り抜ける多くの歩行者が含まれる。この例では、一以上のカメラ240が構造物239に取り付けられている。カメラ240は、固定センサーベースの群集分析モジュール172によって受信される画像データ176を生成する。信号176は、行動訓練者が歩行者で混雑した環境内を進んでいる間に、周期的に収集される。
この例では、行動訓練者は、歩行者で混雑した環境210にいるいずれの歩行者であってもよい。一例として、信号176には、歩行者で混雑した環境210の時間系列の画像が含まれる。固定センサーベースの群集分析モジュール172は、信号176に基づいて、信号176の画像データ内に動作がキャプチャーされている歩行者の中から、一以上の行動訓練者を特定する。また、固定センサーベースの群集分析モジュール172は信号176を処理し、各サンプリング時点における各行動訓練者付近の各歩行者の各行動訓練者に対する速度178(すなわち、速さと進行方向)を判定する。
一例として、図7に示すように、固定センサーベースの群集分析モジュール172は、環境210内に図示した行動訓練者218を特定する。行動訓練者218は、図示したベクトルが示す特定の速度で移動する。同様に、付近の歩行者212〜217は、各々、図示したベクトルが示す速度で移動する。この例では、固定センサーベースの群集分析モジュール172は、付近の歩行者212〜217をいずれも、行動訓練者218から距離R内の歩行者として特定する。また、固定センサーベースの群集分析モジュール172は、各サンプリング時点における画像シーケンスデータに基づいて、行動訓練者218に対する付近の歩行者212〜217の速度を判定する。
他の例として、図8に示すように、固定センサーベースの群集分析モジュール172は、環境210内に図示した他の行動訓練者226を特定する。行動訓練者226は、図示したベクトルが示す特定の速度で移動する。同様に、付近の歩行者222〜225は、各々、図示したベクトルが示す速度で移動する。この例では、固定センサーベースの群集分析モジュール172は、付近の歩行者222〜225をいずれも、行動訓練者226から距離R内の歩行者として特定する。また、固定センサーベースの群集分析モジュール172は、各サンプリング時点における画像シーケンスデータに基づいて、行動訓練者226に対する付近の歩行者222〜225の速度を判定する。
一又は複数の異なる種類のセンサーを歩行者で混雑した環境内の固定構造物に取り付けることで、固定センサーベースの群集分析モジュール172による行動訓練者及び付近の歩行者の速度の推定に適したデータを取得してもよい。センサーとしては、例えば、カメラ、距離測定器、ライダー装置などが用いられる。
図4に示すように、移動センサーベースの群集分析モジュール171によって速度情報177が生成され、固定センサーベースの群集分析モジュール172によって速度情報178が生成される。これらの速度情報は、ナビゲーションモデル訓練のベースとなる。あるいは、移動センサーベースの群集分析モジュール171と固定センサーベースの群集分析モジュール172のどちらか一方を、ナビゲーションモデル訓練用速度情報の生成専用としてもよい。
図4に示すように、ナビゲーションモデル訓練モジュール174は、ナビゲーションモデル184を訓練する。ナビゲーションモデル184は、一以上の行動訓練者によって示される歩行者歩行行動を模倣する方法で、移動ロボットが歩行者で混雑した環境を通って或る位置から他の位置まで進むことを可能とする。訓練されたナビゲーションモデル184は、移動ロボットの現在位置及び所望の目的位置と、一以上の付近の歩行者の移動ロボットに対する相対速度に基づいて、各サンプリング期間における移動ロボットの所望の速度(すなわち、速さと操縦角度)を判定する。
ナビゲーションモデル訓練モジュール174は訓練データ群を受信する。各訓練データ群は、行動訓練者の歩行者で混雑した環境を通って出発位置から所望の目的位置まで進む動作に関連する。各訓練データ群は、その全動作のサンプリング期間ごとの、現在位置181、動作に対応する目的位置182、行動訓練者の測定された速度180及び付近の歩行者に関連する相対速度情報177、178を含む。ナビゲーションモデル訓練モジュール174は、移動ロボットの現在位置及び所望の目的位置と、付近の歩行者の相対速度と、に基づく移動ロボットの所望の速度の判定のため、ナビゲーションモデル184を訓練する。訓練されたナビゲーションモデル184は、メモリー(例えば、図3に示すメモリー133)に記憶される。
いくつかの例では、行動訓練者の速度180は、行動訓練者上で測定される。例えば、移動ロボット又は機器が取り付けられた人を行動訓練者として用いる実施形態では、当該移動ロボット又は機器が取り付けられた人に搭載されたセンサーを用いて、行動訓練者の速度を推定する。一例として、移動ロボットに搭載された推測航法センサーを用いて、当該移動ロボットの速度を常時推定する。他の例として、屋内測位システムを用いて、移動ロボットや機器が取り付けられた人の速度を常時推定する。
いくつかの他の例では、行動訓練者の速度は、環境に据え付けられたセンサーに基づいて測定される。例えば、図7〜8を参照して説明したように、行動訓練者を歩行者の通行の流れに加わっている一以上の参加者から選出する実施形態では、速度情報178は各サンプリング期間における行動訓練者の速度を含む。
概して、訓練されたナビゲーションモデル184は、現在位置と付近の歩行者の相対速度の測定値と、移動ロボットに歩行者の歩行行動を模倣させる速度指令と、の直接的かつ機能的な関係である。
本願で説明する訓練されたナビゲーションモデルは、ニューラルネットワークモデル、畳み込みネットワークモデル、サポートベクターマシンモデル、応答局面モデル、多項式モデル、ランダムフォレストモデル、ディープネットワークモデル又はその他の種類のモデルとして実装される。いくつかの例では、本願で説明する訓練されたナビゲーションモデルは、複数のモデルの組み合わせとして実装される。
更なる側面において、ナビゲーションモデル訓練用教示データを生成するための行動訓練者は、好ましい歩行者歩行行動を強化するように選出される。図7〜8を参照して説明した例では、記録したいずれの歩行者を行動訓練者としてもよいが、行動訓練者群は好ましい歩行者歩行行動を示す行動訓練者に限定するのが望ましい。例えば、駅の或るホームから他のホームへ、ホームから出口へ、収納ロッカーからホームへ、又はこれらの逆方向に素早く移動する歩行者は、行動訓練者として好ましい。一方、人の流れの途中で立ち止まったり、人の流れに抗って移動したり、隅に移動して立ち止まったり、人の連続的な流れに対してランダムに移動する歩行者は、行動訓練者として好ましくない。このような方法で、好ましい歩行者歩行行動を示す歩行者は訓練群に含まれ、好ましくない歩行者歩行行動を示す歩行者は訓練群から除かれる。
いくつかの例では、固定センサーベースの群集分析モジュール172は、信号176をフィルタリングして、好ましい歩行者歩行行動を示す行動訓練者を選出するように構成されている。一例として、固定センサーベースの群集分析モジュール172は、行動訓練者候補と付近の歩行者の移動方向における差を判定する。差が所定の閾値未満である場合、その行動訓練者候補を選出して訓練群に加える。一方、差が所定の閾値を超える場合、その行動訓練者候補を訓練群から外す。これらの例では、所定の閾値の値は、流れに追随する行動を示す(すなわち、付近の歩行者と同様の方向に移動する)行動訓練者を隔離するように設定される。
他の側面において、コンピューティングシステム200はナビゲーションエンジンとして構成され、移動ロボットの所望の速度を、所望の目的位置と、現在位置及び付近の歩行者の相対速度の測定値に基づいて、訓練されたナビゲーションモデルを用いて直接判定する。図5は、一実施形態におけるナビゲーションエンジン185の例を示す図である。図5に示すように、ナビゲーションエンジン185は、図4を参照して説明した移動センサーベースの群集分析モジュール171と、ナビゲーションモジュール190を備える。
一実施形態では、移動ロボット100には、歩行者で混雑した環境を通って現在位置から所定の目的位置まで進むというタスクが課せられている。移動センサーベースの群集分析モジュール171は、移動ロボット100に搭載されたセンサーからの信号186(例えば、信号113〜115又はこれらの任意の組み合わせ)を受信する。移動センサーベースの群集分析モジュール171は付近の歩行者を特定し、各特定された歩行者の移動ロボット100に対する相対速度を判定し、この速度情報189をナビゲーションモジュール190に通信する。また、ナビゲーションモジュール190は、サービス環境内の移動ロボットの現在位置を示す示度187と、サービス環境内の所望の目的位置188を受信する。ナビゲーションモジュール190は、訓練されたナビゲーションモデル184を用いて、現在位置187と、所望の目的位置188と、速度情報189に基づいて、現在のサンプリング期間の移動ロボットの所望の速度191を判定する。所望の速度191は、指令信号161を生成する(例えば、コンピューティングシステム200に実装された)モーションコントローラー192に通信される。指令信号161は、移動ロボット100の車両用アクチュエーター162に通信され、移動ロボット100を所望の速度191で移動させる。移動センサーベースの群集分析モジュール171からの速度情報189と(例えば、屋内測位システムなどからの)現在位置情報は繰り返しサンプリングされ、所望の速度は繰り返し更新される。このような方法で、ナビゲーションモジュール190は、通行の流れの途絶を最小限に留めて、歩行者で混雑した環境において移動ロボット100を誘導する。
図9は、本願で説明したような移動ロボットによって実施されるにふさわしい方法300のフローチャートを示す。いくつかの実施形態では、移動ロボット100は図9に示す方法300に応じて動作可能である。ただし、方法300の実施は、図1〜5を参照して説明した移動ロボット100の実施形態に限定されるものではない。これらの図及び対応する説明は例に過ぎず、他の多くの実施形態や動作例も考えられる。
ブロック301において、移動ロボット付近の一以上の歩行者の存在を示す第1の信号群を、例えば、移動ロボット100に搭載されたセンサー又は歩行者で混雑した環境内に据え付けられたセンサーにより生成する。また、歩行者で混雑した環境内の移動ロボットの位置を示す第2の信号群を、例えば、屋内測位システムにより生成する。
ブロック302において、第1の信号群に基づいて、サンプリング時間に、一以上の歩行者各々の移動ロボットに対する速度を生成する。
ブロック303において、サンプリング時間における歩行者で混雑した環境内の移動ロボットの位置と、サンプリング時間における移動ロボット付近の一以上の歩行者各々の速度と、歩行者で混雑した環境内の移動ロボットの所望の目的位置に基づいて、サンプリング時間における移動ロボットの所望の速度の値を推定する。所望の速度の値は、訓練されたナビゲーションモデルに基づいて判定される。
ブロック304において、移動ロボットを所望の速度の値で歩行者で混雑した環境内を移動させる。
コンピューティングシステム200や外部のコンピューティングシステムは特に限定されないが、パーソナルコンピューターシステム、メインフレームコンピューターシステム、ワークステーション、画像コンピューター、並列プロセッサー又は当技術分野において周知の他の装置を備える。一般に、「コンピューティングシステム」は、記憶媒体に格納された指示を実行する一以上のプロセッサーを有する装置を包含すると広義に定義される。
本願で説明したような方法を実行するプログラム指示132は、有線又は無線送信リンクなどの送信媒体を介して送信されてもよい。例えば、図1に示すように、メモリー130に記憶されたプログラム指示132は、バス140を介してプロセッサー120に送信される。プログラム指示132はコンピューター読取可能媒体(例えば、メモリー130)に記憶される。コンピューター読取可能媒体の例としては、ROM、RAM、磁気ディスク、光ディスク、磁気テープなどが挙げられる。
一以上の好ましい実施形態では、上記機能は、ハードウェア、ソフトウェア、ファームウェア又はこれらの任意の組み合わせで実装される。ソフトウェアで実装される場合、上記機能は、一以上の指示又はコードとしてコンピューター読取可能媒体に記憶又は送信される。コンピューター読取可能媒体には、コンピューター記憶媒体と通信媒体が含まれる。通信媒体には、或る場所から他の場所へコンピュータープログラムを容易に転送可能なあらゆる媒体が含まれる。記憶媒体は、汎用又は専用コンピューターによってアクセスできる入手可能ないずれの媒体であってもよい。このようなコンピューター読取可能媒体は特に限定されず、例えば、RAM、ROM、CD−ROM、その他の光ディスクストレージ、磁気ディスクストレージ、その他の磁気ディスク記憶装置、所望のプログラムコード手段の指示又はデータ構造の形態での送信又は記憶に用いることができ、汎用又は専用コンピューターあるいは汎用又は専用プロセッサーによってアクセス可能なその他の媒体などが挙げられる。また、あらゆる接続もコンピューター読取可能媒体と呼ぶにふさわしい。例えば、ソフトウェアが、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者線(DSL)、又は赤外線、無線通信、マイクロ波などの無線技術を用いて、ウェブサイト、サーバー又は他のリモートソースから送信される場合、この同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、又は赤外線、無線通信、マイクロ波などの無線技術は、上記媒体の定義に含まれる。本発明で用いられる「ディスク」としては、コンパクトディスク(CD)、レーザーディスク、光ディスク、デジタル多目的ディスク(DVD)、フロッピーディスク、ブルーレイディスクなどが挙げられる。なお、英語で「disk」と表記されるディスクは、通常、磁気作用によってデータを再生し、「disc」と表記されるディスクは、レーザーを用いて光学的にデータを再生する。上記の組み合わせも、コンピューター読取可能媒体の範囲に含まれる。
以上、教示目的でいくつかの具体的な実施形態を説明したが、本特許文献の教示は一般的適用性を有し、上記の具体的な実施形態に限定されるものではない。したがって、上記実施形態の様々な特徴は、請求項に記載の本発明の範囲から逸脱することなく、多様に変形、適応及び組み合わせることができる。

Claims (20)

  1. 移動ロボットを所望の速度で移動させる一以上のアクチュエーターを備える当該移動ロボットと、
    前記移動ロボット上に設けられ、当該移動ロボット付近の一以上の歩行者の存在を示す第1の信号群と、歩行者で混雑した環境内の前記移動ロボットの位置を示す第2の信号群と、を生成する一以上のセンサーシステムと、
    前記第1の信号群に基づいて、サンプリング時間に、前記一以上の歩行者各々の前記移動ロボットに対する速度を推定するように構成された移動センサーベースの群集分析モジュールと、
    前記サンプリング時間における前記歩行者で混雑した環境内の前記移動ロボットの前記位置と、前記サンプリング時間における前記一以上の歩行者各々の前記移動ロボットに対する前記速度と、前記歩行者で混雑した環境内の前記移動ロボットの所望の目的位置に基づいて、前記サンプリング時間における前記所望の速度の値を推定するように構成されたナビゲーションモジュールと、
    を備え、
    前記所望の速度の前記値は、訓練されたナビゲーションモデルに基づいて判定されることを特徴とするシステム。
  2. 歩行者歩行動作の群に基づいて前記ナビゲーションモデルを訓練するように構成されたナビゲーションモデル訓練モジュールを更に備え、
    各歩行者歩行動作は、歩行者で混雑した環境を通って特定の出発位置から特定の目的位置まで進む行動訓練者の動きを追跡することを含み、
    前記行動訓練者付近の複数の歩行者の位置及び速度と、当該行動訓練者の位置及び速度は、各歩行者歩行動作中に周期的に測定されることを特徴とする請求項1に記載のシステム。
  3. 前記行動訓練者は前記歩行者で混雑した環境内を人によって誘導される移動ロボットであることを特徴とする請求項2に記載のシステム。
  4. 前記行動訓練者は前記歩行者で混雑した環境内を進む人であることを特徴とする請求項2に記載のシステム。
  5. 前記行動訓練者付近の複数の歩行者の前記位置及び速度と、当該行動訓練者の前記位置及び速度は、前記移動ロボット上に設けられた前記一以上のセンサーシステムによって周期的に測定されることを特徴とする請求項2に記載のシステム。
  6. 前記歩行者で混雑した環境内の一以上の位置に固定された一以上のセンサーシステムを更に備え、
    前記行動訓練者付近の複数の歩行者の前記位置及び速度と、当該行動訓練者の前記位置及び速度は、前記一以上の位置に固定された前記一以上のセンサーシステムによって周期的に測定されることを特徴とする請求項2に記載のシステム。
  7. 前記歩行者歩行動作の群は、特定の歩行動作に関連する行動訓練者と、付近の各歩行者の、当該特定の歩行者歩行動作中の方向における差が所定の閾値未満である場合に、より大きな歩行者歩行動作の群の中から選出されていることを特徴とする請求項6に記載のシステム。
  8. 前記一以上のセンサーシステムは、画像撮影システム、距離測定センサーシステム及びライダーセンサーシステムのいずれかを備えることを特徴とする請求項1に記載のシステム。
  9. 移動ロボットを所望の速度で移動させる一以上のアクチュエーターを備える当該移動ロボットと、
    前記移動ロボット上に設けられ、当該移動ロボット付近の一以上の歩行者の存在を示す第1の信号群と、歩行者で混雑した環境内の前記移動ロボットの位置を示す第2の信号群と、を生成する一以上のセンサーシステムと、
    指示を備える非一時的コンピューター読取可能媒体と、を備え、
    コンピューティングシステムが前記指示を実行することにより、当該コンピューティングシステムは、
    前記第1の信号群に基づいて、サンプリング時間に、前記一以上の歩行者各々の前記移動ロボットに対する速度を推定し、
    前記サンプリング時間における前記歩行者で混雑した環境内の前記移動ロボットの前記位置と、前記サンプリング時間における前記一以上の歩行者各々の前記移動ロボットに対する前記速度と、前記歩行者で混雑した環境内の前記移動ロボットの所望の目的位置に基づいて、前記サンプリング時間における前記所望の速度の値を推定し、
    前記所望の速度の前記値は、訓練されたナビゲーションモデルに基づいて判定されることを特徴とするシステム。
  10. 前記非一時的コンピューター読取可能媒体は更なる指示を備え、
    前記コンピューティングシステムが前記指示を実行することにより、当該コンピューティングシステムは、歩行者歩行動作の群に基づいて前記ナビゲーションモデルを訓練し、
    各歩行者歩行動作は、歩行者で混雑した環境を通って特定の出発位置から特定の目的位置まで進む行動訓練者の動きを追跡することを含み、
    前記行動訓練者付近の複数の歩行者の位置及び速度と、当該行動訓練者の位置及び速度は、各歩行者歩行動作中に周期的に測定されることを特徴とする請求項9に記載のシステム。
  11. 前記行動訓練者は前記歩行者で混雑した環境内を人によって誘導される移動ロボットであることを特徴とする請求項10に記載のシステム。
  12. 前記行動訓練者は前記歩行者で混雑した環境内を進む人であることを特徴とする請求項10に記載のシステム。
  13. 前記行動訓練者付近の複数の歩行者の前記位置及び速度と、当該行動訓練者の前記位置及び速度は、前記移動ロボット上に設けられた前記一以上のセンサーシステムによって周期的に測定されることを特徴とする請求項10に記載のシステム。
  14. 前記歩行者で混雑した環境内の一以上の位置に固定された一以上のセンサーシステムを更に備え、
    前記行動訓練者付近の複数の歩行者の前記位置及び速度と、当該行動訓練者の前記位置及び速度は、前記一以上の位置に固定された前記一以上のセンサーシステムによって周期的に測定されることを特徴とする請求項10に記載のシステム。
  15. 前記歩行者歩行動作の群は、特定の歩行動作に関連する行動訓練者と、付近の各歩行者の、当該特定の歩行者歩行動作中の方向における差が所定の閾値未満である場合に、より大きな歩行者歩行動作の群の中から選出されていることを特徴とする請求項14に記載のシステム。
  16. 前記一以上のセンサーシステムは、画像撮影システム、距離測定センサーシステム及びライダーセンサーシステムのいずれかを備えることを特徴とする請求項9に記載のシステム。
  17. 移動ロボット付近の一以上の歩行者の存在を示す第1の信号群と、歩行者で混雑した環境内の前記移動ロボットの位置を示す第2の信号群と、を生成する工程と、
    前記第1の信号群に基づいて、サンプリング時間に、前記一以上の歩行者各々の前記移動ロボットに対する速度を推定する工程と、
    前記サンプリング時間における前記歩行者で混雑した環境内の前記移動ロボットの前記位置と、前記サンプリング時間における前記一以上の歩行者各々の前記移動ロボットに対する前記速度と、前記歩行者で混雑した環境内の前記移動ロボットの所望の目的位置に基づいて、前記サンプリング時間における所望の速度の値を推定する工程と、
    を備え、
    前記所望の速度の前記値は、訓練されたナビゲーションモデルに基づいて判定され、
    更に、
    前記移動ロボットを前記所望の速度の前記値で前記歩行者で混雑した環境内を移動させる工程と、を備える方法。
  18. 歩行者歩行動作の群に基づいて前記ナビゲーションモデルを訓練する工程を更に備え、
    各歩行者歩行動作は、歩行者で混雑した環境を通って特定の出発位置から特定の目的位置まで進む行動訓練者の動きを追跡することを含み、
    前記行動訓練者付近の複数の歩行者の位置及び速度と、当該行動訓練者の位置及び速度は、各歩行者歩行動作中に周期的に測定されることを特徴とする請求項17に記載の方法。
  19. 前記行動訓練者は前記歩行者で混雑した環境内を人によって誘導される移動ロボットであることを特徴とする請求項18に記載の方法。
  20. 前記行動訓練者は前記歩行者で混雑した環境内を進む人であることを特徴とする請求項18に記載の方法。
JP2017157894A 2017-08-18 2017-08-18 歩行者の歩行行動を模倣する移動ロボット Active JP6993638B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017157894A JP6993638B2 (ja) 2017-08-18 2017-08-18 歩行者の歩行行動を模倣する移動ロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017157894A JP6993638B2 (ja) 2017-08-18 2017-08-18 歩行者の歩行行動を模倣する移動ロボット

Publications (3)

Publication Number Publication Date
JP2019036192A true JP2019036192A (ja) 2019-03-07
JP2019036192A5 JP2019036192A5 (ja) 2020-08-06
JP6993638B2 JP6993638B2 (ja) 2022-01-13

Family

ID=65637620

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017157894A Active JP6993638B2 (ja) 2017-08-18 2017-08-18 歩行者の歩行行動を模倣する移動ロボット

Country Status (1)

Country Link
JP (1) JP6993638B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112965081A (zh) * 2021-02-05 2021-06-15 浙江大学 基于融合行人信息的特征地图的模仿学习社交导航方法
WO2021176997A1 (ja) * 2020-03-06 2021-09-10 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
CN113900432A (zh) * 2020-06-22 2022-01-07 阿里巴巴集团控股有限公司 移动机器人、共享移动机器人的控制方法、装置及设备
CN114035569A (zh) * 2021-11-09 2022-02-11 中国民航大学 一种航站楼载人机器人路径拓展通行方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004148492A (ja) * 2002-10-11 2004-05-27 Sony Corp ロボット装置のためのモーション編集装置及びモーション編集方法、ロボット装置及びロボット装置の制御方法、並びにコンピュータ・プログラム
JP2014123348A (ja) * 2012-12-21 2014-07-03 Toyota Motor Corp 自律的ナビゲーション方法
JP2016215335A (ja) * 2015-05-22 2016-12-22 トヨタ自動車株式会社 遠隔制御システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004148492A (ja) * 2002-10-11 2004-05-27 Sony Corp ロボット装置のためのモーション編集装置及びモーション編集方法、ロボット装置及びロボット装置の制御方法、並びにコンピュータ・プログラム
JP2014123348A (ja) * 2012-12-21 2014-07-03 Toyota Motor Corp 自律的ナビゲーション方法
JP2016215335A (ja) * 2015-05-22 2016-12-22 トヨタ自動車株式会社 遠隔制御システム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021176997A1 (ja) * 2020-03-06 2021-09-10 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
CN113900432A (zh) * 2020-06-22 2022-01-07 阿里巴巴集团控股有限公司 移动机器人、共享移动机器人的控制方法、装置及设备
CN112965081A (zh) * 2021-02-05 2021-06-15 浙江大学 基于融合行人信息的特征地图的模仿学习社交导航方法
CN112965081B (zh) * 2021-02-05 2023-08-01 浙江大学 基于融合行人信息的特征地图的模仿学习社交导航方法
CN114035569A (zh) * 2021-11-09 2022-02-11 中国民航大学 一种航站楼载人机器人路径拓展通行方法
WO2023082492A1 (zh) * 2021-11-09 2023-05-19 中国民航大学 一种航站楼载人机器人路径拓展通行方法

Also Published As

Publication number Publication date
JP6993638B2 (ja) 2022-01-13

Similar Documents

Publication Publication Date Title
JP6882296B2 (ja) 自律視覚ナビゲーション
JP5112666B2 (ja) 移動装置
US9776323B2 (en) Trained human-intention classifier for safe and efficient robot navigation
JP6993638B2 (ja) 歩行者の歩行行動を模倣する移動ロボット
US20210146540A1 (en) Method of identifying dynamic obstacle and robot implementing same
US8271132B2 (en) System and method for seamless task-directed autonomy for robots
US10386839B2 (en) Mobile robot that emulates pedestrian walking behavior
US10884417B2 (en) Navigation of mobile robots based on passenger following
JP2019185783A (ja) シミュレーションプラットフォームに配置された、機械学習モデルを訓練するためのシステム及び方法
KR101406175B1 (ko) 이동로봇의 위치추정과 지도 작성 장치 및 방법
CN112438664B (zh) 通过人工智能识别卡堵情形的机器人清洁器及其操作方法
JP7209861B2 (ja) ロボット車両の積荷フットプリントの協働決定
Lidoris et al. The autonomous city explorer (ACE) project—mobile robot navigation in highly populated urban environments
Kästner et al. Deep-reinforcement-learning-based semantic navigation of mobile robots in dynamic environments
JP2017010234A (ja) 移動ロボットシステム及び移動ロボットの制御方法
EP4070253A1 (en) Using a recursive reinforcement model to determine an agent action
CN115167482A (zh) 一种医院场景下的轮椅自主运动方法及轮椅机器人
Zaki et al. A navigation strategy for an autonomous patrol vehicle based on multi-fusion planning algorithms and multi-paradigm representation schemes
JP2019036192A5 (ja)
Peng et al. Tracking control of human-following robot with sonar sensors
JP7411185B2 (ja) 通行人追従型の移動ロボットの誘導
Ghandour et al. A hybrid collision avoidance system for indoor mobile robots based on human-robot interaction
Camargo et al. Mobile robot autonomous exploration and navigation in large-scale indoor environments
JP2021008258A (ja) スマートオブジェクトの知識の共有
JP2021163215A (ja) 移動体制御装置、移動体制御プログラム及び移動体

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20170913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200622

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211130

R150 Certificate of patent or registration of utility model

Ref document number: 6993638

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150