JP7221839B2 - 自律移動ロボットおよび自律移動ロボットの制御プログラム - Google Patents

自律移動ロボットおよび自律移動ロボットの制御プログラム Download PDF

Info

Publication number
JP7221839B2
JP7221839B2 JP2019185159A JP2019185159A JP7221839B2 JP 7221839 B2 JP7221839 B2 JP 7221839B2 JP 2019185159 A JP2019185159 A JP 2019185159A JP 2019185159 A JP2019185159 A JP 2019185159A JP 7221839 B2 JP7221839 B2 JP 7221839B2
Authority
JP
Japan
Prior art keywords
route
moving body
mobile robot
unit
destination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019185159A
Other languages
English (en)
Other versions
JP2021060849A (ja
Inventor
祐一 小林
健 杉本
天海 金
和仁 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shizuoka University NUC
Iwate University
Toyota Motor Corp
Original Assignee
Shizuoka University NUC
Iwate University
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shizuoka University NUC, Iwate University, Toyota Motor Corp filed Critical Shizuoka University NUC
Priority to JP2019185159A priority Critical patent/JP7221839B2/ja
Priority to CN202011046796.6A priority patent/CN112631269B/zh
Priority to US17/064,006 priority patent/US11642791B2/en
Publication of JP2021060849A publication Critical patent/JP2021060849A/ja
Application granted granted Critical
Publication of JP7221839B2 publication Critical patent/JP7221839B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0259Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39091Avoid collision with moving obstacles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40475In presence of moving obstacles, dynamic environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、自律移動ロボットおよび自律移動ロボットの制御プログラムに関する。
特定の環境下で複数の自律移動ロボットが与えられたタスクをそれぞれ実行する技術が知られるようになってきた。例えば、複数の掃除ロボットが互いに異なる経路を移動しながら掃除を実行する技術が知られている。また、移動体を動的な障害物に衝突させることなく移動させる技術も知られている(例えば、特許文献1を参照)。
特開2014-123348号公報
自律移動ロボットが人と共存する環境においてタスクを実行する場合は、他の自律移動ロボットに限らず共存する人との接触も回避する必要がある。しかし、駅や空港などの混雑する環境においては歩行者に代表される多くの移動体を避けなければならず、自律移動が困難である。特に、避けるべき移動体が多いと、それらを避けようとする移動ロボットが本来の移動経路から連続的に外れてしまい、目的地までの移動経路をリアルタイムに更新することが難しかった。
本発明は、このような問題を解決するためになされたものであり、高密度の雑踏環境でも、設定された目的地まで円滑に移動する自律移動ロボットを提供するものである。
本発明の第1の態様における自律移動ロボットは、自機位置を同定する同定部と、周囲を移動する移動体の移動体位置と移動体速度ベクトルを検出する検出部と、自機位置、移動体位置および移動体速度ベクトルから進むべき進路方向を演算する第1演算部と、自機位置、移動体位置、移動体速度ベクトルおよび進路方向を、シミュレーションによる教師あり学習によって学習された学習済みモデルへ入力して、移動体に接触することなく所定時間後に到達すると推定される推定位置を演算する第2演算部と、推定位置から目的地までの残余経路を生成する生成部と、進路方向および残余経路に基づいて目的地までの移動を制御する移動制御部とを備える。このような構成を備える自律移動ロボットであれば、移動体を回避することにより予定していた移動経路から外れてしまっても、即時的に移動経路を更新して、目的地まで円滑に移動することができる。また、上記の自律移動ロボットは、目的地への移動中に前記検出部が予め設定された条件を満たす移動体を新たに検出した場合には、前記推定位置と前記残余経路を更新しても良い。このように構成すれば、素早く経路を更新することができる。
また、上記の自律移動ロボットにおいて、第1演算部は、候補となる複数の進路方向を演算し、第2演算部は、第1演算部が演算した複数の進路方向ごとに推定位置を演算し、生成部は、第2演算部が演算した複数の推定位置ごとに残余経路を生成し、生成した残余経路ごとに評価演算を行って、移動制御部へ引き渡す進路方向および残余経路を決定するようにしても良い。学習済みモデルを利用した推定位置の演算は高速に行えるので、進路方向の候補を増やしても移動に遅延を生じさせず、進路方向を複数検討することによって、より良い移動経路を決定することができる。このとき、学習済みモデルは、推定位置に至る経路移動中における移動体との接近度合を併せて出力し、生成部は、接近度合を用いて評価演算を行うようにしても良い。このように構成すれば、歩行者に与える威圧感と効率的な移動とのバランスを調整して移動経路を決定することができる。
また、上記の自律移動ロボットにおいて、第1演算部は、移動体からの距離が遠いことと、移動体の移動方向に追従することを評価項目として含む評価関数に基づいて進路方向を演算すると良い。回避すべき移動体に対して、単に離れている方向だけでなく、移動体の動きに沿う方向も、移動体に接触することのない滑らかな進路として採用し得る。このとき、第1演算部は、目的地の方向を考慮して進路方向を演算すると良い。このように進路方向を決定すれば、目的地到達までの時間の短縮を期待できる。
本発明の第2の態様における自律移動ロボットの制御プログラムは、周囲を移動する移動体の移動体位置と移動体速度ベクトルを検出する検出ステップと、目的地への移動中に実行される検出ステップにより、予め設定された条件を満たす移動体を検出した場合に、自機位置を同定する同定ステップと、自機位置、移動体位置および移動体速度ベクトルから進むべき進路方向を演算する第1演算ステップと、自機位置、移動体位置、移動体速度ベクトルおよび進路方向を、シミュレーションによる教師あり学習によって学習された学習済みモデルへ入力して、移動体に接触することなく所定時間後に到達すると推定される推定位置を演算する第2演算ステップと、推定位置から目的地までの残余経路を生成する生成ステップと、進路方向および残余経路に基づいて目的地までの移動を制御する移動制御ステップとをコンピュータに実行させる。このような制御プログラムによって制御された自律移動ロボットによれば、移動体を回避することにより予定していた移動経路から外れてしまっても、即時的に移動経路を更新して、目的地まで円滑に移動することができる。


本発明により、高密度の雑踏環境でも、設定された目的地まで円滑に移動する自律移動ロボットを提供することができる。
本実施形態に係る自律移動ロボットの外観斜視図である。 移動ロボットのシステム構成図である。 移動ロボットの想定性能を説明する図である。 歩行者を避けて目的地へ到達するまでの自律移動を説明する概念図である。 処理の流れを示す機能ブロック図である。 進路方向の候補を説明する図である。 歩行者の影響を受けて進路がずれる様子を示す図である。 学習済みモデルを生成するプロセスを説明する図である。 残余経路を生成するプロセスを説明する図である。 他の例における残余経路の生成プロセスを説明する図である。 自律移動の処理フローを示すフロー図である。
以下、発明の実施の形態を通じて本発明を説明するが、特許請求の範囲に係る発明を以下の実施形態に限定するものではない。また、実施形態で説明する構成の全てが課題を解決するための手段として必須であるとは限らない。
図1は、本実施形態に係る移動ロボット100の外観斜視図である。移動ロボット100は、設定された目的地へ自律的に移動する自律移動ロボットの一例である。移動ロボット100は、大きく分けて台車部110と本体部120によって構成される。
台車部110は、円筒形状の筐体内に、それぞれが走行面に接地する2つの駆動輪111と1つのキャスター112とを支持している。2つの駆動輪111は、互いに回転軸芯が一致するように配設されている。それぞれの駆動輪111は、不図示のモータによって独立して回転駆動される。駆動輪111は、移動ロボットを移動させるための移動ユニットの一例である。キャスター112は、従動輪であり、台車部110から鉛直方向に延びる旋回軸が車輪の回転軸から離れて車輪を軸支するように設けられており、台車部110の移動方向に倣うように追従する。
移動ロボット100は、例えば、2つの駆動輪111が同じ方向に同じ回転速度で回転されれば直進し、逆方向に同じ回転速度で回転されれば台車部110の2つの駆動輪111のほぼ中央を通る鉛直軸周りに旋回する。すなわち、移動ロボット100は、2つの駆動輪111の回転方向、回転速度がそれぞれ制御されることにより、任意の方向へ並進、旋回することができる。また、移動ロボット100は、胴部121と台車部110と相対的な回転(方向または速度)を制御することも可能であり、任意の方向へ向いた状態で並進、旋回することもできる。
台車部110は、上面の周縁部にレーザスキャナ132を備える。レーザスキャナ132は、水平面内の一定の範囲をステップ角ごとにスキャンして障害物を検出する。レーザスキャナ132の性能については後に詳述する。
本体部120は、主に、台車部110の上面に搭載された胴部121、胴部121の上面に載置された頭部122、胴部121の側面に支持されたアーム123、アーム123の先端部に設置されたハンド124を備える。アーム123とハンド124は、不図示のモータを介して駆動され、様々な物体を制御された姿勢で把持する。図1は、搬送物の一例として容器を把持している様子を示す。胴部121は、不図示のモータの駆動力により、台車部110に対して鉛直軸周りに回転することができる。したがって、移動ロボット100は、把持部が搬送物を把持して特定方向を向く姿勢を保ったまま任意の方向へ移動することもできる。胴部121には、コントロールユニット190が設けられている。コントロールユニット190は、後述の制御部とメモリ等を含む。
頭部122は、主に、ステレオカメラ131および表示パネル141を備える。ステレオカメラ131は、同じ画角を有する2つのカメラユニットが互いに離間して配置された構成を有し、それぞれのカメラユニットで撮像された画像を画像データとして出力する。ステレオカメラ131は、把持対象物を認識したり、レーザスキャナ132の補助を担ったりする。
表示パネル141は、例えば液晶パネルであり、キャラクターの顔をイラストで表示したり、移動ロボット100に関する情報をテキストやアイコンで呈示したりする。表示パネル141にキャラクターの顔を表示すれば、表示パネル141が擬似的な顔部であるかの印象を周囲の観察者に与えることができる。また、表示パネル141は、表示面にタッチパネルを有し、ユーザからの指示入力を受け付けることができる。例えば、移動ロボット100に特定場所への道案内をさせたい場合には、ユーザは、タッチパネルを操作して当該タスクに相当するメニュー項目を選択する。
頭部122は、不図示のモータの駆動力により、胴部121に対して鉛直軸周りおよび水平軸周りに回転することができる。したがって、ステレオカメラ131は、任意の方向の対象物を撮影することができ、また、表示パネル141は、任意の方向へ向けて表示内容を呈示することができる。なお、以降の説明においては、図示するように、移動ロボット100が移動する移動平面をxy平面、移動平面に対する鉛直軸方向をz軸と定める。
図2は、移動ロボット100のシステム構成図である。制御部200は、例えばCPUであり、本体部120のコントロールユニット190に格納されている。台車駆動ユニット210は、駆動輪111を駆動するための駆動回路やモータを含む。上体駆動ユニット220は、アーム123およびハンド124を含む把持部、胴部121および頭部122を駆動するための駆動回路やモータを含む。
センサユニット130は、他の移動ロボットや障害物、周囲に存在する人物、把持している搬送対象物などを検出する各種センサを含み、台車部110および本体部120に分散して配置されている。ステレオカメラ131およびレーザスキャナ132は、センサユニット130を構成する要素である。
メモリ250は、不揮発性の記憶媒体であり、例えばソリッドステートドライブが用いられる。メモリ250は、移動ロボット100の移動や把持動作等を制御するための制御プログラムの他にも、制御や演算に用いられる様々なパラメータ値、関数、ルックアップテーブル等を記憶している。特に、後述する学習済みモデル251と、自律移動する環境を記述した環境地図252とを記憶している。
通信IF180は、外部機器と接続するためのインタフェースであり、例えば、ネットワークに接続された不図示のサーバとデータを授受するための無線LANユニットを含む。移動ロボット100は、学習済みモデル251や環境地図252等を、通信IF180を介してサーバから取得する。
制御部200は、メモリ250から読み出した制御プログラムを実行することにより移動ロボット100全体の制御と様々な演算処理とを実行する。また、制御部200は、制御に関わる様々な演算や制御を実行する機能実行部としての役割も担う。このような機能実行部として、同定部201、検出部202、第1演算部203、第2演算部204、生成部205、移動制御部206を含む。
同定部201は、センサユニット130の出力と環境地図252を用いて、移動ロボット100の現在位置である自機位置を同定する。検出部202は、主にレーザスキャナ132の出力を用いて、周囲を移動する移動体の移動体位置と移動体速度ベクトルを検出する。
第1演算部203は、同定部201が同定した自機位置、検出部202が検出した移動体位置および前記移動体速度ベクトルから、移動ロボット100が進むべき進路方向を演算する。第2演算部204は、同定部201が同定した自機位置、検出部202が検出した移動体位置および前記移動体速度ベクトル、第1演算部203が演算した進路方向を、学習済みモデル251へ入力して、移動体に接触することなく所定時間後に到達すると推定される推定位置を演算する。
生成部205は、第2演算部204が演算した推定位置から目的地までの残余経路を生成する。移動制御部206は、第1演算部203が演算した進路方向および生成部205が生成した残余経路に基づいて目的地までの移動するよう、台車駆動ユニット210を制御する。各機能実行部の詳細については後述する。
図3は、本実施形態における移動ロボット100の想定性能を説明する図である。移動ロボット100は、上述のように、独立二輪駆動および胴体部の回転により全方位への移動が可能である。移動制御部206は、速度-1~1.5m/s、旋回角速度-90~90deg/sで移動ロボット100を制御する。レーザレンジファインダであるレーザスキャナ132は、0.25°のステップ角で連続的にスキャンすることにより、前方視野角240°、距離30mまでの検出領域において障害物を検知することができる。検出部202は、レーザスキャナ132の出力を得て、障害物の位置(移動ロボット100の基準位置を原点とする相対座標)を検出する。また、出力を連続的に得ることにより障害物が動いているか否かを検出し、動いている場合には移動体として認識して、その時点における位置(移動体位置)と速度(移動体速度ベクトル)を検出する。
また、同定部201は、レーザスキャナ132の出力およびステレオカメラ131の出力を得て、環境中の構造物(例えば、柱、壁、棚等)を検出し、その検出結果と環境地図252を照合することにより、移動ロボット100の現在地(自機位置)を同定する。なお、同定部201は、駆動輪111の回転情報や環境に設置されたセンサからの信号等を利用しても良い。
図4は、歩行者を避けて目的地へ到達するまでの自律移動を説明する概念図である。移動ロボット100が自律移動する環境は、人が共存する環境を含み、歩行者が高密度に存在し得る駅や空港などの公共空間も想定している。移動ロボット100は、このような環境において、道に迷った人の案内や、搬送物の搬送等のタスクを実行する。
歩行者は、柱や壁等の構造物と異なり、環境地図252に記述することができない。したがって、移動ロボット100は、自機に接触しそうな歩行者を検出するたびに回避行動を実行する。なお、移動体としては、歩行者の他にも台車、パーソナルモビリティ、他の移動ロボット等を含み得るが、ここでは移動体の代表として歩行者について説明する。
移動ロボット100は、タスクの実行開始時に計画した目的地790までの計画経路700に沿って移動する間に、レーザスキャナ132により歩行者901~904を検出した場合に、これらが自機に接触する可能性があるか否かを判断する。具体的には、自機の進行方向に設定されたローカルエリアに存在し、一定時間内に当該ローカルエリアから退出することのない速度ベクトルを有する歩行者を、接触する可能性のある対象歩行者とする。ローカルエリアは、検出領域よりも狭い領域として設定されている。なお、対象歩行者を決定する条件は、自律移動する環境の特性や移動ロボット100の性能等に応じて予め設定される。
歩行者901~904が、図示するような位置に存在し、白抜き矢印で示す速度ベクトルで移動している場合に、移動ロボット100は、黒矢印P、Pの進路方向を選択し得る。黒矢印Pの進路方向は、歩行者901と、歩行者902および歩行者903との間に生じている隙間空間に向かい、歩行者901の移動に若干追従するように移動しつつ歩行者901~903を回避する回避経路711を生成し得る。黒矢印Pの進路方向は、歩行者902および歩行者903と、歩行者904との間に生じている比較的広い空間に向かい、歩行者902~904を回避する回避経路712を生成し得る。本実施形態においては、黒矢印で示す進路方向を決定した場合に、所定時間後に自機が到達する位置を推定し、予めその推定位置から目的地790までの残余経路を生成しておくことにより、移動ロボット100を円滑に目的地790へ到達させる。
図5は、処理の流れを示す機能ブロック図である。各機能ブロックは、図2を用いて説明したシステム構成の要素に対応する。センサユニット130の出力は、同定部201と検出部202へ供給される。同定部201は、センサユニット130の出力をメモリ250から読み出した環境地図252と照合して自機位置を同定する。同定された自機位置の情報は、第1演算部203と第2演算部204へ引き渡される。
検出部202は、センサユニット130の出力を得て、歩行者の位置と速度ベクトルを検出する。検出された歩行者の位置と速度ベクトルの情報は、第1演算部203、第2演算部204、移動制御部206へ引き渡される。第1演算部203は、自機位置の情報、歩行者の位置と速度ベクトルの情報を得て、自機が進むべき進路方向の候補を演算する。演算する候補の数は、予め定められた条件を満たす場合は複数であっても良い。具体的な演算手法については後述する。自機が進むべき進路方向の候補は、第2演算部204、移動制御部206へ引き渡される。
第2演算部204は、自機位置の情報、歩行者の位置と速度ベクトルの情報、および自機が進むべき進路方向の候補を、メモリ250から読み出した学習済みモデル251へ入力し、移動ロボット100が所定時間後に到達すると推定される推定位置を演算する。進むべき進路方向の候補を複数得た場合には、それぞれに対して推定位置を演算する。具体的な演算手法については後述する。演算された推定位置の情報は、生成部205へ引き渡される。
生成部205は、推定位置の情報を得て、当該推定位置から目的地790までの残余経路を生成する。推定位置の情報を複数得た場合には、それぞれに対して残余経路を生成する。複数の残余経路が生成された場合には、それぞれに対して評価演算を行って、一つの残余経路を決定する。具体的な演算手法については後述する。生成され、決定された残余経路の情報は、移動制御部206へ引き渡される。
移動制御部206は、決定された残余経路、その残余経路に対応する進路方向、歩行者の位置と速度ベクトルの情報を得て、台車駆動ユニット210を制御し、移動ロボット100を移動させる。具体的には、得た進路方向に向かって移動を開始し、推定位置を演算した所定時間が経過するまでは、歩行者の位置と速度ベクトルの情報に基づいて当該歩行者を回避しつつ進む。そして、所定時間が経過したら残余経路に沿った移動制御を行う。
このとき、検出部202は、周期的に歩行者の位置と速度ベクトルを検出して、移動制御部206へその結果を引き渡す。移動制御部206は、その状況に応じて回避動作を行う。したがって、当該所定時間後には、残余経路の開始点となる推定位置に到達しない場合もあるが、その場合は、所定時間の経過後に速やかに残余経路に沿うように軌道を修正する。
また、進路方向に向かって移動を開始した後であって所定時間の経過前に新たな対象歩行者を発見した場合、さらには、残余経路に沿って移動を開始した後に新たな対象歩行者を発見した場合には、改めて一連の処理を実行して、推定位置と残余経路を更新する。推定位置と残余経路を更新した場合には、その推定位置に対応する進路方向へ向かって移動を開始する。
図6は、進路方向の候補を説明する図である。上述のように、進路方向は、第1演算部203によって演算される。ここでは、図示するように、歩行者901~903が対象歩行者として存在する場合を想定する。第1演算部203は、検出部202が検出した歩行者901の位置(x,y)と速度ベクトル(xv,yv)、歩行者902の位置(x,y)と速度ベクトル(xv,yv)、歩行者903の位置(x,y)と速度ベクトル(xv,yv)を得ている。
進路方向は、移動する歩行者付近で交叉しない方向に設定されることが好ましい。進路方向の演算例について説明する。第1演算部203は、歩行者の位置と速度ベクトルから一次元ポテンシャルを算出する。そして、算出した一次元ポテンシャルの極小値をとる方向を進路方向の候補とする。歩行者iのポテンシャルは、以下のように定義する。
Figure 0007221839000001
Figure 0007221839000002
…(2)
は移動ロボット100から歩行者iまでの距離、φはロボット座標における極座標の偏角、φは目的地方向、θはロボット座標における歩行者iの位置方向、vは歩行者が移動ロボット100に向かう方向成分の歩行者の速度を表す。これらのパラメータは、位置(x,y)と速度ベクトル(xv,yv)から算出される。また、A、βは係数であり、事前に調整される。βは、rに応じて変化する。例えば、B、γを一定の係数とすると、β={B arctan(γ/r)}で示される。進路方向を決定するための一次元ポテンシャルは、対象歩行者をN人とした場合に、以下のように表わされる。
Figure 0007221839000003
Figure 0007221839000004
…(4)
obsでは、歩行者の存在する角度φがポテンシャルの山になるので、歩行者同士の隙間がポテンシャルの谷となり進路方向の候補として抽出できる。さらに式(3)においてp(φ)を以下のように設定する。
Figure 0007221839000005
…(5)
ここで、Cは係数を表す。p(φ)だけ加算させることで目的地方向のポテンシャルが負となり、移動ロボット100が目的地方向を選択可能となる。歩行者に追従する場合は、移動ロボット100から離れる歩行者の位置方向φがポテンシャルの谷となり、離れていく歩行者に追従することが可能となる。このようにして得られるポテンシャルが極小値をとる角度の集合Hobs={α obs,α obs,…,α obs}、Hvel={α vel,α vel,…,α vel}についてHobsとHvelの和集合が進路方向の候補となる。図6の例は、Hobsとして黒矢印Pが、Hvelとして黒矢印Pが演算された様子を示す。
例えば、黒矢印Pの方向を進路方向と決定して移動を開始したとしても、歩行者の移動に対する移動ロボット100の接触回避動作により、実際には直線方向への移動は継続できず、直線方向からずれることも多い。図7は、歩行者の影響を受けて進路がずれる様子を示す図である。
点線で示す予定経路721は、進路方向として決定した黒矢印P方向へ予定通り直進をした場合の軌跡を示す。実線で示す実際経路731は、移動ロボット100が実際に進んだ軌跡を示す。それぞれの軌跡上の丸印は、単位時間Δtごとの位置を示す。
移動ロボット100は、予定経路721に沿って移動しようとするものの、歩行者901の接近をできるだけ回避しようとする経路を採用した結果、予定経路721から乖離して実際経路731の軌跡を辿った様子が伺える。そして、3×Δt後であるTの時点においては、予定経路721を進めば(xD,yD)へ到達するはずが、実際には(xR,yR)であったことがわかる。
このように、進路方向を決定しても、所定時間後(例えば、3×Δt後)に実際にどこに到達するかは、対象歩行者の位置やその動きに影響され、正確に計算することは困難である。また、刻々とセンサ情報を取得して計算するには、多くのコンピュータリソースを消費し、多くの演算時間も必要となる。したがって、状況を逐次把握しながら演算を高速に繰り返すことは、移動ロボット100の移動速度を低下させ、円滑な移動の妨げとなる。そこで、本実施形態においては、自機位置、歩行者の位置および速度ベクトル、進路方向を入力すると、所定時間後に到達すると推定される推定位置を出力する学習済みモデル251を導入する。
まず、学習済みモデル251を生成するまでの学習プロセスの一例について説明する。学習は、オペレータを介さず、所定のアルゴリズムで自機の移動を自動的に確定させる手法を採用することができる。例えば、図6を用いて説明した一次元ポテンシャルを各時刻(t=T、T、T)で演算して一つの進路方向を決定し、単位時間Δtの間はその方向へ直進するというアルゴリズムを採用することができる。オペレータを介さない学習手法によれば短時間に多くの教師データを生成することができる。一方、オペレータを介した手法も採用できる。ここでは、学習段階の理解のため、オペレータを介した手法について説明する。
図8は、学習済みモデルを生成するプロセスを説明する図である。学習は、例えばタブレット端末である学習端末300において、オペレータの入力を伴うシミュレーションによって行われる。t=Tの初期設定において、学習端末300のコンピュータは、限られた数の範囲内でランダムに歩行者(図においては、歩行者A~Cで表わす)を配置し、また、ランダムにその速度ベクトル(図においては、白抜き矢印で表わす)を設定する。さらに、移動ロボット100を表わす自機Sを配置する。このように設定された歩行者と自機との関係に対して上述のように演算された一つの進路方向が決定され、予定経路が点線で示される。
シミュレーションが開始されると、t=TからTにかけての歩行者A~Cの移動がコンピュータによってアニメーションで示される。歩行者の移動は、予め定められた移動パターンの範囲内で、ランダムに決定される。例えば、移動速度は0.8~1.5m/sの範囲で決められ、設定された確率と角度に従って周期的に移動方向を変化させる。また、直前の時刻において警告領域に自機Sが進入した場合には、減速したり立ち止まったり、進入方向とは反対方向へ退避する移動を開始したりする。また、進行方向に自機が接近する場合には、移動速度を低下させる。
t=Tにおける歩行者A~Cの配置が確定するとアニメーションは一旦停止し、オペレータは、歩行者A~Cの様子を見て、自機Sをタッチパネル機能により移動すべき位置までドラッグする。このときの移動は、移動ロボット100の想定性能に合わせて制限される。また、予定経路から大きく外れる方向へのドラッグはキャンセルされる。このようにして、オペレータは、t=Tにおける自機Sの位置を確定させる。
このような処理を、t=T~T、t=T~Tに対しても繰り返す。所定時間が3×Δtに設定されている場合は、t=Tで確定された自機Sの位置が、t=Tの初期設定に対する推定位置となる。すなわち、t=Tの初期設定と、オペレータが確定させた自機Sの位置の組み合わせが、一つの教師データとなる。
学習済みモデル251は、オペレータによって大量に作成された教師データが与えられて学習を行う。このようにして生成された学習済みモデル251は、学習端末300から不図示のサーバを介してメモリ250へ格納される。なお、所定時間は、例えば、検出部202によって検出された対象歩行者の移動が移動ロボット100の移動に影響を与えなくなると想定される程度の時間に設定されると良い。また、所定時間は、移動ロボット100が自律移動を行う環境に応じて調整すると良い。例えば、歩行者の移動速度が速い環境(例えば、駅のコンコース)では短くし、遅い環境(例えば、福祉施設)では長くすると良い。また、移動ロボット100が自律移動を行う環境に応じて、シミュレーションで採用する歩行者の移動パターンを調整しても良い。
第2演算部204は、このような教師データを用いて学習された学習済みモデル251をメモリ250から読み出して利用する。具体的には、同定部201から受け取った自機位置の情報、検出部202から受け取った歩行者の位置と速度ベクトルの情報、第1演算部203から受け取った進路方向を学習済みモデル251へ入力し、所定時間後の移動ロボット100の推定位置を演算する。推定位置は、入力した自機位置に対する座標で表わされても良いし、進路方向へ直進した場合に対するずれ量として表わされても良い。
生成部205は、第2演算部204が演算した推定位置の情報を受け取り、当該推定位置から目的地790までの残余経路を生成する。図9は、残余経路を生成するプロセスを説明する図である。白丸Pcは、進路方向として黒矢印Pを採用した場合の所定時間後の推定位置である。予想経路741は、学習済みモデル251の直接の出力として得られるものではないが、移動ロボット100が辿ると考えられる軌跡を表わしている。
環境地図252には、推定位置Pc1と目的地790の間の領域に、障害物981、982が存在することが記述されている。障害物981、982を回避して目的地790へ到達する経路は、例えば図示するようなRc、Rc、Rcの候補が探索される。これらの候補のうち、経路コストが最も小さい経路を残余経路と決定する。経路の探索と評価については、例えば、A*探索アルゴリズムを採用することができる。
第1演算部203が進路方向の候補を複数出力した場合には、第2演算部204は、それぞれの進路方向に対して所定時間後の推定位置を演算する。図10は、2つの進路候補が演算された場合における残余経路の生成プロセスを説明する図である。
図9と同様に、白丸Pcは、進路方向として黒矢印Pを採用した場合の所定時間後の推定位置であり、予想経路741は、移動ロボット100が辿ると考えられる軌跡を表わしている。白丸Pcは、進路方向として黒矢印Pを採用した場合の所定時間後の推定位置であり、予想経路742は、移動ロボット100が辿ると考えられる軌跡を表わしている。
推定位置Pcから目的地790までの候補経路であるRcp1は、上述のように、例えば、A*探索アルゴリズムによって生成される。同様に、推定位置Pcから目的地790までの候補経路であるRcp2も、A*探索アルゴリズムによって生成される。生成部205は、更に、進路方向としてPを採用し推定位置Pcを経由して候補経路Rcp1に沿って目的地790まで移動する場合と、進路方向としてPを採用し推定位置Pcを経由して候補経路Rcp2に沿って目的地790まで移送する場合の経路コストを演算する。
生成部205は、進路方向であるPを選択した場合の第2演算部204の出力を元に予想経路741を生成する。同様に、進路方向であるPを選択し予想経路742を生成する。そして、予想経路741と候補経路Rcp1を辿る場合と、予想経路742と候補経路Rcp2を辿る場合のそれぞれに対し、移動距離、移動時間、進路変更頻度、障害物への接近度合等を評価項目として、経路コストを演算する。生成部205は、経路コストが低い方の候補経路を、移動制御部206へ引き渡す残余経路として決定する。
学習済みモデル251を、推定位置を出力すると共に当該推定位置に到達するまでにどの程度歩行者に接近するかの接近度合を併せて出力するように構成すれば、その接近度合も評価項目として採用し得る。例えば、歩行者の警告領域と交叉した回数を接近度合とすることができる。この場合、接近度合が大きいほどコストを高く設定する。このようなパラメータを評価項目として採用すれば、歩行者に与える威圧感と効率的な移動とのバランスを調整して経路を決定することができる。
移動制御部206は、生成部205から受け取った残余経路の情報と、第1演算部203から受け取った進路方向のうち当該残余経路に対応する進路方向とに基づいて、台車駆動ユニット210を駆動する。具体的には、進路方向へ移動を開始し、検出部202から周期的に受け取る歩行者の位置と速度ベクトルの情報に対応して当該歩行者を回避しつつ移動を継続する。そして、所定時間が経過した後は残余経路に沿って移動をする。なお、図9および図10を用いて説明した残余経路の選定においては、経路コストによる評価演算を行ったが、評価演算は、他の評価パラメータを採用したものであっても構わない。
図11は、自律移動の処理フローを示すフロー図である。フローは、タスクに応じた目的地が設定された時点から開始する。なお、移動に関する処理以外の処理についてはここでは言及しないが、そのような処理は必要に応じて適宜実行されるものとする。
制御部160は、ステップS101で、現在地から設定された目的地までの移動経路を、メモリ250から読み出した環境地図252を参照して計画する。すなわち、図4で示した計画経路700を策定する。ステップS102へ進み、移動制御部206は、計画した経路に沿って移動ロボット100を移動させる。移動制御部206が移動制御を実行している間は、検出部202は、周期的にセンサユニット130の出力を取得して、周囲を移動する移動体の有無を確認する(ステップS103)。周囲を移動する移動体を発見しない限りは(ステップS103:NO)、目的地に到達するまで移動を継続する(ステップS110:NO→ステップS102)。目的地に到達したと判断したら移動処理を終了する(ステップS110:YES)。
移動中に検出部202が移動体を発見したら(ステップS103:YES)、ステップS104へ進み、検出部202は、発見した移動体が回避対象か否かを判断する。具体的には、自機の進行方向に設定されたローカルエリアに存在し、一定時間内に当該ローカルエリアから退出することのない速度ベクトルを有する移動体を、回避対象の移動体と判断する。回避対象の移動体を含まない場合はステップS110へ進む。回避対象の移動体を含む場合はステップS105へ進む。
同定部201は、ステップS105で、センサユニット130の出力をメモリ250から読み出した環境地図252と照合して自機位置を同定する。第1演算部203は、ステップS106で、自機位置の情報、移動体の位置と速度ベクトルの情報を得て、自機が進むべき進路方向の候補を演算する。第2演算部204は、ステップS107で、自機位置の情報、移動体の位置と速度ベクトルの情報、および自機が進むべき進路方向の候補を、学習済みモデル251へ入力し、移動ロボット100が所定時間後に到達すると推定される推定位置を演算する。
生成部205は、ステップS108で、推定位置から目的地までの残余経路を生成する。推定位置の情報を複数得た場合には、それぞれに対して残余経路を生成する。複数の残余経路が生成された場合には、それぞれに対して評価演算を行って、一つの残余経路を決定する。
ステップS109へ進み、移動制御部206は、決定された残余経路、その残余経路に対応する進路方向、移動体の位置と速度ベクトルの情報を得て、台車駆動ユニット210を制御し、移動ロボット100を移動させる。具体的には、得た進路方向に向かって移動を開始し、推定位置を演算した所定時間が経過するまでは、歩行者の位置と速度ベクトルの情報に基づいて当該歩行者を回避しつつ進む。そして、所定時間が経過したら残余経路に沿った移動制御を行う。その後ステップS110へ進み、移動制御部206は、目的地へ到達したか否かを判断する。到達していないと判断したらステップS102へ戻る。到達したと判断したら一連の移動処理を終了する。
以上説明した本実施形態における移動ロボット100は、回避すべき移動体を検出した場合に所定時間後の推定位置を演算し、当該所定時間が経過するまでは決定した進路方向をできる限り守りつつ移動体を回避することに注力する。しかも、推定位置を学習済みモデル251によって演算するので、演算速度も速い。したがって、目的地までの経路を刻々と更新し続ける必要がなく、目的地まで円滑かつ高速に移動できる。ただし、推定位置を演算した時点で把握していなかった移動体であって、所定時間の経過までに接触する可能性のある移動体を発見した場合には、進路方向、推定位置、残余経路を演算し直して更新しても良い。進路方向、推定位置、残余経路を演算し直す条件は、移動ロボット100が使用される環境等に応じて予め調整されて設定される。
また、以上説明した本実施形態においては、図6を用いて説明したように、進路方向を決定する場合に、移動体間の隙間に着目した集合Hobsと、移動体への追従に着目した集合Hvelの両方を候補にした。すなわち、第1演算部203は、移動体からの距離が遠いことと、移動体の移動方向に追従することを評価項目として含む評価関数に基づいて進路方向を演算している。両者を評価項目として採用することにより、回避すべき移動体に対して、単に離れている方向だけでなく、移動体の動きに沿う方向も採用し得るので、経路生成のバリエーションが広がる。しかし、いずれか一方を対象として進路方向を決定しても良い。また、一方に候補が存在しない場合に他方の候補から選ぶようにしても良い。いずれにしても、進路方向は、目的地の方向を考慮して決定すると良い。目的地の方向に近い方向を進路方向に決定すれば、目的地到達までの時間の短縮を期待できる。
100 移動ロボット、110 台車部、111 駆動輪、112 キャスター、120 本体部、121 胴部、122 頭部、123 アーム、124 ハンド、130 センサユニット、131 ステレオカメラ、132 レーザスキャナ、141 表示パネル、180 通信IF、190 コントロールユニット、200 制御部、201 同定部、202 検出部、203 第1演算部、204 第2演算部、205 生成部、206 移動制御部、210 台車駆動ユニット、220 上体駆動ユニット、250 メモリ、251 学習済みモデル、252 環境地図、300 学習端末、700 計画経路、711、712 回避経路、721 予定経路、731 実際経路、741、742 予想経路、790 目的地、901、902、903、904 歩行者、981、982 障害物

Claims (7)

  1. 自機位置を同定する同定部と、
    周囲を移動する移動体の移動体位置と移動体速度ベクトルを検出する検出部と、
    前記自機位置、前記移動体位置および前記移動体速度ベクトルから進むべき進路方向を演算する第1演算部と、
    シミュレーションによる教師あり学習により事前に生成された学習済みモデルに対して、前記自機位置、前記移動体位置、前記移動体速度ベクトルおよび前記進路方向を入力して、前記移動体に接触することなく所定時間後に到達すると推定される推定位置を演算する第2演算部と、
    前記推定位置から目的地までの残余経路を生成する生成部と、
    前記進路方向および前記残余経路に基づいて前記目的地までの移動を制御する移動制御部と
    を備える自律移動ロボット。
  2. 前記目的地への移動中に前記検出部が予め設定された条件を満たす移動体を新たに検出した場合には、前記推定位置と前記残余経路を更新する請求項1に記載の自律移動ロボット。
  3. 前記第1演算部は、候補となる複数の前記進路方向を演算し、
    前記第2演算部は、前記第1演算部が演算した複数の前記進路方向ごとに前記推定位置を演算し、
    前記生成部は、前記第2演算部が演算した複数の前記推定位置ごとに前記残余経路を生成し、生成した残余経路ごとに評価演算を行って、前記移動制御部へ引き渡す前記進路方向および前記残余経路を決定する請求項1または2に記載の自律移動ロボット。
  4. 前記学習済みモデルは、前記推定位置に至る経路移動中における前記移動体との接近度合を併せて出力し、
    前記生成部は、前記接近度合を用いて前記評価演算を行う請求項3に記載の自律移動ロボット。
  5. 前記第1演算部は、前記移動体からの距離が遠いことと、前記移動体の移動方向に追従することを評価項目として含む評価関数に基づいて前記進路方向を演算する請求項1から4のいずれか1項に記載の自律移動ロボット。
  6. 前記第1演算部は、前記目的地の方向を考慮して前記進路方向を演算する請求項5に記載の自律移動ロボット。
  7. 周囲を移動する移動体の移動体位置と移動体速度ベクトルを検出する検出ステップと、
    目的地への移動中に実行される前記検出ステップにより、予め設定された条件を満たす移動体を検出した場合に、
    自機位置を同定する同定ステップと、
    前記自機位置、前記移動体位置および前記移動体速度ベクトルから進むべき進路方向を演算する第1演算ステップと、
    シミュレーションによる教師あり学習により事前に生成された学習済みモデルに対して、前記自機位置、前記移動体位置、前記移動体速度ベクトルおよび前記進路方向を入力して、前記移動体に接触することなく所定時間後に到達すると推定される推定位置を演算する第2演算ステップと、
    前記推定位置から前記目的地までの残余経路を生成する生成ステップと、
    前記進路方向および前記残余経路に基づいて前記目的地までの移動を制御する移動制御を行うステップと、
    をコンピュータに実行させる自律移動ロボットの制御プログラム。
JP2019185159A 2019-10-08 2019-10-08 自律移動ロボットおよび自律移動ロボットの制御プログラム Active JP7221839B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019185159A JP7221839B2 (ja) 2019-10-08 2019-10-08 自律移動ロボットおよび自律移動ロボットの制御プログラム
CN202011046796.6A CN112631269B (zh) 2019-10-08 2020-09-29 自主移动机器人及自主移动机器人的控制程序
US17/064,006 US11642791B2 (en) 2019-10-08 2020-10-06 Autonomous mobile robot and control program for autonomous mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019185159A JP7221839B2 (ja) 2019-10-08 2019-10-08 自律移動ロボットおよび自律移動ロボットの制御プログラム

Publications (2)

Publication Number Publication Date
JP2021060849A JP2021060849A (ja) 2021-04-15
JP7221839B2 true JP7221839B2 (ja) 2023-02-14

Family

ID=75274630

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019185159A Active JP7221839B2 (ja) 2019-10-08 2019-10-08 自律移動ロボットおよび自律移動ロボットの制御プログラム

Country Status (3)

Country Link
US (1) US11642791B2 (ja)
JP (1) JP7221839B2 (ja)
CN (1) CN112631269B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11731274B2 (en) * 2021-03-24 2023-08-22 Ford Global Technologies, Llc Predictive time horizon robotic motion control
JPWO2023286138A1 (ja) * 2021-07-12 2023-01-19
CN114098632B (zh) * 2022-01-27 2022-11-29 北京鹰瞳科技发展股份有限公司 用于对眼底相机中的马达进行控制的方法及其相关产品

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008032673A1 (fr) 2006-09-11 2008-03-20 Hitachi, Ltd. Dispositif mobile
JP5297944B2 (ja) 2009-08-25 2013-09-25 岩倉化学工業株式会社 コンクリート成形用型枠材連結具およびそれを用いたコンクリート成形用型枠組立方法。
WO2014076844A1 (ja) 2012-11-19 2014-05-22 株式会社日立製作所 自律移動システムおよび管制装置
JP2017501475A (ja) 2014-09-05 2017-01-12 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 状況に基づく飛行モード選択
WO2019044499A1 (ja) 2017-09-04 2019-03-07 日本電産株式会社 移動体、位置推定装置、およびコンピュータプログラム
WO2019138834A1 (ja) 2018-01-12 2019-07-18 キヤノン株式会社 情報処理装置、情報処理方法、プログラム、およびシステム
WO2020136978A1 (ja) 2018-12-27 2020-07-02 本田技研工業株式会社 経路決定方法
JP2020194432A (ja) 2019-05-29 2020-12-03 トヨタ自動車株式会社 機械学習方法および移動ロボット
JP2021009466A (ja) 2019-06-28 2021-01-28 トヨタ自動車株式会社 機械学習方法および移動ロボット

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05297944A (ja) * 1992-04-24 1993-11-12 Fujitsu Ltd 移動ロボットの障害物回避方式
JPH07325620A (ja) * 1994-06-02 1995-12-12 Hitachi Ltd 知能ロボット装置及び知能ロボットシステム
US8380466B2 (en) * 2006-04-14 2013-02-19 Incorporated National University Iwate University System identification method and program, storage medium, and system identification device
JP4560658B2 (ja) * 2007-12-10 2010-10-13 本田技研工業株式会社 脚式移動ロボットの制御装置
KR101778028B1 (ko) * 2010-12-20 2017-09-13 삼성전자주식회사 로봇 및 로봇의 경로 생성 방법
JP5768273B2 (ja) * 2011-03-25 2015-08-26 株式会社国際電気通信基礎技術研究所 歩行者の軌跡を予測して自己の回避行動を決定するロボット
JP5394597B2 (ja) * 2011-11-09 2014-01-22 パナソニック株式会社 自律移動装置、自律移動方法、及び自律移動装置用のプログラム
US9709990B2 (en) * 2012-12-21 2017-07-18 Toyota Jidosha Kabushiki Kaisha Autonomous navigation through obstacles
JP2014197294A (ja) * 2013-03-29 2014-10-16 株式会社日立産機システム 位置同定装置、及びそれを備えた移動ロボット
JP5910647B2 (ja) * 2014-02-19 2016-04-27 トヨタ自動車株式会社 移動ロボットの移動制御方法
JP5949814B2 (ja) * 2014-03-06 2016-07-13 トヨタ自動車株式会社 自律移動ロボット、及びその制御方法
CN104298239B (zh) * 2014-09-29 2016-08-24 湖南大学 一种室内移动机器人增强地图学习路径规划方法
JP6645658B2 (ja) * 2014-10-03 2020-02-14 国立大学法人豊橋技術科学大学 移動訓練支援装置
US10328573B2 (en) * 2015-01-06 2019-06-25 Discovery Robotics Robotic platform with teach-repeat mode
JP6240689B2 (ja) * 2015-07-31 2017-11-29 ファナック株式会社 人の行動パターンを学習する機械学習装置、ロボット制御装置、ロボットシステム、および機械学習方法
US9776323B2 (en) * 2016-01-06 2017-10-03 Disney Enterprises, Inc. Trained human-intention classifier for safe and efficient robot navigation
CN106444738B (zh) * 2016-05-24 2019-04-09 武汉科技大学 基于动态运动基元学习模型的移动机器人路径规划方法
US11308391B2 (en) * 2017-03-06 2022-04-19 Baidu Usa Llc Offline combination of convolutional/deconvolutional and batch-norm layers of convolutional neural network models for autonomous driving vehicles
JP6951659B2 (ja) * 2017-05-09 2021-10-20 オムロン株式会社 タスク実行システム、タスク実行方法、並びにその学習装置及び学習方法
CN107861508B (zh) * 2017-10-20 2021-04-20 纳恩博(北京)科技有限公司 一种移动机器人局部运动规划方法及装置
US11130630B2 (en) * 2017-11-27 2021-09-28 Amazon Technologies, Inc. Collision prevention for autonomous vehicles
US11016491B1 (en) * 2018-01-26 2021-05-25 X Development Llc Trajectory planning for mobile robots
CN116578068A (zh) * 2018-06-15 2023-08-11 科沃斯机器人股份有限公司 机器人定位方法、机器人及存储介质
CN109241552B (zh) * 2018-07-12 2022-04-05 哈尔滨工程大学 一种基于多约束目标的水下机器人运动规划方法
EP3824364B1 (en) * 2018-07-20 2023-10-11 Lingdong Technology (Beijing) Co. Ltd Smart self-driving systems with side follow and obstacle avoidance
US11409295B1 (en) * 2018-08-31 2022-08-09 Amazon Technologies, Inc. Dynamic positioning of an autonomous mobile device with respect to a user trajectory
KR101987868B1 (ko) * 2018-11-29 2019-06-11 주식회사 트위니 시간상태 영역에서의 장애물 회피 방법, 이를 구현하기 위한 프로그램이 저장된 기록매체 및 이를 구현하기 위해 매체에 저장된 컴퓨터프로그램
KR20200084423A (ko) * 2018-12-24 2020-07-13 삼성전자주식회사 기계 학습 기반의 로컬 모션 생성 방법 및 장치
US11338438B2 (en) * 2019-01-25 2022-05-24 Bear Robotics, Inc. Method, system and non-transitory computer-readable recording medium for determining a movement path of a robot
JP7469850B2 (ja) * 2019-03-25 2024-04-17 本田技研工業株式会社 経路決定装置、ロボット及び経路決定方法
CN110162063A (zh) * 2019-06-12 2019-08-23 北京洛必德科技有限公司 一种用于机器人自动充电的路径规划方法和装置
KR20190095179A (ko) * 2019-07-24 2019-08-14 엘지전자 주식회사 제한 구역에서의 자율 주행 제어 방법 및 이를 이용한 자율 주행 시스템
KR20190106874A (ko) * 2019-08-27 2019-09-18 엘지전자 주식회사 인공 지능을 통해 구속 상황을 인식하는 로봇 청소기 및 그의 동작 방법

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008032673A1 (fr) 2006-09-11 2008-03-20 Hitachi, Ltd. Dispositif mobile
JP5297944B2 (ja) 2009-08-25 2013-09-25 岩倉化学工業株式会社 コンクリート成形用型枠材連結具およびそれを用いたコンクリート成形用型枠組立方法。
WO2014076844A1 (ja) 2012-11-19 2014-05-22 株式会社日立製作所 自律移動システムおよび管制装置
JP2017501475A (ja) 2014-09-05 2017-01-12 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 状況に基づく飛行モード選択
WO2019044499A1 (ja) 2017-09-04 2019-03-07 日本電産株式会社 移動体、位置推定装置、およびコンピュータプログラム
WO2019138834A1 (ja) 2018-01-12 2019-07-18 キヤノン株式会社 情報処理装置、情報処理方法、プログラム、およびシステム
WO2020136978A1 (ja) 2018-12-27 2020-07-02 本田技研工業株式会社 経路決定方法
JP2020194432A (ja) 2019-05-29 2020-12-03 トヨタ自動車株式会社 機械学習方法および移動ロボット
JP2021009466A (ja) 2019-06-28 2021-01-28 トヨタ自動車株式会社 機械学習方法および移動ロボット

Also Published As

Publication number Publication date
JP2021060849A (ja) 2021-04-15
CN112631269A (zh) 2021-04-09
US20210101293A1 (en) 2021-04-08
US11642791B2 (en) 2023-05-09
CN112631269B (zh) 2024-06-11

Similar Documents

Publication Publication Date Title
JP7221839B2 (ja) 自律移動ロボットおよび自律移動ロボットの制御プログラム
Garimort et al. Humanoid navigation with dynamic footstep plans
JP7469850B2 (ja) 経路決定装置、ロボット及び経路決定方法
JP7130062B2 (ja) 経路決定方法
JP2008254134A (ja) 移動装置、ならびにその制御方法および制御プログラム
Masehian et al. Robot motion planning in dynamic environments with moving obstacles and target
JPWO2019031168A1 (ja) 移動体および移動体の制御方法
JP2021009466A (ja) 機械学習方法および移動ロボット
JP7258046B2 (ja) 経路決定装置、ロボット及び経路決定方法
Francis et al. Real-time path planning module for autonomous vehicles in cluttered environment using a 3D camera
Elsheikh et al. Dynamic path planning and decentralized FLC path following implementation for WMR based on visual servoing
JP7061474B2 (ja) 走行装置
Chen et al. Towards efficient distributed collision avoidance for heterogeneous mobile robots
Alagić et al. Design of mobile robot motion framework based on modified vector field histogram
Elsheikh et al. Practical path planning and path following for a non-holonomic mobile robot based on visual servoing
Tsai et al. Cooperative localization using fuzzy decentralized extended information filtering for homogenous omnidirectional mobile multi-robot system
Vatcha et al. Practical motion planning in unknown and unpredictable environments
JP7501643B2 (ja) 移動体制御システム、制御装置、及び、移動体制御方法
KR102555709B1 (ko) 문자 행렬 지도 기반의 타일 격자무늬 추적 자율주행 로봇의 제어방법
Herr et al. CARDYNET: Deep Learning Based Navigation for Car-Like Robots in Dynamic Environments
EP3964913B1 (en) Model parameter learning method and movement mode parameter determination method
Francis et al. Real-Time Multi-obstacle Detection and Tracking Using a Vision Sensor for Autonomous Vehicle
Nakhaei et al. A framework for planning motions in stochastic maps
US11669096B2 (en) Route determination method
JP7250572B2 (ja) 倒立振子型ロボット

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230202

R150 Certificate of patent or registration of utility model

Ref document number: 7221839

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150