JPWO2020035902A1 - 移動ロボット - Google Patents

移動ロボット Download PDF

Info

Publication number
JPWO2020035902A1
JPWO2020035902A1 JP2019536600A JP2019536600A JPWO2020035902A1 JP WO2020035902 A1 JPWO2020035902 A1 JP WO2020035902A1 JP 2019536600 A JP2019536600 A JP 2019536600A JP 2019536600 A JP2019536600 A JP 2019536600A JP WO2020035902 A1 JPWO2020035902 A1 JP WO2020035902A1
Authority
JP
Japan
Prior art keywords
robot
map
moving
moving body
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019536600A
Other languages
English (en)
Other versions
JP6758005B2 (ja
Inventor
正裕 友納
正裕 友納
清 入江
清 入江
秀彰 大和
秀彰 大和
清水 正晴
正晴 清水
山中 俊治
俊治 山中
古田 貴之
貴之 古田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chiba Institute of Technology
Original Assignee
Chiba Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chiba Institute of Technology filed Critical Chiba Institute of Technology
Publication of JPWO2020035902A1 publication Critical patent/JPWO2020035902A1/ja
Application granted granted Critical
Publication of JP6758005B2 publication Critical patent/JP6758005B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/242Means based on the reflection of waves generated by the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0219Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/246Arrangements for determining position or orientation using environment maps, e.g. simultaneous localisation and mapping [SLAM]
    • G05D1/2464Arrangements for determining position or orientation using environment maps, e.g. simultaneous localisation and mapping [SLAM] using an occupancy grid
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/648Performing a task within a working area or space, e.g. cleaning
    • G05D1/6482Performing a task within a working area or space, e.g. cleaning by dividing the whole area or space in sectors to be processed separately
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/656Interaction with payloads or external entities
    • G05D1/686Maintaining a relative position with respect to moving targets, e.g. following animals or humans
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/69Coordinated control of the position or course of two or more vehicles
    • G05D1/695Coordinated control of the position or course of two or more vehicles for maintaining a fixed relative position of the vehicles, e.g. for convoy travelling or formation flight
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/69Coordinated control of the position or course of two or more vehicles
    • G05D1/698Control allocation
    • G05D1/6983Control allocation by distributed or sequential control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2105/00Specific applications of the controlled vehicles
    • G05D2105/10Specific applications of the controlled vehicles for cleaning, vacuuming or polishing
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2107/00Specific environments of the controlled vehicles
    • G05D2107/40Indoor domestic environment
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2109/00Types of controlled vehicles
    • G05D2109/10Land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2111/00Details of signals used for control of position, course, altitude or attitude of land, water, air or space vehicles
    • G05D2111/10Optical signals
    • G05D2111/17Coherent light, e.g. laser signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

【課題】他の物体や移動体の動きに応じて多様な動作を実行可能として利用範囲を拡大することができる移動ロボットを提供。【解決手段】移動ロボットは、ロボット本体1と、制御手段2と、走行手段3と、検出手段4と、を備える。制御手段2は、検出手段4にて検出された検出情報を時系列に記憶する記憶部30と、ロボット本体1の周囲の地図を作成する地図作成部25と、ロボット本体1とは異なる移動体100を検出する移動体検出部291と、ロボット本体1の移動経路を示すロボット経路情報32および移動体100の移動経路を示す移動体経路情報33を地図に関連付ける経路制御部26と、ロボット経路情報32および移動体経路情報33に基づいて、移動体100に対してロボット本体1を協調して移動させる協調移動制御部28と、を備える。【選択図】図1

Description

本発明は、自律走行可能な移動ロボットに関する。
従来、サービスロボットやホームロボットなどの自律走行可能な移動ロボットであって、具体的には、掃除ロボットや警備ロボット、運搬ロボット、案内ロボット、介護ロボット、農業ロボットなど、各種の移動ロボットが実用化されている。このような移動ロボットは、ロボット本体を移動させるための移動手段と、ロボット本体の移動範囲における周囲の物体までの距離と方向を検出する検出手段と、移動手段および検出手段を制御する制御手段と、を備えている。
また、移動ロボットが自律走行するための技術として、SLAM(Simultaneous Localization and Mapping)と称される自己位置推定と環境地図作成の技術が用いられている。環境地図としては、移動ロボットの移動範囲における物体の有無に基づいて作成された占有格子地図が用いられることがある(例えば、特許文献1参照)。占有格子地図は、移動範囲の平面や空間を複数の区画(セル)に分割して記憶するとともに、分割した各区画に対して物体の有無に応じたセル値が付与されている。
移動ロボットは、SLAM技術により自己位置を推定するとともに、作成した占有格子地図のセル値に基づいて物体の有無を判断し、移動経路を設定して自律走行する。すなわち、物体が存在する区画は通過不能とし、物体が存在しない区画が連続するとともにロボット本体が通過可能な領域に対して移動経路を設定し、占有格子地図に関連付けて移動経路情報を記憶する。しかし、物体の中には建物の壁や柱、固定家具、固定物などのように通常は移動しない不動体もあれば、人によって移動される小型の家具や備品、雑貨類などの可動体、あるいは自ら移動する人や動物、自動車、他の移動ロボットなどの移動体も存在する。
移動体である人(対象者)を識別するとともに対象者の位置を検知し、地図上に対象者までの移動ルートを設定し、設定したルートに従って対象者を追尾する技術が提案されている(例えば、特許文献2参照)。特許文献2に記載された移動ロボット(自律移動装置)は、対象者に追従する介護用やペット用、警備監視用、屋内掃除用のロボットであって、撮像手段によって撮像した画像に基づいて対象者か否かを判断し、対象者である場合にはその位置までの最適な移動ルートを算出し、移動ルートにしたがって対象者を追尾するように構成されている。
特開2017−157087号公報 特開2018−49438号公報
しかしながら、特許文献2に記載されたような従来の移動ロボットは、追尾対象者である移動体の位置を地図上の点(1つの座標)として記憶し、その点に向かう移動ルートに沿って移動するものであり、移動体が移動した場合の移動経路に応じた任意の動作をすることができない。このため、従来の移動ロボットは、様々な動きを行う移動体に対応して多様な動作を行うことが難しく、ロボットの利用範囲が限定されてしまうことになる。
本発明の目的は、移動体の動きに応じて多様な動作を実行可能として利用範囲を拡大することができる移動ロボットを提供することである。
本発明の移動ロボットは、ロボット本体と、前記ロボット本体を移動させるための移動手段と、前記ロボット本体の移動範囲における周囲の物体までの距離と方向を検出する検出手段と、前記移動手段および前記検出手段を制御する制御手段と、を備えた移動ロボットであって、前記制御手段は、前記検出手段にて検出された検出情報を時系列に記憶する記憶部と、前記記憶部に記憶された検出情報に基づいて、前記ロボット本体の周囲の地図を作成して前記記憶部に記憶させる地図作成部と、前記ロボット本体とは異なる移動体を検出する移動体検出部と、前記地図作成部にて作成された地図に前記ロボット本体の移動経路を示すロボット経路情報を関連付けて前記記憶部に記憶させるロボット経路情報記憶部と、前記地図作成部にて作成された地図に前記移動体の移動経路を示す移動体経路情報を関連付けて前記記憶部に記憶させる移動体経路情報記憶部と、前記ロボット経路情報および前記移動体経路情報に基づいて、前記移動体に対して前記ロボット本体を協調して移動させる協調移動制御部と、を備えることを特徴とする。
このような本発明によれば、移動ロボットの制御手段は、自らの移動経路をロボット経路情報として記憶するとともに、他の移動体の移動経路を移動体経路情報として記憶し、協調移動制御部は、ロボット経路情報および移動体経路情報に基づいて、移動体に対してロボット本体を協調して移動させることで、移動体に対してロボット本体を効率よく移動させることができるとともに、移動体の動きに応じて多様な動作が実行可能となり、移動ロボットの利用範囲を拡大することができる。制御手段は、移動体を検出する移動体検出部を備えることで、移動体を精度よく検出することができ、移動体に対する協調動作を確実に実行させることができる。
本発明では、前記協調移動制御部は、前記移動体の移動経路に対して前記ロボット本体の移動経路を後から重ねるようにして前記移動手段にて前記ロボット本体を移動させることによって、前記ロボット本体を前記移動体に追従させて移動させることが好ましい。
このような構成によれば、協調移動制御部は、移動体の移動経路に後から重ねるようにしてロボット本体を移動させて移動体に追従させることで、移動体の後方から追従する追従動作をロボット本体に実行させることができる。すなわち、単に移動体に向かって移動するのではなく、移動ロボットは、移動体が移動した経路に倣って後から移動することで、移動体と協調した作業などを実行することが可能となる。
本発明では、前記協調移動制御部は、前記移動体の移動経路に対して前記ロボット本体の移動経路を重ねないようにして前記移動手段にて前記ロボット本体を移動させることによって、所定の移動領域にて前記ロボット本体を前記移動体と分担して移動させることが好ましい。
このような構成によれば、協調移動制御部は、移動体の移動経路に重ねないようにしてロボット本体を移動させ、所定の移動領域にてロボット本体を移動体と分担して移動させることで、移動体の移動と重ならない分担動作をロボット本体に実行させることができる。すなわち、所定の移動領域のうち、移動体が移動した(あるいは移動している)経路とは異なる経路をロボット本体が移動することで、移動体と作業を分担しつつ協調動作することが可能となる。
本発明では、前記協調移動制御部は、前記ロボット本体の移動経路に対して前記移動体の移動経路が後から重なっているか否かを判定し、重なっていると判定した場合に前記移動手段にて前記ロボット本体を移動させることによって、前記ロボット本体を前記移動体に対して先導させて移動させることが好ましい。
このような構成によれば、協調移動制御部は、ロボット本体の移動経路に後から重なって移動体が移動するように、ロボット本体を移動体に対して先導させて移動させることで、移動体を先導する先導動作をロボット本体に実行させることができる。すなわち、ロボット本体に移動体が追従してきていることを判定しつつロボット本体を移動させることで、ロボット本体が先導しつつ移動体と協調した作業を実行することが可能となる。
本発明では、前記制御手段は、前記地図作成部にて作成された新しい地図と、前記記憶部に記憶された古い地図とを比較することによって、前記ロボット本体の周囲の物体の有無の変化を検出する物体変化検出部を備えることが好ましい。
このような構成によれば、物体変化検出部は、新しい地図と古い地図とを比較し、ロボット本体の周囲の物体の有無の変化を検出することで、移動範囲の変化に対応してロボット本体の動作を変化させることができる。例えば、動かすことができる物体である可動体を作業者が移動させたような場合には、その可動体によって通過できなかった領域が通過可能となることから、その領域を通過するようにロボット本体を移動させることができる。
本発明では、前記地図作成部は、前記ロボット経路情報および前記移動体経路情報を関連付ける低解像度かつ広範囲な広域地図と、前記物体変化検出部にて前記ロボット本体の周囲の物体の有無の変化を検出するために用いる高解像度の狭域地図とを作成することが好ましい。
このような構成によれば、地図作成部は、広域地図と狭域地図とを作成することで、ロボット経路情報および移動体経路情報を関連付ける低解像度かつ広範囲な広域地図に基づいて移動範囲全域を認識しつつ、物体変化検出部にてロボット本体の周囲の物体の有無の変化を検出するために用いる高解像度の狭域地図に基づき、周囲の物体の有無の変化を確実に検出することができる。また、広域地図と比較してデータ量の少ない狭域地図を大量に記憶部に記憶させておくことができる。
本発明では、前記制御手段は、前記地図作成部にて作成された地図に対し、作業できる領域か否かを示す作業領域情報を関連付けて前記記憶部に記憶させる作業領域情報記憶部と、前記地図作成部にて作成された新しい地図と、前記記憶部に記憶された古い地図とを比較することによって、前記作業領域情報の変化を検出する作業領域情報変化検出部と、を備えることが好ましい。
このような構成によれば、作業領域情報記憶部は、地図に対して作業できる領域か否かを示す作業領域情報を関連付けて記憶部に記憶させ、作業領域情報変化検出部は、新しい地図と古い地図とを比較することによって作業領域情報の変化を検出することで、作業領域情報の変化に対応してロボット本体の動作を変化させることができる。例えば、物体の位置を作業者が移動させたような場合には、これまで作業できなかった領域が作業できる領域に変化することから、その領域にて作業するように移動手段にてロボット本体を移動させることができる。
本発明では、前記地図作成部は、前記ロボット経路情報および前記移動体経路情報を含む低解像度かつ広範囲な広域地図と、前記作業領域情報変化検出部にて前記作業領域情報の変化を検出するために用いる高解像度の狭域地図とを作成することが好ましい。
このような構成によれば、地図作成部は、広域地図に加えて作業領域情報変化検出部にて作業領域情報の変化を検出するために用いる高解像度の狭域地図を作成することで、作業領域情報の変化を確実に検出することができる。また、広域地図と比較してデータ量の少ない狭域地図を大量に記憶部に記憶させておくことができる。
本発明では、前記制御手段は、前記地図作成部にて作成された地図に対し、作業対象から除外する領域を示す除外領域情報を関連付けて前記記憶部に記憶させる除外領域情報記憶部を備えることが好ましい。
このような構成によれば、除外領域情報記憶部は、地図に対し除外領域情報を関連付けて記憶部に記憶させることで、除外領域情報によって作業対象から除外された領域に対してロボット本体の動作を変化させることができる。例えば、作業者がある領域にてすでに作業したような場合には、その領域を作業対象から除外するように除外領域情報を記憶することで、その領域では作業しないようにロボット本体を動作させることができる。
本発明の一実施形態に係る移動ロボットのブロック図 前記移動ロボットにおける記憶部に記憶される情報を示す図 前記移動ロボットにおける制御手段の領域情報制御部を示す図 前記制御手段の物体検出制御部を示す図 前記移動ロボットの移動範囲を示す占有格子地図の真値の概念図 前記占有格子地図の作成経過を示す概念図 前記移動ロボットが作成する狭域地図を示す概念図 前記移動ロボットの動作を示すフローチャート 前記移動ロボットの協調移動である追従動作を示す図 前記移動ロボットの協調移動である追従動作を示すフローチャート 前記移動ロボットの協調移動である分担動作を示す図 前記移動ロボットの協調移動である分担動作を示すフローチャート 前記移動ロボットの協調移動である先導動作を示す図 前記移動ロボットの協調移動である先導動作を示すフローチャート 前記移動ロボットの他の動作を示す図 前記移動ロボットのさらに他の動作を示す図
以下、本発明の一実施形態を図1〜図16に基づいて説明する。
本実施形態の移動ロボットは、図1に示すように、ロボット本体1と、ロボット本体1を駆動制御する制御手段2と、ロボット本体1を移動させる移動手段としての走行手段3と、ロボット本体1の周囲の物体を検出するための検出手段4と、他の機器と通信するための通信手段5と、他の機器等からの指示を受け付ける指示受付手段6と、ロボット本体1の移動に伴って作業を行うための作業手段7と、を備えている。この移動ロボットは、SLAM技術によって自己位置推定と環境地図作成を行い、制御手段2に記憶された対象空間(移動範囲)ごとのマップや走行スケジュールに基づいて、ロボット本体1が走行手段3によって自律走行するものである。このマップとしては、後述する占有格子地図が利用される。
ロボット本体1は、図示しないボディおよびシャーシを備え、走行手段3は、例えば、左右一対の車輪と、一対の車輪を各々独立して回転駆動するモータと、を備えている。通信手段5は、Wi−Fi(Wireless Fidelity、登録商標)やBluetooth(登録商標)、赤外線通信などの各種無線通信方式によってロボット本体1と他の機器との間で双方向に通信を行うものであって、図示しないアンテナや赤外線発光部等を備えている。通信手段5は、所定周波数の電波や赤外線によって直接に他の機器と通信を行うものであってもよいし、ローカルエリアネットワーク(LAN)や広域ネットワーク(WAN)などのネットワーク回線や、携帯電話等に用いられる無線および有線の電話回線網などを介して他の機器と通信を行うものであってもよい。
ここで、通信手段5と通信する他の機器としては、例えば、携帯電話やスマートフォン、タブレット端末、ノートパソコン、PDA、スマートウォッチ、スマートスピーカなどのような無線通信装置であってもよいし、赤外線による信号の送受信を行うリモコンであってもよいし、有線でロボット本体1と接続されて通信を行う装置であってもよい。指示受付手段6は、例えば、通信手段5を介して他の機器から受信した信号によって指示を受け付けるものである。また、指示受付手段6は、ロボット本体1に設けられたタッチセンサ式のスイッチであってもよいし、音声を受信するマイクと音声を解析して指示を判別する音声識別手段で構成されたものでもよい。さらに、指示受付手段6は、カメラ等の撮像手段によって作業者を撮像し、撮像した画像に基づいて作業者の動作を解析し、それによって作業者からの指示を受け付ける手段であってもよい。
作業手段7は、例えば、移動ロボットが掃除ロボットであれば、対象空間の床面の埃等を吸引する吸引手段や、床面等を拭き掃除する拭き取り手段などである。また、移動ロボットが警備ロボットであれば、対象空間への侵入者など撮像するカメラ等の撮像手段や、侵入者に対して警報を発する警報手段、通信手段5を介して他の機器等へ警報を送信する送信手段などである。移動ロボットが運搬ロボットであれば、荷物を持ち上げて運ぶための搬送手段である。移動ロボットが案内ロボットであれば、案内対象に対して光によりメッセージを伝える発光手段や、音声によりメッセージを伝える音声案内手段などである。移動ロボットが介護ロボットであれば、介護対象者に対して動作補助する手段や、物を搬送する手段などである。移動ロボットが農業ロボットであれば、対象空間である農地を耕したり肥料を蒔いたり農作物を収穫したりなどの手段である。このような作業手段7は、ロボット本体1に直接設けられていてもよいし、ロボット本体1と別体に設けられた機器によって構成されていてもよい。
検出手段4は、例えば、ロボット本体1の前部に設けられた前方センサと、ロボット本体1の上部に設けられた周囲センサと、ロボット本体1の後部に設けられた後方センサと、を備えている。周囲センサは、赤外線レーザー等のレーザー光を周囲に照射して物体までの距離を測定するレーザースキャナ(LIDAR(Light Detection and RangingまたはLaser Imaging Detection and Ranging))である。この周囲センサは、SLAM技術によって取得した自己位置であるセンサ中心と方位を基準位置(x,y,θ)とし、センサ中心からの距離と、センサ中心回りの角度(方向)と、に基づいて物体の有無や位置を検出する。この物体検出(以下では、単にスキャンと称することがある)では、周囲センサの1周期(例えば、1回転、360°)分の検出において、所定の解像度(例えば、1°)で照射されるレーザービームに基づき、1周期分の検出値を1単位(1スキャン)とし、この1スキャンの検出値が検出情報として時系列で記憶部30に記憶される。
制御手段2は、CPU等の演算手段やROM、RAM等の記憶手段を備えてロボット本体1の動作を制御するものであって、走行手段3を制御する走行制御部21と、検出手段4を制御する検出制御部22と、通信手段5を制御する通信制御部23と、作業手段7を制御する作業制御部24と、を備える。さらに、制御手段2は、後述するような占有格子地図の作成に係る地図作成部25、経路制御部(ロボット経路情報記憶部、移動体経路情報記憶部)26、領域情報制御部(作業領域情報記憶部)27、協調移動制御部28と、物体検出制御部29と、作成した占有格子地図や各種のデータを記憶する記憶部30と、を備えて構成されている。
図2は、移動ロボットにおける記憶部30に記憶される情報を示す図である。図2に示すように、記憶部30には、地図作成部25が作成する地図情報31として、広域地図311と、狭域地図312と、が記憶される。これらの広域地図311および狭域地図312は、後述する占有格子地図Mであり、移動ロボットの行動に伴ってリアルタイムで更新される新しい地図と、過去に作成された古い地図とが記憶されている。また、記憶部30には、経路制御部26が作成するロボット経路情報32および移動体経路情報33が記憶される。ロボット経路情報32は、ロボット本体1の移動経路を示すもので、広域地図311に関連付けて記憶されている。移動体経路情報33は、ロボット本体1とは異なる移動体100(後述)の移動経路を示すもので、広域地図311に関連付けて記憶されている。記憶部30には、領域情報制御部27が作成する作業領域情報34および除外領域情報35が記憶される。
図3は、移動ロボットにおける制御手段2の領域情報制御部27を示す図である。領域情報制御部27は、作業領域情報記憶部271と、作業領域情報変化検出部272と、除外領域情報記憶部273と、を備える。作業領域情報記憶部271は、広域地図311や狭域地図312に対し、作業できる領域か否かを示す作業領域情報34を関連付けて記憶部30に記憶させる。作業領域情報変化検出部272は、広域地図311や狭域地図312に基づいて、古い地図と新しい地図とを比較することで、作業領域情報34の変化を検出し、検出結果に基づいて作業領域情報記憶部271が作業領域情報34を更新する。除外領域情報記憶部273は、広域地図311や狭域地図312に対し、作業対象から除外する領域を示す除外領域情報35を関連付けて記憶部30に記憶させる。
図4は、制御手段2の物体検出制御部29を示す図である。物体検出制御部29は、移動体検出部291と、物体変化検出部292と、を備える。移動体検出部291は、広域地図311や狭域地図312に基づいて、検出手段4が検出したロボット本体1の周囲の物体のうち自ら移動する物体を移動体100として検出し、検出した移動体100の情報を経路制御部26に受け渡し、占有格子地図Mに関連付けて移動体経路情報33として記憶させる。物体変化検出部292は、広域地図311や狭域地図312に基づいて、古い地図と新しい地図とを比較することで、ロボット本体1の周囲の物体の変化を検出し、人などによって移動された物体を可動体として識別し、可動体の移動によって作業領域が変化したことを作業領域情報記憶部271に受け渡し、作業領域情報記憶部271に作業領域情報34を更新させる。
次に、図5、図6を参照して占有格子地図の作成に係る基本的な概念を説明する。図5は、移動ロボットの移動範囲を示す占有格子地図Mの真値の概念図であり、図6は、占有格子地図Mの作成経過を示す概念図である。占有格子地図Mは、対象空間を二次元平面に規定し、この平面を所定サイズ(例えば、5cm角)の格子に分割し、分割した区画であるセルCごとにセル値(区画値)を設定する。この占有格子地図Mの作成方法としては、例えば、レイキャスティングが標準的であり、以下ではレイキャスティングを用いた占有格子地図Mの作成手順を説明する。
レイキャスティングでは、センサ中心からレーザービームを模擬した直線を伸ばし、ビームが通過したセルCの値を更新する。図6に示すように、レーザースキャナ(周囲センサ)の計測範囲が円内であるとすると、ビームが物体に当たった位置にあるセルCは占有(例えば、セル値=1)、ビームが通過したセルCは自由(例えば、セル値=−1)となる。計測範囲内に物体がない場合はビームが返ってこないので、未観測となり、通常はセル値を変えない。占有格子地図Mのセル値は対数オッズで管理され、複数のスキャンによるセル値を合算して対数オッズを計算する。例えば、あるセルCの占有が3回、自由が2回あれば、対数オッズは3+(−2)=1となる。この対数オッズから占有確率が計算される。ただし、図6では、簡単のため、セル値を単純に上塗りしている。
次に、図5、図6を用いて本発明の占有格子地図Mの作成方法の考え方を説明する。図5は、占有格子地図Mの真値であり、実環境には壁Wと物体Oがあるとする。図6(A)は、検出手段4により制御手段2が1回目のスキャン(360°のスキャン)を取得したときの占有格子地図Mのセル値である。ここでは、1回目のスキャンによる自由セルCf1を白で表す。同様に、図6(B),(C)は、2回目のスキャン、3回目のスキャンによるセル値であり、それらの自由セルCf2,Cf3をそれぞれ中間のグレーおよび濃いグレーで表す。図6において、占有セルCoはいずれも黒で表し、未観測のセルCnは薄いグレーで表す。各スキャンにおいて、複数本(例えば、1°ずつ360本)のレーザービームが照射され、1本ごとのレーザービームが通過したセルに対して、上記のように対数オッズでセル値を計算する。
占有格子地図Mは、環境の変化を反映して随時更新する必要があり、その更新頻度としては、実時間で更新する場合や毎日定期的に更新する場合など、種々の形態が考えられる。また、地図形状の歪みを減らして一貫性を保つには、ループ閉じ込みを行う必要がある。ここで、ループとは移動ロボットが同じ場所を通る周回経路であり、ループを検出して地図の歪みを解消する処理をループ閉じ込みと呼ぶ。具体的には、移動ロボットの走行軌跡のループを検出し、ポーズ調整によりループ閉じ込みを行う。ポーズ調整は、移動ロボットの位置の拘束関係を表すポーズグラフを用いて行う技術であり、ポーズグラフは、移動ロボットの位置を表すノードと、ノード間の相対位置を表すアークと、によって構成され、移動ロボットの推定位置と計測値とのずれを表すことができる。ポーズ調整は、このずれを最小化することで、地図の歪みを修正する。
以上のように作成された占有格子地図M、経路情報であるノードおよびアークは、記憶部30に地図情報31として記憶される。この地図情報31としては、移動ロボットの行動とともにリアルタイムで作成、更新される新しい地図と、それ以前に作成されて記憶されていた古い地図と、が存在する。古い地図は、適宜な時間間隔ごとに、そのときの時刻と関連付けて残され、対象空間に存在する(あるいは、過去に存在していた)物体などの情報が含まれるものである。また、図2に示す地図情報31のうち、広域地図311は、対象空間全体のセルCに対するセル値を含み、この広域地図311とロボット経路情報32および移動体経路情報33とが関連付けられている。一方、地図情報31のうち、狭域地図312は、ロボット本体1の周囲の物体である可動体や作業領域の変化について、その形状や有無、移動などの変化を詳細に記憶する地図であり、物体変化検出部292や作業領域情報変化検出部272に利用されるものである。
図7は、移動ロボットが作成する狭域地図を示す概念図である。図7に示すように、広域地図311である占有格子地図M1において、その一部に存在する物体Oの周囲の限られたセルCに対し、狭域地図312である占有格子地図M2が作成される。占有格子地図M1のセルCが比較的粗い格子(例えば、5cm角の格子)に分割されているのに対して、占有格子地図M2では、細かい格子(例えば、1cm角の格子)に分割したセルCaごとにセル値を設定する。この占有格子地図M2は、セルCaごとに自由セルまたは占有セルが規定されることで物体Oの形状を詳細に表現することができる。また、時間経過とともに物体Oが移動した場合、すなわち、図7(A)に示す位置にあった物体Oが図7(B)に示す位置に移動した場合、元の占有格子地図M2が削除されるかまたは古い地図(狭域地図312)として残され、新たな位置の占有格子地図M2が作成されて狭域地図312として記憶部30に記憶される。このように随時占有格子地図M2(狭域地図312)を作成し、この狭域地図312を物体変化検出部292や作業領域情報変化検出部272が参照することで、物体O(可動体)の移動や作業領域情報34の変化をリアルタイムで検出することができる。
次に、図8も参照して移動ロボットの動作について詳しく説明する。図8は、移動ロボットの動作を示すフローチャートである。移動ロボットは、図8に示すステップST1〜ST10を所定周期(例えば、1秒程度の短時間)で繰り返すことで対象空間の占有格子地図Mを作成/更新しつつ、作成した占有格子地図Mに基づいて走行手段3によって自律走行するとともに、作業手段7を用いて作業を行う。
移動ロボットは、行動開始とともに指示受付手段6が使用者や他の機器からの指示を受け付ける(指示受付工程:ステップST1)。この指示受付工程(ステップST1)で受け付ける指示としては、後述する協調移動において実行する追従動作モード、分担動作モードおよび先導動作モードのいずれかの移動モードに関する指示であり、あるいは単独動作モードを実行するという指示であってもよい。指示受付手段6が使用者からの指示を受け付ける方法としては、通信手段5によって他の機器から受信した信号に基づいて指示受付手段6が指示内容を判断してもよいし、指示受付手段6がマイクの場合は音声による指示を受け付けてもよいし、指示受付手段6がカメラの場合は身振り手振り等による指示を受け付けてもよい。指示受付手段6は、受け付けた指示を判断して制御手段2に受け渡し、制御手段2は指示情報を記憶部30に記憶させる。なお、指示受付工程(ステップST1)で指示を受け付けなかった場合には、制御手段2は、後述するステップST8,ST9を実行せず、ステップST2〜ST7を繰り返し実行するようにロボット本体1を制御する。
指示受付工程(ステップST1)に続いて、制御手段2は、検出制御部22によって周囲センサを駆動制御して周囲の物体を検出して検出情報を取得する(検出情報取得工程:ステップST2)とともに、SLAM技術によって自己位置を推定しつつ、自己位置と関連付けて周囲センサによって検出した検出値を検出情報として記憶部30に記憶させる(検出情報記憶工程:ステップST3)。検出情報は、周囲センサによる1周期分の検出値を1スキャンとし、この1スキャンを1つの検出情報として記憶部30に記憶する。次に、制御手段2は、記憶部30に記憶した検出情報に基づいて、地図作成部25に占有格子地図Mを作成させ(地図作成/更新工程:ステップST4)、作成した占有格子地図Mを記憶部30に記憶させる。この地図作成/更新工程(ステップST4)では、対象空間全体の占有格子地図M1を作成して広域地図311として記憶部30に記憶するとともに、可動体の有無や移動、領域の変化に応じて、その可動体の周辺や変化した領域について高解像度の占有格子地図M2を作成して狭域地図312として記憶部30に記憶する。
次に、制御手段2は、物体検出制御部29にロボット本体1の周辺の物体を検出させ、移動体検出部291が移動体100を検出するとともに(移動体検出工程:ステップST5)、物体変化検出部292が物体の変化により可動体を判別する。移動体検出工程(ステップST5)において、移動体検出部291および物体変化検出部292は、地図作成部25にて作成された新しい占有格子地図M1,M2と、記憶部30に記憶された古い占有格子地図M1,M2と、を比較することによって、ロボット本体1の周囲の物体の有無の変化を検出する。このように新しい地図と古い地図を比較し、それらの地図間における差異を演算により求めることで、移動体検出部291は移動体100を検出し、物体変化検出部292は可動体の有無や移動を判別する。移動体検出部291は、物体が継続的に移動しているか否かを判別し、継続して移動している物体を移動体100と判別する。物体変化検出部292は、物体が現れたり移動したりした後に静止するか、あるいは存在していた物体が無くなったことを検出し、その物体の状態が継続しているか否かを判別し、移動後に静止しているような物体を可動体と判別する。
次に、制御手段2は、領域情報制御部27に対象空間内の領域ごとに領域情報を識別させ、領域情報を記憶部30に記憶させる(領域情報作成/更新工程:ステップST6)。この領域情報としては、作成した占有格子地図Mにおいてロボット本体1が通過できる通過可能領域や、壁Wや物体Oが存在してロボット本体1が通過できない通過不可能領域、指示受付工程(ステップST1)で使用者から作業すべきまたは移動すべきではないとの指示を受けた指示領域などがあり、領域情報制御部27は、それらの各領域情報を占有格子地図Mに関連付けて記憶部30に記憶させる。また、領域情報制御部27の作業領域情報記憶部271は、作業手段7を用いて作業できる領域か否かを示す作業領域情報34を占有格子地図Mに関連付けて記憶部30に記憶させる。ここで、作業領域の変化の判断は、前述の物体変化検出部292と同様に、作業領域情報変化検出部272が古い地図と新しい地図とを比較して物体の有無の変化を検出することで行う。また、領域情報制御部27の除外領域情報記憶部273は、作業対象から除外する領域を示す除外領域情報35を占有格子地図Mに関連付けて記憶部30に記憶させる。
次に、制御手段2は、経路制御部26に対象空間内におけるロボット本体1の移動経路を示すロボット経路情報32を記憶部30に記憶させるとともに、ロボット本体1とは異なる移動体100の移動経路を示す移動体経路情報33を記憶部30に記憶させる(経路情報作成/更新工程:ステップST7)。ロボット経路情報32は、前述のように作成した占有格子地図Mと各種の領域情報(作業領域情報34、除外領域情報35など)に基づくとともに、移動モードに応じた移動体100との位置関係や移動体100の移動速度・方向なども演算パラメータとして、経路制御部26が演算することにより、ロボット本体1が移動可能でかつ効率よく移動できる経路が算出される。移動体経路情報33は、前述の移動体検出工程(ステップST5)にて移動体検出部291が検出した移動体100の移動に基づき、経路制御部26が随時演算することにより算出される。また、算出した移動体経路情報33に基づき、経路制御部26はロボット経路情報32を補正する。
次に、制御手段2は、走行制御部21によりロボット本体1を移動させるか停止させる(移動/停止工程:ステップST8)。この移動/停止工程(ステップST8)では、経路情報作成/更新工程(ステップST7)で設定したロボット経路情報32に基づき、その経路に沿った進路に沿ってロボット本体1を移動させるか、経路に沿って移動していたロボット本体1を停止させる。走行制御部21は、走行手段3を駆動制御することで、ロボット本体1の走行速度を調整したり、前進・後退、転回などの走行動作を行わせたりするとともに、前方センサや後方センサによって検出した障害物を回避させたり一旦停止させたりなどロボット本体1の走行を適宜に制御する。また、制御手段2は、作成した占有格子地図Mや各種の領域情報、ロボット経路情報32、移動体経路情報33、などに何らかの不整合があり、走行が継続できないと判断した場合、ロボット本体1の走行を停止させ、次回以降の更新によって地図情報や領域情報、経路情報の整合性が取れるまで停止状態を継続することもある。
次に、制御手段2は、協調移動制御部28によりロボット本体1を移動体100と協調して移動させ、協調移動を実行させる(協調移動実行工程:ステップST9)。なお、この協調移動実行工程(ステップST9)は、移動モードが単独動作モードであったり、移動体検出工程(ステップST5)にて移動体100が判別できなかったり、移動体経路情報33が取得できなかったりなど、協調移動を実行する条件が整わない場合はスキップされることがある。協調移動実行工程(ステップST9)において、協調移動制御部28は、指示受付工程(ステップST1)で受け付けた指示に基づき、後述する追従動作モード、分担動作モードおよび先導動作モードのいずれかの移動モードを実行する。
次に、制御手段2は、ロボット本体1の行動を継続するか否かを判断し(ステップST10)、行動を継続する場合(ステップST10でYES)、指示受付工程(ステップST1)に戻り、前述の各ステップST1〜ST9を繰り返す。ステップST10で行動を継続しない場合(ステップST10でNO)、制御手段2は、ロボット本体1の各部の動作を停止させ行動を停止する。
次に、図9、図10を参照して、追従動作モードにおける移動ロボットの動作について説明する。図9は、移動ロボットの協調移動である追従動作を示す図である。図10は、追従動作を示すフローチャートである。図9(A)〜(C)において、対象空間全体が作業領域Aとして占有格子地図Mに関連付けられ、この作業領域Aが作業領域情報34として記憶部30に記憶されている。また、対象空間に存在する物体の移動を移動体検出部291が検出し、この物体を移動体100として判別し、移動体100の移動経路R2が移動体経路情報33として占有格子地図Mに関連付けられている。さらに、移動体100に追従するために算出されたロボット本体1の移動経路R1がロボット経路情報32として占有格子地図Mに関連付けられている。
先ず、行動開始時において、図9(A)に示すように、ロボット本体1が始点S1に位置し、開始時から所定時間で移動体100が始点S2から移動経路R2に沿って移動したとする。ここで、図10に示すように、制御手段2の協調移動制御部28は、前述の経路情報作成/更新工程(ステップST7)によって記憶部30に記憶した移動体経路情報33に基づき、移動体100の移動経路R2を取得する(移動体経路情報取得工程:ステップST21)。次に、協調移動制御部28は、経路情報作成/更新工程(ステップST7)によって記憶部30に記憶したロボット経路情報32に基づき、ロボット本体1の移動経路R1に沿って走行を開始し移動体100を追尾する(移動体追尾工程:ST22)。走行開始から移動体100の移動経路R2に達するまでは、図9(B)に示すように、移動経路R2まで最短距離となる移動経路R1に沿って移動し、移動体100の追尾中は、図9(C)に示すように、移動体100の移動経路R2に後から重なるようにロボット本体1の移動経路R1を随時更新し、移動経路R1に沿って移動体100を追尾し続ける。
移動体100を追尾するようにロボット本体1を移動させるとともに、制御手段2は、作業制御部24によって作業手段7を制御して所定の協調作業を実行するかまたは作業を停止する(協調作業実行/停止工程:ST23)。すなわち、追従動作モードでは、移動体100を追尾しつつ、移動体100と協調して作業を実行する。この協調作業としては、例えば、移動ロボットが掃除ロボットであり、移動体100が他の掃除ロボットである場合、移動体100が吸込み掃除をした後の床面に対してロボット本体1が拭き掃除を実行するような作業が例示できる。この際、移動体100が人であって、人が掃き掃除をした後の床面に対してロボット本体1が吸込み掃除や拭き掃除を実行してもよい。なお、移動ロボットが掃除ロボット以外であって、他の作業ロボットや人、自動車等を追従しつつ協調して行う作業は任意に選択可能であり、警備や運搬、案内、介護、農業など各種分野において適宜な作業を実行することができる。
次に、図11、図12を参照して、分担動作モードにおける移動ロボットの動作について説明する。図11は、移動ロボットの協調移動である分担動作を示す図である。図12は、分担動作を示すフローチャートである。図11(A)〜(C)において、対象空間全体が作業領域Aとして占有格子地図Mに関連付けられ、この作業領域Aが作業領域情報34として記憶部30に記憶されている。この作業領域Aは、図11に一点鎖線の境界線Kで示すように、ロボット本体1が作業を実行する作業領域A1と、移動体100が作業を実行した作業領域A2と、に分割されている。すなわち、移動体検出部291が検出した移動体100の移動経路R2が移動体経路情報33として占有格子地図Mに関連付けられ、この移動経路R2から移動体100が既に作業を実行した領域が作業領域A2となり、この移動体100と分担して作業を実行するために算出されたロボット本体1の移動経路R1がロボット経路情報32として占有格子地図Mに関連付けられている。
先ず、行動開始時において、図11(A)に示すように、ロボット本体1が始点S1に位置し、開始時から所定時間で移動体100が始点S2から移動経路R2に沿って移動したとする。ここで、図12に示すように、制御手段2の協調移動制御部28は、前述の経路情報作成/更新工程(ステップST7)によって記憶部30に記憶した移動体経路情報33に基づき、移動体100の移動経路R2を取得する(移動体経路情報取得工程:ステップST31)。次に、領域情報制御部27は、移動体100の移動経路R2に基づいて移動体100の作業領域A2を演算により求め(移動体作業領域算出工程:ST32)、この作業領域A2を作業済みの領域として記憶部30の作業領域情報34を更新する(領域情報更新工程:ST33)。具体的には、占有格子地図Mの中で移動体100が移動した領域を作業領域A2として作業済みとし、それ以外の領域をロボット本体1の作業領域A1とし、時間の経過に伴って移動体100の移動経路R2が変動すれば、それに応じて境界線Kおよび作業領域A1,A2を含む作業領域情報34をさらに更新する。
次に、経路制御部26は、ロボット本体1の作業領域A1に応じてロボット本体1の移動経路R1(ロボット経路情報32)を更新し(ロボット経路情報更新工程:ST34)、制御手段2は、移動経路R1に沿ってロボット本体1の走行を開始する。この際、ロボット本体1の移動経路R1は、図11(B)に示すように、移動体100の移動経路R2から離れる方向に向かうとともに、図11(C)に示すように、徐々に移動体100の移動経路R2に近づいていくように設定され、移動体100が終点E2で停止したら、対象空間全体において未作業領域が無いようにロボット本体1の作業領域A1および移動経路R1の終点E1が設定される。すなわち、占有格子地図Mの中でロボット本体1と移動体100とが作業を分担するために、互いの移動経路R1,R2ができるだけ重ならず、かつ未作業領域ができないように、経路制御部26はロボット本体1の移動経路R1を決定する。
このように移動体100と異なる経路をロボット本体1に移動させるとともに、制御手段2は、作業制御部24によって作業手段7を制御して所定の協調作業を実行するかまたは作業を停止する(協調作業実行/停止工程:ST35)。すなわち、分担動作モードでは、ロボット本体1と移動体100とが作業領域A1,A2を分担しつつ、移動ロボットは移動体100と協調して作業を実行する。この協調作業としては、移動ロボットと移動体100とが同じ作業を行うものでもよいし、異なる作業を行うものでもよい。また、前述と同様に、移動ロボットと移動体100とが実行する協調作業は、掃除や警備、運搬、案内、介護、農業など各種分野において適宜な作業を実行することができる。
次に、図13、図14を参照して、先導動作モードにおける移動ロボットの動作について説明する。図13は、移動ロボットの協調移動である先導動作を示す図である。図14は、先導動作を示すフローチャートである。図13(A)〜(C)において、対象空間全体が作業領域Aとして占有格子地図Mに関連付けられ、この作業領域Aが作業領域情報34として記憶部30に記憶されている。また、対象空間に存在する物体の移動を移動体検出部291が検出し、この物体を移動体100として判別し、移動体100の移動経路R2が移動体経路情報33として占有格子地図Mに関連付けられている。さらに、移動体100を先導するために算出されたロボット本体1の移動経路R1がロボット経路情報32として占有格子地図Mに関連付けられている。
先ず、行動開始時において、図13(A)に示すように、ロボット本体1が始点S1に位置し、開始時から所定時間で移動体100が始点S2から移動経路R2に沿って移動したとする。ここで、図13に示すように、制御手段2の協調移動制御部28は、前述の経路情報作成/更新工程(ステップST7)によって記憶部30に記憶した移動体経路情報33に基づき、移動体100の移動経路R2を取得する(移動体経路情報取得工程:ステップST41)。次に、協調移動制御部28は、経路情報作成/更新工程(ステップST7)によって記憶部30に記憶したロボット経路情報32に基づき、ロボット本体1の移動経路R1に沿って走行を開始し移動体100を先導する(移動体先導工程:ST42)。走行開始から移動体100の移動経路R2の前方に達するまでは、図13(B)に示すように、最短距離となる移動経路R1に沿って移動し、移動体100を先導中は、図13(C)に示すように、移動体100の移動経路R2がロボット本体1の移動経路R1に後から重なるように移動経路R1を随時更新し、ロボット本体1の走行手段3を駆動制御する。ここで、移動体100の移動経路R2がロボット本体1の移動経路R1に重なっているか外れたかを判定し、移動経路R2が外れたと判定したら、移動体100に向かって光や音、通信によって報知する報知手段を移動ロボットが備えていてもよい。
移動体100を先導するようにロボット本体1を移動させるとともに、制御手段2は、作業制御部24によって作業手段7を制御して所定の協調作業を実行するかまたは作業を停止する(協調作業実行/停止工程:ST43)。すなわち、先導動作モードでは、移動体100を先導しつつ、移動体100と協調して作業を実行する。この協調作業としては、前述と同様に、移動ロボットと移動体100とが同じ作業を行うものでもよいし、異なる作業を行うものでもよい。また、移動ロボットと移動体100とが実行する協調作業は、掃除や警備、運搬、案内、介護、農業など各種分野において適宜な作業を実行することができる。
次に、前述した追従動作モード、分担動作モードおよび先導動作モードのいずれかの移動モードと同時または独立して実行する移動ロボットの動作について、図15、図16を参照して説明する。図15は、移動ロボットの他の動作を示す図であり、物体Oが移動した場合に作業領域の変化を検出してロボット本体1の移動経路R1を更新して移動する動作を示す図である。図16は、移動ロボットのさらに他の動作を示す図であり、使用者により作業対象から除外された除外領域がある場合にロボット本体1の移動経路R1を更新して移動する動作を示す図である。
図15(A)〜(C)において、対象空間全体が作業領域Aとして占有格子地図Mに関連付けられ、この作業領域Aが作業領域情報34として記憶部30に記憶されている。また、行動開始時において、図15(A)に示すように、対象空間に存在する物体Oの周囲は作業できない領域であることから、作業対象から除外する除外領域A3として占有格子地図Mに関連付けられ、記憶部30に除外領域情報35が記憶されている。このような作業領域Aおよび除外領域A3を有する占有格子地図Mにおいて、ロボット本体1が除外領域A3を除く作業領域A全体をくまなく移動できるようにロボット本体1の移動経路R1が設定されている。
次に、ロボット本体1の走行中または次回の行動開始時において、図15(B)に示すように、可動体である物体Oが移動していた場合、作業領域情報変化検出部272が物体Oの移動を検出すると、移動後の物体Oの位置に応じて作業領域情報記憶部271が作業領域情報34を更新し、古い除外領域A3を削除して未作業かつ作業可能な領域AOとして作業領域情報34を書き換えるとともに、除外領域情報記憶部273が新たな除外領域A3を占有格子地図Mに関連付けて除外領域情報35を書き換える。このように領域情報が更新されると、経路制御部26は、書き換えられた作業領域情報34に基づいてロボット本体1の移動経路R1を更新し、制御手段2は、移動経路R1に沿ってロボット本体1を走行させる。次に、図15(C)に示すように、可動体である物体Oが無くなった場合、そのことを作業領域情報変化検出部272が検出すると、作業領域情報記憶部271が作業領域情報34を更新し、古い除外領域A3を削除して未作業かつ作業可能な領域AOとして作業領域情報34を書き換える。このように領域情報が更新されると、経路制御部26は、書き換えられた作業領域情報34に基づいてロボット本体1の移動経路R1を更新し、制御手段2は、移動経路R1に沿ってロボット本体1を走行させる。
図16(A)〜(C)において、対象空間全体が作業領域Aとして占有格子地図Mに関連付けられ、この作業領域Aが作業領域情報34として記憶部30に記憶されている。また、行動開始時において、図16(A)に示すように、占有格子地図Mにおいて、ロボット本体1が作業領域A全体をくまなく移動できるようにロボット本体1の移動経路R1が設定されている。ここで、指示受付工程(ステップST1)において、使用者から受け付けた指示が作業対象から除外する領域であった場合、図16(B)に示すように、除外領域情報記憶部273は、除外領域A4を占有格子地図Mに関連付けて除外領域情報35を更新する。このように領域情報が更新されると、経路制御部26は、更新された作業領域情報34および除外領域情報35に基づいてロボット本体1の移動経路R1を更新し、制御手段2は、移動経路R1に沿ってロボット本体1を走行させる。次に、図16(C)に示すように、さらに指示受付工程(ステップST1)で受け付けた指示によって除外領域A4が変化した場合、除外領域情報記憶部273が除外領域情報35を更新し、経路制御部26がロボット本体1の移動経路R1を更新する。また、ロボット本体1の走行中に除外領域A4が解除された指示を受け付けた場合、除外領域A4だった領域は未作業かつ作業可能な領域となることから、作業領域情報記憶部271が作業領域情報34を更新し、経路制御部26がロボット本体1の移動経路R1を更新する。
このような本実施形態によれば、以下の作用・効果を奏することができる。
(1)移動ロボットの制御手段2は、自らの移動経路R1をロボット経路情報32として記憶するとともに、移動体検出部291が検出した移動体100の移動経路R2を移動体経路情報33として記憶し、協調移動制御部28は、ロボット経路情報32および移動体経路情報33に基づいて、移動体100に対してロボット本体1を協調して移動させることで、移動体100に対してロボット本体1を効率よく移動させることができるとともに、移動体100の動きに応じて多様な動作が実行可能となり、移動ロボットの利用範囲を拡大することができる。また、移動体検出部291が移動体100を検出することで、移動体100に対する協調動作を確実に実行させることができる。
(2)協調移動制御部28は、図9、図10に示すように、移動体100の移動経路R2に後から重ねるようにしてロボット本体1を移動させて移動体100に追従させることで、移動体100の後方から追従する追従動作をロボット本体1に実行させることができる。すなわち、単に移動体100に向かって移動するのではなく、移動ロボットは、移動体100が移動した経路に倣って後から移動することで、移動体100と協調した作業などを実行することが可能となる。
(3)協調移動制御部28は、図11、図12に示すように、移動体100の移動経路R2に重ねないようにしてロボット本体1を移動させ、所定の作業領域A1にてロボット本体1を移動させ、作業領域A2で移動する移動体100と分担して作業させることで、移動体100と重ならない分担作業をロボット本体1に実行させることができる。すなわち、所定の作業領域Aのうち、移動体100が移動した(あるいは移動している)移動経路R2とは異なる移動経路R1をロボット本体1が移動することで、移動体100と作業を分担しつつ協調動作することが可能となる。
(4)協調移動制御部28は、図13、図14に示すように、ロボット本体1の移動経路R1に後から重なって移動体100が移動するように、ロボット本体1を移動体100に対して先導させて移動させることで、移動体100を先導する先導動作をロボット本体1に実行させることができる。すなわち、ロボット本体1に移動体100が追従してきていることを判定しつつロボット本体1を移動させることで、ロボット本体1が先導しつつ移動体100と協調した作業を実行することが可能となる。
(5)物体変化検出部292は、新しい地図と古い地図とを比較し、ロボット本体1の周囲の物体Oの有無の変化を検出することで、作業領域Aの変化に対応してロボット本体1の動作を変化させることができる。例えば、動かすことができる物体Oを作業者が移動させたような場合には、その物体Oによって通過できなかった領域A3が通過可能な領域AOとなることから、その領域AOを通過するようにロボット経路情報32を更新し、ロボット本体1を移動させることができる。
(6)地図作成部25は、広域地図311と狭域地図312とを作成することで、ロボット経路情報32および移動体経路情報33を関連付ける低解像度かつ広範囲な広域地図311に基づいて作業領域A全域を認識しつつ、物体変化検出部292にてロボット本体1の周囲の物体Oの有無の変化を検出するために用いる狭域地図312に基づき、周囲の物体Oの有無の変化を確実に検出することができる。また、広域地図311と比較してデータ量の少ない狭域地図312を大量に記憶部30に記憶させておくことができる。
(7)作業領域情報記憶部271は、占有格子地図Mに対して作業できる領域か否かを示す作業領域情報34を関連付けて記憶部30に記憶させ、作業領域情報変化検出部272は、新しい地図と古い地図とを比較することによって作業領域情報34の変化を検出することで、作業領域情報34の変化に対応してロボット本体1の動作を変化させることができる。例えば、物体Oの位置を作業者が移動させたような場合には、これまで作業できなかった領域A3が通過可能な領域AOに変化することから、その領域AOにて作業するように走行手段3にてロボット本体1を移動させることができる。
(8)地図作成部25は、広域地図311に加えて作業領域情報変化検出部272にて作業領域情報34の変化を検出するために用いる狭域地図312を作成することで、作業領域情報34の変化を確実に検出することができる。また、広域地図311と比較してデータ量の少ない狭域地図312を大量に記憶部30に記憶させておくことができる。
(9)除外領域情報記憶部273は、占有格子地図Mに対し除外領域情報35を関連付けて記憶部30に記憶させることで、除外領域情報35によって作業対象から除外された領域A4に対してロボット本体1の動作を変化させることができる。例えば、作業者がある領域にてすでに作業したような場合には、その領域A4を作業対象から除外するように除外領域情報35を記憶することで、その領域A4では作業しないようにロボット本体1を動作させることができる。
〔実施形態の変形〕
なお、本発明は、前記実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
例えば、前記実施形態では、移動体として具体的なものを例示しなかったが、移動体としては、サービスロボット、ホームロボットなどの移動ロボットであって、より具体的には、掃除ロボットや警備ロボット、運搬ロボット、案内ロボットなどが例示できる。さらに、移動体としては、人であってもよいし、自動運転自動車や作業車などであってもよい。さらに、移動体の移動範囲は、二次元平面空間に限らず、三次元空間であってもよく、その場合には移動体がドローンなどの飛行体であってもよい。すなわち、前記実施形態では、SLAM技術として、2D−SLAMを用いた例を示したが、本発明の地図生成システムは、三次元空間を対象にした3D−SLAMにも応用可能である。また、前記実施形態では、地図として占有格子地図Mを作成したが、本発明の移動ロボットで用いる地図は占有格子地図に限らず、SLAM技術で利用可能な地図であれば任意のものが利用可能である。
前記実施形態では、協調移動制御部28は、指示受付工程(ステップST1)で受け付けた指示に基づき、追従動作モード、分担動作モードおよび先導動作モードのいずれかの移動モードを実行するものであったが、追従動作モード、分担動作モードおよび先導動作モードの全てを実行しなくてもよく、これらのうちから1または2の移動モードを実行してもよい。また、指示受付工程(ステップST1)で指示を受け付けなかった場合には、移動体100と協調して移動することなく、予め設定されたロボット本体1単独の単独移動モードで行動してもよい。さらに、ある移動モードで移動中に指示受付工程(ステップST1)で新たな指示を受け付けた場合には、新たな指示に基づく移動モードに切り替えて行動してもよい。
前記実施形態では、移動ロボットのロボット本体1が制御手段2を備え、この制御手段2に地図作成部25や記憶部30が設けられていたが、占有格子地図Mを作成する地図作成手段や、占有格子地図Mを記憶する記憶手段などは、ロボット本体1だけではなく、移動体本体と通信可能な他の機器に設けられ、他の機器によって作成された占有格子地図Mに基づいてロボット本体1が自律走行するように構成されていてもよい。また、移動ロボットが検出手段を備えていたが、ロボット本体1だけではなく、他の機器にも検出手段が設けられ、他の機器で移動範囲や移動体を検出した検出情報を受信し、この検出情報を用いて地図を作成したり、移動体の移動経路を作成したり、領域情報を作成したりしてもよい。
前記実施形態では、地図作成部25で作成した占有格子地図Mに基づき、古い地図と新しい地図とを比較することで移動体検出部291が移動体100を検出したが、この方法とは別に、移動体を直接検出する移動体検出手段を備えてもよい。この移動体検出手段としては、カメラ等の撮像手段と、撮像手段で撮像した画像を処理する画像処理手段と、画像処理した結果に基づいて物体の移動を検出する解析手段と、を備えたものが例示できる。このような構成によれば、ロボット本体1の周囲の移動体を直接検出する移動体検出手段を備えることで、移動体を精度よく検出することができ、移動体に対する協調動作を確実に実行させることができる。さらに、移動体検出手段としては、移動体との間で直接または間接的に通信を行うことで移動体を検出してもよいし、移動体にビーコン等の被検出手段を設けておき、この被検出手段を光学的あるいは電気的に読み取ることで移動体を検出してもよい。
前記実施形態では、地図作成部25で作成した占有格子地図Mである地図情報31が広域地図311と狭域地図312の解像度が異なる2種類の地図で構成されていたが、地図情報31が移動範囲全体を含む広域地図だけで構成され、この広域地図が高い解像度を有したものであってもよい。また、地図情報31としては、広域地図311と狭域地図312の2種類に限らず、解像度が異なる3種類以上の地図を有して構成されていてもよい。さらに、地図情報としては、解像度の違いに限らず、空間の高さ情報や壁面情報、物体の立体形状情報などの各種情報に応じた複数の地図を含んで構成されていてもよい。
以上のように、本発明は、他の物体や移動体の動きに応じて多様な動作を実行可能として利用範囲を拡大することができる移動ロボットに好適に利用できる。
1 ロボット本体
2 制御手段
3 走行手段(移動手段)
4 検出手段
25 地図作成部
26 経路制御部(ロボット経路情報記憶部、移動体経路情報記憶部)
27 領域情報制御部
28 協調移動制御部
29 物体検出制御部
30 記憶部
31 地図情報
32 ロボット経路情報
33 移動体経路情報
34 作業領域情報
35 除外領域情報
100 移動体
271 作業領域情報記憶部
272 作業領域情報変化検出部
273 除外領域情報記憶部
291 移動体検出部
292 物体変化検出部
311 広域地図
312 狭域地図
A 作業領域(移動範囲)
M,M1,M2 占有格子地図(地図)
O 物体
R1,R2 移動経路

Claims (9)

  1. ロボット本体と、前記ロボット本体を移動させるための移動手段と、前記ロボット本体の移動範囲における周囲の物体までの距離と方向を検出する検出手段と、前記移動手段および前記検出手段を制御する制御手段と、を備えた移動ロボットであって、
    前記制御手段は、
    前記検出手段にて検出された検出情報を時系列に記憶する記憶部と、
    前記記憶部に記憶された検出情報に基づいて、前記ロボット本体の周囲の地図を作成して前記記憶部に記憶させる地図作成部と、
    前記ロボット本体とは異なる移動体を検出する移動体検出部と、
    前記地図作成部にて作成された地図に前記ロボット本体の移動経路を示すロボット経路情報を関連付けて前記記憶部に記憶させるロボット経路情報記憶部と、
    前記地図作成部にて作成された地図に前記移動体の移動経路を示す移動体経路情報を関連付けて前記記憶部に記憶させる移動体経路情報記憶部と、
    前記ロボット経路情報および前記移動体経路情報に基づいて、前記移動体に対して前記ロボット本体を協調して移動させる協調移動制御部と、を備える
    ことを特徴とする移動ロボット。
  2. 請求項1に記載された移動ロボットにおいて、
    前記協調移動制御部は、前記移動体の移動経路に対して前記ロボット本体の移動経路を後から重ねるようにして前記移動手段にて前記ロボット本体を移動させることによって、前記ロボット本体を前記移動体に追従させて移動させる
    ことを特徴とする移動ロボット。
  3. 請求項1に記載された移動ロボットにおいて、
    前記協調移動制御部は、前記移動体の移動経路に対して前記ロボット本体の移動経路を重ねないようにして前記移動手段にて前記ロボット本体を移動させることによって、所定の移動領域にて前記ロボット本体を前記移動体と分担して移動させる
    ことを特徴とする移動ロボット。
  4. 請求項1に記載された移動ロボットにおいて、
    前記協調移動制御部は、前記ロボット本体の移動経路に対して前記移動体の移動経路が後から重なっているか否かを判定し、重なっていると判定した場合に前記移動手段にて前記ロボット本体を移動させることによって、前記ロボット本体を前記移動体に対して先導させて移動させる
    ことを特徴とする移動ロボット。
  5. 請求項1から請求項4のいずれかに記載された移動ロボットにおいて、
    前記制御手段は、前記地図作成部にて作成された新しい地図と、前記記憶部に記憶された古い地図とを比較することによって、前記ロボット本体の周囲の物体の有無の変化を検出する物体変化検出部を備える
    ことを特徴とする移動ロボット。
  6. 請求項5に記載された移動ロボットにおいて、
    前記地図作成部は、前記ロボット経路情報および前記移動体経路情報を関連付ける低解像度かつ広範囲な広域地図と、前記物体変化検出部にて前記ロボット本体の周囲の物体の有無の変化を検出するために用いる高解像度の狭域地図とを作成する
    ことを特徴とする移動ロボット。
  7. 請求項1から請求項6のいずれかに記載された移動ロボットにおいて、
    前記制御手段は、
    前記地図作成部にて作成された地図に対し、作業できる領域か否かを示す作業領域情報を関連付けて前記記憶部に記憶させる作業領域情報記憶部と、
    前記地図作成部にて作成された新しい地図と、前記記憶部に記憶された古い地図とを比較することによって、前記作業領域情報の変化を検出する作業領域情報変化検出部と、を備える
    ことを特徴とする移動ロボット。
  8. 請求項7に記載された移動ロボットにおいて、
    前記地図作成部は、前記ロボット経路情報および前記移動体経路情報を含む低解像度かつ広範囲な広域地図と、前記作業領域情報変化検出部にて前記作業領域情報の変化を検出するために用いる高解像度の狭域地図とを作成する
    ことを特徴とする移動ロボット。
  9. 請求項1から請求項8のいずれかに記載された移動ロボットにおいて、
    前記制御手段は、
    前記地図作成部にて作成された地図に対し、作業対象から除外する領域を示す除外領域情報を関連付けて前記記憶部に記憶させる除外領域情報記憶部を備える
    ことを特徴とする移動ロボット。
JP2019536600A 2018-08-14 2018-08-14 移動ロボット Active JP6758005B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/030271 WO2020035902A1 (ja) 2018-08-14 2018-08-14 移動ロボット

Publications (2)

Publication Number Publication Date
JPWO2020035902A1 true JPWO2020035902A1 (ja) 2020-08-20
JP6758005B2 JP6758005B2 (ja) 2020-09-23

Family

ID=68920929

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019536600A Active JP6758005B2 (ja) 2018-08-14 2018-08-14 移動ロボット

Country Status (7)

Country Link
US (1) US11409306B2 (ja)
EP (2) EP3951546A3 (ja)
JP (1) JP6758005B2 (ja)
CN (1) CN110621449B (ja)
MY (1) MY199460A (ja)
TW (2) TWI716064B (ja)
WO (1) WO2020035902A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10422648B2 (en) * 2017-10-17 2019-09-24 AI Incorporated Methods for finding the perimeter of a place using observed coordinates
JP7135883B2 (ja) * 2019-01-22 2022-09-13 株式会社豊田自動織機 移動体走行システム
CN111216093B (zh) * 2020-01-16 2021-08-13 宁德师范学院 一种物流机器人及其移动轨迹判断方法、存储介质
WO2021246169A1 (ja) * 2020-06-01 2021-12-09 ソニーグループ株式会社 情報処理装置、情報処理システム、および方法、並びにプログラム
KR102490754B1 (ko) * 2020-10-08 2023-01-20 엘지전자 주식회사 이동 로봇 시스템
JP7436401B2 (ja) * 2021-01-18 2024-02-21 株式会社日立製作所 分散協調システム
JP2022138037A (ja) * 2021-03-09 2022-09-22 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
DE102021203703A1 (de) * 2021-04-14 2022-10-20 BSH Hausgeräte GmbH Kartenaktualisierung für einen Haushaltsroboter
JP7176068B1 (ja) 2021-08-24 2022-11-21 楽天グループ株式会社 飛行制御システム、飛行制御方法、及び無人飛行体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006146491A (ja) * 2004-11-18 2006-06-08 Matsushita Electric Ind Co Ltd 移動ロボットおよびその追従方法
WO2015193941A1 (ja) * 2014-06-16 2015-12-23 株式会社日立製作所 地図生成システム及び地図生成方法
JP2016073630A (ja) * 2014-10-03 2016-05-12 国立大学法人豊橋技術科学大学 移動訓練支援装置
WO2017030188A1 (ja) * 2015-08-19 2017-02-23 Cyberdyne株式会社 自律移動体および施設内管理運営システム

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005098729A2 (en) * 2004-03-27 2005-10-20 Harvey Koselka Autonomous personal service robot
US20100222925A1 (en) * 2004-12-03 2010-09-02 Takashi Anezaki Robot control apparatus
JP4867779B2 (ja) 2007-05-08 2012-02-01 パナソニック株式会社 ペット誘導ロボットおよびペット誘導方法
JP2009178782A (ja) * 2008-01-29 2009-08-13 Toyota Motor Corp 移動体、環境地図生成装置、及び環境地図生成方法
JP5216690B2 (ja) * 2009-06-01 2013-06-19 株式会社日立製作所 ロボット管理システム、ロボット管理端末、ロボット管理方法およびプログラム
US8948913B2 (en) * 2009-10-26 2015-02-03 Electronics And Telecommunications Research Institute Method and apparatus for navigating robot
EP2668008A4 (en) * 2011-01-28 2018-01-24 Intouch Technologies, Inc. Interfacing with a mobile telepresence robot
KR102041093B1 (ko) * 2011-04-11 2019-11-06 크라운 이큅먼트 코포레이션 조정된 경로 계획기를 사용하는 다수의 자동화 비-홀로노믹 차량들을 효율적으로 스케줄링하는 방법 및 장치
JP5394597B2 (ja) 2011-11-09 2014-01-22 パナソニック株式会社 自律移動装置、自律移動方法、及び自律移動装置用のプログラム
US9383753B1 (en) * 2012-09-26 2016-07-05 Google Inc. Wide-view LIDAR with areas of special attention
US9483055B2 (en) 2012-12-28 2016-11-01 Irobot Corporation Autonomous coverage robot
JP2014197294A (ja) * 2013-03-29 2014-10-16 株式会社日立産機システム 位置同定装置、及びそれを備えた移動ロボット
CN103247040B (zh) * 2013-05-13 2015-11-25 北京工业大学 基于分层拓扑结构的多机器人系统地图拼接方法
JP5860081B2 (ja) * 2014-02-27 2016-02-16 ファナック株式会社 ロボットの動作経路を生成するロボットシミュレーション装置
JP6761293B2 (ja) 2015-09-15 2020-09-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 移動制御方法、自律移動制御システム、自律移動ロボット及び自律移動制御プログラム
JP6559535B2 (ja) * 2015-10-22 2019-08-14 株式会社東芝 障害物マップ生成装置、その方法、及び、そのプログラム
US9682481B2 (en) 2015-10-26 2017-06-20 X Development Llc Communication of information regarding a robot using an optical identifier
JP7058067B2 (ja) * 2016-02-16 2022-04-21 東芝ライフスタイル株式会社 自律走行体
JP6610339B2 (ja) 2016-03-03 2019-11-27 株式会社デンソー 占有格子地図作成装置
TWI698213B (zh) * 2016-05-20 2020-07-11 南韓商Lg電子股份有限公司 清掃機器人
CN205942412U (zh) 2016-06-08 2017-02-08 科沃斯机器人股份有限公司 母子机协同工作系统
US9875648B2 (en) * 2016-06-13 2018-01-23 Gamma 2 Robotics Methods and systems for reducing false alarms in a robotic device by sensor fusion
US10272828B2 (en) * 2016-08-16 2019-04-30 Irobot Corporation Light indicator system for an autonomous mobile robot
JP2018049438A (ja) 2016-09-21 2018-03-29 カシオ計算機株式会社 自律移動装置、自律移動方法及びプログラム
JP6831210B2 (ja) * 2016-11-02 2021-02-17 東芝ライフスタイル株式会社 電気掃除機
DE102016121320A1 (de) * 2016-11-08 2018-05-09 Vorwerk & Co. Interholding Gmbh Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Roboters
JP6831213B2 (ja) 2016-11-09 2021-02-17 東芝ライフスタイル株式会社 電気掃除機
KR102662949B1 (ko) 2016-11-24 2024-05-02 엘지전자 주식회사 인공지능 이동 로봇 및 그 제어방법
WO2018119450A1 (en) * 2016-12-23 2018-06-28 Gecko Robotics, Inc. Inspection robot
US10406687B2 (en) * 2016-12-23 2019-09-10 X Development Llc Layered multi-agent coordination
WO2018154573A1 (en) * 2017-02-21 2018-08-30 Commonsense Robotics Ltd. Robotic delivery and retrieval of crates to and from non-uniformly sized storage spaces in a versatile shelving array
CN206639048U (zh) * 2017-04-01 2017-11-14 东莞理工学院 一种不限轨迹便于确定目标的智能跟随系统
WO2019058694A1 (ja) * 2017-09-20 2019-03-28 ソニー株式会社 制御装置、制御方法及び制御システム
US20210109520A1 (en) * 2018-04-23 2021-04-15 Purdue Research Foundation Augmented reality interface for authoring tasks for execution by a programmable robot
WO2019213264A1 (en) * 2018-05-01 2019-11-07 Piaggio Fast Forward, Inc. Method for determining self-driving vehicle behavior models, a self-driving vehicle, and a method of navigating a self-driving vehicle
KR102291884B1 (ko) * 2018-08-03 2021-08-20 엘지전자 주식회사 이동 로봇 및 그 제어방법
KR102292262B1 (ko) * 2018-08-05 2021-08-24 엘지전자 주식회사 이동 로봇 및 그 제어방법
CN110892449A (zh) * 2018-08-22 2020-03-17 深圳市大疆创新科技有限公司 图像处理方法及装置、移动设备
DE102018121365A1 (de) * 2018-08-31 2020-04-23 RobArt GmbH Exploration eines robotereinsatzgebietes durch einen autonomen mobilen roboter
CN110926476B (zh) * 2019-12-04 2023-09-01 三星电子(中国)研发中心 一种智能机器人的伴随服务方法及装置
US11328433B2 (en) * 2020-02-25 2022-05-10 Honda Motor Co., Ltd. Composite field based single shot prediction

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006146491A (ja) * 2004-11-18 2006-06-08 Matsushita Electric Ind Co Ltd 移動ロボットおよびその追従方法
WO2015193941A1 (ja) * 2014-06-16 2015-12-23 株式会社日立製作所 地図生成システム及び地図生成方法
JP2016073630A (ja) * 2014-10-03 2016-05-12 国立大学法人豊橋技術科学大学 移動訓練支援装置
WO2017030188A1 (ja) * 2015-08-19 2017-02-23 Cyberdyne株式会社 自律移動体および施設内管理運営システム

Also Published As

Publication number Publication date
EP3660617A4 (en) 2021-04-14
MY199460A (en) 2023-10-30
TW202024831A (zh) 2020-07-01
JP6758005B2 (ja) 2020-09-23
WO2020035902A1 (ja) 2020-02-20
TWI716064B (zh) 2021-01-11
US11409306B2 (en) 2022-08-09
TW202121091A (zh) 2021-06-01
CN110621449B (zh) 2022-07-08
EP3660617A1 (en) 2020-06-03
EP3951546A2 (en) 2022-02-09
US20210365040A1 (en) 2021-11-25
TWI766410B (zh) 2022-06-01
CN110621449A (zh) 2019-12-27
EP3951546A3 (en) 2022-04-13

Similar Documents

Publication Publication Date Title
JP6758005B2 (ja) 移動ロボット
CN109998421B (zh) 移动清洁机器人组合及持久性制图
EP3460614B1 (en) Combined robot and cruising path generation method therefor
CN108290294B (zh) 移动机器人及其控制方法
JP7139226B2 (ja) 状況認識のためのモバイル清掃ロボット人工知能
US11097416B2 (en) Mobile robot system, mobile robot, and method of controlling the mobile robot system
CN112739244A (zh) 移动机器人清洁系统
US11393114B1 (en) Method and system for collaborative construction of a map
KR102704815B1 (ko) 아웃도어 영역에서 이종의 위치정보 획득 메커니즘을 적용하는 방법 및 이를 구현하는 로봇과 클라우드 서버
JP2020079997A (ja) 情報処理装置、情報処理方法、及びプログラム
CN207051738U (zh) 一种移动电子设备
EP3493013B1 (en) Moving robot and associated control method
KR20200059666A (ko) 이동 장치 및 이동 장치의 객체 감지 방법
CN108459594A (zh) 一种移动电子设备以及该移动电子设备中的方法
US20190354246A1 (en) Airport robot and movement method therefor
US20210191422A1 (en) Robotic cleaning device with dynamic area coverage
CN113017492A (zh) 一种基于清洁机器人的物体识别智能控制系统
CN116358522A (zh) 局部地图生成方法和装置、机器人、计算机可读存储介质
CN112214018A (zh) 机器人路径规划方法及装置
CN114474054B (zh) 一种人形机器人导航方法
Hou et al. A Method for Robot Indoor Path Planning Using BIM Based on A* Algorithm
US20240053758A1 (en) Self-moving robot and method of automatically determining an accessible region thereof
JP2022050115A (ja) 移動体の位置推定システム、オペレータ用端末装置及び位置推定方法
JP2022003437A (ja) 移動体の制御システム及び制御方法
CN117130356A (zh) 环境信息采集方法、设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200826

R150 Certificate of patent or registration of utility model

Ref document number: 6758005

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250