JP7243592B2 - 制御システム、制御方法およびプログラム - Google Patents

制御システム、制御方法およびプログラム Download PDF

Info

Publication number
JP7243592B2
JP7243592B2 JP2019212383A JP2019212383A JP7243592B2 JP 7243592 B2 JP7243592 B2 JP 7243592B2 JP 2019212383 A JP2019212383 A JP 2019212383A JP 2019212383 A JP2019212383 A JP 2019212383A JP 7243592 B2 JP7243592 B2 JP 7243592B2
Authority
JP
Japan
Prior art keywords
mobile robot
operation mode
person
staff
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019212383A
Other languages
English (en)
Other versions
JP2021086199A (ja
Inventor
智久 高井
雄平 山口
聡 豊島
裕太 渡邊
哲也 平
幹生 本多
志朗 小田
将久 大槻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2019212383A priority Critical patent/JP7243592B2/ja
Priority to US17/096,183 priority patent/US11657634B2/en
Priority to CN202011312269.5A priority patent/CN112947402B/zh
Publication of JP2021086199A publication Critical patent/JP2021086199A/ja
Application granted granted Critical
Publication of JP7243592B2 publication Critical patent/JP7243592B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Electromagnetism (AREA)
  • Databases & Information Systems (AREA)
  • Molecular Biology (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Description

本発明は制御システム、制御方法およびプログラムに関する。
所定の建物や施設内で自律移動する自律移動装置の開発が進んでいる。このような自律移動装置は、荷台を有していたり、台車を牽引したりすることにより、自動で荷物を配達する自動配達装置になり得る。自動配達装置は、出発地から目的地まで自律移動することにより、例えば出発地で搭載した荷物を目的地に届けることができる。
例えば特許文献1に記載の自動配達装置は、自律移動可能な牽引部および荷台部を有しており、これらに含まれるコンピュータは、建物の間取り図の電子地図および、ある場所から次の場所へ移動するときに辿るべき経路を格納している。この自動配達装置は、目的に応じて異なるタイプの荷台部を使用することにより様々な物品を搬送する。
米国特許第9026301号明細書
上述のような自律移動ロボットが非搬送物を搬送するシステム(搬送システム)は、例えばホテル、病院、レストランなど所定の施設において運用される。このような施設において用いられる移動ロボットは、施設の運用者(スタッフ)と施設の利用者(非スタッフ)とが混在する環境を通行する場合がある。施設のスタッフは、移動ロボットが採り得る動作を予め知ることができる。一方、非スタッフは、移動ロボットが採り得る動作を知らない。そのため、上述の環境下における移動ロボットの動作は、非スタッフの存在を前提として抑制する必要があった。しかしながら、移動ロボットをより効率よく運用することが望まれている。
本発明は、このような課題を解決するためになされたものであって、周辺環境に応じて移動ロボットの動作を好適に設定する制御システム等を提供するものである。
本発明の一態様における制御システムは、予め設定された領域を自律移動する移動ロボットの動作モードを制御するものであって、特徴検出部、分類部およびシステム制御部を有している。特徴検出部は、移動ロボットの周辺に存在する人物の特徴を検出する。分類部は、特徴に基づいて人物を予め設定された第1グループまたは第2グループに分類する。制御部は、移動ロボットの周辺に第1グループに属する人物が存在する場合には第1動作モードを選択し、移動ロボットの周辺に第1グループに属する人物が存在しない場合には第1動作モードと異なる第2動作モードを選択して移動ロボットを制御する。
このような構成により、制御システムは、移動ロボットの周辺に存在する人物に応じて、移動ロボットの動作モードを制御する。これにより移動ロボットは、周辺環境に応じて異なる動作を行う。
上記制御システムは、前記周辺環境を撮像して画像データを生成するカメラをさらに備え、前記特徴検出部は、前記カメラが生成した前記画像データから前記人物の前記特徴を検出するものであってもよい。これにより制御システムは、移動ロボットの周辺に存在する人物を画像データから検出できる。
上記制御システムにおいて、前記カメラは、前記周辺環境を撮像するように前記移動ロボットから離間した位置に設けられているものであってもよい。これにより制御システムは、移動ロボットの周辺を客観的に撮像できるため、死角を低減できる。
上記制御システムにおいて、前記分類部は、前記人物の着衣の特徴に応じて前記人物を分類するものであってもよい。これにより制御システムは、容易に人物を分類できる。
上記制御システムにおいて、前記特徴検出部は、前記人物の着衣の予め設定された部分における色調を検出し、前記分類部は、前記色調に応じて前記人物を分類するものであってもよい。これにより制御システムは、容易に人物を分類できる。
上記制御システムにおいて、前記システム制御部が選択する前記第1動作モードにおける前記移動ロボットの第1移動速度は、前記第2動作モードにおける第2移動速度よりも遅いものであってもよい。これにより制御システムは、移動ロボットの周辺に存在する人物の種類に応じて安全に移動できる。
上記制御システムにおいて、前記システム制御部が選択する前記第1動作モードにおける前記移動ロボットの第1移動範囲は、前記第2動作モードにおける第2移動範囲よりも狭いものであってもよい。これにより移動ロボットの周辺に存在する人物の種類に応じて好適にセキュリティレベルを設定できる。
上記制御システムにおいて、前記システム制御部は、前記移動ロボットの周辺において前記第1グループに属する前記人物が存在しない場合であって、前記移動ロボットの周辺に前記第2グループに属する前記人物が予め設定された密度より高く存在する場合には、第2動作モードと異なる第3動作モードを選択するものであってもよい。これにより制御システムは、移動ロボットの周辺に存在する人物の状況に応じて好適に安全な移動方法を選択できる。
上記制御システムにおいて、前記特徴検出部が検出する前記移動ロボットの周辺は、前記移動ロボットが存在する位置に応じて範囲が予め設定されているものであってもよい。これにより制御システムは、移動ロボットが存在している場所に応じて動作モードの設定条件を好適に設定できる。
本発明の一態様における制御方法は、予め設定された領域を自律移動する移動ロボットの動作モードを制御する制御方法であって、移動ロボットの周辺に存在する人物の特徴を検出する特徴検出ステップと、前記特徴に基づいて前記人物を予め設定された第1グループまたは第2グループに分類する判定ステップと、前記移動ロボットの周辺に前記第1グループに属する前記人物が存在する場合には第1動作モードを選択し、前記移動ロボットの周辺に前記第1グループに属する前記人物が存在しない場合には前記第1動作モードと異なる第2動作モードを選択して前記移動ロボットを制御する制御ステップと、を有する。
このような構成により、制御方法は、移動ロボットの周辺に存在する人物に応じて、移動ロボットの動作モードを制御する。これにより移動ロボットは、周辺環境に応じて異なる動作を行う。
本発明の一態様におけるプログラムは、予め設定された領域を自律移動する移動ロボットの動作モードを制御する制御方法をコンピュータに実行させるものであって、上記制御方法は、移動ロボットの周辺環境に存在する人物の特徴を検出する特徴検出ステップと、前記特徴に基づいて前記人物を予め設定された第1グループまたは第2グループに分類する判定ステップと、前記周辺環境に前記第1グループに属する前記人物が存在する場合には第1動作モードを選択し、前記周辺環境に前記第1グループに属する前記人物が存在しない場合には前記第1動作モードと異なる第2動作モードを選択して前記移動ロボットを制御する制御ステップと、を有する。
このような構成により、プログラムは、周辺環境に存在する人物に応じて、移動ロボットの動作モードを制御する。これにより移動ロボットは、周辺環境に応じて異なる動作を行う。
本発明により、周辺環境に応じて移動ロボットの動作を好適に設定する制御システム等を提供することができる。
実施の形態1にかかる制御システムの概観図である。 移動ロボットの概観図である。 実施の形態1にかかる制御システムのブロック図である。 移動ロボットの経路の例を示す図である。 スタッフ情報の例を示す表である。 動作モードの例を示す表である。 実施の形態1にかかる制御システムの処理を示すフローチャートである。 実施の形態1にかかる動作モード選択処理の例を示す図である。 実施の形態2にかかる動作モードの例を示す表である。 実施の形態2にかかる動作モード選択処理の例を示す図である。
以下、発明の実施の形態を通じて本発明を説明するが、特許請求の範囲にかかる発明を以下の実施形態に限定するものではない。また、実施形態で説明する構成の全てが課題を解決するための手段として必須であるとは限らない。説明の明確化のため、以下の記載および図面は、適宜、省略、および簡略化がなされている。なお、各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。
<実施の形態1>
以下、図面を参照して実施の形態1について説明する。実施の形態1にかかる制御システムは、所定の領域内を自律移動する搬送ロボットが被搬送物を収容して自律移動する。図1は、実施の形態1にかかる搬送システムの概観図である。図1に示す制御システム10は、制御システムの一実施態様である。制御システム10は、主な構成として、移動ロボット100、サーバ500およびカメラ600を有している。
移動ロボット100は、所定の施設内を自律移動する移動ロボットの一実施態様である。移動ロボット100は、病院などの施設内で、薬剤、医療機器または検体等を搬送する。すなわち移動ロボット100は、所定の物品を搬送する搬送ロボットということもできる。
サーバ500は任意の場所に設置されたコンピュータである。サーバ500は、移動ロボット100およびカメラ600と無線通信可能に接続し、移動ロボット100を制御する制御装置である。
カメラ600は、施設内における移動ロボット100が通行する場所の天井面に固定され、固定された位置からカメラ600の下方の風景を撮像する。これにより、カメラ600は、移動ロボット100および移動ロボット100の周辺の物体や人物等を、移動ロボット100から離間した位置から撮像できる。
図1において、移動ロボット100は、病院の廊下を矢印方向に向かって移動中である。移動ロボット100の周辺には、人物H10、人物H20および人物H30が存在している。人物H10は、病院のスタッフであって、看護師である。人物H20は、病院を訪れた一般の人であり、非スタッフである。人物H30は、病院のスタッフであって、薬剤師である。
移動ロボット100は、このように、病院のスタッフと非スタッフとが混在する環境を、これらの人物と接触しないように移動する。具体的には、移動ロボット100は、周辺の人物と接触しない程度の速度で移動したり、予め設定された距離よりも近くに物体が存在する場合には速度をさらに落としたり、停止したりする。また移動ロボット100は、自律移動により物体を回避する行動をとったり、周辺に移動ロボット100の存在を通知するための音声や光を発したりすることもできる。
図2を参照して移動ロボット100について説明する。図2は、移動ロボット100の概観図である。なお、構成要素の位置関係を説明するための便宜的なものとして、図1は、右手系の直交座標系が付されている。
移動ロボット100は、直方体状の本体が移動面である床面を移動する移動体である。移動ロボット100は移動手段として駆動部130を有している。駆動部130は、床面に接しており直進方向(前後方向または図のx軸方向)に対して直角の方向(左右方向または図のy軸方向)に伸びる1本の回転軸を中心にそれぞれ独立して回転可能に設定されている2つの駆動輪131および床面に接するキャスター132を有している。移動ロボット100は、左右に配置された駆動輪131を同じ回転数で駆動させることにより、前進または後進を行い、左右の駆動輪131の回転速度または回転方向に差を生じさせることにより、旋回を行う。
移動ロボット100は駆動部130の上方に筐体部150を有している。筐体部150は、収納室扉151を有している。収納室扉151を開けると、筐体部150の内部には、所定の搬送物を収納するための収納室が設けられている。
筐体部150における収納室扉151の上方および収納室扉151が設けられている面の反対側の面(すなわち移動ロボット100の前後方向におけるそれぞれの面)には、前後距離センサ152がそれぞれ設けられている。前後距離センサ152は、移動ロボット100の周囲の物体を検出することにより、移動ロボット100と当該物体との距離を検出できる。前後距離センサ152は、例えばステレオカメラおよび赤外線スキャナを用いて撮像した画像の画像データに含まれる物体の距離を測定する。筐体部150の左右方向におけるそれぞれの面の下部には、左右距離センサ153が設けられている。左右距離センサ153は、レーザ光、ミリ波、または近赤外線等を用いた測距センサであって、移動ロボット100の周囲の物体との距離を検出できる。筐体部150の前後方向におけるそれぞれの面に前後距離センサ152が設けられ、筐体部150の左右方向におけるそれぞれの面に左右距離センサ153が設けられていることにより、移動ロボット100は、全方位の物体との距離を検出できる。
移動ロボット100は、上述の距離センサが検出した障害物との距離に対して、安全距離を設定する。移動ロボット100は、障害物が安全距離よりも離れるように移動ロボット100の自律移動を制御する。また移動ロボット100は、障害物が安全距離よりも近づいた場合には、移動ロボット100の移動を一旦停止させたり、障害物に対する警告を発信したりする。
筐体部150の上面には矩形の突出部が設けられており、かかる突出部には表示部160が配置されている。表示部160は、例えば液晶パネルを含む表示部であり、移動ロボット100の種々の情報を表示する。表示部160には、ユーザからの操作を受け付けるタッチパネルが重畳されている。
表示部160の傍らにはIDセンサ170が設けられている。IDセンサ170は移動ロボット100を操作するユーザのID(Identification)を識別するものであって、ユーザがそれぞれ所有するIDカードに含まれる固有の識別子を検出する。IDセンサ170は、例えば無線タグの情報読取りをするためのアンテナを含む。ユーザは、IDカードをIDセンサ170に近付けることにより、移動ロボット100に操作者であるユーザのIDを認識させる。
筐体部150の上面にはロボットカメラ180も設置されている。ロボットカメラ180は撮像対象となる領域に対向する対物レンズおよび撮像対象の画像の画像データを生成するためのイメージセンサ等が含まれる。ロボットカメラ180は、移動ロボット100の上方を撮像するように設置されている。これにより移動ロボット100は、例えば移動している建物の天井を撮像できる。天井に場所を特定するための表示がされている場合、移動ロボットは天井の表示を撮影して表示に含まれる情報を認識できる。
次に、図3を参照しながら制御システム10のシステム構成について説明する。図3は、制御システム10のブロック図である。制御システム10は、主な構成として、移動ロボット100、サーバ500およびカメラ600を有している。
以下に、移動ロボット100のシステム構成について説明する。移動ロボット100は主な構成として、ロボット制御部110、距離センサ群120、駆動部130、操作受付部140、表示部160、IDセンサ170、ロボットカメラ180および記憶部190を有している。
ロボット制御部110は、CPU(Central Processing Unit)等の演算装置を有する情報処理装置である。ロボット制御部110は、ロボット制御部110が有するハードウェアと、当該ハードウェアに格納されたプログラムとを含む。すなわち、ロボット制御部110が実行する処理は、ハードウェアまたはソフトウェアのいずれかにより実現される。
ロボット制御部110は、移動ロボット100の各構成に接続し、種々の動作を制御する。例えばロボット制御部110は、移動ロボット100が所定のタスクを実行することについての命令を受け付ける。また、ロボット制御部110は、各構成から種々の情報を取得して、取得した情報に応じて各構成に指示をする。例えばロボット制御部110は、ロボットカメラ180から取得した位置の情報および距離センサ群120から取得した移動ロボット100の周辺における物体の情報等から、移動ロボット100の位置を検出する。そしてロボット制御部110は、検出した位置から目的地への経路を算出し、算出した経路に応じて駆動部130に対して経路に沿った移動をするための指示をする。このような処理を実行する場合、制御部113は、記憶部190が記憶するフロアマップに関する情報を参照する。
またロボット制御部110は、通信部111を介して受け取ったサーバ500からの指示に従う。例えば、ロボット制御部110は、サーバ500から指示された動作モードにより動作を行う。ロボット制御部110は、サーバ500から動作モードに関する指示を受けた場合、記憶部190に記憶する動作モードデータベースを参照する。
距離センサ群120は、移動ロボット100の周囲の物体との距離データを取得する複数のセンサである。距離センサ群120は、図2に示した前後距離センサ152および左右距離センサ153を含む。距離センサ群120に含まれる各センサは、それぞれが検出した距離データをロボット制御部110に供給する。駆動部130は、ロボット制御部110に接続し、ロボット制御部110からの指示を受けて駆動輪131を駆動させる。
操作受付部140は、ユーザからの入力操作を受け付けて、操作信号をロボット制御部110へ送信する。ユーザからの入力操作を受け付ける手段として、操作受付部140は例えば操作ボタンや、表示部160に重畳されたタッチパネルなどを有する。ユーザは、これらの入力操作手段を操作して、電源のオンまたはオフ、タスクの入力または収納室扉151の開閉操作等を行う。
表示部160は、ロボット制御部110に接続し、ロボット制御部110から受け取った画像データを表示させる。表示部160は、操作受付部140が表示部160に重畳されたタッチパネルによる操作を受け付ける場合には、操作受付部140と連動した表示をする。
IDセンサ170は、ロボット制御部110に接続し、検出した信号をロボット制御部110に供給する。ロボットカメラ180は、ロボット制御部110に接続し、撮像した画像データをロボット制御部110に供給する。
記憶部190は、フラッシュメモリやSSD(Solid State Drive)等の不揮発性メモリを含み、例えば動作モードに関する動作モードデータベースおよびフロアマップを記憶している。記憶部190はロボット制御部110に接続し、ロボット制御部110からの要求に応じて、記憶している情報をロボット制御部110に供給する。
次に、サーバ500のシステム構成について説明する。サーバ500は、主な構成として、演算処理部510、通信部520および記憶部530を有している。演算処理部510は、CPU等の演算装置を有する情報処理装置である。演算処理部510は、演算処理部510が有するハードウェアと、当該ハードウェアに格納されたプログラムとを含む。すなわち、演算処理部510が実行する処理は、ハードウェアまたはソフトウェアのいずれかにより実現される。演算処理部510は、特徴検出部511、分類部512およびシステム制御部513を有している。
特徴検出部511は、カメラ600から画像データを受け取り、受け取った画像データを処理することにより、移動ロボットの周辺に存在する人物の特徴を検出する。特徴検出部511は、検出した人物の特徴に関する情報を分類部512に供給する。
分類部512は、特徴検出部511が検出した人物の特徴に関する情報を受け取り、人物を予め設定された複数のグループに分類する。分類部512は、複数のグループに関する情報を記憶部530に記憶するスタッフ情報から取得する。すなわち分類部512は、記憶部530からスタッフ情報を読み取ると、読み取ったスタッフ情報と、特徴検出部511から受け取った人物の特徴に関する情報とを照合し、画像データに含まれる人物を予め設定された複数のグループに分類する。分類部512は、画像データに含まれる人物を分類すると、分類の結果に関する情報をシステム制御部513に供給する。
本実施の形態にかかる分類部512は、画像データに含まれる人物を第1グループおよび第2グループのいずれかに分類する。第1グループは、病院のスタッフではない人物のグループである。第2グループは、病院のスタッフと認められる人物のグループである。
システム制御部513は、分類部512から分類の結果に関する情報を受け取り、受け取った情報から移動ロボット100の動作を制御する。例えば、システム制御部513は、移動ロボット100の周辺に第1グループに属する人物が存在する場合には第1動作モードを選択する。また、例えば、システム制御部513は、移動ロボット100の周辺に第1グループに属する人物が存在しない場合には第1動作モードと異なる第2動作モードを選択する。そしてシステム制御部513は、上述のように選択した第1動作モードまたは第2動作モードにより移動ロボット100を制御する。なお、第1動作モードおよび第2動作モードの具体例については後述する。
通信部520は、移動ロボット100およびカメラ600とそれぞれ通信可能に接続するインタフェースであり、例えばアンテナおよびアンテナを介して送信する信号の変調または復調を行う回路等により構成される。
記憶部530は、フラッシュメモリやSSD(Solid State Drive)等の不揮発性メモリを含み、例えばスタッフ情報、動作モードデータベースおよびフロアマップを記憶している。記憶部530は演算処理部510に接続し、演算処理部510からの要求に応じて、記憶している情報を演算処理部510に供給する。
スタッフ情報は、画像データに含まれる人物を第1グループまたは第2グループに分類するための情報を含む。動作モードデータベースは、分類部512が処理した分類の結果から移動ロボット100を制御するための情報を含む。なお、スタッフ情報および動作モードデータベースの詳細は後述する。
フロアマップは、移動ロボット100が自律移動をするために使用する施設のフロアマップである。フロアマップには、移動ロボット100が自律移動するルートの候補となる領域の情報、移動ロボット100が通過するチェックポイントに関する情報等が含まれる。
次に、カメラ600のシステム概要について説明する。カメラ600は第1カメラ600Aおよび第2カメラ600Bを有している。以降、カメラ600は、第1カメラ600Aおよび第2カメラ600Bを総称しているものとする。カメラ600は、サーバ500と無線通信可能となっており、撮像することにより生成した画像データを、サーバ500に送信する。カメラ600は、例えば、毎秒30フレーム(30fps)の画像データをサーバに送信する。カメラ600は、第1カメラ600Aおよび第2カメラ600Bに加えてさらにカメラを有していてもよい。
次に、図4を参照して、移動ロボット100の移動経路およびカメラ600の配置の例を説明する。図4は、移動ロボットの経路の例を示す図である。図4は病院の施設である建物900における1フロアの平面図である。建物900は、部屋901、通路902、エレベータホール903を含む。建物900にはエレベータEV1が設置されている。部屋901は通路902およびエレベータホール903を介してエレベータEV1に接続している。
部屋901内の所定の場所にはチェックポイントCP1が設けられている。部屋901の出入り口付近の通路902にはチェックポイントCP2が設けられている。またエレベータホール903の中央部にはチェックポイントCP3が設けられている。チェックポイントCP1~CP3は、移動ロボット100が検出することにより、移動ロボット100が通過または到着したことをサーバ500に通知するための手段である。チェックポイントCP1~CP3は、例えばそれぞれの位置を示す固有の文字情報であり、ロボットカメラ180が文字情報を撮像できるようにそれぞれの位置で天井に固定されている。移動ロボット100は、図3に示すように建物900の部屋901に配置されたチェックポイントCP1の下に位置している。なお、サーバ500は部屋901に設置されている。
通路902およびエレベータホール903の天井面には第1カメラ600Aおよび第2カメラ600Bがそれぞれ設置されている。第1カメラ600Aは二点鎖線により示された撮像範囲800Aを有している。第2カメラ600Bは二点鎖線により示された撮像範囲800Bを有している。また通路902およびエレベータホール903には複数の人物Hがそれぞれ歩行している。
上述の状況において、移動ロボット100は、例えばチェックポイントCP1を出発して、エレベータEV1に搭乗してフロアを移動するように、サーバ500から指示を受ける。この場合、移動ロボット100は、記憶部190に格納しているフロアマップを参照し、上述の指示から以下の移動命令を抽出して移動経路P1を生成する。まず、移動ロボット100は、チェックポイントCP1からチェックポイントCP2に移動する。次に、移動ロボット100は、チェックポイントCP2から通路902を通ってエレベータホール903へ向かい、チェックポイントCP3でエレベータを待つために待機する。そして、移動ロボット100は、エレベータEV1が到着すると、チェックポイントCP3からエレベータEV1に搭乗する。制御システム10は、移動ロボット100が移動経路P1を移動する場合に、移動ロボット100の周辺を撮像して生成された画像データから人物を検出し、検出した人物の態様に応じて動作モードを設定する。
次に、図5を参照して、記憶部530が記憶するスタッフ情報について説明する。スタッフ情報は、スタッフおよび非スタッフをその種別ごとに対応するグループに分類するための情報である。図5は、スタッフ情報の例を示す表である。図5に示す表T10は、記憶部530が記憶するスタッフ情報である。表T10の左の列は、「スタッフカテゴリ」が示されている。スタッフカテゴリの項目は上から「非スタッフ」、「薬剤師」および「看護師」が示されている。スタッフカテゴリの右側の列は、順に「着衣の色」、「グループ分類」および「動作モード」が示されている。
以下にスタッフカテゴリの項目ごとに対応する着衣の色(色調)、グループ分類および動作モードを説明する。「非スタッフ」に対応する着衣の色は「特定できず」である。すなわち、特徴検出部511が画像データから人物を検出した場合に、検出した人物の着衣の色が予め設定されたものに含まれない場合には、特徴検出部511は検出した人物を「非スタッフ」と判定する。また表T10によれば、「非スタッフ」に対応するグループ分類は「第1グループ(N1)」であり、動作モードは「第1動作モード」である。なお、第1動作モードは、「非スタッフモード」とも称される。
制御システム10は、特徴検出部511が検出した人物を非スタッフであると判定した場合は、これを第1グループに属するものと定義する。また、制御システム10は、第1グループには第1動作モード(非スタッフモード)を関連づけている。
次に、「薬剤師」に対応する着衣の色は「黄色」である。すなわち、特徴検出部511は、検出した人物の着衣が黄色であると判定した場合に、検出した人物を「薬剤師」と判定する。また表T10によれば、「薬剤師」に対応するグループ分類は「第2グループ(N2)」であり、動作モードは「第2動作モード」である。なお、第2動作モードは、「スタッフモード」とも称される。
制御システム10は、特徴検出部511が検出した人物を薬剤師であると判定した場合は、これを第2グループに属するものと定義する。また制御システム10は、第2グループには第2動作モード(スタッフモード)を関連づけている。
次に、「看護師」に対応する着衣の色は「紫色」である。すなわち、特徴検出部511は、検出した人物の着衣が紫色であると判定した場合に、検出した人物を「看護師」と判定する。また表T10によれば、「看護師」に対応するグループ分類は「第2グループ(N2)」であり、動作モードは「第2動作モード」である。すなわち、制御システム10は、特徴検出部511が検出した人物を看護師であると判定した場合は、これを第2グループに属するものと定義する。また制御システム10は、第2グループには第2動作モードを関連づけている。
次に、図6を参照して、記憶部530が記憶する動作モードデータベースについて説明する。動作モードデータベースは、定義された動作モードの具体的な態様が関連づけられた情報である。図6は、動作モードの例を示す表である。
図6に示す表T20は記憶部530が記憶する動作モードデータベースの内容を示すものである。表T20は、左の列に「動作カテゴリ」が示されている。動作カテゴリの項目は、「移動速度」および「エレベータ」である。動作カテゴリの右側の列は、動作カテゴリ項目にそれぞれ対応する第1動作モードの仕様が示されている。また第1動作モードの右側の列は、動作カテゴリ項目にそれぞれ対応する第2動作モードの仕様が示されている。
表T20によれば、第1動作モードの移動速度は第1移動速度V1であり、第2動作モードの移動速度は第2移動速度V2である。なお、第1移動速度V1は第2移動速度V2より遅い速度である。すなわち、第1動作モードにおける移動ロボット100は第2移動速度V2より遅い第1移動速度V1で移動する。また、第2動作モードにおける移動ロボット100は第1移動速度V1よりも早い第2移動速度V2で移動する。第1動作モードにおける第1移動速度V1が第2動作モードにおける第2移動速度V2より遅い速度に設定されているのは、第1動作モードにおいては移動ロボット100の周辺に非スタッフが存在するためである。
第1動作モード(非スタッフモード)の移動速度を、第2動作モード(スタッフモード)の移動速度より遅く設定することにより、制御システム10は、移動ロボット100と非スタッフとの衝突を抑制し、より安全に移動ロボット100を運用できる。一方、制御システム10は、第2動作モード(スタッフモード)においては、比較的に移動速度を早く設定して、移動ロボット100の運用効率を上げることができる。
また、表T20によれば、第1動作モードにおいて、移動ロボット100はエレベータに「搭乗不可」であり、第2動作モードにおいて、移動ロボット100はエレベータに「搭乗可」に設定されている。すなわち、制御システム10は、移動ロボット100の周辺に非スタッフが存在する場合には、移動ロボット100をエレベータに搭乗させない。換言すると、第1動作モードにおいて、移動ロボット100は第1移動範囲で移動が可能であり、第2動作モードにおいて、移動ロボット100は第2移動範囲で移動が可能である。この場合、「第1移動範囲」は、エレベータが含まれておらず、「第2移動範囲」は、エレベータが含まれる。したがって、第1移動範囲は第2移動範囲より狭い。
なお、制御システム10は、移動ロボット100の周辺から非スタッフが存在しなくなった後に、動作モードを変更して移動ロボット100をエレベータに搭乗させることができる。このように構成することで、制御システム10は、非スタッフが混在し得る環境下であっても、セキュリティレベルを低下させずに移動ロボット100を運用できる。
次に、図7を参照して、制御システム10が行う処理について説明する。図7は、実施の形態1にかかる制御システムの処理を示すフローチャートである。図7に示すフローチャートは、制御システム10の演算処理部510が行う処理を示している。図7に示すフローチャートは、例えば図4に示した移動ロボット100がチェックポイントCP1からエレベータEV1まで移動するタスクの実行を開始することにより開始される。
まず、演算処理部510は、カメラ600から画像データを取得する(ステップS10)。演算処理部510は、画像データを取得すると、特徴検出部511に取得した画像データを供給する。
次に、特徴検出部511は、受け取った画像データから、画像データに含まれる人物の特徴を検出する(ステップS11)。より具体的には、特徴検出部511は、移動ロボット100の周辺に人物が存在するか否かを検出する。なお、画像データに人物が含まれることを検出する手段は、例えばHOG(Histograms of Oriented Gradients)特徴量や畳み込み処理を含む機械学習など種々の技術が当業者に知られている。そのためここでは詳述を省略する。
次に特徴検出部511は、検出した人物の着衣の色を検出する。さらに詳細には、例えば特徴検出部511は、検出した人物における着衣から、特定の色の面積が占める割合を算出する。あるいは、特徴検出部511は、検出した人物における着衣から、特定の部分における着衣の色を検出する。このようにして、特徴検出部511は、スタッフの着衣に特徴的な部分を抽出する。そして、特徴検出部511は、抽出した情報を分類部512に供給する。
次に、分類部512は、特徴検出部511から受け取った情報と、記憶部530が記憶するスタッフ情報とから、検出した人物を分類する(ステップS12)。分類部512は、分類の結果を、システム制御部513に供給する。
次に、システム制御部513は、分類部512から受け取った分類の結果と、記憶部530に記憶する動作モードデータベースとから、動作モードを選択する(ステップS13)。
次に、システム制御部513は、選択した動作モードを用いて移動ロボット100に指示を出す(ステップS14)。例えばシステム制御部513は、移動ロボット100に移動速度を指示する。あるいはシステム制御部513は、移動ロボット100にエレベータに搭乗可か否かを指示する。
次に、演算処理部510は、一連の処理が終了か否かを判定する(ステップS15)。一連の処理が終了と判定しない場合(ステップS15:No)、演算処理部510は、ステップS10に戻り、処理を繰り返す。一方、一連の処理が終了と判定した場合(ステップS15:Yes)、演算処理部510は、処理を終了させる。
次に上述のステップS13における処理の詳細を図8に示す。図8は、実施の形態1にかかる動作モード選択処理の例を示す図である。図8に示すフローチャートは、システム制御部513が行う処理を示している。
まず、システム制御部513は、移動ロボット100の周辺に存在する第1グループの人物の数(N1)が1以上か否かを判定する(ステップS130)。N1≧1と判定しない場合(ステップS130:No)、システム制御部513は、動作モードとして第2動作モード(スタッフモード)を選択する(ステップS132)。一方、N1≧1と判定した場合(ステップS130:Yes)、システム制御部513は、動作モードとして第1動作モード(非スタッフモード)を選択する(ステップS131)。
以上、制御システム10が行う処理について説明した。制御システム10は、上述の処理により、移動ロボットの周辺に存在する人物に応じて、移動ロボットの動作モードを制御する。
以上、実施の形態1について説明したが、実施の形態1にかかる制御システム10は、上述の構成に限られない。例えば、制御システム10が有するカメラ600は、移動ロボット100の周辺を撮像する撮像範囲が互いに重なり合っていてもよい。この場合、演算処理部510は、複数のカメラ600から移動ロボット100の周辺を撮像した画像データを処理することにより、動作モードを選択してもよい。このような構成により、制御システム10は、移動ロボット100の周辺を死角なく撮像し、好適に動作モードを選択できる。
また、制御システム10は、カメラ600と、移動ロボット100が有するカメラとから画像データを取得することにより、移動ロボット100の周辺に存在する人物を検出してもよい。また、制御システム10は、カメラ600に代えて、移動ロボット100が有するカメラを用いて、移動ロボット100の周辺に存在する人物を検出してもよい。
また、制御システム10は、動作モードとして、エレベータに加えて、またはエレベータに代えて、自動ドアの開閉が可能かどうかを設定するものであってもよい。これにより、制御システム10は、非スタッフとスタッフとが混在する環境下において、セキュリティレベルの低下を抑制できる。
また、制御システム10は、動作モードとして、例えば、移動中の安全距離を設定するものであってもよい。あるいは、制御システム10は、動作モードとして、周辺の人物にたいする警告音の内容や音量を設定するものであってもよい。これにより、制御システム10は、移動ロボット100の周辺に存在する人物の態様に応じて、自律移動における安全基準を設定できる。
制御システム10は、スタッフと非スタッフとを分類するための特徴検出の方法として、検出した人物の着衣に加えて、または検出した人物の着衣に代えて、検出した人物が装着している帽子、ヘルメット、ゴーグル、眼鏡、スカーフ、腕章、鞄、靴などを利用してもよい。
以上、実施の形態1によれば、周辺環境に応じて移動ロボットの動作を好適に設定する制御システム等を提供することができる。
<実施の形態2>
次に、実施の形態2について説明する。実施の形態2にかかる制御システム10は、システム制御部の処理が実施の形態1と異なる。システム制御部513は、移動ロボット100の周辺において第1グループに属する人物が存在しない場合(N1=0)であって、移動ロボットの周辺に第2グループに属する人物が予め設定された密度より高く存在する場合には、第2動作モードと異なる第3動作モードを選択する。
図9を参照して、実施の形態2にかかる動作モードデータベースについて説明する。図9は、実施の形態2にかかる動作モードの例を示す表である。
図9に示す表T30は記憶部530が記憶する動作モードデータベースの内容を示すものである。表T30は、図6において説明した内容に加えて、右の列に、「第3動作モード(第2スタッフモード)」が示されている。第3動作モードは、移動速度が第2移動速度V2より遅い第1移動速度V1に設定されている。一方、第3動作モードは、エレベータは搭乗可である。すなわち、第3動作モードは、スタッフモードでありながら、移動速度が比較的に遅い。これにより、制御システム10は、移動ロボット100の周辺にスタッフが多い場合に、移動ロボット100とスタッフとの接触を抑制する。
次に、図10を参照して、実施の形態2における動作モード選択処理について説明する。図10は、実施の形態2にかかる動作モード選択処理の例を示す図である。図10に示すフローチャートは、システム制御部513が行う処理を示している。また図10に示すフローチャートは、図8において説明した実施の形態1にかかる処理に代えて、実行されるものである。
まず、システム制御部513は、移動ロボット100の周辺に存在する第1グループの人物の数(N1)が1以上か否かを判定する(ステップS230)。N1≧1と判定しない場合(ステップS230:No)、システム制御部513は、ステップS232に進む。一方、N1≧1と判定した場合(ステップS230:Yes)、システム制御部513は、第1動作モードを選択して(ステップS231)、選択処理を終了する。
ステップS232において、システム制御部513は、移動ロボット100の周辺に存在する第2グループの人数(N2)が予め設定された閾値(Nth)より多いか否かを判定する(ステップS232)。N2>Nthと判定した場合(ステップS232:Yes)、システム制御部513は、第2動作モードを選択して(ステップS233)、選択処理を終了する。一方、N2>Nthと判定しない場合(ステップS232:No)、システム制御部513は、第3動作モードを選択して(ステップS234)、処理を終了する。
以上、実施の形態2について説明した。実施の形態2にかかる制御システム10は、スタッフモードをさらに分類できる。よって、実施の形態2によれば、周辺環境に応じて移動ロボットの動作をより細かく設定する制御システム等を提供することができる。
なお、上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、本発明は、レストラン、ホテル、イベントスペース、オフィスまたは特定のサービス提供スペース等において、スタッフと非スタッフとが混在する環境において利用できる。
10 制御システム
100 移動ロボット
110 ロボット制御部
111 通信部
120 距離センサ群
130 駆動部
131 駆動輪
132 キャスター
140 操作受付部
150 筐体部
151 収納室扉
152 前後距離センサ
153 左右距離センサ
160 表示部
170 IDセンサ
180 ロボットカメラ
190 記憶部
500 サーバ
510 演算処理部
511 特徴検出部
512 分類部
513 システム制御部
520 通信部
530 記憶部
600 カメラ
600A 第1カメラ
600B 第2カメラ
800A、800B 撮像範囲
900 建物
901 部屋
902 通路
903 エレベータホール

Claims (8)

  1. 予め設定された施設を自律移動する移動ロボットの動作モードを制御する制御システムであって、
    移動ロボットの周辺に存在する人物の着衣の特徴を検出する特徴検出部と、
    前記着衣の特徴に基づいて前記人物を前記施設の非スタッフである第1グループまたは前記施設のスタッフである第2グループに分類する分類部と、
    前記移動ロボットの周辺に前記第1グループに属する前記人物が存在する場合には第1動作モードを選択し、前記移動ロボットの周辺に前記第1グループに属する前記人物が存在しない場合には前記第1動作モードと異なる第2動作モードを選択して前記移動ロボットを制御するシステム制御部と、を備え
    前記システム制御部は、
    前記第2動作モードにおける前記移動ロボットの第2移動速度を前記第1動作モードにおける第1移動速度よりも速い速度に設定するとともに、前記第1動作モードにおいて前記移動ロボットをエレベータに搭乗不可と設定し、前記第2動作モードにおいて、前記移動ロボットを前記エレベータに搭乗可と設定し、
    前記移動ロボットの周辺において前記第1グループに属する前記非スタッフが存在しない場合であって、前記移動ロボットの周辺に前記第2グループに属する前記スタッフが予め設定された密度より高く存在する場合には、移動速度を前記第2移動速度より遅く設定するとともに前記エレベータを搭乗可と設定する前記第2動作モードと異なる第3動作モードを選択する、
    制御システム。
  2. 前記移動ロボットの周辺を撮像して画像データを生成するカメラをさらに備え、
    前記特徴検出部は、前記カメラが生成した前記画像データから前記着衣の特徴を検出する
    請求項1に記載の制御システム。
  3. 前記カメラは、前記移動ロボットの周辺を撮像するように前記移動ロボットから離間した位置に設けられている
    請求項2に記載の制御システム。
  4. 前記特徴検出部は、前記人物の前記着衣の予め設定された部分における色調を検出し
    前記分類部は、前記色調に応じて前記人物を分類する
    請求項3に記載の制御システム。
  5. 前記システム制御部が選択する前記第1動作モードにおける前記移動ロボットの第1移動範囲は、前記第2動作モードにおける第2移動範囲よりも狭い
    請求項1~4のいずれか一項に記載の制御システム。
  6. 前記特徴検出部が検出する前記移動ロボットの周辺は、前記移動ロボットが存在する位置に応じて範囲が予め設定されている
    請求項1~5のいずれか一項に記載の制御システム。
  7. 予め設定された施設を自律移動する移動ロボットの動作モードを制御する制御方法であって、
    移動ロボットの周辺に存在する人物の着衣の特徴を検出する特徴検出ステップと、
    前記着衣の特徴に基づいて前記人物を予め設定された前記施設の非スタッフである第1グループまたは前記施設のスタッフである第2グループに分類する分類ステップと、
    前記移動ロボットの周辺に前記第1グループに属する前記人物が存在する場合には第1動作モードを選択し、前記移動ロボットの周辺に前記第1グループに属する前記人物が存在しない場合には前記第1動作モードと異なる第2動作モードを選択して前記移動ロボットを制御する制御ステップと、を備え
    前記制御ステップは、
    前記第2動作モードにおける前記移動ロボットの第2移動速度を前記第1動作モードにおける第1移動速度よりも速い速度に設定するとともに、前記第1動作モードにおいて前記移動ロボットをエレベータに搭乗不可と設定し、前記第2動作モードにおいて、前記移動ロボットを前記エレベータに搭乗可と設定し、
    前記移動ロボットの周辺において前記非スタッフが存在しない場合であって、前記移動ロボットの周辺に前記スタッフが予め設定された密度より高く存在する場合には、移動速度を前記第2移動速度より遅く設定するとともに前記エレベータを搭乗可と設定する前記第2動作モードと異なる第3動作モードを選択する、
    制御方法。
  8. 予め設定された施設を自律移動する移動ロボットの動作モードを制御する制御方法であって、
    移動ロボットの周辺に存在する人物の着衣の特徴を検出する特徴検出ステップと、
    前記着衣の特徴に基づいて前記人物を予め設定された前記施設の非スタッフである第1グループまたは前記施設のスタッフである第2グループに分類する分類ステップと、
    前記移動ロボットの周辺に前記第1グループに属する前記人物が存在する場合には第1動作モードを選択し、前記移動ロボットの周辺に前記第1グループに属する前記人物が存在しない場合には前記第1動作モードと異なる第2動作モードを選択して前記移動ロボットを制御する制御ステップと、を備え
    前記制御ステップは、
    前記第2動作モードにおける前記移動ロボットの第2移動速度を前記第1動作モードにおける第1移動速度よりも速い速度に設定するとともに、前記第1動作モードにおいて前記移動ロボットをエレベータに搭乗不可と設定し、前記第2動作モードにおいて、前記移動ロボットを前記エレベータに搭乗可と設定し、
    前記移動ロボットの周辺において前記非スタッフが存在しない場合であって、前記移動ロボットの周辺に前記スタッフが予め設定された密度より高く存在する場合には、移動速度を前記第2移動速度より遅く設定するとともに前記エレベータを搭乗可と設定する前記第2動作モードと異なる第3動作モードを選択する、
    制御方法を、コンピュータに実行させるプログラム。
JP2019212383A 2019-11-25 2019-11-25 制御システム、制御方法およびプログラム Active JP7243592B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019212383A JP7243592B2 (ja) 2019-11-25 2019-11-25 制御システム、制御方法およびプログラム
US17/096,183 US11657634B2 (en) 2019-11-25 2020-11-12 Control system, control method, and program
CN202011312269.5A CN112947402B (zh) 2019-11-25 2020-11-20 控制系统、控制方法及程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019212383A JP7243592B2 (ja) 2019-11-25 2019-11-25 制御システム、制御方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2021086199A JP2021086199A (ja) 2021-06-03
JP7243592B2 true JP7243592B2 (ja) 2023-03-22

Family

ID=75973921

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019212383A Active JP7243592B2 (ja) 2019-11-25 2019-11-25 制御システム、制御方法およびプログラム

Country Status (3)

Country Link
US (1) US11657634B2 (ja)
JP (1) JP7243592B2 (ja)
CN (1) CN112947402B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021157530A (ja) * 2020-03-27 2021-10-07 本田技研工業株式会社 自律作業機、自律作業設定方法、およびプログラム
JP2023097819A (ja) 2021-12-28 2023-07-10 トヨタ自動車株式会社 制御システム、制御方法、及びプログラム
JP7201122B1 (ja) * 2022-06-14 2023-01-10 三菱電機株式会社 ビルシステム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008200770A (ja) 2007-02-16 2008-09-04 Toshiba Corp ロボットおよびその制御方法
JP2013131100A (ja) 2011-12-22 2013-07-04 Univ Of Electro-Communications 人数予測方法、人数予測装置、移動ロボット及びプログラム
JP2018156597A (ja) 2017-03-21 2018-10-04 株式会社東芝 情報処理装置、プログラム、及び情報処理方法
JP2019139716A (ja) 2018-02-15 2019-08-22 パナソニック株式会社 移動体管理装置、移動体管理システム、および移動体管理方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE418451T1 (de) * 1998-06-18 2009-01-15 Kline & Walker L L C Automatische vorrichtung zur überwachung von auf abstand zu bedienende ausrüstungen und maschinen weltweit anwendbar
WO2007047514A2 (en) 2005-10-14 2007-04-26 Aethon, Inc. Robotic retrieval and delivery system
CN101618542A (zh) * 2009-07-24 2010-01-06 塔米智能科技(北京)有限公司 一种智能机器人迎宾系统和方法
KR101578881B1 (ko) * 2014-03-11 2015-12-18 에브리봇 주식회사 로봇 청소기 및 그의 제어 방법
JP6203696B2 (ja) * 2014-09-30 2017-09-27 富士ソフト株式会社 ロボット
US20180364045A1 (en) * 2015-01-06 2018-12-20 Discovery Robotics Robotic platform with mapping facility
WO2017086108A1 (ja) * 2015-11-16 2017-05-26 大日本印刷株式会社 情報提示装置、情報提示方法、プログラム、情報処理装置及び案内ロボット制御システム
US11445152B2 (en) * 2018-08-09 2022-09-13 Cobalt Robotics Inc. Security automation in a mobile robot
KR102565823B1 (ko) * 2016-05-30 2023-08-10 엘지전자 주식회사 이동 로봇 및 그 이동 로봇의 제어 방법
JP6844124B2 (ja) * 2016-06-14 2021-03-17 富士ゼロックス株式会社 ロボット制御システム
CN108734059B (zh) * 2017-04-18 2022-02-11 深圳市丰巨泰科电子有限公司 室内移动机器人物体识别方法
US20200273345A1 (en) * 2019-02-26 2020-08-27 Aptiv Technologies Limited Transportation system and method
CN110355760B (zh) * 2019-07-11 2022-03-18 天津捷强动力装备股份有限公司 特种机器人自主返航控制方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008200770A (ja) 2007-02-16 2008-09-04 Toshiba Corp ロボットおよびその制御方法
JP2013131100A (ja) 2011-12-22 2013-07-04 Univ Of Electro-Communications 人数予測方法、人数予測装置、移動ロボット及びプログラム
JP2018156597A (ja) 2017-03-21 2018-10-04 株式会社東芝 情報処理装置、プログラム、及び情報処理方法
JP2019139716A (ja) 2018-02-15 2019-08-22 パナソニック株式会社 移動体管理装置、移動体管理システム、および移動体管理方法

Also Published As

Publication number Publication date
US20210157318A1 (en) 2021-05-27
CN112947402B (zh) 2024-05-17
CN112947402A (zh) 2021-06-11
US11657634B2 (en) 2023-05-23
JP2021086199A (ja) 2021-06-03

Similar Documents

Publication Publication Date Title
JP7243592B2 (ja) 制御システム、制御方法およびプログラム
US20190374411A1 (en) Patient support apparatuses with navigation and guidance systems
US11584017B2 (en) Conveyance system, trained model generation method, trained model, control method, and program
JP7484761B2 (ja) 制御システム、制御方法、及びプログラム
US20210403282A1 (en) Passenger guidance device and passenger guidance method
JP7484758B2 (ja) ロボット制御システム
US20220194737A1 (en) Autonomous mobile system, autonomous mobile method, and autonomous mobile program
JP7468338B2 (ja) 自律移動システム、自律移動方法及び自律移動プログラム
JP2022100904A (ja) ロボット制御システム、ロボット制御方法、及び、制御プログラム
US12032384B2 (en) Robot control system, robot control method, and control program
US20220253069A1 (en) Robot control system, robot control method, and control program
JP2022038520A (ja) 移動ロボット制御システム
JP7494746B2 (ja) 自律移動システム、自律移動方法及び自律移動プログラム
US20230236601A1 (en) Control system, control method, and computer readable medium
CN114852809B (zh) 自主移动系统、自主移动方法和存储介质
US20230364784A1 (en) Control system, control method, and storage medium
US12032387B2 (en) Autonomous mobile robot, autonomous mobile method, and storage medium
KR102652022B1 (ko) 고객의 열차 탑승을 위한 길 안내용 로봇 및 시스템
US11815883B2 (en) Conveyance system, conveyance method, and program
US20230368517A1 (en) Control system, control method, and storage medium
US20220204268A1 (en) Management system, management method, and program
US20230150132A1 (en) Robot control system, robot control method, and program
JP2023097819A (ja) 制御システム、制御方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230220

R151 Written notification of patent or utility model registration

Ref document number: 7243592

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151