WO2020241425A1 - ロボット装置 - Google Patents

ロボット装置 Download PDF

Info

Publication number
WO2020241425A1
WO2020241425A1 PCT/JP2020/020004 JP2020020004W WO2020241425A1 WO 2020241425 A1 WO2020241425 A1 WO 2020241425A1 JP 2020020004 W JP2020020004 W JP 2020020004W WO 2020241425 A1 WO2020241425 A1 WO 2020241425A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
auxiliary
robot
target
arm
Prior art date
Application number
PCT/JP2020/020004
Other languages
English (en)
French (fr)
Inventor
承夏 梁
洋貴 鈴木
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2020241425A1 publication Critical patent/WO2020241425A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A62LIFE-SAVING; FIRE-FIGHTING
    • A62BDEVICES, APPARATUS OR METHODS FOR LIFE-SAVING
    • A62B99/00Subject matter not provided for in other groups of this subclass
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices

Definitions

  • the route determination unit 56 determines the route to the auxiliary target 2 recognized by the object recognition unit 53 based on the estimation result of the position estimation unit 51, the detection result of the object detection unit 52, and the recognition result of the object recognition unit 53. To do.
  • the fall prediction unit 57 predicts the fall trajectory of the object detected by the object detection unit 52 based on the detection result of the object detection unit 52 and the recognition result of the object recognition unit 53.
  • the action determination unit 58 determines whether or not the robot 10 needs to perform an auxiliary operation on the auxiliary target 2 based on the recognition result of the object recognition unit 53 and the detection result of the shaking detection unit 54.
  • the processing unit 50 controls the information presentation unit 40 so as to present the auxiliary information to the auxiliary target 2 based on the determination result of the action determination unit 58.
  • the processing unit 50 controls the information presenting unit 40 to present auxiliary information based on the determination result of the action determining unit 58 (“Y”). Step S105). Specifically, the processing unit 50 controls the speaker 41 so as to output an alarm sound and voice information indicating that an earthquake has occurred based on the determination result of the action determination unit 58, and an earthquake has occurred.
  • the display 42 is controlled so as to display a message indicating that the message is being displayed. As a result, the information presentation unit 40 presents the auxiliary information to the auxiliary target 2.
  • FIG. 5B shows an operation example of the protection operation OP2 in step S120 shown in FIG. 5A.
  • FIG. 10A shows an example of an auxiliary operation including the protection operation OP3.
  • the processing of steps S101 to S108, S110, and S111 is the same as that of the first operation example (FIG. 4).
  • step S108 when the assisted object 2 is near the robot 10 (“Y” in step S108), the action determination unit 59 performs the protection operation OP3 by the robot 10 based on the determination result of the action determination unit 58. (Step S130).
  • the action determination unit 58 is assisted by the robot 10 based on the recognition result of the object recognition unit 53. It is determined whether the target 2A needs to be protected from the fallen object 4 (step S135A).
  • the action determination unit 59 determines the operation content of the arm unit 11 based on the determination result of the action determination unit 58.
  • the motion control unit 60 controls the arm unit 11 so as to protect the auxiliary target 2A from the fallen object 4 in the same manner as in step S136 (step S136A).
  • the shaking detection unit 54B is configured to detect the degree of shaking based on the information about the acceleration of the robot 10B received by the communication unit 83B.
  • the microphone 23D detects the sound
  • the shaking detection unit 54D detects the degree of shaking based on the sound detected by the microphone 23D. Then, the action determination unit 58 determines whether or not an earthquake has occurred based on the detection result of the shaking detection unit 54D.
  • the communication unit 61E receives earthquake information by communicating with a server (not shown).
  • the shaking detection unit 54E detects the degree of shaking based on the earthquake information received by the communication unit 61E. Then, the action determination unit 58 determines whether or not an earthquake has occurred based on the detection result of the shaking detection unit 54E.
  • the position P of the robot 10 is estimated based on the captured image PIC generated by the camera 22 and the acceleration of the robot 10 detected by the acceleration sensor 21, but the present invention is not limited to this. Instead of this, for example, the position P of the robot 10 may be further detected based on the detection result of the distance measuring sensor.
  • the robot 10F according to this modification will be described below.
  • the processing unit 50F has a position estimation unit 51F and an object detection unit 52F.
  • the position estimation unit 51F estimates the position P of the robot 10F based on the captured image PIC generated by the camera 22, the acceleration of the robot 10F detected by the acceleration sensor 21, and the distance information generated by the distance measuring sensor 25F. It is composed. Specifically, the position estimation unit 51F estimates the position P of the robot 10F by generating three-dimensional map data indicating the environment around the robot 10F based on the captured image PIC. Further, the position estimation unit 51F calculates the movement amount of the robot 10F by integrating the acceleration of the robot 10F detected by the acceleration sensor 21 twice. Then, the position estimation unit 51F corrects the position P of the robot 10F based on the calculated movement amount of the robot 10 and the distance information generated by the distance measuring sensor 25F.
  • Second Embodiment> Next, the robot 210 according to the second embodiment will be described.
  • the robot 210 determines the candidate with the highest priority among the candidates for the auxiliary target 2 as the auxiliary target 2, and performs an auxiliary operation for assisting the auxiliary target 2. Configured to do.
  • the same components as those of the robot 10 according to the first embodiment are designated by the same reference numerals, and the description thereof will be omitted as appropriate.
  • FIG. 20 shows a configuration example of the robot 210.
  • the robot 210 has a sensor unit 20, a battery 30, an information presentation unit 40, and a processing unit 250.
  • the action determination unit 258 determines whether or not there is a candidate for the auxiliary target 2 based on the recognition result of the object recognition unit 53 (step S202). If there is no candidate for the auxiliary target 2 (“N” in step S202), the process returns to the process of step S201.
  • the priority estimation unit 261A has the attribute information of each part of the auxiliary target 2 based on the recognition result of the object recognition unit 53. Is collated with the priority information 262A to estimate the priority of the part of the auxiliary target 2 (step S205A).
  • the robot 310 according to the third embodiment will be described.
  • the robot 310 is configured to perform an auxiliary operation to assist the auxiliary target 2 in the event of a fire.
  • the same components as those of the robot 10 according to the first embodiment are designated by the same reference numerals, and the description thereof will be omitted as appropriate.
  • the robot 310 has an arm portion 311, a moving device 14, and a housing 315, as in the robot 10 (FIG. 1) according to the first embodiment.
  • the arm portion 311 is configured to perform an auxiliary operation to assist the auxiliary target 2 in the event of a fire, for example.
  • the housing 315 is configured to accommodate various electronic circuits and electronic components, which will be described later, and to support the arm portion 311.
  • the arm portion in the event of a fire, supplies the evacuation aid to the assistance target, so that the assistance target can be appropriately assisted.
  • the battery control unit 455 is configured to control the battery 30 and monitor the remaining amount of the battery 30, the temperature of the battery 30, and the like.
  • the motion control unit 460 is configured to control the motion of the arm unit 311 and the moving device 14 based on the determination result of the action determination unit 459.
  • the arm portion 11 has two arms, the arm 12 and the arm 13, but instead, for example, it may have one or three or more arms. Good.
  • the robot device wherein the protection operation includes moving the first protection arm so that the first protection arm protects the auxiliary object.
  • the determination unit can determine the operation of the first arm mechanism so that the first protection arm is arranged in the vicinity of the auxiliary target.
  • the determination unit selects and selects the auxiliary target candidate having a high priority among the plurality of auxiliary target candidates as the auxiliary target.
  • the robot device according to (4) or (5), wherein the operation of the first arm mechanism can be determined so as to preferentially protect the auxiliary object.
  • the robot device according to (10) or (11), wherein the detection unit can detect the emergency based on the emergency information.
  • the auxiliary device further has a moving mechanism capable of moving the robot device.
  • the robot device according to any one of (3) to (14), wherein the protection operation includes moving the moving mechanism so that the robot device approaches the auxiliary target.
  • the determination unit can determine the route to the auxiliary target based on the environmental information around the robot device, and can determine the operation of the movement mechanism based on the route (15).
  • the auxiliary device further includes a presentation unit that presents information to the auxiliary target.
  • the robot device according to any one of (1) to (16) above, wherein the auxiliary operation includes the presentation unit presenting auxiliary information to the auxiliary target.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

本開示のロボット装置は、検出された緊急事態に基づいて、補助対象を補助する補助動作を行うことが可能な補助装置と、補助動作を補助装置に行わせるように制御可能な制御部とを備える。

Description

ロボット装置
 本開示は、補助対象を補助するロボット装置に関する。
 ロボット装置には、ロボットアームなどのロボット機構部を用いて、人などの補助対象を補助する動作を行うものがある。例えば、特許文献1には、ロボット機構部を用いて人を遮ることにより、作業空間を確保する作業用ロボット装置が開示されている。
国際公開第2006/043396号
 ところで、ロボット装置では、緊急事態において補助対象を補助することが望まれており、適切に補助対象を補助することが期待されている。
 緊急事態において補助対象を補助できるロボット装置を提供することが望ましい。
 本開示の一実施の形態におけるロボット装置は、検出された緊急事態に基づいて、補助対象を補助する補助動作を行うことが可能な補助装置と、補助動作を補助装置に行わせるように制御可能な制御部とを備える。
 本開示の一実施の形態におけるロボット装置では、検出された緊急事態に基づいて、補助装置の動作が制御され、補助装置により、補助対象を補助する補助動作が行われる。
第1の実施の形態に係るロボットの一構成例を表す説明図である。 図1に示したロボットの一構成例を表すブロック図である。 図1に示したロボットの補助動作の一例を表す説明図である。 図1に示したロボットの一動作例を表すフローチャートである。 図1に示したロボットの一動作例を表す他のフローチャートである。 図1に示したロボットの一動作例を表す他のフローチャートである。 図1に示したロボットの補助動作の一例を表す他の説明図である。 図1に示したロボットの補助動作の一例を表す他の説明図である。 図1に示したロボットの補助動作の一例を表す他の説明図である。 図1に示したロボットの補助動作の一例を表す他の説明図である。 図1に示したロボットの一動作例を表す他のフローチャートである。 図1に示したロボットの一動作例を表す他のフローチャートである。 図1に示したロボットの一動作例を表す他のフローチャートである。 図1に示したロボットの補助動作の一例を表す他の説明図である。 図1に示したロボットの一動作例を表す他のフローチャートである。 図1に示したロボットの一動作例を表す他のフローチャートである。 図1に示したロボットの補助動作の一例を表す他の説明図である。 図1に示したロボットの補助動作の一例を表す他の説明図である。 第1の実施の形態の変形例に係るロボットシステムの一構成例を表すブロック図である。 第1の実施の形態の他の変形例に係るロボットの一構成例を表すブロック図である。 第1の実施の形態の他の変形例に係るロボットの一構成例を表すブロック図である。 第1の実施の形態の他の変形例に係るロボットの一構成例を表すブロック図である。 第1の実施の形態の他の変形例に係るロボットの一構成例を表すブロック図である。 第2の実施の形態に係るロボットの一構成例を表すブロック図である。 図20に示したロボットの補助動作の一例を表す説明図である。 図20に示したロボットの一動作例を表すフローチャートである。 第2の実施の形態の変形例に係るロボットの一構成例を表すブロック図である。 図23に示したロボットの補助動作の一例を表す説明図である。 図23に示したロボットの一動作例を表すフローチャートである。 第3の実施の形態に係るロボットの一構成例を表すブロック図である。 図26に示したロボットの一動作例を表すフローチャートである。 図26に示したロボットの補助動作の一例を表す説明図である。 図26に示したロボットの補助動作の一例を表す他の説明図である。 図26に示したロボットの補助動作の一例を表す他の説明図である。 第3の実施の形態の変形例に係るロボットの一構成例を表すブロック図である。 第3の実施の形態の他の変形例に係るロボットの一構成例を表すブロック図である。 第3の実施の形態の他の変形例に係るロボットの一構成例を表すブロック図である。 第3の実施の形態の他の変形例に係るロボットの一構成例を表すブロック図である。 第4の実施の形態に係るロボットの一構成例を表すブロック図である。 図35に示したロボットの一動作例を表すフローチャートである。 図35に示したロボットの補助動作の一例を表す説明図である。 図35に示したロボットの補助動作の一例を表す他の説明図である。 第5の実施の形態に係るロボットの一構成例を表すブロック図である。 図39に示したロボットの一動作例を表すフローチャートである。 図39に示したロボットの補助動作の一例を表す説明図である。
 以下、本開示の実施の形態について、図面を参照して詳細に説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(地震が発生した場合に落下物などから補助対象を保護する例)
2.第2の実施の形態(地震が発生した場合に落下物などから補助対象を保護する例)
3.第3の実施の形態(火災や地震が発生した場合に補助対象を補助する例)
4.第4の実施の形態(バッテリの残量が少ない場合にバッテリ交換を促す例)
5.第5の実施の形態(バッテリの残量に応じて補助動作を制御する例)
<1.第1の実施の形態>
[構成例]
 図1は、第1の実施の形態に係るロボット装置(ロボット10)の一構成例を表すものである。ロボット10は、地震が発生した場合において、補助対象2の近くに移動する移動動作と、例えば落下物や転倒物から補助対象2を保護する保護動作とを含む補助動作を行うように構成される。補助対象2は、例えば人物や動物などロボット10が補助する対象であり、この例では、補助対象2は人物である。落下物は、ロボット10の周囲に存在する物体のうち、地震の揺れにより自重方向に落下する物体であり、例えば本や置物などである。転倒物は、ロボット10の周囲に存在する物体のうち、地震の揺れにより転倒する物体であり、例えば、本棚や食器棚などである。ロボット10は、アーム部11と、移動装置14と、筺体15とを有する。
 アーム部11は、補助対象2に向かって落下する落下物や、補助対象2に向かって転倒する転倒物から補助対象2を保護する保護動作を行うように構成される。アーム部11は、アーム12,13を有する。この例では、アーム12,13は、多自由度のシリアルリンク機構により構成される。なお、これに限定されるものではなく、パラレルリンク機構などの様々な機構により構成されるようにしてもよい。
 アーム12は、保護アーム12Aと、リンク機構12Bとを有する。保護アーム12Aは、補助対象2の近傍に配置されることにより補助対象2を保護するように構成される。保護アーム12Aは、図示しない関節部材を介してリンク機構12Bの一端と接続され、このリンク機構12Bにより支持される。保護アーム12Aは、例えば、高剛性である金属部材を用いて構成される。リンク機構12Bは、保護アーム12Aを支持するとともに、保護アーム12Aを移動させることができるように構成される。リンク機構12Bの一端は、図示しない関節部材を介して保護アーム12Aに接続され、他端は、図示しない関節部材を介して筺体15に接続される。この構成により、アーム12は、保護アーム12Aを補助対象2の近傍に移動させることができるようになっている。
 アーム13は、アーム12と同様に、保護アーム13Aと、リンク機構13Bとを有する。保護アーム13Aは、補助対象2の近傍に配置されることにより補助対象2を保護するように構成される。リンク機構13Bは、保護アーム13Aを支持するとともに、保護アーム12Aを移動させることができるように構成される。
 移動装置14は、ロボット10を移動させることができるように構成される。移動装置14は、例えば、複数の車輪およびこれらの車輪を駆動するモータを用いて構成される。移動装置14は、この例では筺体15の下部に設けられる。
 筺体15は、後述する様々な電子回路や電子部品を収めるとともに、アーム部11を支持するように構成される。
 図2は、ロボット10の一構成例を表すものである。ロボット10は、さらに、センサ部20と、バッテリ30と、情報提示部40と、処理部50とを有する。センサ部20、バッテリ30、情報提示部40、および処理部50は、筺体15に設けられている。
 センサ部20は、ロボット10の周囲の撮像結果である撮像画像PICやロボット10の加速度についての情報(以下、センサ情報INFともいう)を取得するように構成される。センサ部20は、加速度センサ21と、カメラ22とを有する。加速度センサ21は、ロボット10の加速度を検出するように構成される。具体的には、加速度センサ21は、ロボット10が移動したときの加速または減速に応じた加速度や、地震が発生したときの揺れに応じた加速度を検出するようになっている。カメラ22は、ロボット10の周囲すべての方位の物体や人物を撮像することにより撮像画像PICを生成するように構成される。カメラ22は、例えば、光学レンズ、CMOS(Complementary Metal Oxide Semiconductor)撮像素子などを用いて構成される。
 バッテリ30は、電力を蓄えるように構成され、例えば、リチウムイオンバッテリを用いて構成される。ロボット10は、バッテリ30に蓄えられた電力に基づいて動作を行うことができるようになっている。この例では、バッテリ30は筺体15に設けられ、取り外すことができるように構成される。
 情報提示部40は、処理部50からの指示に基づいて、補助対象2を補助する補助情報を補助対象2に提示するように構成される。情報提示部40は、スピーカ41と、ディスプレイ42とを有する。
 スピーカ41は、処理部50からの指示に基づいて、聴覚的情報を出力するように構成される。例えば、スピーカ41は、地震が発生した場合に、補助対象2への注意喚起を促す音などを出力するようになっている。
 ディスプレイ42は、処理部50からの指示に基づいて、視覚的情報を表示するように構成される。例えば、ディスプレイ42は、地震が発生した場合に、その地震についての情報や補助対象2への注意喚起を促す情報などを表示するようになっている。ディスプレイ42は、例えば、液晶ディスプレイや有機EL(electro-luminescence)ディスプレイを用いて構成される。
 処理部50は、センサ情報INFに基づいて、アーム部11、移動装置14、および情報提示部40を制御するように構成される。処理部50は、例えば、プログラムを実行可能なプロセッサを用いて構成される。処理部50は、位置推定部51と、物体検出部52と、物体認識部53と、揺れ検出部54と、バッテリ制御部55と、経路決定部56と、落下予測部57と、行動判定部58と、行動決定部59と、動作制御部60とを有する。
 位置推定部51は、カメラ22が生成した撮像画像PIC、および加速度センサ21が検出したロボット10の加速度に基づいて、ロボット10の位置Pを推定するように構成される。具体的には、位置推定部51は、撮像画像PICに基づいて、ロボット10の周囲を示す三次元マップデータを生成することにより、ロボット10の位置Pの推定を行う。また、位置推定部51は、加速度センサ21が検出したロボット10の加速度を2回積分することによりロボット10の移動量を算出する。そして、位置推定部51は、算出されたロボット10の移動量に基づいて、ロボット10の位置Pを補正するようになっている。
 物体検出部52は、物体認識部53と協調して動作することにより、カメラ22が生成した撮像画像PICに基づいて、周囲の物体や人物の三次元情報を検出するように構成される。ここで、三次元情報は、物体や人物の大きさおよび位置の情報を含んでいる。
 物体認識部53は、カメラ22が生成した撮像画像PICに基づいて、物体や人物を探索することにより、周囲の物体や人物を認識するように構成される。物体認識部53は、例えば、物体を認識した場合には物体の種類などの属性情報を取得し、人物を認識した場合には、その人物の性別や年齢などの属性情報を取得するようになっている。また、属性情報は、人物の部位についての情報を含んでいる。
 揺れ検出部54は、加速度センサ21が検出したロボット10の加速度に基づいて、揺れの度合いを検出するように構成される。
 バッテリ制御部55は、バッテリ30を制御するとともに、バッテリ30の残量やバッテリ30の温度などを監視するように構成される。
 経路決定部56は、位置推定部51の推定結果、物体検出部52の検出結果、および物体認識部53の認識結果に基づいて、物体認識部53により認識された補助対象2の位置までの経路を決定するように構成される。経路決定部56は、物体検出部52により検出された、ロボット10の移動の障害になるおそれのある物体や人物を回避するような経路を決定するようになっている。
 落下予測部57は、物体検出部52の検出結果および物体認識部53の認識結果に基づいて、物体検出部52により検出された物体の落下軌道を予測するように構成される。そして、落下予測部57は、その落下軌道についての情報と、物体認識部53により認識された、その落下軌道の近くにいる人物の位置情報とを含む落下予測情報を生成するようになっている。
 行動判定部58は、物体認識部53の認識結果および揺れ検出部54の検出結果に基づいて、ロボット10が補助対象2に補助動作を行う必要があるかどうかを判定するように構成される。具体的には、行動判定部58は、物体認識部53の認識結果に基づいて、ロボット10が補助すべき対象である補助対象2が存在しているかどうかを判定する。また、行動判定部58は、揺れ検出部54の検出結果に基づいて、地震が発生しているかどうかを判定する。そして、行動判定部58は、補助対象2が存在しており、かつ、地震が発生している場合に、ロボット10が補助対象2に補助動作を行う必要があるかどうかを判定するようになっている。
 行動決定部59は、行動判定部58の判定結果、経路決定部56の決定結果、および落下予測部57の予測結果に基づいて、ロボット10が補助対象2に行うべき補助動作の内容を決定するように構成される。具体的には、行動決定部59は、ロボット10が補助対象2に補助動作を行う必要があると行動判定部58が判定した場合に、経路決定部56が決定した経路に沿って移動装置14がロボット10を移動させることを決定するとともに、行動判定部58の判定結果および落下予測部57の予測結果に基づいて、アーム部11の動作を決定するようになっている。
 動作制御部60は、行動決定部59の決定結果に基づいて、移動装置14およびアーム部11の動作を制御するように構成される。具体的には、動作制御部60は、行動決定部59の決定結果に基づいて、ロボット10が補助対象2の近くまで移動するように移動装置14を制御するとともに、落下物や転倒物から補助対象2を保護するようにアーム部11を制御するようになっている。
 この構成により、地震が発生した場合において、ロボット10では、処理部50は、センサ情報INFに基づいて、ロボット10が補助対象2に補助動作を行う必要があるかどうかを判定し、その判定結果に基づいて、補助情報を補助対象2に提示するように情報提示部40を制御する。そして、処理部50は、センサ情報INFに基づいて、ロボット10が補助対象2に行うべき補助動作の内容を決定し、ロボット10が補助対象2の近くまで移動するように移動装置14を制御するとともに、落下物や転倒物から補助対象2を保護するようにアーム部11を制御する。このようにして、地震が発生した場合には、ロボット10は、補助対象2に補助動作を行うことができるようになっている。
 ここで、アーム部11、移動装置14、および情報提示部40は、本開示における「補助装置」の一具体例に対応する。処理部50は、本開示における「制御部」の一具体例に対応する。物体認識部53は、本開示における「認識部」の一具体例に対応する。位置推定部51、物体検出部52、経路決定部56、落下予測部57、行動判定部58、および行動決定部59は、本開示における「決定部」の一具体例に対応する。センサ部20は、本開示における「環境取得部」の一具体例に対応する。揺れ検出部54および行動判定部
58は、本開示における「検出部」の一具体例に対応する。加速度センサ21は、本開示における「揺れセンサ」の一具体例に対応する。カメラ22は、本開示における「撮像部」の一具体例に対応する。アーム12は、本開示における「第1のアーム機構」の一具体例に対応する。保護アーム12Aは、本開示における「第1の保護アーム」の一具体例に対応する。アーム13は、本開示における「第2のアーム機構」の一具体例に対応する。保護アーム13Aは、本開示における「第2のアーム」の一具体例に対応する。移動装置14は、本開示における「移動機構」の一具体例に対応する。情報提示部40は、本開示における「提示部」の一具体例に対応する。
[動作および作用]
 続いて、本実施の形態のロボット10の動作および作用について説明する。
(全体動作概要)
 まず、図2を参照して、ロボット10の全体動作概要を説明する。地震が発生した場合において、加速度センサ21は、ロボット10の加速度を検出し、カメラ22は、ロボット10の周囲すべての方位の物体や人物を撮像することにより撮像画像PICを生成する。位置推定部51は、撮像画像PICおよびロボット10の加速度に基づいて、ロボット10の位置Pを推定する。物体検出部52は、物体認識部53と協調して動作することにより、撮像画像PICに基づいて、周囲の物体や人物の三次元情報を検出する。物体認識部53は、撮像画像PICに基づいて、物体や人物を探索することにより、周囲の物体や人物を認識する。揺れ検出部54は、ロボット10の加速度に基づいて揺れの度合いを検出する。経路決定部56は、位置推定部51の推定結果、物体検出部52の検出結果、および物体認識部53の認識結果に基づいて、物体認識部53により認識された補助対象2までの経路を決定する。落下予測部57は、物体検出部52の検出結果および物体認識部53の認識結果に基づいて、物体検出部52により検出された物体の落下軌道を予測する。行動判定部58は、物体認識部53の認識結果および揺れ検出部54の検出結果に基づいて、ロボット10が補助対象2に補助動作を行う必要があるかどうかを判定する。処理部50は、行動判定部58の判定結果に基づいて、補助対象2に補助情報を提示するように情報提示部40を制御する。これにより、情報提示部40は、補助情報を補助対象2に提示する。行動決定部59は、行動判定部58の判定結果、経路決定部56の決定結果、および落下予測部57の予測結果に基づいて、ロボット10が補助対象2に行うべき補助動作の内容を決定する。動作制御部60は、行動決定部59の決定結果に基づいて、ロボット10が補助対象2の近くまで移動するように移動装置14を制御するとともに、落下物や転倒物から補助対象2を保護するようにアーム部11を制御する。これにより、移動装置14は、ロボット10を補助対象2の近くまで移動させ、アーム部11は、落下物や転倒物から補助対象2を保護する。
(詳細動作)
 以下に、いくつかの具体例を挙げて、ロボット10の動作について詳細に説明する。
(第1の動作例)
 図3は、第1の動作例に係る保護動作OP1の一例を表すものである。ロボット10は、例えば、補助対象2の周囲にある物体が落下物3として補助対象2に向かって落下するおそれがある場合に、保護アーム12A,13Aを用いて補助対象2を落下物3から保護する保護動作OP1を行う。保護動作OP1では、ロボット10は、保護アーム12A,13Aを補助対象2の上方に配置することにより、補助対象2を落下物3から保護する。例えば、保護アーム12A,13Aは、補助対象2の近傍における、補助対象2の頭部よりも数十センチメートル程度高い位置に配置される。
 図4は、保護動作OP1を含む補助動作の一例を表すものである。まず、ロボット10は、周囲の物体や人物を探索する(ステップS101)。具体的には、加速度センサ21は、ロボット10の加速度を検出し、カメラ22は、ロボット10の周囲すべての方位の物体や人物を撮像することにより撮像画像PICを生成する。位置推定部51は、カメラ22が生成した撮像画像PIC、および加速度センサ21が検出したロボット10の加速度に基づいて、三次元マップデータを生成するとともに、ロボット10の位置Pを推定する。物体検出部52は、撮像画像PICに基づいて、物体や人物の三次元情報を検出する。物体認識部53は、撮像画像PICに基づいて、ロボット10の周囲の物体や人物を探索する。これにより、物体認識部53は、この例では、落下物3および補助対象2を認識する。
 次に、行動判定部58は、物体認識部53の認識結果に基づいて、ロボット10が補助すべき対象である補助対象2が存在するかどうかを判定する(ステップS102)。補助対象2が存在しない場合(ステップS102において“N”)、ステップS101の処理に戻る。
 補助対象2が存在する場合(ステップS102において“Y”)、行動判定部58は、揺れ検出部54の検出結果を確認し(ステップS103)、揺れ検出部54の検出結果に基づいて、地震が発生しているかどうかを判定する(ステップS104)。地震が発生していない場合(ステップS104において“N”)、ステップS101の処理に戻る。
 次に、地震が発生している場合(ステップS104において“Y”)、処理部50は、行動判定部58の判定結果に基づいて、補助情報を提示するように情報提示部40を制御する(ステップS105)。具体的には、処理部50は、行動判定部58の判定結果に基づいて、警報音や、地震が発生している旨の音声情報を出力するようにスピーカ41を制御するとともに、地震が発生している旨のメッセージを表示するようにディスプレイ42を制御する。これにより、情報提示部40は補助情報を補助対象2に提示する。
 次に、行動決定部59は、移動装置14の動作を決定する(ステップS106)。具体的には、まず、経路決定部56は、位置推定部51の推定結果、物体検出部52の検出結果、および物体認識部53の認識結果に基づいて、ロボット10の位置Pから、物体認識部53により認識された補助対象2の位置までの経路を決定する。そして、行動決定部59は、経路決定部56の決定結果および行動判定部58の判定結果に基づいて、経路決定部56が決定した経路に沿って移動装置14がロボット10を移動させることを決定する。
 次に、動作制御部60は、行動決定部59の決定結果に基づいて、ロボット10が補助対象2の近くまで移動するように移動装置14を制御する(ステップS107)。これにより、移動装置14は、ロボット10を補助対象2の近くまで移動させる。
 次に、行動判定部58は、ロボット10が移動した後の物体認識部53の認識結果に基づいて、補助対象2がロボット10の近くに存在するかどうか判定する(ステップS108)。補助対象2が近くに存在しない場合(ステップS108において“N”)には、ステップS107の処理に戻る。
 次に、補助対象2が近くに存在する場合(ステップS108において“Y”)、行動決定部59は、行動判定部58の判定結果に基づいて、ロボット10が保護動作OP1を行うように決定する(ステップS109)。具体的には、動作制御部60は、図3に示したように、補助対象2を落下物3から保護するようにアーム部11を制御する。これにより、アーム部11は、落下物3から補助対象2を保護する。
 次に、行動判定部58は、揺れ検出部54の検出結果を確認し(ステップS110)、揺れ検出部54の検出結果に基づいて、地震が止まったかどうかを判定する(ステップS111)。地震が止まっていない場合(ステップS111において“N”)、ステップS105の処理に戻る。地震が止まった場合(ステップS111において“Y”)、この処理は終了する。以上で、このフローは終了する。
(第2の動作例)
 ロボット10は、例えば、補助対象2の周囲にある物体の落下軌道が予測できた場合に、図3に示したように、保護アーム12A,13Aを用いて補助対象2を落下物3から保護する保護動作OP2を行う。
 図5Aは、保護動作OP2を含む補助動作の一例を表すものである。ステップS101~S108,S110,S111の処理は、第1の動作例(図4)と同様である。ステップS108において、補助対象2がロボット10の近くに存在する場合(ステップS108において“Y”)、行動決定部59は、行動判定部58の判定結果に基づいて、ロボット10が保護動作OP2を行うように決定する(ステップS120)。
 図5Bは、図5Aに示したステップS120における保護動作OP2の一動作例を表すものである。
 まず、落下予測部57は、物体検出部52の検出結果に基づいて、落下予測を行う(ステップS121)。具体的には、落下予測部57は、物体検出部52の検出結果に基づいて、落下物3の落下軌道を予測する。そして、落下予測部57は、その落下軌道についての情報と、物体認識部53により認識された、その落下軌道の近くにいる人物の位置情報とを含む落下予測情報を生成する。
 次に、行動決定部59は、落下予測部57の予測結果に基づいて、落下物3の落下軌道上に補助対象2が存在するかどうかを判定する(ステップS122)。落下物3の落下軌道上に補助対象2が存在しない場合(ステップS122において“N”)、この処理は終了する。
 次に、落下物3の落下軌道上に補助対象2が存在する場合(ステップS122において“Y”)、行動決定部59は、処理部50がアーム部11を動かす制御を行っているかどうかを判定する(ステップS123)。処理部50がアーム部11を動かす制御を行っていない場合(ステップS123において“N”)、ステップS125の処理に進む。
 次に、処理部50がアーム部11を動かす制御を行っている場合(ステップS123において“Y”)、行動決定部59は、行動判定部58の判定結果に基づいて、アーム部11の動作の内容を決定し、動作制御部60は、停止するようにアーム部11を制御する(ステップS124)。これにより、アーム部11は動作を停止する。
 次に、行動決定部59は、行動判定部58の判定結果に基づいて、アーム部11の動作の内容を決定し、動作制御部60は、落下物3の落下軌道上へ保護アーム12A,13Aを移動させることにより補助対象2を保護するようにアーム部11を制御する(ステップS125)。具体的には、動作制御部60は、補助対象2の上方における、落下物3の落下軌道上に保護アーム12A,13Aを配置するように、アーム部11を制御する。これにより、アーム部11は、落下物3から補助対象2を保護する。以上で、このフローは終了する。
(第3の動作例)
 図6~9は、第3の動作例に係る保護動作OP3の一例を表すものである。ロボット10は、落下物3が補助対象2に向かって落下する場合や、転倒物4が補助対象2に向かって転倒する場合など、様々な状況において、保護アーム12A,13Aを個別に動作させることにより、補助対象2をより効果的に保護する保護動作OP3を行う。
 図6の例では、落下物3が補助対象2に向かって落下するとともに、転倒物4が補助対象2に向かって転倒する。よって、ロボット10は、保護アーム12Aを補助対象2の上方に配置するとともに、保護アーム13Aを補助対象2の側方に配置することにより、補助対象2を落下物3および転倒物4から保護する。
 図7の例では、落下物3が補助対象2に向かって落下する。よって、ロボット10は、補助対象2の上方に保護アーム12A,13Aを配置することにより、補助対象2を落下物3から保護する。
 図8の例では、転倒物4が補助対象2に向かって転倒する。よって、ロボット10は、補助対象2の側方に、補助対象2を挟むように保護アーム12A,13Aを配置することにより、補助対象2を転倒物4から保護する。
 図9の例では、落下物3が2人の補助対象2,2Aに向かって落下する。よって、ロボット10は、補助対象2の上方に保護アーム12Aを配置し、補助対象2Aの上方に保護アーム13Aを配置することにより、補助対象2,2Aを保護する。
 図10Aは、保護動作OP3を含む補助動作の一例を表すものである。ステップS101~S108,S110,S111の処理は、第1の動作例(図4)と同様である。ステップS108において、補助対象2がロボット10の近くに存在する場合(ステップS108において“Y”)、行動決定部59は、行動判定部58の判定結果に基づいて、ロボット10が保護動作OP3を行うように決定する(ステップS130)。
 図10B,10Cは、図10Aに示したステップS130における保護動作OP3の一例を表すものである。
 まず、行動決定部59は、アーム部11に対する制御内容を確認することにより、ロボット10がアーム12,13のうちの少なくとも一方を使用できるかどうかを判定する(ステップS131)。すなわち、行動決定部59は、例えば、アーム12が保護動作を行っていない場合には、ロボット10がアーム12を使用できると判定する。アーム13についても同様である。ロボット10がアーム12,13の両方を使用できない場合(ステップS131において“N”)、この処理は終了する。
 次に、ロボット10がアーム12,13のうちの少なくとも一方を使用できる場合(ステップS131において“Y”)、行動決定部59は、2本のアーム12,13のうちのロボット10が使用すべき1本のアームを決定する(ステップ132)。例えば、行動決定部59は、ロボット10がアーム12,13の両方を使用できる場合、アーム12を選択する。
 次に、行動判定部58は、物体認識部53の認識結果に基づいて、ロボット10が補助対象2を落下物3から保護する必要があるかどうかを判定する(ステップS133)。ロボット10が補助対象2を落下物3から保護する必要がある場合(ステップS133において“Y”)、行動決定部59は、行動判定部58の判定結果に基づいて、アーム部11の動作の内容を決定し、動作制御部60は、補助対象2を落下物3から保護するようにアーム部11を制御する(ステップS134)。具体的には、ロボット10がアーム12を使用する場合には、動作制御部60は、補助対象2の上方に保護アーム12Aを配置するようにアーム部11を制御する。ロボット10がアーム13を使用する場合についても同様である。これにより、アーム部11は、落下物3から補助対象2を保護する。そして、ステップS131の処理に戻る。保護アーム12A,13Aの両方がステップS134により動作した場合、図7に示したように、ロボット10は、2つの保護アーム12A,13Aを用いて補助対象2を落下物3から保護する。
 次に、ロボット10が補助対象2を落下物3から保護する必要がない場合(ステップS133において“N”)、行動判定部58は、物体認識部53の認識結果に基づいて、ロボット10が補助対象2を転倒物4から保護する必要があるかどうかを判定する(ステップS135)。ロボット10が補助対象2を転倒物4から保護する必要がある場合(ステップS135において“Y”)、行動決定部59は、行動判定部58の判定結果に基づいて、アーム部11の動作の内容を決定し、動作制御部60は、補助対象2を転倒物4から保護するようにアーム部11を制御する(ステップS136)。具体的には、ロボット10がアーム12を使用する場合には、動作制御部60は、補助対象2の側方に、保護アーム12Aを配置するようにアーム部11を制御する。アーム13を使用する場合についても同様である。これにより、アーム部11は、転倒物4から補助対象2を保護する。そして、ステップS131の処理に戻る。保護アーム12AがステップS134により動作し、保護アーム13AがステップS136により動作した場合、図6に示したように、ロボット10は、例えば、保護アーム12Aを用いて補助対象2を落下物3から保護するとともに、保護アーム13Aを用いて補助対象2を転倒物4から保護する。また、保護アーム12A,13Aの両方がステップS136により動作した場合、図8に示したように、ロボット10は、2つの保護アーム12A,13Aを用いて補助対象2を転倒物4から保護する。
 次に、ロボット10が補助対象2を転倒物4から保護する必要がない場合(ステップS135において“N”)、行動判定部58は、物体認識部53の認識結果に基づいて、ロボット10の近くに別の補助対象2Aが存在するかどうかを判定する(ステップS137)。近くに別の補助対象2Aが存在しない場合(ステップS137において“N”)、この処理は終了する。
 次に、近くに別の補助対象2Aが存在する場合(ステップS137において“Y”)、行動決定部59は、アーム部11に対する制御内容を確認することにより、ロボット10がアーム12,13のうちの少なくとも一方を使用できるかどうかを判定する(ステップS131A)。ロボット10がアーム12,13の両方を使用できない場合(ステップS131Aにおいて“N”)、この処理は終了する。
 次に、ロボット10がアーム12,13のうちの少なくとも一方を使用できる場合(ステップS131Aにおいて“Y”)、行動決定部59は、ロボット10が使用する1本のアームを決定する(ステップ132A)。
 次に、行動判定部58は、物体認識部53の認識結果に基づいて、ロボット10が補助対象2Aを落下物3から保護する必要があるかどうかを判定する(ステップS133A)。ロボット10が補助対象2Aを落下物3から保護する必要がある場合(ステップS133Aにおいて“Y”)、行動決定部59は、行動判定部58の判定結果に基づいて、アーム部11の動作の内容を決定し、動作制御部60は、ステップS134と同様に、補助対象2Aを落下物3から保護するようにアーム部11を制御する(ステップS134A)。これにより、アーム部11は、落下物3から補助対象2Aを保護する。そして、ステップS131Aの処理に戻る。保護アーム12AがステップS134により動作し、保護アーム13AがステップS134Aにより動作した場合、図9に示したように、ロボット10
は、例えば、保護アーム12Aを用いて補助対象2を落下物3から保護するとともに、保護アーム13Aを用いて補助対象2Aを落下物3から保護する。
 次に、ロボット10が補助対象2Aを落下物3から保護する必要がない場合(ステップS133Aにおいて“N”)、行動判定部58は、物体認識部53の認識結果に基づいて、ロボット10が補助対象2Aを転倒物4から保護する必要があるかどうかを判定する(ステップS135A)。ロボット10が補助対象2Aを転倒物4から保護する必要がある場合(ステップS135Aにおいて“Y”)、行動決定部59は、行動判定部58の判定結果に基づいて、アーム部11の動作の内容を決定し、動作制御部60は、ステップS136と同様に、補助対象2Aを転倒物4から保護するようにアーム部11を制御する(ステップS136A)。これにより、アーム部11は、転倒物4から補助対象2Aを保護する。そして、ステップS131Aの処理に戻る。ロボット10が補助対象2Aを転倒物4から保護する必要がない場合(ステップS135Aにおいて“N”)、この処理は終了する。以上で、このフローは終了する。
(第4の動作例)
 図11は、第4の動作例に係る保護動作OP4の一例を表すものである。ロボット10は、例えば、落下物3が補助対象2に向かって落下する場合において、補助対象2をより効果的に保護すべきと判定する場合に、保護アーム12A,13Aを例えば水平面内で動かしながら、補助対象2を落下物3から保護する保護動作OP4を行う。このように、第4の動作例では、保護アーム12A,13Aを動かすことにより、保護できる領域(保護領域)を広くすることができるので、補助対象2をより効果的に保護することができる。
 図12Aは、保護動作OP4を含む補助動作の一例を表すものである。ステップS101~S108,S110,S111の処理は、第1の動作例(図4)と同様である。ステップS108において、補助対象2がロボット10の近くに存在する場合(ステップS108において“Y”)、行動決定部59は、行動判定部58の判定結果に基づいて、ロボット10が保護動作OP4を行うように決定する(ステップS140)。
 図12Bは、図12Aに示したステップS140における保護動作OP4の一例を表すものである。
 まず、行動決定部59は、アーム部11に対する制御内容を確認することにより、ロボット10がアーム12,13のうちの少なくとも一方を使用できるかどうかを判定する(ステップS141)。ロボット10がアーム12,13の両方を使用できない場合(ステップS141において“N”)、この処理は終了する。ロボット10がアーム12,13のうちの少なくとも一方を使用できる場合(ステップS141において“Y”)、行動決定部59は、ロボット10が使用すべき1本のアームを決定する(ステップ142)。次に、行動決定部59は、行動判定部58の判定結果に基づいて、アーム部11の動作の内容を決定し、動作制御部60は、補助対象2を落下物3から保護するようにアーム部11を制御する(ステップS143)。これにより、アーム部11は、落下物3から補助対象2を保護する。
 次に、行動判定部58は、物体認識部53の認識結果に基づいて、保護アーム12A,13Aが保護領域をカバーできたかどうかを判定する(ステップS144)。保護アーム12A,13Aが保護領域をカバーできた場合(ステップS144において“Y”)、この処理は終了する。
 保護アーム12A,13Aが保護領域をカバーできない場合(ステップS144において“N”)、行動決定部59は、アーム部11に対する制御内容を確認することにより、ロボット10がアーム12またはアーム13を使用できるかどうかを判定する(ステップS145)。ロボット10がアーム12またはアーム13を使用できる場合(ステップS145において“Y”)、行動決定部59は、ステップS142と同様に、ロボット10が使用すべき1本のアームを決定する(ステップ146)。行動決定部59は、行動判定部58の判定結果に基づいて、アーム部11の動作の内容を決定し、ステップS143の処理に戻る。ロボット10がアーム12,13の両方を使用できない場合(ステップS145において“N”)、行動決定部59は、行動判定部58の判定結果に基づいて、アーム部11の動作の内容を決定し、動作制御部60は、保護アーム12A,13Aを例えば水平面内で動かすようにアーム部11を制御する(ステップS147)。これにより、アーム部11は、落下物3から補助対象2を保護する。この例では、図11に示したように、ロボット10は、保護アーム12A,13Aを水平面内で動かしながら補助対象2を保護する動作を行う。以上で、このフローは終了する。
 なお、この例では、ロボット10は、保護アーム12A,13Aを水平面内で動かしながら、補助対象2を落下物3から保護するようにしたが、これに限定されるものではない。例えば、ロボット10は、図13に示すように、保護アーム12A,13Aを例えば垂直面内で動かしながら、補助対象2を転倒物4から保護するようにしてもよい。この例では、ロボット10は、転倒物4が補助対象2に向かって転倒する場合において、補助対象2をより効果的に保護する場合に、保護アーム12A,13Aを例えば垂直面内で動かしながら、補助対象2を転倒物4から保護することができる。また、例えば、ロボット10は、図14に示すように、保護アーム12A,13Aを補助対象2の上方に配置し、保護アーム12Aを、保護アーム12Aおよびリンク機構12Bを接続する関節部材(図示せず)を中心に動かしながら、補助対象2を落下物3から保護してもよい。
 このように、ロボット10では、地震が発生した場合に、補助対象2を補助する補助動作を行うようにした。具体的には、この例では、移動装置14が、処理部50からの指示に基づいて、ロボット10を補助対象2の近くまで移動させるとともに、アーム部11が、処理部50からの指示に基づいて、落下物3や転倒物4から補助対象2を保護するようにした。これにより、ロボット10では、緊急事態において補助対象2を補助することができる。
 特に、ロボット10では、補助動作において、保護アーム12A,13Aを補助対象2の近傍に配置するようにしたので、落下物3や転倒物4の補助対象2への衝突を回避することができるので、補助対象2を落下物3や転倒物4から保護することができる。
 また、ロボット10では、情報提示部40が、地震についての情報を補助対象2に提示するようにした。これにより、補助対象2は、地震の状況を把握でき、例えば、緊急事態に応じた行動をとることができる。その結果、ロボット10では、緊急事態において補助対象2を適切に補助することができる。
[効果]
 以上のように本実施の形態では、地震が発生した場合に、補助対象2を補助する補助動作を行うようにしたので、緊急事態において補助対象を補助することができる。特に、この補助動作において、保護アームを補助対象の近傍に配置するようにしたので、補助対象を落下物や転倒物から保護することができる。
 本実施の形態では、地震についての情報を補助対象に提示するようにしたので、緊急事態において補助対象を適切に補助することができる。
[変形例1-1]
 上記実施の形態では、ロボット10が補助対象2の補助動作を決定したが、これに限定されるものではなく、これに代えて、例えば、ロボットと情報処理装置を備えたロボットシステムにおいて、情報処理装置が補助対象2の補助動作を決定してもよい。以下に、本変形例に係るロボットシステム99について、詳細に説明する。
 図15は、ロボットシステム99の一構成例を表すものである。ロボットシステム99は、カメラ22Bと、情報処理装置80Bと、ロボット10Bとを備える。
 カメラ22Bは、例えば、情報処理装置80Bおよびロボット10Bと別体として設けられ、ロボット10Bおよびロボット10Bの周囲の物体や人物を撮像することにより撮像画像PICを生成するように構成される。
 情報処理装置80Bは、カメラ22Bが生成した撮像画像PIC、およびロボット10Bから受信した情報に基づいて、ロボット10Bが補助対象2に行うべき補助動作を決定するように構成される。情報処理装置80Bは、表示部81Bと、操作部82Bと、処理部70Bとを有する。
 表示部81Bは、情報処理装置80Bの動作状態などを表示するように構成される。表示部81Bは、例えば、液晶ディスプレイや各種インジケータを用いて構成される。操作部82Bは、ユーザの操作を受け付けるように構成される。操作部82Bは、例えば、キーボードやタッチパネルなどを用いて構成される。
 処理部70Bは、カメラ22Bが生成した撮像画像PIC、およびロボット10Bから受信した情報に基づいて、ロボット10Bが補助対象2に行うべき補助動作の内容を決定するように構成される。処理部70Bは、通信部83Bと、位置推定部51Bと、物体検出部52と、物体認識部53と、揺れ検出部54Bと、経路決定部56と、落下予測部57と、行動判定部58と、行動決定部59とを有する。
 通信部83Bは、ロボット10Bと通信するように構成される。具体的には、通信部83Bは、ロボット10Bの加速度についての情報を受信する。また、通信部83Bは、行動判定部58の判定結果および行動決定部59の決定結果をロボット10Bに送信するようになっている。
 位置推定部51Bは、上記実施の形態に係る位置推定部51と同様に、カメラ22Aが生成した撮像画像PIC、および情報処理装置80Bから受信したロボット10Bの加速度についての情報に基づいて、ロボット10Bの位置Pを推定するように構成される。
 揺れ検出部54Bは、通信部83Bが受信したロボット10Bの加速度についての情報に基づいて、揺れの度合いを検出するように構成される。
 ロボット10Bは、加速度センサ21と、バッテリ30と、情報提示部40と、処理部50Bとを有する。処理部50Bは、情報処理装置80Bから受信した情報に基づいて、アーム部11、移動装置14、および情報提示部40を制御するように構成される。処理部50Bは、通信部71Bと、バッテリ制御部55と、動作制御部60Bとを有する。
 通信部71Bは、情報処理装置80Bと通信するように構成される。具体的には、通信部71Bは、加速度センサ21が検出した加速度についての情報を情報処理装置80Bに送信する。また、通信部71Bは、情報処理装置80Bから、行動判定部58の判定結果および行動決定部59の決定結果を受信するようになっている。通信部71Bが受信した行動判定部58の判定結果は、情報提示部40に供給される。
 動作制御部60Bは、通信部71Bが受信した行動決定部59の決定結果に基づいて、移動装置14およびアーム部11の動作を制御するように構成される。
 この構成により、地震が発生した場合において、ロボットシステム99では、カメラ22Bは、ロボット10Bの周囲を撮像することにより撮像画像PICを生成し、ロボット10Bの加速度センサ21は、ロボット10Bの加速度を検出する。情報処理装置80Bの処理部70Bは、カメラ22Bが生成した撮像画像PIC、およびロボット10Bから受信した情報(ロボット10Bの加速度)に基づいて、ロボット10Bが補助対象2に行うべき補助動作の内容を決定する。ロボット10Bの処理部50Bは、情報処理装置80Bから受信した情報(行動判定部58の判定結果)に基づいて、補助情報を提示するように情報提示部40を制御する。そして、処理部50Bは、情報処理装置80Bから受信した情報(行動決定部59の決定結果)に基づいて、ロボット10Bが補助対象2の近くまで移動するように移動装置14を制御するとともに、落下物や転倒物から補助対象2を保護するようにアーム部11を制御する。このようにして、地震が発生した場合には、ロボット10Bは、補助対象2に補助動作を行う。
[変形例1-2]
 上記実施の形態では、加速度センサ21が検出したロボット10の加速度に基づいて、地震が発生しているかどうかを判定したが、これに限定されるものではない。以下に、いくつか例を挙げて、本変形例について詳細に説明する。
 図16は、本変形例に係るロボット10Cの一構成例を表すものである。ロボット10Cは、処理部50Cを有する。処理部50Cは、揺れ検出部54Cを有する。揺れ検出部54Cは、カメラ22が生成した撮像画像PICに基づいて、揺れの度合いを検出するように構成される。例えば地震が発生した場合には、被写体が揺れるので、揺れ検出部54Cは、この撮像画像PICに基づいて、地震の揺れの度合いを検出することができる。
 この構成により、ロボット10Cでは、カメラ22は、ロボット10Cの周囲を撮像することにより撮像画像PICを生成し、揺れ検出部54Cは、この撮像画像PICに基づいて、揺れの度合いを検出する。そして、行動判定部58は、この揺れ検出部54Cの検出結果に基づいて、地震が発生しているかどうかを判定する。
 図17は、本変形例に係る他のロボット10Dの一構成例を表すものである。ロボット10Dは、センサ部20Dと、処理部50Dとを有する。
 センサ部20Dは、マイク23Dを有する。マイク23Dは、ロボット10Dの周囲の音を検出するように構成される。
 処理部50Dは、揺れ検出部54Dを有する。揺れ検出部54Dは、マイク23Dが検出した音に基づいて、揺れの度合いを検出するように構成される。具体的には、揺れ検出部54Dは、例えば周囲の人物が、地震が起きた旨の発言をしているかどうかを解析し、あるいはテレビやラジオのスピーカから出力された地震についての情報を解析することにより、揺れの度合いを検出する。
 この構成により、ロボット10Dでは、マイク23Dは音を検出し、揺れ検出部54Dは、マイク23Dが検出した音に基づいて、揺れの度合いを検出する。そして、行動判定部58は、この揺れ検出部54Dの検出結果に基づいて、地震が発生しているかどうかを判定する。
 図18は、本変形例に係る他のロボット10Eの一構成例を表すものである。ロボット10Eは、処理部50Eを有する。処理部50Eは、通信部61Eと、揺れ検出部54Eとを有する。
 通信部61Eは、インターネットなどのネットワークを介して図示しないサーバと通信を行うことにより震度や発生地域などの地震情報を受信するように構成される。具体的には、通信部61Eは、地震が発生した場合に、地震情報を提供するサーバから、地震情報を受信するようになっている。ここで、通信部61Eは、本開示における「通信部」の一具体例に対応する。
 揺れ検出部54Eは、通信部61Eが受信した地震情報に基づいて、揺れの度合いを検出するように構成される。
 この構成により、ロボット10Eでは、通信部61Eは、図示しないサーバと通信を行うことにより地震情報を受信する。揺れ検出部54Eは、通信部61Eが受信した地震情報に基づいて、揺れの度合いを検出する。そして、行動判定部58は、この揺れ検出部54Eの検出結果に基づいて、地震が発生しているかどうかを判定する。
[変形例1-3]
 上記実施の形態では、カメラ22が生成した撮像画像PIC、および加速度センサ21が検出したロボット10の加速度に基づいて、ロボット10の位置Pを推定したが、これに限定されるものではない。これに代えて、例えば、さらに、測距センサの検出結果に基づいて、ロボット10の位置Pを検出してもよい。以下に、本変形例に係るロボット10Fについて説明する。
 図19は、ロボット10Fの一構成例を表すものである。ロボット10Fは、センサ部20Fと、処理部50Fとを有する。
 センサ部20Fは、測距センサ25Fを有する。測距センサ25Fは、ロボット10Fの周囲の物体や人物との間の距離を検出することにより距離情報を生成するように構成される。測距センサ25Fは、例えばToF(Time of Flight)センサを用いることができる。
 処理部50Fは、位置推定部51Fと、物体検出部52Fとを有する。
 位置推定部51Fは、カメラ22が生成した撮像画像PIC、加速度センサ21が検出したロボット10Fの加速度、および測距センサ25Fが生成した距離情報に基づいて、ロボット10Fの位置Pを推定するように構成される。具体的には、位置推定部51Fは、撮像画像PICに基づいて、ロボット10Fの周囲の環境を示す三次元マップデータを生成することにより、ロボット10Fの位置Pの推定を行う。また、位置推定部51Fは、加速度センサ21が検出したロボット10Fの加速度を2回積分することによりロボット10Fの移動量を算出する。そして、位置推定部51Fは、算出されたロボット10の移動量、および測距センサ25Fが生成した距離情報に基づいて、ロボット10Fの位置Pを補正するようになっている。
 物体検出部52Fは、物体認識部53と協調して動作することにより、カメラ22が生成した撮像画像PICおよび測距センサ25Fが検出した距離情報に基づいて、周囲の物体や人物の三次元情報を検出するように構成される。
 この構成により、ロボット10Fでは、カメラ22は、ロボット10Fの周囲の物体や人物を撮像することにより撮像画像PICを生成し、加速度センサ21は、ロボット10Fの加速度を検出する。測距センサ25Fは、ロボット10Fの周囲の物体や人物との距離を検出する。位置推定部51Fは、撮像画像PIC、ロボット10Fの加速度、および測距センサ25Fが検出した距離情報に基づいて、ロボット10Fの位置Pを推定する。物体検出部52Fは、物体認識部53と協調して動作することにより、撮像画像PICおよび測距センサ25Fが検出した距離情報に基づいて、周囲の物体や人物の三次元情報を検出する。
<2.第2の実施の形態>
 次に、第2の実施の形態に係るロボット210について説明する。ロボット210は、地震が発生し、補助対象2の候補が複数存在する場合において、補助対象2の候補のうち優先度が高い候補を補助対象2に決定し、補助対象2を補助する補助動作を行うように構成される。なお、上記第1の実施の形態に係るロボット10と実質的に同一の構成部分には同一の符号を付し、適宜説明を省略する。
 図20は、ロボット210の一構成例を表すものである。ロボット210は、センサ部20と、バッテリ30と、情報提示部40と、処理部250とを有する。
 処理部250は、カメラ22が生成した撮像画像PICや加速度センサ21が検出したロボット210の加速度についての情報(センサ情報INF)に基づいて、アーム部11、移動装置14、および情報提示部40を制御するように構成される。処理部250は、経路決定部256と、優先度推定部261と、行動判定部258と、行動決定部259と、動作制御部260とを有する。
 経路決定部256は、位置推定部51の推定結果、物体検出部52の検出結果、および物体認識部53の認識結果に基づいて、物体認識部53により認識された、補助対象2の候補のそれぞれまでの経路を決定するように構成される。経路決定部256は、物体検出部52により検出された、ロボット210の移動の障害になるおそれのある物体や人物を回避するような経路を決定するようになっている。
 優先度推定部261は、物体認識部53の認識結果に基づいて、補助対象2の候補の優先度を推定するように構成される。優先度推定部261は、優先度情報262を有する。優先度情報262は、例えば、年齢や性別などの人物の属性情報に基づいて予め決定された優先度についての情報を含む。具体的には、優先度情報262では、例えば、子供や高齢者の優先度が高く設定され、成人男性の優先度が低く設定されている。優先度推定部261は、物体認識部53の認識結果に基づいて、補助対象2の候補のそれぞれの属性情報を優先度情報262と照合することにより、補助対象2の候補の優先度を推定するようになっている。
 行動判定部258は、物体認識部53の認識結果および揺れ検出部54の検出結果に基づいて、ロボット210が補助対象2に補助動作を行う必要があるかどうかを判定するように構成される。具体的には、行動判定部258は、物体認識部53の認識結果に基づいて、補助対象2の候補が複数存在するかどうかを判定する。また、行動判定部258は、揺れ検出部54の検出結果に基づいて、地震が発生しているかどうかを判定する。そして、行動判定部258は、補助対象2の候補が存在しており、かつ、地震が発生している場合に、ロボット210が補助対象2に補助動作を行う必要があると判定するようになっている。
 行動決定部259は、行動判定部258の判定結果、経路決定部256の決定結果、および優先度推定部261の推定結果に基づいて、ロボット210が補助対象2に行うべき補助動作の内容を決定するように構成される。具体的には、行動決定部259は、優先度推定部261の推定結果に基づいて、補助対象2の候補の優先度を互いに比較することにより、補助対象2の候補のうち優先度が高い候補を補助対象2に決定する。また、行動決定部259は、ロボット210が補助対象2に補助動作を行う必要があると行動判定部258が判定した場合に、経路決定部256が決定した経路のうちの補助対象2までの経路に沿って移動装置14がロボット210を移動させることを決定し、アーム部11の動作を決定するようになっている。
 動作制御部260は、行動決定部259の決定結果に基づいて、移動装置14およびアーム部11の動作を制御するように構成される。
 ここで、処理部250は、本開示における「制御部」の一具体例に対応する。位置推定部51、物体検出部52、経路決定部256、優先度推定部261、行動判定部258、および行動決定部259は、本開示における「決定部」の一具体例に対応する。
 図21は、補助対象2を保護する保護動作の一例を表すものである。この例では、ロボット210の周囲に、補助対象2になり得る二人の人物(補助対象2の候補2B,2C)がいる。候補2Bは保護する優先度が高い子供であり、候補2Cは保護する優先度が低い大人である。ロボット210は、物体が落下物3として落下するおそれがある場合に、補助対象2の候補2B,2Cのうち優先度が高い候補(この例では候補2B)を補助対象2に決定し、保護アーム12A,13Aを用いて、決定された補助対象2を落下物3から保護する保護動作を行う。
 図22は、ロボット210における補助動作の一例を表すものである。まず、ロボット210は、上記第1の実施の形態の場合と同様に、周囲の物体や人物を探索する(ステップS201)。これにより、物体認識部53は、この例では、落下物3、および補助対象2の候補2B,2Cを認識する。
 次に、行動判定部258は、物体認識部53の認識結果に基づいて、補助対象2の候補が存在するかどうかを判定する(ステップS202)。補助対象2の候補が存在しない場合(ステップS202において“N”)、ステップS201の処理に戻る。
 次に、補助対象2の候補が存在する場合(ステップS202において“Y”)、行動判定部258は、物体認識部53の認識結果に基づいて、補助対象2の候補が複数存在しているかどうかを判定する(ステップS203)。補助対象2の候補が1人である場合(ステップS203において“N”)、行動決定部259は、行動判定部258の判定結果に基づいて、その1人の補助対象2の候補を補助対象2に決定する(ステップS206)。
 次に、補助対象2の候補が複数存在している場合(ステップS203において“Y”)、優先度推定部261は、物体認識部53の認識結果に基づいて、補助対象2の候補のそれぞれの属性情報を優先度情報262と照合することにより、補助対象2の候補の優先度を推定する(ステップS204)。
 次に、行動決定部259は、優先度推定部261の推定結果に基づいて、補助対象2の候補の優先度を互いに比較することにより、補助対象2の候補のうちの優先度が高い候補を補助対象2に決定する(ステップS205)。図21に示した例では、行動決定部259は、補助対象2の候補2B,2Cの優先度を互いに比較することにより、優先度が高いと推定された候補2Bを補助対象2に決定する。
 次に、行動判定部258は、揺れ検出部54の検出結果を確認し(ステップS207)、揺れ検出部54の検出結果に基づいて、地震が発生しているかどうかを判定する(ステップS208)。地震が発生していない場合(ステップS208において“N”)、ステップS201の処理に戻る。
 次に、地震が発生している場合(ステップS208において“Y”)、処理部250は、行動判定部258の判定結果に基づいて、補助情報を提示するように情報提示部40を制御する(ステップS209)。これにより、情報提示部40は補助情報を補助対象2に提示する。
 次に、経路決定部256は、位置推定部51の推定結果、物体検出部52の検出結果、および物体認識部53の認識結果に基づいて、ロボット210の位置Pから補助対象2の位置までの経路を決定し、行動決定部259は、経路決定部256の決定結果および行動判定部258の判定結果に基づいて、移動装置14の動作を決定する(ステップS210)。
 次に、動作制御部260は、行動決定部259の決定結果に基づいて、ロボット210が補助対象2の近くまで移動するように移動装置14を制御する(ステップS211)。これにより、移動装置14は、ロボット210を補助対象2の近くまで移動させる。
 次に、行動判定部258は、ロボット210が移動した後の物体認識部53の認識結果に基づいて、補助対象2がロボット210の近くに存在するかどうか判定する(ステップS212)。補助対象2が近くに存在しない場合(ステップS212において“N”)には、ステップS211の処理に戻る。
 次に、補助対象2が近くに存在する場合(ステップS212において“Y”)、行動決定部259は、行動判定部258の判定結果に基づいて、アーム部11が補助対象2を落下物3から保護する動作を行うように決定し、動作制御部260は、補助対象2を落下物3から保護するようにアーム部11を制御する(ステップS213)。具体的には、動作制御部260は、補助対象2の上方に保護アーム12A,13Aを配置するように、アーム部11を制御する。これにより、アーム部11は、落下物3から補助対象2を保護する。
 次に、行動判定部258は、揺れ検出部54の検出結果を確認し(ステップS214)、揺れ検出部54の検出結果に基づいて、地震が止まったかどうかを判定する(ステップS215)。地震が止まっていない場合(ステップS215において“N”)、ステップS209の処理に戻る。地震が止まった場合(ステップS215において“Y”)、この処理は終了する。以上で、このフローは終了する。
 このように、ロボット210では、地震が発生した場合において、処理部250が、補助対象2の候補が複数存在する場合、補助対象2の候補のうちの優先度が高い候補を補助対象2に決定し、この補助対象2を保護するように、アーム部11の動作を決定した。これにより、ロボット210では、優先度が高い補助対象2を保護することができるので、適切に補助対象2を補助することができる。
 以上のように本実施の形態では、地震が発生した場合において、補助対象の候補のうちの優先度が高い候補を補助対象に決定し、補助対象を保護するようにアーム部の動作を決定したので、適切に補助対象を補助することができる。
[変形例2-1]
 上記実施の形態では、例えば複数の補助対象2の候補のうちの一人を選択して保護したが、これに限定されるものではなく、これに代えて、例えば一人の補助対象2における複数の部位のうちの一つを選択して保護してもよい。以下に、本変形例に係るロボット210Aについて、詳細に説明する。
 図23は、ロボット210Aの一構成例を表すものである。ロボット210Aは、処理部250Aを有する。処理部250Aは、カメラ22が生成した撮像画像PICや加速度センサ21が検出したロボット210Aの加速度についての情報に基づいて、アーム部11、移動装置14、および情報提示部40を制御するように構成される。処理部250Aは、優先度推定部261Aと、行動判定部258Aと、行動決定部259Aと、動作制御部260Aとを有する。
 優先度推定部261Aは、物体認識部53の認識結果に基づいて、補助対象2の部位の優先度を推定するように構成される。優先度推定部261Aは、優先度情報262Aを有する。優先度情報262Aは、人体の部位ごとの優先度についての情報を含む。具体的には、優先度情報262Aでは、例えば、頭部や胸部の優先度が高く設定され、足の優先度が低く設定されている。優先度推定部261Aは、物体認識部53の認識結果に基づいて、補助対象2の部位のそれぞれの属性情報を優先度情報262Aと照合することにより、補助対象2の部位の優先度を推定するようになっている。
 行動判定部258Aは、物体認識部53の認識結果および揺れ検出部54の検出結果に基づいて、ロボット210Aが補助対象2に補助動作を行う必要があるかどうかを判定するように構成される。具体的には、行動判定部258Aは、物体認識部53の認識結果に基づいて、補助対象2が存在するかどうかを判定する。また、行動判定部258Aは、物体認識部53の認識結果に基づいて、補助対象2の姿勢情報を取得することにより補助対象2が横になっているかどうかを判定する。また、行動判定部258Aは、揺れ検出部54の検出結果に基づいて、地震が発生しているかどうかを判定する。そして、行動判定部258Aは、補助対象2が存在しており、補助対象2が横になっており、かつ、地震が発生している場合に、ロボット210Aが補助対象2に補助動作を行う必要があると判定するようになっている。
 行動決定部259Aは、行動判定部258Aの判定結果、経路決定部56の決定結果、および優先度推定部261Aの推定結果に基づいて、ロボット210Aが補助対象2に行うべき補助動作の内容を決定するように構成される。具体的には、行動決定部259Aは、優先度推定部261Aの推定結果に基づいて、補助対象2の部位の優先度を互いに比較することにより、補助対象2における優先度が高い部位を保護部位に決定する。また、行動決定部259Aは、ロボット210Aが補助対象2に補助動作を行う必要があると行動判定部258Aが判定した場合に、経路決定部56が決定した経路に沿って移動装置14がロボット210Aを移動させることを決定し、アーム部11の動作を決定するようになっている。
 動作制御部260Aは、行動決定部259Aの決定結果に基づいて、移動装置14およびアーム部11の動作を制御するよう構成される。
 ここで、処理部250Aは、本開示における「制御部」の一具体例に対応する。位置推定部51、物体検出部52、経路決定部56、優先度推定部261A、行動判定部258A、および行動決定部259Aは、本開示における「決定部」の一具体例に対応する。
 図24は、補助対象2を保護する保護動作の一例を表すものである。この例では、補助対象2が横になっている。補助対象2の頭部および胸部の優先度が高い。ロボット210Aは、補助対象2に向かって物体が落下物3として落下する恐れがある場合に、補助対象2の部位のうちの優先度が高い部位を保護部位に決定し、保護アーム12A,13Aを用いて、保護部位を落下物3から保護する。この例では、ロボット210Aは、保護アーム12Aを補助対象2の胸部の上方に配置し、保護アーム13Aを補助対象2の頭部の上方に配置する。そして、ロボット210Aは、保護アーム12A,13Aを例えば水平面内で動かしながら、補助対象2における胸部および頭部を落下物3から保護する。
 図25は、ロボット210Aにおける補助動作の一例を表すものである。まず、ロボット210Aは、周囲の物体や人物を探索する(ステップS201)。これにより、物体認識部53は、この例では、落下物3および補助対象2を認識する。
 次に、行動判定部258Aは、物体認識部53の認識結果に基づいて、補助対象2が存在するかどうかを判定する(ステップS202)。補助対象2が存在しない場合(ステップS202Aにおいて“N”)、ステップS201の処理に戻る。
 次に、補助対象2が存在する場合(ステップS202において“Y”)、行動判定部258Aは、物体認識部53の認識結果に基づいて、補助対象2の姿勢情報を取得する(ステップS203A)。行動判定部258Aは、この姿勢情報に基づいて、補助対象2が横になっているかどうかを判定する(ステップS204A)。補助対象2が横になっていない場合(ステップS204Aにおいて“N”)、ステップS214の処理に進む。
 次に、補助対象2が横になっている場合(ステップS204Aにおいて“Y”)、優先度推定部261Aは、物体認識部53の認識結果に基づいて、補助対象2の部位のそれぞれの属性情報を優先度情報262Aと照合することにより、補助対象2の部位の優先度を推定する(ステップS205A)。
 次に、行動決定部259Aは、優先度推定部261Aの推定結果に基づいて、補助対象2の部位の優先度を互いに比較することにより、補助対象2における優先度が高い部位を保護部位に決定する(ステップS206A)。この例では、行動決定部259Aは、補助対象2の頭部および胸部を保護部位に決定する。
 次に、行動判定部258Aは、揺れ検出部54の検出結果を確認し(ステップS207)、揺れ検出部54の検出結果に基づいて、地震が発生しているかどうかを判定する(ステップS208)。地震が発生していない場合(ステップS208において“N”)、ステップS201の処理に戻る。
 次に、地震が発生している場合(ステップS208において“Y”)、処理部250Aは、行動判定部258Aの判定結果に基づいて、補助情報を提示するように情報提示部40を制御する(ステップS209)。これにより、情報提示部40は補助情報を補助対象2に提示する。
 次に、経路決定部56は、位置推定部51の推定結果、物体検出部52の検出結果、および物体認識部53の認識結果に基づいて、ロボット210Aの位置Pから補助対象2の位置までの経路を決定する。そして、行動決定部259Aは、経路決定部56の決定結果および行動判定部258Aの判定結果に基づいて、移動装置14の動作を決定する(ステップS210)。
 次に、動作制御部260Aは、行動決定部259Aの決定結果に基づいて、ロボット210Aを補助対象2の近くまで移動させるように移動装置14を制御する(ステップS211)。これにより、移動装置14は、ロボット210Aを補助対象2の近くまで移動させる。
 次に、行動判定部258Aは、ロボット210Aが移動した後の物体認識部53の認識結果に基づいて、補助対象2がロボット210Aの近くに存在するかどうか判定する(ステップS212)。補助対象2が近くに存在しない場合(ステップS212において“N”)には、ステップS211の処理に戻る。
 次に、補助対象2が近くに存在する場合(ステップS212において“Y”)、行動決定部259Aは、行動判定部258Aの判定結果に基づいて、アーム部11が補助対象2の保護部位を落下物3から保護する動作を行うように決定し、動作制御部260Aは、補助対象2の保護部位を落下物3から保護するようにアーム部11を制御する(ステップS213A)。これにより、アーム部11は、例えば、図24に示したように、補助対象2の頭部および胸部を保護する。なお、これに限定されるものではなく、保護アーム12A,13Aは補助対象2の同一の部位を保護してもよい。
 次に、行動判定部258Aは、揺れ検出部54の検出結果を確認し(ステップS214)、揺れ検出部54の検出結果に基づいて、地震が止まったかどうかを判定する(ステップS215)。地震が止まっていない場合(ステップS215において“N”)、ステップS209の処理に戻る。地震が止まった場合(ステップS215において“Y”)、この処理は終了する。以上で、このフローは終了する。
 このように、ロボット210Aでは、地震が発生した場合において、補助対象2の部位の優先度を互いに比較することにより補助対象2の優先度が高い部位を保護部位に決定し、その保護部位を保護するように、アーム部11の動作を決定した。これにより、ロボット210Aでは、補助対象2の複数の部位のうちの優先度が高い部位を保護することができるので、適切に補助対象2を補助することができる。
[変形例2-2]
 上記実施の形態に係るロボット210に、上記第1の実施の形態の各変形例を適用してもよい。
<3.第3の実施の形態>
 次に、第3の実施の形態に係るロボット310について説明する。ロボット310は、火災が発生した場合において、補助対象2を補助する補助動作を行うように構成される。なお、上記第1の実施の形態に係るロボット10と実質的に同一の構成部分には同一の符号を付し、適宜説明を省略する。
 ロボット310は、第1の実施の形態に係るロボット10(図1)と同様に、アーム部311と、移動装置14と、筺体315とを有する。アーム部311は、例えば火災が発生した場合に、補助対象2を補助する補助動作を行うように構成される。筺体315は、後述する様々な電子回路や電子部品を収めるとともに、アーム部311を支持するように構成される。
 図26は、ロボット310の一構成例を表すものである。ロボット310は、収納部316と、照明部343と、センサ部320と、バッテリ30と、情報提示部40と、処理部350とを有する。収納部316、照明部343、センサ部320、バッテリ30、情報提示部40、および処理部350は、筺体315に設けられている。
 収納部316は、様々な物を収納するように構成される。この例では、収納部316は、緊急事態において補助対象2を補助し得る避難補助品Gを収納するようになっている。避難補助品Gは、例えば、消火剤、防煙マスク、照明道具などを含む。
 照明部343は、処理部350からの指示に基づいて、光を照射するように構成される。具体的には、照明部343は、補助対象2の足元に光を照射し、あるいは、光の照射により避難経路についての情報(避難経路情報)を補助対象2に提示するようになっている。
 センサ部320は、加速度センサ21と、カメラ22と、煙センサ326とを有する。煙センサ326は、ロボット310の周囲の煙の量を検出するように構成される。
 処理部350は、カメラ22が生成した撮像画像PIC、加速度センサ21が検出したロボット310の加速度についての情報、および煙センサ326が検出した煙の量についての情報(以下、センサ情報INF2ともいう)、および収納部316の収納状態に基づいて、アーム部311、照明部343、および情報提示部40を制御するように構成される。処理部350は、緊急検出部354と、経路決定部356と、行動判定部358と、行動決定部359と、動作制御部360とを有する。
 緊急検出部354は、煙センサ326の検出結果に基づいて、緊急事態を検出するように構成される。具体的には、煙センサ326が検出した煙の量が所定の閾値を超えた場合に火災が発生していると判定することにより、緊急事態を検出するようになっている。
 経路決定部356は、位置推定部51の推定結果、物体検出部52の検出結果、および物体認識部53の認識結果に基づいて、補助対象2の位置から、物体認識部53により認識された出口EXまでの経路を決定するように構成される。経路決定部356は、物体検出部52により検出された、ロボット310の移動の障害になるおそれのある物体や人物を回避するような経路を決定するようになっている。
 行動判定部358は、物体認識部53の認識結果、収納部316の収納状態、および緊急検出部354の検出結果に基づいて、ロボット310の補助動作が必要かどうかを判定するように構成される。具体的には、行動判定部358は、物体認識部53の認識結果に基づいて、補助対象2がロボット310の近くに存在するかどうかを判定する。また、行動判定部358は、物体認識部53の認識結果および緊急検出部354の検出結果に基づいて、補助対象2の避難が必要かどうかを判定することにより、ロボット310の補助動作が必要かどうかを判定する。また、行動判定部358は、収納部316の収納状態に基づいて、収納部316に避難補助品Gが収納されているかどうかを判定することにより、ロボット310の補助動作が必要かどうかを判定する。また、行動判定部358は、物体認識部53の認識結果に基づいて、照明部343による避難経路情報の提示が必要かどうかを判定することにより、ロボット310の補助動作が必要かどうかを判定する。
 行動決定部359は、行動判定部358の判定結果および経路決定部356の決定結果に基づいて、ロボット310が補助対象2に行うべき補助動作の内容を決定するように構成される。具体的には、行動決定部359は、行動判定部358の判定結果に基づいて、アーム部311が補助対象2に避難補助品Gを渡すこと、照明部343が補助対象2の足元に光を照射すること、および照明部343が光の照射により避難経路情報を提示することを決定する。また、行動決定部359は、経路決定部356の決定結果に基づいて、情報提示部40が避難経路情報を提示することを決定する。
 動作制御部360は、行動決定部359の決定結果に基づいて、アーム部311、移動装置14、および照明部343の動作を制御するように構成される。
 この構成により、火災が発生した場合において、ロボット310では、処理部350は、センサ情報INF2および収納部316の収納状態に基づいて、補助対象2の避難が必要であり、収納部316に避難補助品Gが収納されていると判定する場合には、避難補助品Gを補助対象2に渡すようにアーム部311を制御する。処理部350は、センサ情報INF2に基づいて、経路探索が成功したと判定する場合には、避難経路情報を提示するように情報提示部40を制御する。そして、処理部350は、センサ情報INF2に基づいて、照明部343による避難経路情報の提示が必要かどうかを判定することにより、補助対象2の足元に光を照射するように照明部343を制御するか、または光の照射により避難経路情報を提示するように照明部343を制御する。このように、火災が発生した場合には、ロボット310は、補助対象2を補助する補助動作を行うことができるようになっている。
 ここで、アーム部311、移動装置14、照明部343、および情報提示部40は、本開示における「補助装置」の一具体例に対応する。処理部350は、本開示における「制御部」の一具体例に対応する。位置推定部51、物体検出部52、経路決定部356、行動判定部358、および行動決定部359は、本開示における「決定部」の一具体例に対応する。緊急検出部354は、本開示における「検出部」の一具体例に対応する。情報提示部40は、本開示における「提示部」の一具体例に対応する。
 図27は、ロボット310における補助動作の一例を表すものである。まず、緊急検出部354は、煙センサ326の検出結果に基づいて、緊急事態を検出する(ステップS301)。具体的には、緊急検出部354は、煙センサ326が検出した煙の量が所定の閾値を超えた場合に火災が発生していると判定することにより、緊急事態を検出する。なお、この例では、煙センサ326を用いたが、これに限定されるものではなく、これに代えて、例えば、温度センサ、熱センサ、照度センサなどを用いてもよい。温度センサや熱センサでは、煙センサ同様に、緊急事態である火災発生を検出することができ、照度センサでは、緊急事態である停電を検出することができる。
 次に、ロボット310は、周囲の物体や人物を探索する(ステップS302)。具体的には、加速度センサ21は、ロボット310の加速度を検出し、カメラ22は、ロボット310の周囲すべての方位の物体や人物を撮像することにより撮像画像PICを生成する。位置推定部51は、カメラ22が生成した撮像画像PIC、および加速度センサ21が検出した加速度に基づいて、三次元マップデータを生成するとともに、ロボット310の位置Pを推定する。物体検出部52は、撮像画像PICに基づいて、物体や人物の三次元情報を検出する。物体認識部53は、撮像画像PICに基づいて、ロボット310の周囲の物体や人物を探索する。
 次に、行動判定部358は、物体認識部53の認識結果に基づいて、補助対象2がロボット310の近くに存在するかどうかを判定する(ステップS303)。補助対象2が近くに存在しない場合(ステップS303において“N”)、ステップS301の処理に戻る。
 次に、補助対象2が近くに存在する場合(ステップS303において“Y”)、行動判定部358は、物体認識部53の認識結果および緊急検出部354の検出結果に基づいて、補助対象2の避難が必要かどうかを判定する(ステップS304)。補助対象2の避難が必要でない場合(ステップS304において“N”)、ステップS301の処理に戻る。
 次に、行動判定部358は、収納部316の収納状態に基づいて、収納部316に避難補助品Gが収納されているかどうかを判定する(ステップS305)。具体的には、行動判定部358は、例えば重量センサ(図示せず)などにより、収納部316に避難補助品Gが収納されているかどうかを判定する。収納部316に避難補助品Gが収納されていない場合(ステップS305において“N”)、ステップS308の処理に進む。
 次に、行動決定部359は、行動判定部358の判定結果に基づいて、アーム部311が補助対象2に避難補助品Gを渡すことを決定し、動作制御部360は、避難補助品Gを補助対象2に渡す補助動作を行うようにアーム部311を制御する(ステップS306)。
 図28は、ステップS306におけるロボット310の補助動作の一例を表すものである。この例では、アーム部311は、収納部316に収納されていた避難補助品Gを取り出し、避難補助品Gを補助対象2に渡す動作を行うことにより、補助対象2を補助する。
 次に、経路決定部356は、位置推定部51の推定結果、物体検出部52の検出結果、および物体認識部53の認識結果に基づいて、補助対象2の位置から物体認識部53により認識された出口EXまでの経路を探索する(ステップS307)。経路決定部356は、この経路探索が成功したかどうかを判定する(ステップS308)。経路探索が失敗した場合(ステップS308において“N”)、ステップS312の処理に進む。
 次に、経路探索が成功した場合(ステップS308において“Y”)、行動決定部359は、経路決定部356の決定結果に基づいて、情報提示部40が避難経路情報を提示することを決定し、処理部350は、避難経路情報を提示するように情報提示部40を制御する(ステップS309)。これにより、スピーカ41は補助対象2の避難経路を示す音声を補助対象2に出力し、ディスプレイ42は、補助対象2の避難経路を示す地図情報を補助対象2に表示する。
 次に、行動判定部358は、物体認識部53の認識結果に基づいて、照明部343による避難経路情報の提示が必要かどうかを判定する(ステップS310)。具体的には、例えば、行動判定部358は、物体認識部53の認識結果に基づいて、補助対象2の位置から出口EXまで十分離れていると判定できる場合には、照明部343による避難経路情報の提示が必要であると判定することができる。照明部343による避難経路情報の提示が必要でない場合(ステップS310において“N”)、行動決定部359は、行動判定部358の判定結果に基づいて、照明部343が補助対象2の足元に光を照射することを決定し、動作制御部360は、補助対象2の足元に光を照射するように照明部343を制御する(ステップS312)。これにより、照明部343は、補助対象2の足元に光を照射する。
 図29は、ステップS312におけるロボット310の補助動作の一例を表すものである。この例では、通路RO上に、ロボット310および補助対象2が存在しており、ロボット310が補助対象2の足元に光を照射することにより、補助対象2の足元に照射領域LI1が生じている。これにより、ロボット310は、補助対象2が通路ROを通って出口EXまで移動することを補助し、あるいは、避難補助品Gを用いて様々な行動を行うことを補助する。この図29に示したように、動作制御部360は、アーム部311が補助対象2の避難を妨げないようにするために、アーム部311を折りたたむように制御してもよい。この例では、照明部343は、本開示における「照明部」の一具体例に対応する。
 次に、照明部343による避難経路情報の提示が必要である場合(ステップS310において“Y”)、行動決定部359は、行動判定部358の判定結果に基づいて、照明部343が光の照射により避難経路情報を提示することを決定し、動作制御部360は、光の照射により避難経路情報を提示するように照明部343を制御する(ステップS311)。これにより、照明部343は、光の照射により避難経路情報を補助対象2に提示する。
 図30は、ステップS311におけるロボット310の補助動作の一例を表すものである。この例では、通路RO上に、ロボット310および補助対象2が存在しており、ロボット310が補助対象2の通路ROに光を照射することにより、避難経路上に照射領域LI2が生じている。このように、ロボット310は、照射領域LI2において、避難すべき方向を示す矢印などのマークを含む避難経路情報を照射領域LI2に提示してもよい。これにより、ロボット310は、補助対象2が通路ROを通って出口EXまで移動することを補助する。この例では、照明部343は、本開示における「提示部」の一具体例に対応する。
 次に、行動判定部358は、物体認識部53の認識結果に基づいて、補助対象2の避難が完了したかどうかを判定する(ステップS313)。補助対象2の避難が完了していない場合(ステップS313において“N”)、ステップS301の処理に戻る。補助対象2の避難が完了した場合(ステップS313において“Y”)、この処理は終了する。以上で、このフローは終了する。
 このように、ロボット310では、火災が発生した場合において、避難経路情報を補助対象2に提示するようにした。具体的には、例えば、情報提示部40が、避難経路情報を補助対象2に提示するようにした。また、照明部343が、光の照射により避難経路情報を補助対象2に提示するようにした。これにより、補助対象2は、例えば出口EXまでの経路を容易に把握することができ、また、例えばどの方向に避難すればよいか容易に把握することができるので、適切に補助対象2を補助することができる。
 また、ロボット310では、火災が発生した場合において、照明部343が、補助対象2の足元に光を照射するようにした。これにより、補助対象2は、例えば停電が発生した場合など、周囲が暗い場合でも、移動することができるので、適切に補助対象2を補助することができる。
 また、ロボット310では、火災が発生した場合において、アーム部311が、避難補助品Gを補助対象2に供給するようにした。これにより、補助対象2は、避難補助品Gを使用することにより、例えば、避難しやすくなるので、適切に補助対象2を補助することができる。
 以上のように本実施の形態では、火災が発生した場合において、避難経路情報を補助対象2に提示するようにしたので、適切に補助対象を補助することができる。
 本実施の形態では、火災が発生した場合において、照明部が、補助対象の足元に光を照射するようにしたので、適切に補助対象を補助することができる。
 本実施の形態では、火災が発生した場合において、アーム部が、避難補助品を補助対象に供給するようにしたので、適切に補助対象を補助することができる。
[変形例3-1]
 上記実施の形態では、緊急検出部354は煙センサ326が検出した煙の量に基づいて緊急事態を検出したが、これに限定されるものではなく、これに代えて、他の情報に基づいて緊急事態を検出してもよい。以下に、いくつか例を挙げて、本変形例について詳細に説明する。
 図31は、本変形例に係るロボット310Aの一構成例を表すものである。ロボット310Aは、処理部350Aを有する。処理部350Aは、緊急検出部354Aを有する。緊急検出部354Aは、加速度センサ21が検出したロボット310Aの加速度に基づいて、地震が発生しているかどうかを判定することにより、緊急事態を検出するように構成される。
 この構成により、ロボット310Aでは、緊急検出部354Aは、加速度センサ21が検出したロボット310Aの加速度に基づいて、地震が発生しているかどうかを判定することにより、緊急事態を検出する。
 図32は、本変形例に係る他のロボット310Cの一構成例を表すものである。ロボット310Cは、処理部350Cを有する。処理部350Cは、緊急検出部354Cを有する。緊急検出部354Cは、カメラ22が生成した撮像画像PICに基づいて、地震や火災が発生しているかどうかを判定することにより、緊急事態を検出するように構成される。例えば地震が発生した場合には、被写体が揺れ、また、例えば火災が発生した場合には、火や煙が撮像される。よって、緊急検出部354Cは、この撮像画像PICに基づいて、地震や火災が発生しているかどうかを判定することにより、緊急事態を検出することができる。
 図33は、本変形例に係る他のロボット310Dの一構成例を表すものである。ロボット310Dは、センサ部320Dと、処理部350Dとを有する。センサ部320Dは、マイク323Dを有する。マイク323Dは、ロボット310Dの周囲の音を検出するように構成される。処理部350Dは、緊急検出部354Dを有する。緊急検出部354Dは、マイク323Dが検出した音に基づいて、地震や火災が発生しているかどうかを判定することにより、緊急事態を検出するように構成される。具体的には、緊急検出部354Dは、例えば周囲の人物が、地震や火災が発生した旨の発言をしているかどうかを解析することにより、緊急事態を検出する。
 図34は、本変形例に係る他のロボット310Eの一構成例を表すものである。ロボット310Eは、処理部350Eを有する。処理部350Eは、通信部361Eと、緊急検出部354Eとを有する。
 通信部361Eは、インターネットなどのネットワークを介して図示しないサーバと通信を行うように構成される。具体的には、通信部361Eは、震度や発生地域などの地震情報を提供するサーバから、地震が発生した場合に地震情報などを受信するようになっている。
 緊急検出部354Eは、通信部361Eが受信した地震情報に基づいて、緊急事態を検出するように構成される。具体的には、緊急検出部354Eは、通信部361Eが受信した震度や発生地域などの地震情報を検出し、ロボット310Eの存在する場所で地震が発生しているかどうかを判定することにより、緊急事態を検出するようになっている。
[変形例3-2]
 上記実施の形態では、アーム部311は収納部316から取り出した避難補助品Gを補助対象2に渡したが、これに限定されるものではなく、これに代えて、例えば、ロボット310の周囲に存在する避難補助品Gを補助対象2に渡してもよい。
[変形例3-3]
 上記実施の形態に係るロボット310に、上記第1の実施の形態の変形例1-1,1-3を適用してもよい。
<4.第4の実施の形態>
 次に、第4の実施の形態に係るロボット410について説明する。ロボット410は、バッテリ30の残量が不足している場合において、補助対象2にバッテリ30の交換を促すように構成される。なお、上記各実施の形態に係るロボットと実質的に同一の構成部分には同一の符号を付し、適宜説明を省略する。
 図35は、ロボット410の一構成例を表すものである。ロボット410は、センサ部20と、バッテリ30と、情報提示部40と、処理部450とを有する。
 処理部450は、カメラ22が生成した撮像画像PICや加速度センサ21が検出したロボット410の加速度についての情報(センサ情報INF)、およびバッテリ30の状態に基づいて、アーム部311、移動装置14、および情報提示部40を制御するように構成される。処理部450は、バッテリ制御部455と、緊急検出部454と、経路決定部456と、行動判定部458と、行動決定部459と、動作制御部460とを有する。
 バッテリ制御部455は、バッテリ30を制御するとともに、バッテリ30の残量やバッテリ30の温度などを監視するように構成される。
 緊急検出部454は、バッテリ制御部455の監視結果に基づいて、バッテリ30の残量が十分かどうかを判定することにより緊急事態を検出するように構成される。
 経路決定部456は、位置推定部51の推定結果、物体検出部52の検出結果、および物体認識部53の認識結果に基づいて、目的地までの経路を決定するように構成される。経路決定部456は、物体検出部52により検出された、ロボット410の移動の障害になるおそれのある物体や人物を回避するような経路を決定するようになっている。
 行動判定部458は、物体認識部53の認識結果および緊急検出部454の検出結果に基づいて、ロボット410の補助動作が必要かどうかを判定するように構成される。具体的には、行動判定部458は、物体認識部53の認識結果および緊急検出部454の検出結果に基づいて、補助対象2が存在するかどうかを判定する。また、行動判定部458は、物体認識部53の認識結果に基づいて、補助対象2がバッテリ30の交換作業を行うことができるかどうかを判定することにより、ロボット410の補助動作が必要かどうかを判定するようになっている。
 行動決定部459は、行動判定部458の判定結果および経路決定部456の決定結果に基づいて、ロボット410が補助対象2に行うべき補助動作の内容を決定するように構成される。具体的には、行動決定部459は、行動判定部458の判定結果および経路決定部456の決定結果に基づいて、アーム部311および情報提示部40がバッテリ30の位置を提示することを決定する。また、行動決定部459は、行動判定部458の判定結果および経路決定部456の決定結果に基づいて、ロボット410が自らバッテリ30Aを取りに行き、ロボット410がバッテリ30Aを補助対象2に渡すことを決定する。また、行動決定部459は、行動判定部458の判定結果に基づいて、アーム部311および情報提示部40がバッテリ30の交換方法を提示することを決定する。
 動作制御部460は、行動決定部459の決定結果に基づいて、アーム部311および移動装置14の動作を制御するように構成される。
 この構成により、ロボット410では、処理部450は、バッテリ30の残量が十分かどうかを判定することにより緊急事態を検出する。また、処理部450は、センサ情報INFに基づいて、補助対象2がバッテリ30の交換作業を行うことができると判定する場合には、バッテリ30Aの位置を提示するようにアーム部311および情報提示部40を制御する。また、処理部450は、センサ情報INFに基づいて、補助対象2がバッテリ30の交換作業を行うことができないと判定する場合には、ロボット410が自らバッテリ30Aを取りに行くようにアーム部311および移動装置14を制御するとともに、ロボット410がバッテリ30Aを補助対象2に渡すようにアーム部311および移動装置14を制御する。また、処理部450は、センサ情報INFに基づいて、バッテリ30の交換方法を提示するようにアーム部311および情報提示部40を制御する。このように、バッテリ30の残量が不足している場合において、補助対象2にロボット410のバッテリ30を別のバッテリ30Aに交換させることができるようになっている。
 図36は、ロボット410の一動作例を表すものである。まず、緊急検出部454は、バッテリ制御部455の監視結果に基づいて、バッテリ30の残量を確認する(ステップS401)。
 次に、緊急検出部454は、この確認結果に基づいて、バッテリ30の残量が十分かどうかを判定する(ステップS402)。バッテリ30の残量が十分である場合(ステップS402において“Y”)、ステップS401の処理に戻る。
 次に、バッテリ30の残量が十分でない場合(ステップS402において“N”)、緊急検出部454は、緊急事態を検出する。そして、行動判定部458は、物体認識部53の認識結果および緊急検出部454の検出結果に基づいて、補助対象2が存在するかどうか判定し、行動決定部459は、行動判定部458の判定結果に基づいて、補助対象2を決定する(ステップS403)。
 次に、行動判定部458は、物体認識部53の認識結果に基づいて、補助対象2がバッテリ30の交換作業を行うことができるかどうかを判定する(ステップS404)。
 補助対象2がバッテリ30の交換作業を行うことができる場合(ステップS404において“Y”)、行動決定部459は、行動判定部458の判定結果および経路決定部456の決定結果に基づいて、アーム部311および情報提示部40がバッテリ30Aの位置を提示する動作を決定し、処理部450は、バッテリ30Aの位置を提示するようにアーム部311および情報提示部40を制御する(ステップS405)。
 図37は、ステップS405におけるロボット410の補助動作の一例を表すものである。この例では、バッテリ30Aが、棚5の上に置かれている。バッテリ30の残量が不足している場合において、アーム部311は、バッテリ30Aの位置を補助対象2に指し示し、スピーカ41は、バッテリ30Aを取ってくるように補助対象2に促す旨の指示音声を補助対象2に出力し、ディスプレイ42は、バッテリ30Aの位置情報を補助対象2に表示する。これにより、ロボット410は、補助対象2にバッテリ30Aを取ってくるように指示する。
 行動判定部458は、物体認識部53の認識結果に基づいて、補助対象2がバッテリ30Aを取ってきたかどうかを判定する(ステップS406)。補助対象2がバッテリ30を取ってきた場合(ステップS406において“Y”)、ステップS409の処理に進む。補助対象2がバッテリ30を取ってきていない場合(ステップS406において“N”)、ステップS405の処理に戻る。
 次に、補助対象2がバッテリ30の交換作業を行うことができない場合(ステップS404において“N”)、ロボット410は、自らバッテリ30Aを取りに行く(ステップS407)。具体的には、経路決定部456は、位置推定部51の推定結果、物体検出部52の検出結果、および物体認識部53の認識結果に基づいて、バッテリ30Aの位置までの経路を決定する。行動決定部459は、行動判定部458の判定結果および経路決定部456の決定結果に基づいて、ロボット410が自らバッテリ30Aを取りに行くことを決定する。動作制御部460は、行動決定部459の決定結果に基づいて、ロボット410がバッテリ30Aの位置まで移動するように移動装置14を制御するとともに、バッテリ30Aを持ち上げるようにアーム部311を制御する。これにより、移動装置14は、ロボット410をバッテリ30Aの位置まで移動させ、アーム部311は、バッテリ30Aを持ち上げる。
 次に、ロボット410は、バッテリ30Aを補助対象2に渡す(ステップS408)。具体的には、経路決定部456は、位置推定部51の推定結果、物体検出部52の検出結果、および物体認識部53の認識結果に基づいて、補助対象2の位置までの経路を決定する。行動決定部459は、行動判定部458の判定結果および経路決定部456の決定結果に基づいて、ロボット410がバッテリ30Aを補助対象2に渡すことを決定する。動作制御部460は、行動決定部459の決定結果に基づいて、ロボット410が補助対象2の位置まで移動するように移動装置14を制御するとともに、バッテリ30Aを補助対象2に渡すようにアーム部311を制御する。これにより、移動装置14は、ロボット410を補助対象2の位置まで移動させ、アーム部311は、バッテリ30Aを補助対象2に渡す。
 図38は、ステップS408におけるロボット410の補助動作の一例を表すものである。この例では、ロボット410は、バッテリ30Aを補助対象2の位置まで運び、このバッテリ30Aを補助対象2に渡す。
 次に、行動決定部459は、行動判定部458の判定結果に基づいて、アーム部311および情報提示部40がバッテリの交換方法を提示することを決定し、処理部450は、バッテリ30の交換方法を提示するようにアーム部311および情報提示部40を制御する(ステップS409)。これにより、アーム部311および情報提示部40は、バッテリ30の交換方法を補助対象2に提示する。補助対象2は、提示された交換方法に基づいて、ロボット410のバッテリ30をバッテリ30Aに交換することができる。以上で、このフローは終了する。
 このように、ロボット410では、バッテリ30の残量の低下した場合において、補助対象2にバッテリを交換するように促す情報を提示するようにした。具体的には、例えば、補助対象2がバッテリ30の交換作業を行うことができる場合には、別のバッテリ30Aの位置を提示し、この別のバッテリ30Aを用いて、バッテリ30の交換を促すようにした。また、例えば、補助対象2がバッテリ30の交換作業を行うことができない場合には、ロボット410が自ら別のバッテリ30Aを取りに行き、この別のバッテリ30Aを用いて、バッテリ30の交換を促すようにした。そして、情報提示部40がバッテリ30の交換方法を提示するようにした。補助対象2がバッテリ30を交換することにより、ロボット410は、緊急事態を回避することができ、例えば、バッテリの低下により行えなかった補助対象2への様々な補助動作を行うことができるようになる。その結果、補助対象2を補助することができる。
 以上のように本実施の形態では、バッテリの残量の低下した場合において、補助対象にバッテリを交換するように促す情報を提示するようにしたので、補助対象を補助することができる。
[変形例4-1]
 上記実施の形態に係るロボット410に、上記第1~3の実施の形態の各変形例を適用してもよい。
<5.第5の実施の形態>
 次に、第5の実施の形態に係るロボット510について説明する。ロボット510は、バッテリ30の残量が低下した場合において、補助対象2と共同作業を行うように構成される。なお、上記各実施の形態に係るロボットと実質的に同一の構成部分には同一の符号を付し、適宜説明を省略する。
 図39は、ロボット510の一構成例を表すものである。ロボット510は、センサ部20と、バッテリ30と、情報提示部40と、処理部550とを有する。
 処理部550は、カメラ22が生成した撮像画像PICや加速度センサ21が検出したロボット510の加速度についての情報(センサ情報INF)、およびバッテリ30の状態に基づいて、アーム部311、移動装置14、情報提示部40を制御するように構成される。処理部550は、バッテリ制御部555と、緊急検出部554と、行動判定部558と、行動決定部559と、動作制御部560とを有する。
 バッテリ制御部555は、バッテリ30を制御するとともに、バッテリ30の残量やバッテリ30の温度などを監視するように構成される。また、バッテリ制御部555は、バッテリ30の状態に基づいて、ロボット510における1つの作業に含まれる様々な動作に必要な電力を個別に推定することができるようになっている。
 緊急検出部554は、バッテリ制御部555の監視結果および推定結果に基づいて、バッテリ30の残量が十分かどうかを判定することにより緊急事態を検出するように構成される。
 行動判定部558は、物体認識部53の認識結果および緊急検出部554の検出結果に基づいて、ロボット510が共同作業を補助対象2と行う必要があるかどうかを判定するように構成される。
 行動決定部559は、行動判定部558の判定結果および経路決定部456の決定結果に基づいて、ロボット510が補助動作を補助対象2に行うことを決定するように構成される。具体的には、行動決定部559は、行動判定部558の判定結果および経路決定部456の決定結果に基づいて、ロボット510が作業を単独で行うのか、ロボット510が補助対象2と共同作業を行うのかを決定する。例えば、行動決定部559は、バッテリ30の状態に基づいて、バッテリ30の残量が十分であると判定した場合には、ロボット510が作業を単独で行うことを決定する。また、行動決定部559は、センサ情報INFおよびバッテリ30の状態に基づいて、バッテリ30の残量が不足しており、補助対象2が存在していると判定した場合には、ロボット510が補助対象2と共同作業を行うことを決定する。行動決定部559は、ロボット510が補助対象2と共同作業を行う場合には、アーム部311および情報提示部40が作業を補助対象2に指示することを決定する。
 動作制御部560は、行動決定部559の決定結果に基づいて、アーム部311および移動装置14の動作を制御するように構成される。
 図40は、ロボット510の一動作例を表すものである。この例では、ロボット510が行うべき作業の内容はすでに決定されている。この例では、作業は、運搬物を所定の場所へ運ぶ作業である。そして、ロボット510は、ロボット510がこの作業を単独で行
うのか、ロボット510が補助対象2と共同作業を行うのかを決定する。以下に、この動作について詳細に説明する。
 バッテリ制御部555は、バッテリ30の状態に基づいて、作業に必要な電力を推定する(ステップS501)。具体的には、バッテリ制御部555は、その作業に含まれる複数の動作に必要な電力を個別に推定し、それらの合計を算出することにより、その作業に必要な電力を推定する。
 次に、緊急検出部554は、バッテリ制御部555の監視結果に基づいて、バッテリ30の残量を確認する(ステップS502)。次に、緊急検出部554は、この確認結果に基づいて、バッテリ30が、ステップS501で推定した、その作業に必要な電力を供給できるかどうかを判定することにより、バッテリ30の残量が十分かどうかを判定する(ステップS503)。
 次に、バッテリ30の残量が十分である場合(ステップS503において“Y”)、行動決定部559は、行動判定部558の判定結果および経路決定部456の決定結果に基づいて、ロボット10が単独で作業を行うことを決定する(ステップS504)。そして、動作制御部560は、行動決定部559の決定結果に基づいて、作業を行うようにアーム部311および移動装置14を制御する(ステップS505)。そして、ステップS501の処理に戻る。
 次に、バッテリ30の残量が十分でない場合(ステップS503において“N”)、行動判定部558は、物体認識部53の認識結果および緊急検出部554の検出結果に基づいて、補助対象2がロボット510の近くに存在するかどうかを判定する(ステップS506)。補助対象2が近くに存在しない場合(ステップS506において“N”)、ステップS512の処理に進む。
 次に、補助対象2が近くに存在する場合(ステップS506において“Y”)、行動決定部559は、行動判定部558の判定結果および経路決定部456の決定結果に基づいて、ロボット510が補助対象2と共同作業を行うことを決定する(ステップS507)。
 次に、行動決定部559は、行動判定部558の判定結果に基づいて、ロボット510の動作を電力でソートする(ステップS508)。具体的には、行動決定部559は、バッテリ制御部555が推定した、その作業に含まれる複数の動作を、各動作の電力でソートする。
 次に、行動決定部559は、このソート結果に基づいて、ロボット510が行う動作および補助対象2が行う動作を決定する(ステップS509)。具体的には、行動決定部559は、バッテリ30の残量を考慮して、その作業に含まれる複数の動作のうち、ロボット510が行うことが可能な動作を、ロボット510が行う動作に決定し、それ以外の動作を、補助対象2が行う動作に決定する。
 そして、処理部550は、この補助対象2が行う動作に基づいて、補助対象2に動作を指示するように、アーム部311および情報提示部40を制御する(ステップS510)。これにより、アーム部311および情報提示部40は、補助対象2に動作を指示する。
 そして、動作制御部560は、行動決定部559の決定結果に基づいて、作業を行うようにアーム部311および移動装置14を制御する(ステップS511)。
 図41は、ステップS511におけるロボット510の補助動作の一例を表すものである。この例では、バッテリ残量が低下した状態である緊急事態において、ロボット510は、運搬物6を所定の場所に運ぶことができないので、補助対象2が、運搬物6を運ぶべきと判定している。これにより、ロボット510は、運搬物6を運ぶ作業を補助対象2に促している。補助対象2は、ロボット510からの指示に基づいて、運搬物6を運ぶ作業を引き継ぐ。
 次に、ロボット510のディスプレイ42は、作業の結果を表示する(ステップS512)。具体的には、行動判定部558は、物体認識部53の認識結果に基づいて、補助対象2が作業を完了したことを判定し、あるいは作業が完了していないことを判定する。行動決定部559は、行動判定部558の判定結果に基づいて、ディスプレイ42が作業の結果を表示することを決定し、処理部550は、作業の結果を表示するようにディスプレイ42を制御する。これにより、ディスプレイ42は、作業の結果を表示する。以上で、このフローは終了する。
 このように、ロボット510では、バッテリ30の残量が十分でない場合において、補助対象2に作業を行うことを促す指示情報を提示するようにした。具体的には、処理部550が、バッテリ30の残量を考慮して、その作業に含まれる複数の動作のうち、ロボット510が行うことが可能な動作を、ロボット510が行う動作に決定し、それ以外の動作を、補助対象2が行う動作に決定した。そして、アーム部311および情報提示部40が、この補助対象2が行う動作に基づいて、補助対象2に動作を指示するようにした。これにより、ロボット510は、例えば、作業のうちの一部の動作を自らが行い、残りの動作を補助対象2に依頼することができる。これにより、バッテリ30の残量が十分でない場合でも、適切に補助対象を補助することができる。
 以上のように本実施の形態では、バッテリの残量が十分でない場合において、補助対象に作業を行うことを促す指示情報を提示するようにしたので、適切に補助対象を補助することができる。
[変形例5-1]
 上記実施の形態に係るロボット510に、上記第1~4の実施の形態の各変形例を適用してもよい。
 以上、いくつかの実施の形態および変形例を挙げて本技術を説明したが、本技術はこれらの実施の形態等には限定されず、種々の変形が可能である。
 例えば、各実施の形態では、スピーカ41およびディスプレイ42を有するようにしたが、これに代えて、スピーカ41およびディスプレイ42のうちのいずれか一方を有してもよい。
 例えば、第1,2の実施の形態では、アーム部11はアーム12およびアーム13の2本のアームを有するようにしたが、これに代えて、例えば1または3以上のアームを有してもよい。
 例えば、第1~5の実施の形態に係るロボットのうちの2以上を組み合わせてもよい。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
 なお、本技術は以下のような構成とすることができる。以下の構成の本技術によれば、緊急事態において補助対象を補助することができる。
(1)検出された緊急事態に基づいて、補助対象を補助する補助動作を行うことが可能な補助装置と、
 前記補助動作を前記補助装置に行わせるように制御可能な制御部と
 を備えたロボット装置。
(2)前記補助動作は、前記補助対象の周囲の物体から前記補助対象を保護する保護動作である
 前記(1)に記載のロボット装置。
(3)前記制御部は、
 前記ロボット装置の周囲の環境情報に基づいて前記補助対象を認識可能な認識部と、
 前記認識部が認識した前記補助対象に行う前記保護動作を決定可能な決定部と
 を有する
 前記(2)に記載のロボット装置。
(4)前記補助装置は、前記認識部が認識した前記補助対象を保護可能な第1の保護アームを含み、前記第1の保護アームを移動可能な第1のアーム機構を有し、
 前記保護動作は、前記第1の保護アームが前記補助対象を保護するように、前記第1の保護アームが移動することを含む
 前記(3)に記載のロボット装置。
(5)前記決定部は、前記第1の保護アームを前記補助対象の近傍に配置するように、前記第1のアーム機構の動作を決定可能である
 前記(4)に記載のロボット装置。
(6)前記決定部は、前記補助対象の候補である補助対象候補が複数ある場合、複数の前記補助対象候補のうちの優先度が高い補助対象候補を前記補助対象として選択し、選択された前記補助対象を優先的に保護するように、前記第1のアーム機構の動作を決定可能である
 前記(4)または(5)に記載のロボット装置。
(7)前記制御部は、前記補助対象における、優先度が高い部位を優先的に保護するように、前記第1のアーム機構の動作を制御可能である
 前記(4)または(5)に記載のロボット装置。
(8)前記補助装置は、前記認識部が認識した前記補助対象を保護可能な第2の保護アームを含み、前記第2の保護アームを移動可能な第2のアーム機構をさらに有し、
 前記保護動作は、前記第2の保護アームが前記補助対象を保護するように、前記第2の保護アームが移動することを含む
 前記(4)から(7)のいずれかに記載のロボット装置。
(9)前記認識部は、前記環境情報に基づいて前記物体を認識可能であり、
 前記決定部は、前記認識部の認識結果に基づいて、前記物体の前記補助対象への衝突を回避するように、前記保護動作を決定可能である
 前記(3)から(8)のいずれかに記載のロボット装置。
(10)前記制御部は、前記緊急事態を検出可能な検出部をさらに有する
 前記(3)から(9)のいずれかに記載のロボット装置。
(11)前記環境情報を取得可能な環境取得部をさらに備えた
 前記(10)に記載のロボット装置。
(12)前記環境取得部は、揺れを検出する揺れセンサを有し、
 前記検出部は、前記揺れセンサの検出結果に基づいて、前記緊急事態を検出可能である
 前記(11)に記載のロボット装置。
(13)前記環境取得部は、撮像部を有し、
 前記検出部は、前記撮像部の撮像結果に基づいて、前記緊急事態を検出可能である
 前記(11)に記載のロボット装置。
(14)前記制御部は、前記緊急事態についての緊急事態情報を受信する通信部を有し、
 前記検出部は、前記緊急事態情報に基づいて、前記緊急事態を検出可能である
 前記(10)または(11)に記載のロボット装置。
(15)前記補助装置は、前記ロボット装置を移動させることが可能な移動機構をさらに有し、
 前記保護動作は、前記ロボット装置が前記補助対象に近づくように、前記移動機構が移動することを含む
 前記(3)から(14)のいずれかに記載のロボット装置。
(16)前記決定部は、前記ロボット装置の周囲の環境情報に基づいて、前記補助対象までの経路を決定し、前記経路に基づいて前記移動機構の動作を決定可能である
 前記(15)に記載のロボット装置。
(17)前記補助装置は、前記補助対象に情報を提示する提示部をさらに備え、
 前記補助動作は、前記提示部が前記補助対象に補助情報を提示することを含む
 前記(1)から(16)のいずれかに記載のロボット装置。
(18)前記補助情報は、前記緊急事態における、前記補助対象の避難経路についての情報を含む
 前記(17)に記載のロボット装置。
(19)前記補助装置は、照明部をさらに備え、
 前記補助動作は、前記照明部が前記補助対象に光を照射することを含む
 前記(1)から(18)のいずれかに記載のロボット装置。
(20)前記補助動作は、前記補助装置が前記補助対象を補助する補助道具を前記補助対象に供給することを含む
 前記(1)から(19)のいずれかに記載のロボット装置。
 本出願は、日本国特許庁において2019年5月31日に出願された日本特許出願番号2019-102399号を基礎として優先権を主張するものであり、この出願のすべての内容を参照によって本出願に援用する。
 当業者であれば、設計上の要件や他の要因に応じて、種々の修正、コンビネーション、サブコンビネーション、および変更を想到し得るが、それらは添付の請求の範囲やその均等物の範囲に含まれるものであることが理解される。

Claims (20)

  1.  検出された緊急事態に基づいて、補助対象を補助する補助動作を行うことが可能な補助装置と、
     前記補助動作を前記補助装置に行わせるように制御可能な制御部と
     を備えたロボット装置。
  2.  前記補助動作は、前記補助対象の周囲の物体から前記補助対象を保護する保護動作である
     請求項1に記載のロボット装置。
  3.  前記制御部は、
     前記ロボット装置の周囲の環境情報に基づいて前記補助対象を認識可能な認識部と、
     前記認識部が認識した前記補助対象に行う前記保護動作を決定可能な決定部と
     を有する
     請求項2に記載のロボット装置。
  4.  前記補助装置は、前記認識部が認識した前記補助対象を保護可能な第1の保護アームを含み、前記第1の保護アームを移動可能な第1のアーム機構を有し、
     前記保護動作は、前記第1の保護アームが前記補助対象を保護するように、前記第1の保護アームが移動することを含む
     請求項3に記載のロボット装置。
  5.  前記決定部は、前記第1の保護アームを前記補助対象の近傍に配置するように、前記第1のアーム機構の動作を決定可能である
     請求項4に記載のロボット装置。
  6.  前記決定部は、前記補助対象の候補である補助対象候補が複数ある場合、複数の前記補助対象候補のうちの優先度が高い補助対象候補を前記補助対象として選択し、選択された前記補助対象を優先的に保護するように、前記第1のアーム機構の動作を決定可能である
     請求項4に記載のロボット装置。
  7.  前記制御部は、前記補助対象における、優先度が高い部位を優先的に保護するように、前記第1のアーム機構の動作を制御可能である
     請求項4に記載のロボット装置。
  8.  前記補助装置は、前記認識部が認識した前記補助対象を保護可能な第2の保護アームを含み、前記第2の保護アームを移動可能な第2のアーム機構をさらに有し、
     前記保護動作は、前記第2の保護アームが前記補助対象を保護するように、前記第2の保護アームが移動することを含む
     請求項4に記載のロボット装置。
  9.  前記認識部は、前記環境情報に基づいて前記物体を認識可能であり、
     前記決定部は、前記認識部の認識結果に基づいて、前記物体の前記補助対象への衝突を回避するように、前記保護動作を決定可能である
     請求項3に記載のロボット装置。
  10.  前記制御部は、前記緊急事態を検出可能な検出部をさらに有する
     請求項3に記載のロボット装置。
  11.  前記環境情報を取得可能な環境取得部をさらに備えた
     請求項10に記載のロボット装置。
  12.  前記環境取得部は、揺れを検出する揺れセンサを有し、
     前記検出部は、前記揺れセンサの検出結果に基づいて、前記緊急事態を検出可能である
     請求項11に記載のロボット装置。
  13.  前記環境取得部は、撮像部を有し、
     前記検出部は、前記撮像部の撮像結果に基づいて、前記緊急事態を検出可能である
     請求項11に記載のロボット装置。
  14.  前記制御部は、前記緊急事態についての緊急事態情報を受信する通信部を有し、
     前記検出部は、前記緊急事態情報に基づいて、前記緊急事態を検出可能である
     請求項10に記載のロボット装置。
  15.  前記補助装置は、前記ロボット装置を移動させることが可能な移動機構をさらに有し、
     前記保護動作は、前記ロボット装置が前記補助対象に近づくように、前記移動機構が移動することを含む
     請求項3に記載のロボット装置。
  16.  前記決定部は、前記ロボット装置の周囲の環境情報に基づいて、前記補助対象までの経路を決定し、前記経路に基づいて前記移動機構の動作を決定可能である
     請求項15に記載のロボット装置。
  17.  前記補助装置は、前記補助対象に情報を提示する提示部をさらに備え、
     前記補助動作は、前記提示部が前記補助対象に補助情報を提示することを含む
     請求項1に記載のロボット装置。
  18.  前記補助情報は、前記緊急事態における、前記補助対象の避難経路についての情報を含む
     請求項17に記載のロボット装置。
  19.  前記補助装置は、照明部をさらに備え、
     前記補助動作は、前記照明部が前記補助対象に光を照射することを含む
     請求項1に記載のロボット装置。
  20.  前記補助動作は、前記補助装置が前記補助対象を補助する補助道具を前記補助対象に供給することを含む
     請求項1に記載のロボット装置。
PCT/JP2020/020004 2019-05-31 2020-05-20 ロボット装置 WO2020241425A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019102399 2019-05-31
JP2019-102399 2019-05-31

Publications (1)

Publication Number Publication Date
WO2020241425A1 true WO2020241425A1 (ja) 2020-12-03

Family

ID=73553787

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/020004 WO2020241425A1 (ja) 2019-05-31 2020-05-20 ロボット装置

Country Status (1)

Country Link
WO (1) WO2020241425A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58181588A (ja) * 1982-04-13 1983-10-24 ニツタン株式会社 避難誘導用ロボツト
JP2008142876A (ja) * 2006-12-13 2008-06-26 Mitsubishi Heavy Ind Ltd ロボットによるサービスシステムにおけるサービス対象者判別方法と該方法を用いたロボットによるサービスシステム
JP2009297892A (ja) * 2000-09-19 2009-12-24 Toyota Motor Corp 移動体搭載用のロボット及びこれを搭載した移動体
JP2010197101A (ja) * 2009-02-23 2010-09-09 Nagoya Institute Of Technology 地震時負傷回避システム
CN205148332U (zh) * 2015-10-22 2016-04-13 天津工业大学 一种面向独居老人的陪护和紧急救助型机器人
US20180169866A1 (en) * 2016-12-16 2018-06-21 Fetch Robotics, Inc. System and Method for Responding to Emergencies Using Robotic Assistance
KR20190004987A (ko) * 2017-07-05 2019-01-15 엘지전자 주식회사 안내 로봇

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58181588A (ja) * 1982-04-13 1983-10-24 ニツタン株式会社 避難誘導用ロボツト
JP2009297892A (ja) * 2000-09-19 2009-12-24 Toyota Motor Corp 移動体搭載用のロボット及びこれを搭載した移動体
JP2008142876A (ja) * 2006-12-13 2008-06-26 Mitsubishi Heavy Ind Ltd ロボットによるサービスシステムにおけるサービス対象者判別方法と該方法を用いたロボットによるサービスシステム
JP2010197101A (ja) * 2009-02-23 2010-09-09 Nagoya Institute Of Technology 地震時負傷回避システム
CN205148332U (zh) * 2015-10-22 2016-04-13 天津工业大学 一种面向独居老人的陪护和紧急救助型机器人
US20180169866A1 (en) * 2016-12-16 2018-06-21 Fetch Robotics, Inc. System and Method for Responding to Emergencies Using Robotic Assistance
KR20190004987A (ko) * 2017-07-05 2019-01-15 엘지전자 주식회사 안내 로봇

Similar Documents

Publication Publication Date Title
JP7243110B2 (ja) 情報処理装置及び情報処理方法、コンピュータプログラム、並びに荷物受け取り支援システム
JP2008152504A (ja) 案内ロボット装置及び案内システム
JP4886572B2 (ja) ロボット
JP2010231698A (ja) ネットワークロボットシステム、ロボット制御装置、ロボット制御方法およびロボット制御プログラム
JP2008254122A (ja) ロボット
JP7312582B2 (ja) 無人移動装置
WO2020129309A1 (ja) 案内ロボット制御装置、及び、それを用いた案内システム、並びに、案内ロボット制御方法
JP7142718B2 (ja) 案内ロボット制御装置、及び、それを用いた案内システム、並びに、案内ロボット制御方法
JP4315872B2 (ja) 移動ロボットの制御装置
JP2006007342A (ja) ロボットの制御プログラム更新方法及び該システム
JP2008117132A (ja) 防犯ロボットシステム及び防犯ロボットによる監視方法、警告方法
JP7101815B2 (ja) 案内ロボット制御装置、及び、それを用いた案内システム、並びに、案内ロボット制御方法
WO2020241425A1 (ja) ロボット装置
US11353880B2 (en) Autonomous moving body and control program for autonomous moving body
JP2006231447A (ja) 指示位置または特定物の確認方法及び座標獲得方法並びに装置
CN115223698A (zh) 急救系统、控制方法、及计算机可读取的存储介质
JP2006143159A (ja) 車両用動き認識装置
JP2003300186A (ja) 移動ロボットシステム
JP2008279529A (ja) 移動型ロボット
JP6142307B2 (ja) 注目対象推定システムならびにロボットおよび制御プログラム
KR20170014480A (ko) 무인 비행기를 이용한 이용한 길 안내 방법
JP2015060338A (ja) 誘導システム、サーバ装置、及びプログラム
JP2014119900A (ja) 撮影システム
JP2023070608A (ja) 携帯機器の拡張現実を利用した在室者の避難経路案内方法及びそのためのシステム
JP7084098B1 (ja) フォークリフトおよび荷役システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20813913

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20813913

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP