JPWO2019240208A1 - Robots and their control methods, as well as programs - Google Patents

Robots and their control methods, as well as programs Download PDF

Info

Publication number
JPWO2019240208A1
JPWO2019240208A1 JP2020525643A JP2020525643A JPWO2019240208A1 JP WO2019240208 A1 JPWO2019240208 A1 JP WO2019240208A1 JP 2020525643 A JP2020525643 A JP 2020525643A JP 2020525643 A JP2020525643 A JP 2020525643A JP WO2019240208 A1 JPWO2019240208 A1 JP WO2019240208A1
Authority
JP
Japan
Prior art keywords
marker
robot
unit
event
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020525643A
Other languages
Japanese (ja)
Other versions
JPWO2019240208A5 (en
Inventor
要 林
要 林
博教 小川
博教 小川
秀哉 南地
秀哉 南地
泰士 深谷
泰士 深谷
芳樹 松浦
芳樹 松浦
浩平 高田
浩平 高田
直人 吉岡
直人 吉岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Groove X Inc
Original Assignee
Groove X Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Groove X Inc filed Critical Groove X Inc
Publication of JPWO2019240208A1 publication Critical patent/JPWO2019240208A1/en
Publication of JPWO2019240208A5 publication Critical patent/JPWO2019240208A5/ja
Priority to JP2023202283A priority Critical patent/JP2024020582A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

ロボットは、移動機構と、周囲の空間を撮影する撮影部と、撮影部において撮影された撮影画像に含まれる所定のマーカを認識するマーカ認識部と、認識されたマーカに基づき移動機構による移動を制御する移動制御部とを備える。The robot moves by a moving mechanism, a photographing unit that captures the surrounding space, a marker recognition unit that recognizes a predetermined marker included in the captured image captured by the photographing unit, and a moving mechanism based on the recognized markers. It is provided with a movement control unit for controlling.

Description

本発明は、ロボットおよびその制御方法、ならびにプログラムに関する。 The present invention relates to a robot, a control method thereof, and a program.

従来から、家屋内を自律的に移動しながらカメラで画像を撮影し、撮影画像から屋内の空間を認識し、認識している空間に基づき移動経路を設定して屋内を移動するロボットがある。ロボット移動経路の設定は、ロボットが移動する経路を定めたマップを利用者が予め作成することにより行われる。ロボットは作成されたマップに基づき定められた経路を移動することができる(例えば、特許文献1を参照)。 Conventionally, there is a robot that takes an image with a camera while autonomously moving inside the house, recognizes the indoor space from the captured image, sets a movement route based on the recognized space, and moves indoors. The robot movement route is set by the user creating in advance a map that defines the route on which the robot moves. The robot can move a route determined based on the created map (see, for example, Patent Document 1).

特開2016−103277号公報Japanese Unexamined Patent Publication No. 2016-103277

しかし、自律行動型ロボットにおいては、ロボットが空間を自律的に移動できるため、例えば、利用者が進入して欲しくない範囲やロボットが移動すると危険な範囲にロボットが進入することがある。 However, in the autonomous behavior type robot, since the robot can move autonomously in the space, for example, the robot may enter a range that the user does not want to enter or a dangerous range when the robot moves.

また、自律的な移動だけでなく、所定の場所へロボットを移動させて、所定のアクションを行わせたいこともある。 In addition to autonomous movement, there are also cases where a robot is moved to a predetermined location to perform a predetermined action.

本発明は上記事情に鑑みてなされたものであり、1つの実施形態において、利用者がロボットの移動を制御できる、ロボットおよびその制御方法、ならびにプログラムを提供することを一つの目的とする。 The present invention has been made in view of the above circumstances, and one object of the present invention is to provide a robot, a control method thereof, and a program capable of controlling the movement of the robot by a user in one embodiment.

(1)上記の課題を解決するため、実施形態のロボットは、移動機構と、周囲の空間を撮影する撮影部と、前記撮影部において撮影された撮影画像に含まれる所定のマーカを認識するマーカ認識部と、認識された前記マーカに基づき前記移動機構による移動を制御する移動制御部とを備える。 (1) In order to solve the above problems, the robot of the embodiment has a moving mechanism, a photographing unit that photographs the surrounding space, and a marker that recognizes a predetermined marker included in the captured image captured by the photographing unit. It includes a recognition unit and a movement control unit that controls movement by the movement mechanism based on the recognized marker.

(2)また、実施形態のロボットにおいて、前記移動制御部は、認識された前記マーカに基づき前記移動による進入を禁止する。 (2) Further, in the robot of the embodiment, the movement control unit prohibits the approach by the movement based on the recognized marker.

(3)また、実施形態のロボットにおいて、前記移動制御部は、認識された前記マーカに基づき前記移動の速度を制限する。 (3) Further, in the robot of the embodiment, the movement control unit limits the speed of the movement based on the recognized marker.

(4)また、実施形態のロボットにおいて、前記移動制御部は、認識された前記マーカの設置位置に基づき前記移動を制御する。 (4) Further, in the robot of the embodiment, the movement control unit controls the movement based on the recognized installation position of the marker.

(5)また、実施形態のロボットにおいて、前記移動制御部は、前記設置位置に基づく制限範囲を設定し、前記制限範囲における前記移動を制限する。 (5) Further, in the robot of the embodiment, the movement control unit sets a limited range based on the installation position and limits the movement in the limited range.

(6)また、実施形態のロボットにおいて、前記移動制御部は、前記設置位置より奥側、又は前記設置位置の周囲における所定の範囲を前記制限範囲として設定する。 (6) Further, in the robot of the embodiment, the movement control unit sets a predetermined range as the limitation range on the back side of the installation position or around the installation position.

(7)また、実施形態のロボットにおいて、前記移動制御部は、認識された前記マーカが複数である場合、認識された複数の前記設置位置に基づき前記移動を制限する。 (7) Further, in the robot of the embodiment, when there are a plurality of the recognized markers, the movement control unit limits the movement based on the recognized plurality of the installed positions.

(8)また、実施形態のロボットにおいて、前記移動制御部は、認識された第1マーカの設置位置と認識された第2マーカの設置位置とを結ぶ線分に基づき前記移動を制限する。 (8) Further, in the robot of the embodiment, the movement control unit limits the movement based on a line segment connecting the recognized first marker installation position and the recognized second marker installation position.

(9)また、実施形態のロボットにおいて、前記移動制御部は、認識された前記マーカの種類に基づき前記移動を制御する。 (9) Further, in the robot of the embodiment, the movement control unit controls the movement based on the recognized type of the marker.

(10)また、実施形態のロボットにおいて、前記移動制御部は、記録されているマーカに基づき前記移動を制御する。 (10) Further, in the robot of the embodiment, the movement control unit controls the movement based on the recorded marker.

(11)また、実施形態のロボットにおいて、前記移動制御部は、前記撮影画像において前記マーカが認識されない場合、前記記録されているマーカに基づき前記移動を制御する。 (11) Further, in the robot of the embodiment, when the marker is not recognized in the captured image, the movement control unit controls the movement based on the recorded marker.

(12)また、実施形態のロボットにおいて、前記撮影部において撮影された撮影画像に基づいて、前記空間を認識した空間データを生成する空間データ生成部と、生成された前記空間データに基づいて、前記空間に含まれる空間要素を可視化した可視化データを生成する可視化データ生成部と、生成された前記可視化データを利用者端末に対して提供する可視化データ提供部とをさらに備える。 (12) Further, in the robot of the embodiment, a spatial data generation unit that generates spatial data that recognizes the space based on the captured image captured by the imaging unit, and a spatial data generation unit that generates the spatial data based on the generated spatial data. It further includes a visualization data generation unit that generates visualization data that visualizes spatial elements included in the space, and a visualization data providing unit that provides the generated visualization data to a user terminal.

(13)また、実施形態のロボットにおいて、提供された前記可視化データに含まれる領域の指定を前記利用者端末から取得する指定取得部をさらに備え、前記空間データ生成部は、取得された前記指定に係る領域において再撮影された前記撮影画像に基づいて前記空間を再認識する。 (13) Further, the robot of the embodiment further includes a designation acquisition unit that acquires the designation of the area included in the provided visualization data from the user terminal, and the spatial data generation unit is the acquired designation. The space is re-recognized based on the photographed image re-photographed in the region.

(14)また、実施形態のロボットにおいて、前記移動における移動先の状態を示す状態情報を取得する状態情報取得部をさらに備え、前記移動制御部は、前記状態情報にさらに基づき前記移動を制御する。 (14) Further, the robot of the embodiment further includes a state information acquisition unit that acquires state information indicating the state of the movement destination in the movement, and the movement control unit further controls the movement based on the state information. ..

(15)また、実施形態のロボットにおいて、前記マーカの位置を記憶するマーカ情報記憶部と、第1イベントを検出する第1イベント検出部と、第2イベントを検出する第2イベント検出部と、アクションを実行するアクション実行部とをさらに備え、前記第1イベントが検出されると、前記マーカの前記位置の付近へ移動し、前記第2イベントが検出されると、前記マーカ、前記第1イベント及び前記第2イベントのうちの少なくとも1つに対応する前記アクションを実行する。 (15) Further, in the robot of the embodiment, a marker information storage unit that stores the position of the marker, a first event detection unit that detects the first event, a second event detection unit that detects the second event, and the like. It further includes an action execution unit that executes an action, and when the first event is detected, it moves to the vicinity of the position of the marker, and when the second event is detected, the marker and the first event And perform the action corresponding to at least one of the second events.

(16)上記の課題を解決するため、実施形態のロボット制御方法は、周囲の空間を撮影する撮影ステップと、前記撮影ステップにおいて撮影された撮影画像に含まれる所定のマーカを認識するマーカ認識ステップと、認識された前記マーカに基づき移動機構による移動を制御する移動制御ステップとを含む。 (16) In order to solve the above problem, the robot control method of the embodiment includes a shooting step of shooting the surrounding space and a marker recognition step of recognizing a predetermined marker included in the shot image shot in the shooting step. And a movement control step that controls the movement by the movement mechanism based on the recognized marker.

(17)上記の課題を解決するため、実施形態のロボット制御プログラムは、コンピュータに、周囲の空間を撮影する撮影機能と、前記撮影機能において撮影された撮影画像に含まれる所定のマーカを認識するマーカ認識機能と、認識された前記マーカに基づき移動機構による移動を制御する移動制御機能とを実現させる。 (17) In order to solve the above problem, the robot control program of the embodiment recognizes on the computer a shooting function for shooting the surrounding space and a predetermined marker included in the shot image shot by the shooting function. A marker recognition function and a movement control function for controlling movement by a movement mechanism based on the recognized marker are realized.

一つの実施形態によれば、利用者がロボットの移動を制御できる、ロボットおよびその制御方法、ならびにプログラムを提供することができる。 According to one embodiment, it is possible to provide a robot, a control method thereof, and a program in which a user can control the movement of the robot.

実施形態1における自律行動型ロボットのソフトウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the software structure of the autonomous action type robot in Embodiment 1. FIG. 実施形態1における自律行動型ロボットのハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware composition of the autonomous action type robot in Embodiment 1. FIG. 実施形態1における自律行動型ロボット制御プログラムの動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation of the autonomous action type robot control program in Embodiment 1. FIG. 実施形態1における自律行動型ロボット制御プログラムの動作の他の一例を示すフローチャートである。It is a flowchart which shows another example of the operation of the autonomous action type robot control program in Embodiment 1. FIG. 実施形態1における進入禁止ラインの設定方法を示す図である。It is a figure which shows the setting method of the entry prohibition line in Embodiment 1. FIG. 実施形態1における利用者端末の表示の一例を示す図である。It is a figure which shows an example of the display of the user terminal in Embodiment 1. FIG. 実施形態1における利用者端末の表示の一例を示す図である。It is a figure which shows an example of the display of the user terminal in Embodiment 1. FIG. 実施形態2におけるロボットのモジュール構成の一例を示すブロック図である。It is a block diagram which shows an example of the module structure of the robot in Embodiment 2. 実施形態2におけるデータ提供装置のモジュール構成の一例を示すブロック図である。It is a block diagram which shows an example of the module structure of the data providing apparatus in Embodiment 2. 実施形態2におけるイベント情報記憶部のデータ構成の一例を示すブロック図である。It is a block diagram which shows an example of the data structure of the event information storage part in Embodiment 2. 実施形態2におけるマーカ情報記憶部のデータ構成の一例を示すブロック図である。It is a block diagram which shows an example of the data structure of the marker information storage part in Embodiment 2. 図12(A)は、実施形態2のマーカ登録フェーズにおける処理手順を示すフローチャートである。図12(B)は、実施形態2のアクションフェーズにおける処理手順を示すフローチャートである。FIG. 12A is a flowchart showing a processing procedure in the marker registration phase of the second embodiment. FIG. 12B is a flowchart showing a processing procedure in the action phase of the second embodiment. 図13(A)は、実施例1のマーカ登録フェーズにおける処理手順を示すフローチャートである。図13(B)は、実施例1のアクションフェーズにおける処理手順を示すフローチャートである。FIG. 13A is a flowchart showing a processing procedure in the marker registration phase of the first embodiment. FIG. 13B is a flowchart showing a processing procedure in the action phase of the first embodiment. 図14(A)は、実施例2のマーカ登録フェーズにおける処理手順を示すフローチャートである。図14(B)は、実施例2のアクションフェーズにおける処理手順を示すフローチャートである。FIG. 14A is a flowchart showing a processing procedure in the marker registration phase of the second embodiment. FIG. 14B is a flowchart showing a processing procedure in the action phase of the second embodiment. 図15(A)は、実施例3のマーカ登録フェーズにおける処理手順を示すフローチャートである。図15(B)は、実施例3のアクションフェーズにおける処理手順を示すフローチャートである。FIG. 15A is a flowchart showing a processing procedure in the marker registration phase of the third embodiment. FIG. 15B is a flowchart showing a processing procedure in the action phase of the third embodiment. 図16(A)は、実施例4のマーカ登録フェーズにおける処理手順を示すフローチャートである。図16(B)は、実施例4のアクションフェーズにおける処理手順を示すフローチャートである。FIG. 16A is a flowchart showing a processing procedure in the marker registration phase of the fourth embodiment. FIG. 16B is a flowchart showing a processing procedure in the action phase of the fourth embodiment. 図17(A)は、実施例5のマーカ登録フェーズにおける処理手順を示すフローチャートである。図17(B)は、実施例5のアクションフェーズにおける処理手順を示すフローチャートである。FIG. 17A is a flowchart showing a processing procedure in the marker registration phase of the fifth embodiment. FIG. 17B is a flowchart showing a processing procedure in the action phase of the fifth embodiment. 図18(A)は、実施例6のマーカ登録フェーズにおける処理手順を示すフローチャートである。図18(B)は、実施例6のアクションフェーズにおける処理手順を示すフローチャートである。FIG. 18A is a flowchart showing a processing procedure in the marker registration phase of the sixth embodiment. FIG. 18B is a flowchart showing a processing procedure in the action phase of the sixth embodiment.

以下、図面を参照して本発明の実施形態における自律行動型ロボット、データ提供装置およびデータ提供プログラムについて詳細に説明する。 Hereinafter, the autonomous action robot, the data providing device, and the data providing program according to the embodiment of the present invention will be described in detail with reference to the drawings.

[実施形態1]
先ず、図1を用いて、自律行動型ロボット1のソフトウェア構成を説明する。図1は、実施形態における自律行動型ロボット1のソフトウェア構成の一例を示すブロック図である。
[Embodiment 1]
First, the software configuration of the autonomous action type robot 1 will be described with reference to FIG. FIG. 1 is a block diagram showing an example of a software configuration of the autonomous action type robot 1 in the embodiment.

図1において、自律行動型ロボット1は、データ提供装置10およびロボット2を有する。データ提供装置10とロボット2は通信にて接続されて、自律行動型ロボット1として機能する。ロボット2は、撮影部21、マーカ認識部22、移動制御部23、状態情報取得部24および移動機構29の各機能部を有する移動式ロボットである。データ提供装置10は、第1通信制御部11、点群データ生成部12、空間データ生成部13、可視化データ生成部14、撮影対象認識部15および第2通信制御部16の各機能部を有する。第1通信制御部11は、撮影画像取得部111、空間データ提供部112および指示部113の各機能部を有する。第2通信制御部16は、可視化データ提供部161、指定取得部162の各機能部を有する。本実施形態における自律行動型ロボット1のデータ提供装置10の上記各機能部は、データ提供装置10を制御するデータ提供プログラム(ソフトウェア)によって実現される機能モジュールであるものとして説明する。また、ロボット2の、マーカ認識部22、移動制御部23および状態情報取得部24の各機能部は、自律行動型ロボット1におけるロボット2を制御するプログラムによって実現される機能モジュールであるものとして説明する。 In FIG. 1, the autonomous action type robot 1 has a data providing device 10 and a robot 2. The data providing device 10 and the robot 2 are connected by communication to function as an autonomous action type robot 1. The robot 2 is a mobile robot having each functional unit of a photographing unit 21, a marker recognition unit 22, a movement control unit 23, a state information acquisition unit 24, and a movement mechanism 29. The data providing device 10 has each functional unit of the first communication control unit 11, the point cloud data generation unit 12, the spatial data generation unit 13, the visualization data generation unit 14, the imaging target recognition unit 15, and the second communication control unit 16. .. The first communication control unit 11 has each functional unit of the captured image acquisition unit 111, the spatial data provision unit 112, and the instruction unit 113. The second communication control unit 16 has each functional unit of the visualization data providing unit 161 and the designated acquisition unit 162. Each of the above-mentioned functional units of the data providing device 10 of the autonomous action type robot 1 in the present embodiment will be described as a functional module realized by a data providing program (software) that controls the data providing device 10. Further, each functional unit of the marker recognition unit 22, the movement control unit 23, and the state information acquisition unit 24 of the robot 2 is described as a functional module realized by a program for controlling the robot 2 in the autonomous action type robot 1. To do.

データ提供装置10は、自律行動型ロボット1の機能の一部を実行することができる装置であって、例えば、ロボット2と物理的に近い場所に設置され、ロボット2と通信し、ロボット2の処理の負荷を分散させるエッジサーバである。なお、本実施形態において自律行動型ロボット1は、データ提供装置10とロボット2とにおいて構成される場合を説明するが、データ提供装置10の機能は、ロボット2の機能に含まれるものであってもよい。また、ロボット2は、空間データに基づき移動可能なロボットであって、空間データに基づき移動範囲が定められるロボットの一態様である。データ提供装置10は、1つの筐体において構成されるものであっても、複数の筐体から構成されるものであってもよい。 The data providing device 10 is a device capable of executing a part of the functions of the autonomous action type robot 1. For example, the data providing device 10 is installed at a place physically close to the robot 2 and communicates with the robot 2 to communicate with the robot 2. It is an edge server that distributes the processing load. In the present embodiment, the case where the autonomous action type robot 1 is composed of the data providing device 10 and the robot 2 will be described, but the function of the data providing device 10 is included in the function of the robot 2. May be good. Further, the robot 2 is a robot that can move based on spatial data, and is one aspect of a robot in which a moving range is determined based on spatial data. The data providing device 10 may be composed of one housing or a plurality of housings.

第1通信制御部11は、ロボット2との通信機能を制御する。ロボット2との通信方式は任意であり、例えば、無線LAN(Local Area Network)、Bluetooth(登録商標)、または赤外線通信等の近距離無線通信、もしくは有線通信等を用いることができる。第1通信制御部11が有する、撮影画像取得部111、空間データ提供部112および指示部113の各機能は、第1通信制御部11において制御される通信機能を用いてロボット2と通信する。 The first communication control unit 11 controls the communication function with the robot 2. The communication method with the robot 2 is arbitrary, and for example, wireless LAN (Local Area Network), Bluetooth (registered trademark), short-range wireless communication such as infrared communication, or wired communication can be used. Each function of the captured image acquisition unit 111, the spatial data provision unit 112, and the instruction unit 113 possessed by the first communication control unit 11 communicates with the robot 2 by using the communication function controlled by the first communication control unit 11.

撮影画像取得部111は、ロボット2の撮影部21により撮影された撮影画像を取得する。撮影部21は、ロボット2に設けられて、ロボット2の移動に伴い撮影範囲を変更することができる。ここで、ロボット2の撮影部21、マーカ認識部22、移動制御部23、状態情報取得部24および移動機構29について説明する。 The captured image acquisition unit 111 acquires a captured image captured by the photographing unit 21 of the robot 2. The photographing unit 21 is provided on the robot 2 and can change the photographing range as the robot 2 moves. Here, the photographing unit 21, the marker recognition unit 22, the movement control unit 23, the state information acquisition unit 24, and the movement mechanism 29 of the robot 2 will be described.

撮影部21は、1台または複数台のカメラで構成することができる。例えば、撮影部21が2台のカメラで構成されるステレオカメラである場合、撮影部21は撮影対象である空間要素を異なる撮影角度から立体的に撮影することが可能となる。撮影部21は、例えば、CCD(Charge−Coupled Device)センサまたはCMOS(Complementary Metal Oxide Semiconductor)センサ等の撮像素子を用いたビデオカメラである。2台のカメラ(ステレオカメラ)で空間要素を撮影することにより、空間要素の形状を測定することができる。また、撮影部21は、ToF(Time of Flight)技術を用いたカメラであってもよい。ToFカメラにおいては、変調された赤外光を空間要素に照射して、空間要素までの距離を測定することにより、空間要素の形状を測定することができる。また、撮影部21は、ストラクチャードライトを用いるカメラであってもよい。ストラクチャードライトは、ストライプ、または格子状のパターンの光を空間要素に投影するライトである。撮影部21は、ストラクチャードライトと別角度から空間要素を撮影することにより、投影されたパターンの歪みから空間要素の形状を測定することができる。撮影部21は、これらのカメラのいずれか1つ、または2つ以上の組合せであってもよい。 The photographing unit 21 can be composed of one or a plurality of cameras. For example, when the shooting unit 21 is a stereo camera composed of two cameras, the shooting unit 21 can three-dimensionally shoot a spatial element to be shot from different shooting angles. The photographing unit 21 is a video camera using an image sensor such as a CCD (Charge-Coupled Device) sensor or a CMOS (Complementary Metal Oxide Sensor) sensor, for example. The shape of the spatial element can be measured by photographing the spatial element with two cameras (stereo cameras). Further, the photographing unit 21 may be a camera using ToF (Time of Flight) technology. In the ToF camera, the shape of the spatial element can be measured by irradiating the spatial element with modulated infrared light and measuring the distance to the spatial element. Further, the photographing unit 21 may be a camera using a structured light. A structured light is a light that projects light in a striped or grid pattern onto a spatial element. The photographing unit 21 can measure the shape of the spatial element from the distortion of the projected pattern by photographing the spatial element from an angle different from that of the structured light. The photographing unit 21 may be any one or a combination of two or more of these cameras.

また、撮影部21は、ロボット2に取付けられてロボット2の移動に合わせて移動するものである。しかし、撮影部21は、ロボット2とは分離して設置されるものであってもよい。 Further, the photographing unit 21 is attached to the robot 2 and moves according to the movement of the robot 2. However, the photographing unit 21 may be installed separately from the robot 2.

撮影部21で撮影された撮影画像は、第1通信制御部11に対応する通信方式において撮影画像取得部111に対して提供される。撮影された撮影画像は、ロボット2の記憶部に一時的に記憶されて、撮影画像取得部111は、リアルタイムにまたは所定の通信間隔で一時記憶された撮影画像を取得する。 The captured image captured by the photographing unit 21 is provided to the captured image acquisition unit 111 in the communication method corresponding to the first communication control unit 11. The captured captured image is temporarily stored in the storage unit of the robot 2, and the captured image acquisition unit 111 acquires the captured image temporarily stored in real time or at a predetermined communication interval.

マーカ認識部22は、撮影部21において撮影された撮影画像に含まれる所定のマーカを認識する。マーカとは、ロボット2の移動の制限を示す空間要素である。マーカは、撮影画像から認識可能な物品の形状、模様若しくは色彩若しくは物品に付された文字若しくは図形又はこれらの結合である。利用者がロボット2の移動を制限する位置にマーカを設置することにより、ロボット2が撮影部21で空間を撮影したときに、家具等とともに撮影される。マーカは、平面的な物品であっても立体的な物品であってもよい。マーカは、例えば、2次元コードまたは特定の色の組合せもしくは形状が印刷されたシールまたは用紙等である。また、マーカは特定の色や形状の置物または敷物等であってもよい。このように、印刷物や身の回りにある物をマーカとして利用することにより、利用者はマーカの電源を確保したり、設置場所を確保したりする必要がない。また、部屋の雰囲気を損なうこと無く、利用者の意思でロボットの移動を制限できる。また、利用者もマーカを視認できるので、移動制限範囲を直観的に把握でき、制限範囲の変更も容易にできる。マーカは利用者によって、例えば壁や家具に貼付され、または床に載置されることにより設置される。マーカ認識部17は、撮影画像に含まれるマーカの画像を認識することにより、ロボット2の移動が制限されることを認識することができる。 The marker recognition unit 22 recognizes a predetermined marker included in the captured image captured by the photographing unit 21. The marker is a spatial element that indicates a restriction on the movement of the robot 2. A marker is a shape, pattern or color of an article that can be recognized from a photographed image, characters or figures attached to the article, or a combination thereof. By installing the marker at a position where the user restricts the movement of the robot 2, when the robot 2 photographs the space with the photographing unit 21, the image is taken together with furniture and the like. The marker may be a flat article or a three-dimensional article. The marker is, for example, a sticker or paper on which a two-dimensional code or a specific color combination or shape is printed. Further, the marker may be a figurine or a rug having a specific color or shape. In this way, by using the printed matter or the things around us as the marker, the user does not need to secure the power supply of the marker or secure the installation place. In addition, the movement of the robot can be restricted by the user's will without damaging the atmosphere of the room. In addition, since the user can also visually recognize the marker, the movement restriction range can be intuitively grasped, and the restriction range can be easily changed. Markers are installed by the user, for example by affixing them to walls or furniture, or by placing them on the floor. The marker recognition unit 17 can recognize that the movement of the robot 2 is restricted by recognizing the image of the marker included in the captured image.

ここで、マーカが平面的である場合、壁や家具への貼付等が可能となるため、省スペースでの設置が可能となる。マーカが平面的である場合、マーカの平面を水平方向から撮影すると(撮影角度が小さいとき)、撮影画像におけるマーカが歪んでしまうため認識が難くなる。一方、マーカの平面を垂直方向から撮影すると(撮影角度が大きいとき)、マーカを認識しやすくなる。したがって、例えばマーカを廊下に貼付した場合、マーカから遠い位置では撮影角度が小さいためロボット2にマーカを認識させないようにすることができる。ロボットが廊下を移動してマーカに近付くと撮影角度が大きくなるため、マーカが認識される。このため、平面的なマーカにおいては、マーカの設置位置(後述)とロボットがマーカを認識できる位置を近づけることが可能となるため、マーカの設置位置をロボットが正確に把握することが可能となる。また、マーカが立体的である場合、部屋の中央等への設置が容易となる。マーカが立体的である場合、マーカは様々な撮影角度から認識可能になる。したがって、立体的なマーカを設置することにより、マーカの設置位置から遠い位置にあるロボット2にマーカを認識させることが可能となる。 Here, when the marker is flat, it can be attached to a wall or furniture, so that it can be installed in a small space. When the marker is flat, if the flat surface of the marker is photographed from the horizontal direction (when the photographing angle is small), the marker in the photographed image is distorted, which makes recognition difficult. On the other hand, if the plane of the marker is photographed from the vertical direction (when the photographing angle is large), the marker can be easily recognized. Therefore, for example, when the marker is attached to the corridor, the robot 2 can be prevented from recognizing the marker because the shooting angle is small at a position far from the marker. When the robot moves in the corridor and approaches the marker, the shooting angle increases, so the marker is recognized. Therefore, in a flat marker, the installation position of the marker (described later) can be brought close to the position where the robot can recognize the marker, so that the robot can accurately grasp the installation position of the marker. .. Further, when the marker is three-dimensional, it can be easily installed in the center of the room or the like. When the marker is three-dimensional, the marker can be recognized from various shooting angles. Therefore, by installing the three-dimensional marker, it is possible to make the robot 2 located at a position far from the marker installation position recognize the marker.

マーカ認識部22は、マーカの視覚的な特徴を予め記憶しておく。例えば、マーカ認識部22は、マーカとして認識すべき2次元コードや立体物を予め記憶しておく。マーカ認識部22は、利用者によって予め登録された物をマーカとして認識するようにしてもよい。例えば、利用者が利用者端末3のカメラで撮影した植木鉢をマーカとして登録した場合、廊下等に設置された植木鉢をマーカとして認識することができる。したがって、利用者はマーカを設置する場所において違和感が無い物をマーカとして設置することが可能となる。なお、マーカ認識部22は、物以外の空間要素をマーカとして認識するようにしてもよい。例えば、マーカ認識部22は、利用者が腕を体の正面でクロスさせる等の利用者のジェスチャーをマーカとして認識するようにしてもよい。マーカ認識部22は、利用者がジェスチャーをした位置をマーカの設置位置として認識する。 The marker recognition unit 22 stores the visual features of the marker in advance. For example, the marker recognition unit 22 stores in advance a two-dimensional code or a three-dimensional object to be recognized as a marker. The marker recognition unit 22 may recognize an object registered in advance by the user as a marker. For example, when the user registers a flowerpot taken by the camera of the user terminal 3 as a marker, the flowerpot installed in the corridor or the like can be recognized as a marker. Therefore, the user can install a marker that does not give a sense of discomfort at the place where the marker is installed. The marker recognition unit 22 may recognize a spatial element other than an object as a marker. For example, the marker recognition unit 22 may recognize the user's gesture such as crossing the arm in front of the body as a marker. The marker recognition unit 22 recognizes the position where the user makes a gesture as the installation position of the marker.

マーカ認識部22は、マーカが貼付されまたは設置等された位置(以下、「設置位置」という。)を認識する。設置位置とは、空間データにおけるマーカが設置された空間の中の位置である。設置位置は、例えば、ロボット2が認識している空間データに基づき、ロボット2の現在位置と撮影されたマーカとの距離において認識することができる。例えば、マーカの大きさが予め分かっている場合、マーカ認識部22は、撮影画像に含まれるマーカ画像の大きさから、ロボット2とマーカの距離を算出し、ロボット2の現在位置と撮影方向(例えば、図示しない方位計による方位)に基づき、マーカの設置位置を認識することができる。また、設置位置は空間における位置が既に分かっている空間要素からマーカまでの相対的な位置から認識するようにしてもよい。例えば、ドアの位置が既に分かっている場合、マーカ認識部22は、マーカとドアの相対的な位置から設置位置を認識するようにしてもよい。また、撮影画像がデプスカメラにおいて撮影されたものである場合、設置位置はデプスカメラで撮影されたマーカの撮影深度に基づき認識することが可能となる。 The marker recognition unit 22 recognizes a position where the marker is attached or installed (hereinafter, referred to as “installation position”). The installation position is a position in the space where the marker is installed in the spatial data. The installation position can be recognized, for example, based on the spatial data recognized by the robot 2, based on the distance between the current position of the robot 2 and the photographed marker. For example, when the size of the marker is known in advance, the marker recognition unit 22 calculates the distance between the robot 2 and the marker from the size of the marker image included in the captured image, and determines the current position and shooting direction of the robot 2 ( For example, the installation position of the marker can be recognized based on the orientation by an azimuth meter (not shown). Further, the installation position may be recognized from the relative position from the spatial element to the marker whose position in the space is already known. For example, when the position of the door is already known, the marker recognition unit 22 may recognize the installation position from the relative position between the marker and the door. Further, when the captured image is captured by the depth camera, the installation position can be recognized based on the shooting depth of the marker photographed by the depth camera.

また、マーカ認識部22は、撮影画像に含まれる複数のマーカを認識するようにしてもよい。例えば、移動を制限する範囲を直線で設定したい場合、利用者は第1マーカと第2マーカからなる、2つのマーカの対(ペア)で構成されるマーカを設置することができる。マーカ認識部22は、第1マーカの設置位置(始点)と第2マーカの設置位置(終点)を認識することにより、始点と終点を結ぶ線分(直線又は曲線)の位置を認識してもよい。マーカ認識部22は、第1マーカと第2マーカの位置を空間データにマッピングすることにより空間データにおける線分の位置を認識することができる。利用者は、マーカを所定の位置に設置等することにより、移動を制限する線分を簡単に設定することが可能となる。マーカの設置は3つ以上を可能としてもよい。例えば、マーカが3つ以上であった場合、マーカ認識部22は、それぞれのマーカの設置位置に基づき、折れ線または多角形(エリア)を認識することができる。 Further, the marker recognition unit 22 may recognize a plurality of markers included in the captured image. For example, when it is desired to set a range for restricting movement with a straight line, the user can install a marker composed of a pair of two markers including a first marker and a second marker. The marker recognition unit 22 recognizes the position of the line segment (straight line or curve) connecting the start point and the end point by recognizing the installation position (start point) of the first marker and the installation position (end point) of the second marker. Good. The marker recognition unit 22 can recognize the position of the line segment in the spatial data by mapping the positions of the first marker and the second marker to the spatial data. The user can easily set the line segment that restricts the movement by installing the marker at a predetermined position or the like. It may be possible to install three or more markers. For example, when there are three or more markers, the marker recognition unit 22 can recognize a polygonal line or a polygon (area) based on the installation position of each marker.

移動制御部23は、マーカ認識部22において認識されたマーカの設置位置に基づき移動を制限する。移動制御部23は、認識されたマーカの設置位置に応じて移動を制限する制限範囲を設定する、制限範囲設定部231を有する。移動制御部23は、制限範囲設定部231に設定された制限範囲に対するロボット2の移動を制限する。マーカの設置位置とは、1つまたは複数のマーカの設置位置に基づき設定される点、線、面または空間である。制限範囲設定部231は、マーカの設置位置を、例えば、空間データにおける座標データとして認識することにより、制限範囲を設定することができる。制限範囲設定部231は、設置位置に基づく制限範囲を設定し、制限範囲における移動を制限してもよい。例えば、制限範囲設定部231は、1つのマーカの設置位置に基づき、廊下等の空間要素を区切る線分、またはマーカを中心とした空間における円もしくは球体のエリアを、移動を制限する制限範囲として設定することができる。つまり、制限範囲設定部231は、矩形、円、直線などの幾何学的に決められる範囲をマーカの設置位置に基づいて空間に配置することで制限範囲を設定する。例えば、円状に範囲を設定するのであれば、制限範囲設定部231はマーカの設置位置を中心とし、所定の半径の円状の範囲を制限範囲としてもよい。また、矩形状に範囲を設定するのであれば、制限範囲設定部231はマーカの設置位置を矩形の一辺の中央になるように配置することで矩形状の制限範囲を決めてもよい。制限範囲は、例えば、マーカから1〜3m程度であり、マーカ認識部22がマーカを認識できる範囲より狭い範囲である。制限範囲は、マーカ毎に予め決められていてもよいし、後述のアプリケーションを利用することで利用者が任意に調整できてもよい。 The movement control unit 23 limits the movement based on the installation position of the marker recognized by the marker recognition unit 22. The movement control unit 23 has a limit range setting unit 231 that sets a limit range that limits movement according to the installed position of the recognized marker. The movement control unit 23 limits the movement of the robot 2 with respect to the limit range set in the limit range setting unit 231. The marker installation position is a point, line, surface, or space set based on the installation position of one or more markers. The limit range setting unit 231 can set the limit range by recognizing the installation position of the marker as, for example, coordinate data in spatial data. The limit range setting unit 231 may set a limit range based on the installation position and limit the movement in the limit range. For example, the restriction range setting unit 231 sets a line segment that divides a space element such as a corridor, or a circular or spherical area in the space centered on the marker as a restriction range that restricts movement based on the installation position of one marker. Can be set. That is, the limit range setting unit 231 sets the limit range by arranging a geometrically determined range such as a rectangle, a circle, or a straight line in the space based on the installation position of the marker. For example, if the range is set in a circular shape, the limiting range setting unit 231 may set a circular range having a predetermined radius as the limiting range centered on the installation position of the marker. Further, if the range is set in a rectangular shape, the limited range setting unit 231 may determine the rectangular limited range by arranging the marker installation position so as to be in the center of one side of the rectangle. The limiting range is, for example, about 1 to 3 m from the marker, which is narrower than the range in which the marker recognition unit 22 can recognize the marker. The limiting range may be predetermined for each marker, or may be arbitrarily adjusted by the user by using an application described later.

また、制限範囲設定部231は、複数のマーカによって設定される線、面または空間を制限範囲として設定してもよい。例えば、制限範囲設定部231は、マーカ認識部22がマーカを認識したときのロボット2の位置を基準として、マーカの設置位置より奥側、又は設置位置の周囲における所定の範囲を制限範囲として設定してもよい。制限範囲設定部231が線状に制限範囲を設定した場合、移動制御部23はその線を越えないようにロボット2の移動を制限する。このように、制限範囲設定部231は、マーカの設置位置を基準として予め定められたルールに基づいて制限範囲を設定してもよい。 Further, the limit range setting unit 231 may set a line, a surface, or a space set by a plurality of markers as a limit range. For example, the limit range setting unit 231 sets a predetermined range as a limit range on the back side of the marker installation position or around the installation position, based on the position of the robot 2 when the marker recognition unit 22 recognizes the marker. You may. When the restriction range setting unit 231 sets the restriction range linearly, the movement control unit 23 restricts the movement of the robot 2 so as not to cross the line. In this way, the limit range setting unit 231 may set the limit range based on a predetermined rule based on the installation position of the marker.

また、制限範囲設定部231は、マーカ周辺の空間的な特徴を認識し、空間的な特徴に応じて制限範囲を設定してもよい。言い換えれば、制限範囲設定部231は、間取りを認識し、間取りに応じて制限範囲を設定してもよい。例えば、制限範囲設定部231は、マーカが通路の入口周辺(所定範囲内)にあれば、その通路を制限範囲として設定するようにしてもよい。また、制限範囲設定部231は、部屋の中央(壁から所定距離離れている)にマーカが配置されている場合は、そのマーカを中心とする円形状の範囲を制限範囲として設定してもよい。また、制限範囲設定部231は、マーカが壁に貼り付けられており、周辺にドアがなければ、壁から所定範囲を制限範囲として設定してもよい。 Further, the limiting range setting unit 231 may recognize the spatial feature around the marker and set the limiting range according to the spatial feature. In other words, the limit range setting unit 231 may recognize the floor plan and set the limit range according to the floor plan. For example, the restriction range setting unit 231 may set the passage as the restriction range if the marker is around the entrance of the passage (within a predetermined range). Further, when the marker is arranged in the center of the room (a predetermined distance away from the wall), the restriction range setting unit 231 may set a circular range centered on the marker as the restriction range. .. Further, the limit range setting unit 231 may set a predetermined range from the wall as the limit range if the marker is attached to the wall and there is no door in the vicinity.

マーカには種類が設定されてもよい。例えば、マーカが視認できるときだけ移動を制限するマーカ(「一時マーカ」という)と、マーカの位置を記憶し、マーカが視認できなくても恒久的に移動を制限するマーカ(「恒久マーカ」という)とをマーカの種類として設定する。恒久マーカを視認した場合、ロボット2は、マーカの位置を記憶部(図示せず)に記憶して、マーカがその場所から無くなった場合でも、記憶したマーカの位置に基づいて移動が制限される。また、一時マーカを視認した場合、ロボット2は、一時マーカの位置を記憶しないため、一時マーカが撤去されれば制限範囲は解除される。 A type may be set for the marker. For example, a marker that restricts movement only when the marker is visible (called a "temporary marker") and a marker that stores the position of the marker and permanently restricts movement even if the marker is not visible (called a "permanent marker"). ) And is set as the marker type. When the permanent marker is visually recognized, the robot 2 stores the position of the marker in a storage unit (not shown), and even if the marker disappears from that location, the movement is restricted based on the stored marker position. .. Further, when the temporary marker is visually recognized, the robot 2 does not memorize the position of the temporary marker, so that the restriction range is released when the temporary marker is removed.

マーカ認識部22は、設定されたマーカの種類を認識する。マーカの種類は、例えば、マーカの形状、模様、色彩、文字若しくは図形又はこれらの結合によって予め区分されるようにしておくことができる。また、マーカの種類は、マーカの設置個数、またはマーカの設置方法(例えば、マーカの上下方向を変えた設置)等において区分されてもよい。マーカが2次元コードを含む場合、2次元コードの情報にマーカの種類を特定する情報が書き込まれる。この場合、マーカ認識部22は、2次元コードを読み込むことで、一時マーカか恒久マーカかを特定できる。また、2次元コードに、マーカを特定する識別情報(「マーカ識別情報」という)が書き込まれてもよい。この場合、マーカ認識部22は、2次元コードからマーカ識別情報を読み込み、予め用意されたテーブルを参照して、マーカ識別情報に対応付けられたマーカの種類を特定する。 The marker recognition unit 22 recognizes the set marker type. The types of markers can be preliminarily classified by, for example, the shape, pattern, color, character or figure of the marker, or a combination thereof. Further, the types of markers may be classified according to the number of markers installed, the marker installation method (for example, installation in which the vertical direction of the markers is changed), or the like. When the marker includes a two-dimensional code, information for specifying the type of the marker is written in the information of the two-dimensional code. In this case, the marker recognition unit 22 can identify whether it is a temporary marker or a permanent marker by reading the two-dimensional code. Further, identification information for identifying the marker (referred to as "marker identification information") may be written in the two-dimensional code. In this case, the marker recognition unit 22 reads the marker identification information from the two-dimensional code and refers to a table prepared in advance to specify the type of marker associated with the marker identification information.

すなわち、マーカ認識部22は、2次元コードのようにマーカ自体に付帯する情報が含まれている場合にマーカ自体から付帯する情報を読み込むように構成されてもよい。また、マーカ認識部22は、マーカからマーカ識別情報を読み込み、マーカ識別情報をキーとしてテーブルを参照することにより付帯する情報を読み込むように構成されてもよい。本実施の形態では、マーカ認識部22は、マーカ識別情報に対応付けて、マーカの付帯情報を保持するマーカ情報格納部(図示せず)を有し、マーカ情報格納部を参照することでマーカ毎の付帯情報を取得できるように構成される場合を例示している。マーカ認識部22は、マーカ識別情報を2次元コードから読み込んでもよいし、一般的な物体認識によりマーカを特定することで、マーカ識別情報を取得してもよい。 That is, the marker recognition unit 22 may be configured to read the information incidental to the marker itself when the information incidental to the marker itself is included as in the two-dimensional code. Further, the marker recognition unit 22 may be configured to read the marker identification information from the marker and read the incidental information by referring to the table using the marker identification information as a key. In the present embodiment, the marker recognition unit 22 has a marker information storage unit (not shown) that holds the incidental information of the marker in association with the marker identification information, and the marker can be referred to by referring to the marker information storage unit. The case where it is configured so that the incidental information for each can be acquired is illustrated. The marker recognition unit 22 may read the marker identification information from the two-dimensional code, or may acquire the marker identification information by identifying the marker by general object recognition.

このように、マーカに付帯する情報を管理できるよう構成することで、単にマーカの周囲に制限範囲を設定し、ロボット2の移動を制限するだけでなく、利用者の希望に応じて様々な条件でロボット2の行動を制限(「行動制限」という。)することができる。例えば、浴室を使う時間帯にロボット2を脱衣所に進入させたくない場合に、マーカに進入禁止の時間帯を関連付けておく。また、キッチンを使っているときにロボット2をキッチンに進入させたくないのであれば、人がいる場合(人を検出した場合)は進入を禁止する条件をマーカに関連付けておく。また、ロボットの進入を禁止するのではなく、進入を許可する場合であっても、制限範囲内では行動を抑制し静かにしなければならない、音を発してはならない、または、ゆっくり走行しなければならない等のロボットの行動を制限する指示を付帯情報として関連付けてもよい。つまり、付帯情報には、マーカの種類を特定する情報、または制限範囲におけるロボットの振る舞いを規定する情報を含めるようにしてもよい。振る舞いを規定する情報は、ロボットの行動を制限するための情報であり、制限範囲内での移動を禁止するのであれば、禁止することの他に、禁止の時間帯を指定する情報等が含まれてもよい。付帯する情報には、制限範囲内での移動を条件付きで許可するのであれば、許可することの他に、その条件を指定する情報(「行動条件」という。)などが含まれてもよい。 In this way, by configuring the information attached to the marker to be managed, not only the restriction range is set around the marker and the movement of the robot 2 is restricted, but also various conditions are met according to the user's wishes. The action of the robot 2 can be restricted (referred to as "action restriction"). For example, when the robot 2 does not want to enter the dressing room during the time when the bathroom is used, the marker is associated with the time zone when entry is prohibited. If the robot 2 does not want to enter the kitchen while using the kitchen, if there is a person (when a person is detected), a condition for prohibiting the entry is associated with the marker. Also, even if the robot is allowed to enter instead of being prohibited from entering, the action must be suppressed and quiet, no noise must be made, or the robot must run slowly within the restricted range. Instructions for restricting the robot's behavior, such as not being, may be associated as incidental information. That is, the incidental information may include information that specifies the type of marker or information that defines the behavior of the robot within the limited range. The information that defines the behavior is information for restricting the behavior of the robot, and if movement within the restricted range is prohibited, in addition to prohibiting it, information that specifies the prohibited time zone, etc. is included. May be. If the incidental information is conditionally permitted to move within the restricted range, the incidental information may include information for specifying the condition (referred to as "behavioral condition") in addition to the permission. ..

移動制御部23は、マーカ認識部22においてマーカが認識されなかった場合、記憶された設置位置に基づき移動を制限してもよい。例えば、マーカによるコマンドが恒久的な制限を設定する恒久的なマーカを設定するものである場合、移動制御部23は、マーカが撤去されて撮影画像から認識できない場合であってもマーカに基づく移動を恒久的に制限する。なお、制限範囲設定部231において設定されたマーカは、例えば、利用者端末3からの指示により消去、位置の変更またはコマンドの変更等のマーカを編集できるようにしてもよい。例えば、利用者端末3は、マーカを編集することができる不図示のアプリケションプログラム(以下、「アプリ」という。)を有するものであってもよい。例えば、アプリは、上述した利用者端末3の表示画面にマーカを選択可能に表示して、利用者が選択したマーカを編集するようにしてもよい。また、アプリは、マーカが一時マーカである場合、マーカを恒久マーカに変更できるようにしてもよい。これにより、利用者は、設置された一時マーカを撤去することにより制限範囲を解除することができるとともに、アプリで一時マーカを恒久マーカに変更することにより、設置されたマーカを撤去した後においても制限範囲を維持させることが可能となる。なお、アプリは、上述した利用者端末3のカメラで撮影した空間要素をマーカとして登録する登録機能を有していてもよい。また、アプリは、制限範囲の調整、または上述した行動制限の内容を設定もしくは変更する機能を有していてもよい。アプリは、ロボット2が有するマーカ情報格納部に接続し、マーカ毎の行動制限や行動条件を参照し、更新する機能を有してもよい。 When the marker is not recognized by the marker recognition unit 22, the movement control unit 23 may limit the movement based on the stored installation position. For example, when the command by the marker sets a permanent marker that sets a permanent limit, the movement control unit 23 moves based on the marker even if the marker is removed and cannot be recognized from the captured image. Permanently limit. The marker set in the restriction range setting unit 231 may be edited, for example, by an instruction from the user terminal 3, such as erasing, changing the position, or changing the command. For example, the user terminal 3 may have an application program (hereinafter, referred to as “application”) (hereinafter, referred to as “appliqué”) (hereinafter, referred to as “appliqué”), which is not shown and can edit the marker. For example, the application may display the marker on the display screen of the user terminal 3 described above so as to be selectable, and edit the marker selected by the user. The app may also allow the marker to be changed to a permanent marker if the marker is a temporary marker. As a result, the user can release the restriction range by removing the installed temporary marker, and even after removing the installed marker by changing the temporary marker to a permanent marker in the application. It is possible to maintain the limited range. The application may have a registration function for registering a spatial element photographed by the camera of the user terminal 3 described above as a marker. In addition, the application may have a function of adjusting the restriction range or setting or changing the content of the behavior restriction described above. The application may have a function of connecting to the marker information storage unit of the robot 2 and referencing and updating the action restrictions and action conditions for each marker.

なお、マーカにより設定されるロボット2の移動の制限は、後述する状態情報による制限範囲の設定と併存させることができる。例えば、廊下への進入禁止エリアの設定をマーカの設置によって行うことができるとともに、脱衣所への立ち入り禁止を状態情報によって行うことができるようにしてもよい。また、移動が制限されるエリアの設定をマーカで行うとともに、状態情報によって当該エリアにおける制限の内容(例えば、進入が制限される時間等の条件)を設定できるようにしてもよい。 The movement restriction of the robot 2 set by the marker can coexist with the setting of the restriction range by the state information described later. For example, the entry prohibited area in the corridor may be set by installing a marker, and the dressing room may be prohibited from entering by the state information. Further, the area where the movement is restricted may be set by the marker, and the content of the restriction in the area (for example, the condition such as the time when the entry is restricted) may be set by the state information.

状態情報取得部24は、移動における移動先の状態を示す状態情報を取得する。状態情報とは、ロボット2が検出した移動先の状態に応じてロボット2の移動を制限するための情報である。移動先の状態とは、例えば、移動範囲に係る、人の有無、ペットの有無、部屋の温度もしくは湿度、ドアの施錠状態、または照明の点灯状態等であり、時間、曜日、天候等の状態を含んでいてもよい。状態情報は、例えば、移動範囲に人を検知したときに、そのエリア(範囲)における移動速度を制限するための情報である。また、状態情報は、所定の曜日または時間において、そのエリアにおける進入を禁止し、ドアが施錠されているときにそのドアを通過する移動を禁止し、または照明が点灯されているエリアにおいて撮影を禁止するものであってよい。状態情報は、空間データと併せて提供することができる。 The state information acquisition unit 24 acquires state information indicating the state of the movement destination in the movement. The state information is information for restricting the movement of the robot 2 according to the state of the movement destination detected by the robot 2. The state of the destination is, for example, the presence / absence of a person, the presence / absence of a pet, the temperature or humidity of the room, the locked state of the door, the lighting state of the lighting, etc., and the state of time, day of the week, weather, etc. May include. The state information is, for example, information for limiting the moving speed in the area (range) when a person is detected in the moving range. In addition, the status information prohibits entry in the area on a predetermined day or time, prohibits movement through the door when the door is locked, or shoots in an area where the light is on. It may be prohibited. The state information can be provided together with the spatial data.

再び、データ提供装置10について説明する。空間データ提供部112は、ロボット2に対して空間データ生成部13において生成された空間データを提供する。空間データは、ロボット2が存在している空間において、ロボットが認識している空間要素をデータ化したものである。ロボット2は、空間データに定められた範囲内において移動することができる。すなわち、空間データはロボット2において移動可能範囲を定めるための地図として機能する。ロボット2は、空間データ提供部112から空間データを提供される。例えば、空間データには、ロボット2が移動できない壁、家具、電化製品、段差等の空間要素の位置データを含めることができる。ロボット2は、提供された空間データに基づき、自身が移動できる場所か否かの判断をすることができる。また、ロボット2は、空間データの中に未生成の範囲が含まれるか否かを認識できるようにしてもよい。未生成の範囲が含まれるか否かは、例えば、空間データの一部に空間要素がない空間が含まれているか否かで判断することができる。 The data providing device 10 will be described again. The spatial data providing unit 112 provides the robot 2 with the spatial data generated by the spatial data generating unit 13. The spatial data is the data of the spatial elements recognized by the robot in the space where the robot 2 exists. The robot 2 can move within the range defined in the spatial data. That is, the spatial data functions as a map for determining the movable range in the robot 2. The robot 2 is provided with spatial data from the spatial data providing unit 112. For example, the spatial data can include position data of spatial elements such as walls, furniture, electric appliances, and steps on which the robot 2 cannot move. Based on the provided spatial data, the robot 2 can determine whether or not it is a place where it can move. Further, the robot 2 may be able to recognize whether or not the spatial data includes an ungenerated range. Whether or not an ungenerated range is included can be determined by, for example, whether or not a part of the spatial data includes a space having no spatial element.

指示部113は、ロボット2に対して、空間データ生成部13において生成された空間データに基づく撮影を指示する。空間データ生成部13は、撮影画像取得部111において取得された撮影画像に基づき空間データを作成するため、例えば、室内の空間データを作成する場合、撮影されていない部分については空間データが未作成の部分を含む場合がある。また、撮影画像が不鮮明等であると、作成された空間データにノイズが含まれてしまい空間データに不正確な部分が含まれてしまう場合がある。指示部113は、空間データに未生成の部分がある場合、未生成の部分についての撮影指示をするようにしてもよい。また、指示部113は、空間データが不正確な部分が含まれている場合、不正確な部分についての撮影指示をするようにしてもよい。指示部113は、空間データに基づき、自発的に撮影を指示してもよい。なお、指示部113は、空間データに基づき生成された可視化データ(後述)を確認した利用者からの明示的な指示に基づき、撮影を指示してもよい。利用者は、可視化データに含まれる領域を指定して、ロボット2に対して、撮影を指示することにより、空間を認識して空間データを生成させることができる。 The instruction unit 113 instructs the robot 2 to take a picture based on the spatial data generated by the spatial data generation unit 13. Since the spatial data generation unit 13 creates spatial data based on the captured image acquired by the captured image acquisition unit 111, for example, when creating indoor spatial data, spatial data is not created for a portion that has not been captured. May include the part of. Further, if the captured image is unclear or the like, noise may be included in the created spatial data, and an inaccurate portion may be included in the spatial data. When the spatial data has an ungenerated portion, the instruction unit 113 may give a shooting instruction for the ungenerated portion. Further, when the spatial data includes an inaccurate portion, the instruction unit 113 may give a shooting instruction for the inaccurate portion. The instruction unit 113 may voluntarily instruct shooting based on the spatial data. The instruction unit 113 may instruct shooting based on an explicit instruction from a user who has confirmed the visualization data (described later) generated based on the spatial data. The user can specify the area included in the visualization data and instruct the robot 2 to take a picture, thereby recognizing the space and generating the spatial data.

点群データ生成部12は、撮影画像取得部111において取得された撮影画像に基づき空間要素の三次元の点群データを生成する。点群データ生成部12は、撮影画像に含まれる空間要素を所定の空間における三次元の点の集合に変換して点群データを生成する。空間要素は、上述のように、部屋の壁、段差、扉、部屋に置いてある家具、家電、荷物、観葉植物等である。点群データ生成部12は、空間要素の撮影画像に基づき点群データを生成するため、点群データは撮影された空間要素の表面の形状を表すことになる。撮影画像は、ロボット2の撮影部21が、所定の撮影位置において所定の撮影角度で撮影することにより生成される。したがって、ロボット2が正面の位置から家具等の空間要素を撮影した場合、撮影されていない家具の裏側等の形状については点群データを生成することができず、家具の裏側にロボット2が移動可能な空間があったとしても、ロボット2はそれを認識することができない。一方、ロボット2が移動して側面の撮影位置から家具を撮影すると、家具等の空間要素の裏側の形状について点群データを生成することができるので、空間を正しく把握することが可能となる。 The point cloud data generation unit 12 generates three-dimensional point cloud data of spatial elements based on the photographed image acquired by the photographed image acquisition unit 111. The point cloud data generation unit 12 generates point cloud data by converting spatial elements included in the captured image into a set of three-dimensional points in a predetermined space. As described above, the spatial elements are room walls, steps, doors, furniture placed in the room, home appliances, luggage, foliage plants, and the like. Since the point cloud data generation unit 12 generates the point cloud data based on the captured image of the spatial element, the point cloud data represents the shape of the surface of the captured spatial element. The captured image is generated by the imaging unit 21 of the robot 2 photographing at a predetermined imaging position at a predetermined imaging angle. Therefore, when the robot 2 photographs a spatial element such as furniture from the front position, point cloud data cannot be generated for the shape of the back side of the furniture that has not been photographed, and the robot 2 moves to the back side of the furniture. Even if there is a possible space, the robot 2 cannot recognize it. On the other hand, when the robot 2 moves and photographs the furniture from the photographing position on the side surface, point cloud data can be generated for the shape of the back side of the space element such as the furniture, so that the space can be correctly grasped.

空間データ生成部13は、点群データ生成部12において生成された空間要素の点群データに基づきロボット2の移動可能範囲を定める空間データを生成する。空間データは空間における点群データに基づき生成されるため、空間データに含まれる空間要素に関しても三次元の座標情報を有している。座標情報には、点の位置、長さ(高さを含む)、面積、または体積の情報が含まれていてもよい。ロボット2は、生成された空間データに含まれる空間要素の位置情報に基づき、移動が可能な範囲を判断することが可能となる。例えば、ロボット2が床面を水平移動する移動機構29を有するものである場合、ロボット2は、空間データにおいて空間要素である床面からの段差が所定の高さ以上(例えば、1cm以上)である場合移動が不可能であると判断することができる。一方、空間データにおいて、空間要素であるテーブルの天板またはベッド等が床面から所定の高さを有する場合、ロボット2は、床面からの高さが所定の高さ以上(例えば、60cm以上)の範囲を自身の高さとのクリアランスを考慮して移動可能な範囲として判断する。また、ロボット2は、空間データにおいて、空間要素である壁と家具の隙間が所定の幅以上(例えば、40cm以上)である範囲を自身の幅とのクリアランスを考慮して移動可能な範囲として判断する。 The spatial data generation unit 13 generates spatial data that determines the movable range of the robot 2 based on the point cloud data of the spatial elements generated by the point cloud data generation unit 12. Since the spatial data is generated based on the point cloud data in the space, the spatial elements included in the spatial data also have three-dimensional coordinate information. The coordinate information may include information on the position, length (including height), area, or volume of the point. The robot 2 can determine the movable range based on the position information of the spatial element included in the generated spatial data. For example, when the robot 2 has a moving mechanism 29 that horizontally moves on the floor surface, the robot 2 has a step from the floor surface, which is a spatial element in the spatial data, at a predetermined height or more (for example, 1 cm or more). In some cases, it can be determined that movement is impossible. On the other hand, in the spatial data, when the table top plate or the bed, which is a spatial element, has a predetermined height from the floor surface, the robot 2 has a height from the floor surface equal to or higher than the predetermined height (for example, 60 cm or more). ) Is judged as a movable range in consideration of the clearance with its own height. Further, the robot 2 determines in the spatial data that the gap between the wall and the furniture, which is a spatial element, is a predetermined width or more (for example, 40 cm or more) as a movable range in consideration of the clearance with its own width. To do.

空間データ生成部13は、空間における所定のエリアについて属性情報を設定してもよい。属性情報とは、所定のエリアについてロボット2の移動条件を定めた情報である。移動条件とは、例えば、ロボット2が移動可能な空間要素とのクリアランスを定めた条件である。例えば、ロボット2が移動可能な通常の移動条件が、クリアランスが30cm以上である場合、所定のエリアについてのクリアランスが5cm以上とした属性情報を設定することができる。また、属性情報において設定する移動条件は、ロボットの移動を制限する情報を設定してもよい。移動の制限とは、例えば、移動速度の制限、または進入の禁止等である。例えば、クリアランスが小さいエリアや人が存在しているエリアにおいて、ロボット2の移動速度を落とした属性情報を設定してもよい。また、属性情報において設定する移動条件は、エリアの床材によって定められるものであってもよい。例えば、属性情報は、床がクッションフロア、フローロング、畳、またはカーペットにおいて移動機構29の動作(走行速度または走行手段等)の変更を設定するものであってもよい。また、属性情報には、ロボット2が移動して充電できる充電スポット、ロボット2の姿勢が不安定になるため移動が制限される段差またはカーペットの端等における以上条件を設定できるようにしてもよい。なお、属性情報を設定したエリアは、後述する可視化データにおいて表示方法を変更する等、利用者が把握できるようにしてもよい。 The spatial data generation unit 13 may set attribute information for a predetermined area in the space. The attribute information is information that defines the movement conditions of the robot 2 for a predetermined area. The movement condition is, for example, a condition that defines a clearance with a space element that the robot 2 can move. For example, when the normal movement condition in which the robot 2 can move is a clearance of 30 cm or more, attribute information can be set in which the clearance for a predetermined area is 5 cm or more. Further, as the movement condition set in the attribute information, information that restricts the movement of the robot may be set. The movement restriction is, for example, a restriction of the movement speed, a prohibition of entry, or the like. For example, in an area where the clearance is small or an area where a person exists, the attribute information in which the moving speed of the robot 2 is reduced may be set. Further, the movement conditions set in the attribute information may be determined by the flooring material of the area. For example, the attribute information may set a change in the operation (running speed, running means, etc.) of the moving mechanism 29 when the floor is a cushion floor, a flow long, a tatami mat, or a carpet. Further, in the attribute information, the above conditions may be set at a charging spot where the robot 2 can move and charge, a step where movement is restricted due to the unstable posture of the robot 2, or the edge of the carpet. .. The area in which the attribute information is set may be grasped by the user by changing the display method in the visualization data described later.

空間データ生成部13は、点群データ生成部12において生成された点群データを、例えば、ハフ変換して、点群データにおいて共通する直線や曲線等の図形を抽出し、抽出された図形により表現される空間要素の輪郭によって空間データを生成する。ハフ変換は、点群データを特徴点とした場合、特徴点を最も多く通過する図形を抽出する座標変換方法である。点群データは、部屋に置いてある家具等の空間要素の形状を点群において表現するものであるため、利用者は、点群データで表現される空間要素が何なのかの判別(例えば、テーブル、椅子、壁等の認識)をするのが困難な場合がある。空間データ生成部13は、点群データをハフ変換することにより、家具等の輪郭を表現することができるので、利用者が空間要素を判別しやすくすることができる。なお、空間データ生成部13は、点群データ生成部12において生成された点群データを、画像認識において認識された空間要素(例えば、テーブル、椅子、壁等)における基本形状に変換して空間データを生成してもよい。テーブル等の空間要素は、画像認識でテーブルであることが認識されることにより、空間要素の一部の点群データ(例えば、テーブルを正面から見たときの点群データ)からテーブルの形状を正確に予測することができる。空間データ生成部13は、点群データと画像認識を組み合わせることにより、空間要素を正確に把握した空間データを生成することが可能となる。 The spatial data generation unit 13 performs, for example, a Hough transform on the point cloud data generated by the point cloud data generation unit 12, extracts a figure such as a straight line or a curve common to the point cloud data, and uses the extracted figure. Spatial data is generated by the contours of the represented spatial elements. The Hough transform is a coordinate transformation method that extracts the figure that passes through the feature points most when the point cloud data is used as the feature points. Since the point cloud data expresses the shape of a spatial element such as furniture placed in a room in a point cloud, the user can determine what the spatial element represented by the point cloud data is (for example,). It may be difficult to recognize the table, chairs, walls, etc.). Since the spatial data generation unit 13 can express the outline of furniture or the like by Hough transforming the point cloud data, it is possible for the user to easily identify the spatial element. The spatial data generation unit 13 converts the point cloud data generated by the point cloud data generation unit 12 into a basic shape of a spatial element (for example, a table, a chair, a wall, etc.) recognized in image recognition, and creates a space. Data may be generated. By recognizing that a spatial element such as a table is a table by image recognition, the shape of the table can be determined from some point cloud data of the spatial element (for example, point cloud data when the table is viewed from the front). It can be predicted accurately. The spatial data generation unit 13 can generate spatial data that accurately grasps the spatial elements by combining the point cloud data and the image recognition.

空間データ生成部13は、ロボット2の移動した位置から所定の範囲に含まれる点群データに基づき空間データを生成する。ロボット2の移動した位置からの所定の範囲とは、ロボット2が実際に移動した位置を含み、例えば、ロボット2が移動した位置から30cm等の距離にある範囲であってもよい。点群データは、ロボット2の撮影部21により撮影された撮影画像に基づき生成されるため、撮影画像にはロボット2から離れた位置にある空間要素が含まれる場合がある。撮影部21から空間要素までが離れている場合、撮影されていない部分が存在し、または撮影されていない障害物の存在によって実際にはロボット2が移動できない範囲が存在する場合がある。また、廊下等のように撮影部21から遠い位置にある空間要素が撮影画像に含まれる場合、特徴点において抽出された空間要素が歪んでしまう場合がある。また、撮影距離が大きい場合、撮影画像に含まれる空間要素が小さくなるため、点群データの精度が低くなる場合がある。空間データ生成部13は、大きく離れている特徴点を無視することにより、精度が低い空間要素、または歪んだ空間要素を含まない空間データを生成するようにしてもよい。空間データ生成部13は、ロボット2の移動した位置から所定の範囲の外側にある点群データを削除して空間データを生成することにより、実際にはデータが存在しない飛び地が発生することを防ぎ、ロボット2が移動できない範囲を含まず、またデータ精度の高い空間データを生成することが可能となる。また、空間データから生成される可視化データにおいて飛び地状の描画を防ぐことができ、視認性を向上させることができる。 The spatial data generation unit 13 generates spatial data based on the point cloud data included in a predetermined range from the moved position of the robot 2. The predetermined range from the moved position of the robot 2 includes the position where the robot 2 actually moved, and may be, for example, a range at a distance of 30 cm or the like from the moved position of the robot 2. Since the point cloud data is generated based on the captured image captured by the photographing unit 21 of the robot 2, the captured image may include a spatial element located at a position away from the robot 2. When the space element is separated from the photographing unit 21, there may be a portion that has not been photographed, or there may be a range in which the robot 2 cannot actually move due to the presence of an obstacle that has not been photographed. Further, when a spatial element located far from the photographing unit 21 such as a corridor is included in the captured image, the spatial element extracted at the feature point may be distorted. Further, when the shooting distance is large, the spatial element included in the shot image becomes small, so that the accuracy of the point cloud data may be low. The spatial data generation unit 13 may generate spatial data that does not include spatial elements with low accuracy or distorted spatial elements by ignoring feature points that are far apart. The spatial data generation unit 13 deletes the point cloud data outside the predetermined range from the moved position of the robot 2 to generate the spatial data, thereby preventing the occurrence of a jumping place where the data does not actually exist. , It is possible to generate spatial data with high data accuracy without including the range in which the robot 2 cannot move. In addition, it is possible to prevent drawing of an excursion shape in the visualization data generated from the spatial data, and it is possible to improve the visibility.

空間データ生成部13は、マーカ認識部22においてマーカが認識された場合、生成した空間データに対して制限範囲を設定する。空間データに対して制限範囲を設定することにより、制限範囲を可視化データの一部として可視化することが可能となる。また、空間データ生成部13は、状態情報取得部24において状態情報が取得された場合、空間データに対して状態情報を設定する。空間データに対して状態情報を設定することにより、状態情報を可視化データの一部とすることが可能となる。 When the marker is recognized by the marker recognition unit 22, the spatial data generation unit 13 sets a limit range for the generated spatial data. By setting the limit range for the spatial data, the limit range can be visualized as a part of the visualization data. Further, the spatial data generation unit 13 sets the state information for the spatial data when the state information is acquired by the state information acquisition unit 24. By setting the state information for the spatial data, the state information can be a part of the visualization data.

可視化データ生成部14は、空間データ生成部13において生成された空間データに基づいて、空間に含まれる空間要素を人が直観的に判別できるように可視化した可視化データを生成する。 The visualization data generation unit 14 generates visualization data that visualizes spatial elements included in the space so that a person can intuitively discriminate them, based on the spatial data generated by the spatial data generation unit 13.

一般的に、ロボットは、カメラやマイク等の様々なセンサを有し、それらのセンサから得られる情報を総合的に判断することで周囲の状況を認識する。ロボットが移動するためには、空間に存在する種々の物体を認識し、空間データにおいて移動ルートを判断する必要があるが、物体を正しく認識できないために移動ルートが適切で無いことがある。誤認識が原因となり、例えば、人が十分に広い空間があると思っても、ロボットは障害物があり狭い範囲しか動けないとして認識してしまう場合がある。このように人とロボットとの間に認識の齟齬が生じると、人の期待に反した行動をロボットがおこなうことになり、人はストレスを感じる。本実施形態における自立型行動ロボットは、人とロボットの認識の齟齬を減らすために、自身の認識状態である空間データを可視化して人に提供するとともに、人に指摘された箇所に対して再度認識処理をおこなうことができる。 Generally, a robot has various sensors such as a camera and a microphone, and recognizes the surrounding situation by comprehensively judging the information obtained from these sensors. In order for the robot to move, it is necessary to recognize various objects existing in the space and determine the movement route from the spatial data, but the movement route may not be appropriate because the object cannot be recognized correctly. Due to misrecognition, for example, even if a person thinks that there is a sufficiently large space, the robot may recognize that there is an obstacle and can move only in a narrow range. When there is a cognitive discrepancy between a person and a robot in this way, the robot acts contrary to the person's expectations, and the person feels stress. In order to reduce the discrepancy between the recognition of the human and the robot, the self-sustaining action robot in the present embodiment visualizes the spatial data of its own recognition state and provides it to the human, and again for the part pointed out by the human. Recognition processing can be performed.

空間データは、自律行動型ロボット1が認識している空間要素を含むデータであるのに対して、可視化データは、自律行動型ロボット1が認識している空間要素を利用者が視認するためのデータである。空間データには、誤認識された空間要素が含まれる場合がある。空間データを可視化することにより、自律行動型ロボット1における空間要素の認識状態(誤認識の有無等)を人が確認し易くなる。 Spatial data is data including spatial elements recognized by the autonomous action robot 1, whereas visualization data is for the user to visually recognize the spatial elements recognized by the autonomous action robot 1. It is data. Spatial data may include misrecognized spatial elements. By visualizing the spatial data, it becomes easier for a person to confirm the recognition state (presence or absence of erroneous recognition, etc.) of the spatial element in the autonomous action type robot 1.

可視化データは、表示装置において表示可能なデータである。可視化データは、いわゆる間取りであり、壁として認識された空間要素に囲まれた領域の中に、テーブル、椅子、ソファー等として認識された空間要素が含まれる。可視化データ生成部14は、ハフ変換によって抽出された図形において形成される家具等の形状を、例えばRGBデータで表現される可視化データとして生成する。空間データ生成部13は、空間要素の三次元における平面の方向に基づき、平面の描画方法を変更した可視化データを生成する。空間要素の三次元における平面の方向とは、例えば、点群データ生成部12において生成された点群データをハフ変換して、点群データにおいて生成された図形で形成される平面の法線方向である。可視化データ生成部14は、法線方向に応じて平面の描画方法を変更した可視化データを生成する。描画方法とは、例えば、平面に付与する色相、明度または彩度等の色属性、平面に付与する模様、またはテクスチャ等である。例えば、可視化データ生成部14は、平面の法線が垂直方向(平面が水平方向)である場合、平面の明度を高くして明るい色で描画する。一方、可視化データ生成部14は、平面の法線が水平方向(平面が垂直方向)である場合、平面の明度を低くして暗い色で描画する。平面の描画方法を変更することにより、家具等の形状を立体的に表現することが可能となり、利用者が家具等の形状を確認しやすくすることができる。また、可視化データは、空間データに含まれる各空間要素の座標情報と対応づけられた可視化データにおける座標情報(「可視化座標情報」という。)を含んでいてもよい。可視化座標情報は、座標情報と対応付けられているため、可視化座標情報における点は実際の空間における点に対応し、また、可視化座標情報における面は実際の空間における面に対応している。したがって、利用者が可視化データにおいてある点の位置を特定すると、それに対応した実際の部屋における点の位置が特定できることになる。また、座標系を変換するための変換関数を用意し、可視化データにおける座標系と、空間データにおける座標系とを相互に変換できるようにしてもよい。もちろん、可視化データにおける座標系と、実際の空間における座標系とを相互に変換できるようにしてもよい。 The visualization data is data that can be displayed on the display device. The visualization data is a so-called floor plan, and the space element recognized as a table, chair, sofa, etc. is included in the area surrounded by the space element recognized as a wall. The visualization data generation unit 14 generates the shape of furniture or the like formed in the figure extracted by the Hough transform as visualization data represented by, for example, RGB data. The spatial data generation unit 13 generates visualization data in which the drawing method of the plane is changed based on the direction of the plane in the three dimensions of the spatial element. The direction of the plane in the three dimensions of the spatial element is, for example, the normal direction of the plane formed by the figure generated in the point cloud data by Hough transforming the point cloud data generated in the point cloud data generation unit 12. Is. The visualization data generation unit 14 generates visualization data in which the drawing method of the plane is changed according to the normal direction. The drawing method is, for example, a hue to be given to a plane, a color attribute such as lightness or saturation, a pattern to be given to a plane, a texture, or the like. For example, when the normal of the plane is the vertical direction (the plane is the horizontal direction), the visualization data generation unit 14 increases the brightness of the plane and draws it in a bright color. On the other hand, when the normal of the plane is the horizontal direction (the plane is the vertical direction), the visualization data generation unit 14 lowers the brightness of the plane and draws it in a dark color. By changing the drawing method of the plane, the shape of the furniture or the like can be expressed three-dimensionally, and the user can easily confirm the shape of the furniture or the like. Further, the visualization data may include coordinate information (referred to as "visualization coordinate information") in the visualization data associated with the coordinate information of each spatial element included in the spatial data. Since the visualized coordinate information is associated with the coordinate information, the points in the visualized coordinate information correspond to the points in the actual space, and the faces in the visualized coordinate information correspond to the surfaces in the actual space. Therefore, when the user specifies the position of a certain point in the visualization data, the position of the point in the actual room corresponding to the point can be specified. Further, a conversion function for converting the coordinate system may be prepared so that the coordinate system in the visualization data and the coordinate system in the spatial data can be mutually converted. Of course, the coordinate system in the visualization data and the coordinate system in the actual space may be mutually convertible.

可視化データ生成部14は、可視化データを立体的(3D(Dimensions))データで生成する。また、可視化データ生成部14は、可視化データを平面的(2D)データで生成してもよい。可視化データを3Dで生成することにより、利用者が家具等の形状を確認しやすくすることができる。可視化データ生成部14は、空間データ生成部13において、可視化データを3Dで生成するために十分なデータが生成された場合に可視化データを3Dで生成するようにしてもよい。可視化データ生成部14は、利用者によって指定された3Dの視点位置(視点高さ、視点仰俯角等)によって可視化データを3Dで生成するようにしてもよい。視点位置を指定可能とすることにより、利用者が家具等の形状を確認しやすくすることができる。また、可視化データ生成部14は、部屋の壁または天井については、奥側の壁についてのみ着色し、手前側の壁または天井を透明にした(着色しない)可視化データを生成してもよい。手前側の壁を透明にすることにより、利用者が手前側の壁の先(室内)に配置された家具等の形状を確認しやすくすることができる。 The visualization data generation unit 14 generates visualization data as three-dimensional (Dimensions) data. Further, the visualization data generation unit 14 may generate visualization data as planar (2D) data. By generating the visualization data in 3D, it is possible for the user to easily confirm the shape of the furniture or the like. The visualization data generation unit 14 may generate the visualization data in 3D when sufficient data for generating the visualization data in 3D is generated in the spatial data generation unit 13. The visualization data generation unit 14 may generate visualization data in 3D according to a 3D viewpoint position (viewpoint height, viewpoint elevation / depression angle, etc.) designated by the user. By making it possible to specify the viewpoint position, it is possible for the user to easily confirm the shape of the furniture or the like. Further, the visualization data generation unit 14 may generate visualization data in which the wall or ceiling of the room is colored only on the back wall and the front wall or ceiling is transparent (not colored). By making the wall on the front side transparent, it is possible for the user to easily check the shape of furniture or the like arranged at the tip (indoor) of the wall on the front side.

可視化データ生成部14は、撮影画像取得部111において取得された撮影画像に応じた色属性を付与した可視化データを生成する。例えば、可視化データ生成部14は、撮影画像に木目調の家具が含まれ、木目の色(例えば、茶色)を検出した場合、抽出された家具の図形に検出した色に近似した色を付与した可視化データを生成する。撮影画像に応じた色属性を付与することにより、利用者が家具等の種別を確認しやすくすることができる。 The visualization data generation unit 14 generates visualization data to which color attributes are added according to the captured image acquired by the captured image acquisition unit 111. For example, when the captured image contains wood grain furniture and the visualization data generation unit 14 detects the color of the wood grain (for example, brown), the visualization data generation unit 14 imparts a color close to the detected color to the extracted furniture figure. Generate visualization data. By assigning a color attribute according to the captured image, it is possible for the user to easily confirm the type of furniture or the like.

可視化データ生成部14は、固定されている固定物と、移動する移動物との描画方法を変更した可視化データを生成する。固定物とは、例えば、部屋の壁、段差、固定されている家具等である。移動物とは、例えば、椅子、ごみ箱、キャスター付き家具等である。また、移動物には、例えば、荷物やカバン等の一時的に床に置かれた一時物を含んでいてもよい。描画方法とは、例えば、平面に付与する色相、明度または彩度等の色属性、平面に付与する模様、またはテクスチャ等である。 The visualization data generation unit 14 generates visualization data in which the drawing method of a fixed fixed object and a moving moving object is changed. The fixed object is, for example, a wall of a room, a step, fixed furniture, or the like. The moving object is, for example, a chair, a trash can, furniture with casters, and the like. Further, the moving object may include, for example, a temporary object temporarily placed on the floor such as a baggage or a bag. The drawing method is, for example, a hue to be given to a plane, a color attribute such as lightness or saturation, a pattern to be given to a plane, a texture, or the like.

固定物、移動物または一時物の区分は、その場所に存在している期間によって識別することができる。例えば、空間データ生成部13は、点群データ生成部12において生成された点群データの経時的な変化に基づき、空間要素が固定物、移動物または一時物の区分を識別して空間データを生成する。空間データ生成部13は、例えば、第1の時刻において生成した空間データと、第2の時刻において生成した空間データの差分から、空間要素が変化していない場合に空間要素が固定物であると判断する。また、空間データ生成部13は、空間データの差分から、空間要素の位置が変化している場合に空間要素が移動物であると判断してもよい。また、空間データ生成部13は、空間データの差分から、空間要素が無くなっている場合または出現した場合に空間要素が一次物であると判断してもよい。可視化データ生成部14は、空間データ生成部13において識別された区分に基づき描画方法を変更する。描画方法の変更とは、例えば、色分け、ハッチングの追加または所定のマークの追加等である。例えば、空間データ生成部13は、固定物を黒で表示し、移動物を青で表示し、または、一時物を黄で表示するようにしてもよい。空間データ生成部13は、固定物、移動物または一時物の区分を識別して空間データを生成する。可視化データ生成部14は、空間データ生成部13において識別された区分に基づき描画方法を変更した可視化データを生成してもよい。また、空間データ生成部13は、画像認識で認識された空間要素の描画方法を変更した可視化データを生成してもよい。 The distinction between fixed, moving or temporary objects can be identified by how long they have been in the area. For example, the spatial data generation unit 13 identifies the classification of a fixed object, a moving object, or a temporary object by the spatial element based on the time-dependent change of the point cloud data generated by the point cloud data generation unit 12, and generates the spatial data. Generate. The spatial data generation unit 13 determines that the spatial element is a fixed object when the spatial element does not change from the difference between the spatial data generated at the first time and the spatial data generated at the second time, for example. to decide. Further, the spatial data generation unit 13 may determine from the difference in the spatial data that the spatial element is a moving object when the position of the spatial element is changed. Further, the spatial data generation unit 13 may determine from the difference of the spatial data that the spatial element is a primary object when the spatial element disappears or appears. The visualization data generation unit 14 changes the drawing method based on the division identified by the spatial data generation unit 13. The change of the drawing method is, for example, color coding, addition of hatching, addition of a predetermined mark, or the like. For example, the spatial data generation unit 13 may display a fixed object in black, a moving object in blue, or a temporary object in yellow. The spatial data generation unit 13 identifies the classification of a fixed object, a moving object, or a temporary object and generates spatial data. The visualization data generation unit 14 may generate visualization data in which the drawing method is changed based on the division identified by the spatial data generation unit 13. Further, the spatial data generation unit 13 may generate visualization data in which the drawing method of the spatial element recognized by the image recognition is changed.

可視化データ生成部14は、複数に区分されたエリアにおける可視化データを生成することができる。例えば、可視化データ生成部14は、リビングルーム、寝室、ダイニングルーム、廊下等の壁で仕切られた空間をひとつの部屋としてそれぞれ可視化データを生成する。部屋毎に可視化データを生成することにより、例えば、空間データまたは可視化データの生成を部屋ごとに分けて行うことが可能となり、空間データ等の生成が容易になる。また、ロボット2が移動する可能性があるエリアのみについて空間データ等を作成することが可能となる。可視化データ提供部161は、利用者がエリアを選択可能な可視化データを提供する。可視化データ提供部161は、例えば、利用者が選択したエリアの可視化データを拡大して、または利用者が選択したエリアの詳細な可視化データ提供するようにしてもよい。 The visualization data generation unit 14 can generate visualization data in a plurality of divided areas. For example, the visualization data generation unit 14 generates visualization data for each room partitioned by walls such as a living room, a bedroom, a dining room, and a corridor. By generating visualization data for each room, for example, it becomes possible to generate spatial data or visualization data separately for each room, and it becomes easy to generate spatial data and the like. Further, it is possible to create spatial data and the like only for the area where the robot 2 may move. The visualization data providing unit 161 provides visualization data in which the user can select an area. The visualization data providing unit 161 may expand the visualization data of the area selected by the user, or provide detailed visualization data of the area selected by the user, for example.

撮影対象認識部15は、撮影画像取得部において取得された撮影画像に基づき、空間要素を画像認識する。空間要素の認識は、例えば機械学習において蓄積された画像認識結果に基づき空間要素が何であるかを判断する画像認識エンジンを用いることにより実行することができる。空間要素の画像認識は、例えば、空間要素の形状、色、模様、空間要素に付された文字または図形等において、認識することができる。撮影対象認識部15は、例えば図示しないクラウドサーバにおいて提供される画像認識サービスを利用することにより空間要素を画像認識できるようにしてもよい。可視化データ生成部14は、撮影対象認識部15において画像認識された空間要素に応じて描画方法を変更した可視化データを生成する。例えば、画像認識された空間要素がソファーであった場合、可視化データ生成部14は、空間要素に布の質感を有するテクスチャを付与した可視化データを生成する。また、画像認識された空間要素が壁であった場合、可視化データ生成部14は、壁紙の色属性(例えば白色)を付与した可視化データを生成してもよい。このような可視化処理を施すことで、利用者はロボット2における空間の認識状態を直観的に把握できる。 The shooting target recognition unit 15 recognizes spatial elements based on the shot image acquired by the shooting image acquisition unit. Spatial element recognition can be performed, for example, by using an image recognition engine that determines what the spatial element is based on the image recognition results accumulated in machine learning. Image recognition of a spatial element can be recognized, for example, in the shape, color, pattern of the spatial element, characters or figures attached to the spatial element, and the like. The shooting target recognition unit 15 may enable image recognition of spatial elements by using, for example, an image recognition service provided in a cloud server (not shown). The visualization data generation unit 14 generates visualization data in which the drawing method is changed according to the spatial element recognized by the imaging target recognition unit 15. For example, when the image-recognized spatial element is a sofa, the visualization data generation unit 14 generates visualization data in which a texture having the texture of cloth is added to the spatial element. Further, when the image-recognized spatial element is a wall, the visualization data generation unit 14 may generate visualization data to which a wallpaper color attribute (for example, white) is added. By performing such a visualization process, the user can intuitively grasp the recognition state of the space in the robot 2.

第2通信制御部16は、利用者が所有する利用者端末3との通信を制御する。利用者端末3は、例えば、スマートフォン、タブレットPC、ノートPC、デスクトップPC等である。利用者端末3との通信方式は任意であり、例えば、無線LAN、Bluetooth(登録商標)、または赤外線通信等の近距離無線通信、もしくは有線通信を用いることができる。第2通信制御部16が有する、可視化データ提供部161および指定取得部162の各機能は、第2通信制御部16において制御される通信機能を用いて利用者端末3と通信する。 The second communication control unit 16 controls communication with the user terminal 3 owned by the user. The user terminal 3 is, for example, a smartphone, a tablet PC, a notebook PC, a desktop PC, or the like. The communication method with the user terminal 3 is arbitrary, and for example, wireless LAN, Bluetooth (registered trademark), short-range wireless communication such as infrared communication, or wired communication can be used. Each function of the visualization data providing unit 161 and the designation acquisition unit 162 of the second communication control unit 16 communicates with the user terminal 3 by using the communication function controlled by the second communication control unit 16.

可視化データ提供部161は、可視化データ生成部14において生成された可視化データを利用者端末3に対して提供する。可視化データ提供部161は、例えば、Webサーバであり、利用者端末3のブラウザに対してWebページとして可視化データを提供する。可視化データ提供部161は、複数の利用者端末3に対して可視化データを提供するようにしてもよい。利用者は利用者端末3に表示された可視化データを視認することにより、ロボット2が移動可能な範囲を2D又は3Dの表示として確認することができる。可視化データには、家具等の形状が所定の描画方法において描画されている。利用者は利用者端末3を操作することにより、例えば、2D表示と3D表示の切り替え、可視化データのズームインもしくはズームアウト、または3D表示における視点の移動を行うことができる。 The visualization data providing unit 161 provides the visualization data generated by the visualization data generation unit 14 to the user terminal 3. The visualization data providing unit 161 is, for example, a Web server, and provides visualization data as a Web page to the browser of the user terminal 3. The visualization data providing unit 161 may provide the visualization data to a plurality of user terminals 3. By visually recognizing the visualization data displayed on the user terminal 3, the user can confirm the range in which the robot 2 can move as a 2D or 3D display. In the visualization data, the shape of furniture or the like is drawn by a predetermined drawing method. By operating the user terminal 3, the user can, for example, switch between 2D display and 3D display, zoom in or out of visualization data, or move the viewpoint in 3D display.

利用者は、利用者端末3に表示された可視化データを視認し、空間データの生成状態やエリアの属性情報を確認することができる。利用者は可視化データの中から空間データが生成されていない領域を指定して、空間データの作成を指示することができる。また、利用者は、利用者端末3に表示された可視化データを視認し、家具等の空間要素の形状が不自然である等、空間データが不正確であると思われる領域があれば、その領域を指定して、空間データの再生成を指示することができる。上述のように、可視化データにおける可視化座標情報は、空間データの座標情報と対応付けられているため、利用者によって再生成が指定された可視化データにおける領域は、空間データにおける領域に一意に特定できる。の座標情報に対応付けられる。再生成された空間データは可視化データ生成部14において可視化データが再生成されて可視化データ提供部161から提供される。なお、再生成された可視化データにおいても空間要素が誤認識されている等、空間データの生成状態が変化しない場合がある。その場合、利用者は、ロボット2の動作パラメータを変化させることにより、空間データの生成を指示するようにしてもよい。動作パラメータとは、例えば、ロボット2における撮影部21における撮影条件(露光量またはシャッター速度等)、図示しないセンサの感度、ロボット2の移動を許可する際のクリアランス条件等である。動作パラメータは、例えばエリアの属性情報として空間データに含めるようにしてもよい。 The user can visually check the visualization data displayed on the user terminal 3 and confirm the generation state of the spatial data and the attribute information of the area. The user can specify an area in which spatial data is not generated from the visualization data and instruct the creation of spatial data. In addition, the user visually recognizes the visualization data displayed on the user terminal 3, and if there is an area where the spatial data seems to be inaccurate, such as the shape of the spatial element such as furniture is unnatural, the area is considered to be inaccurate. A region can be specified to instruct the regeneration of spatial data. As described above, since the visualization coordinate information in the visualization data is associated with the coordinate information in the spatial data, the area in the visualization data designated to be regenerated by the user can be uniquely specified as the area in the spatial data. .. It is associated with the coordinate information of. The regenerated spatial data is provided by the visualization data providing unit 161 after the visualization data is regenerated in the visualization data generation unit 14. In addition, even in the regenerated visualization data, the generation state of the spatial data may not change, for example, the spatial element is erroneously recognized. In that case, the user may instruct the generation of spatial data by changing the operation parameters of the robot 2. The operation parameters include, for example, shooting conditions (exposure amount or shutter speed, etc.) in the shooting unit 21 of the robot 2, sensitivity of a sensor (not shown), clearance conditions when allowing the robot 2 to move, and the like. The operation parameters may be included in the spatial data as, for example, area attribute information.

可視化データ生成部14は、例えば、空間データの作成(「再作成」を含む。)を指示するボタンの表示を含む可視化データを生成する。利用者端末3は、表示されたボタンを利用者が操作することにより、自律行動型ロボット1に対して空間データの作成の指示を送信することができる。利用者端末3から送信された空間データの作成指示は、指定取得部162において取得される。 The visualization data generation unit 14 generates visualization data including the display of a button instructing the creation (including "re-creation") of spatial data, for example. The user terminal 3 can transmit an instruction to create spatial data to the autonomous action type robot 1 by the user operating the displayed button. The spatial data creation instruction transmitted from the user terminal 3 is acquired by the designated acquisition unit 162.

指定取得部162は、可視化データ提供部161において提供された可視化データに基づき利用者に指定された領域の空間データの作成の指示を取得する。指定取得部162は、エリアの属性情報を設定(変更を含む)する指示を取得してもよい。また、指定取得部162は、領域の位置と、ロボットがその領域にアプローチする際の方向、つまり撮影すべき方向を取得する。作成の指示の取得は、例えば可視化データ提供部161において提供されたWebページの操作において実行することができる。これにより、利用者は、ロボット2がどのように空間を認識しているのかを把握し、認識状態に応じて、認識処理のやり直しをロボット2に指示することができる。 The designation acquisition unit 162 acquires an instruction to create spatial data in the area designated by the user based on the visualization data provided by the visualization data providing unit 161. The designated acquisition unit 162 may acquire an instruction to set (including change) the attribute information of the area. Further, the designation acquisition unit 162 acquires the position of the area and the direction when the robot approaches the area, that is, the direction to be photographed. The acquisition of the creation instruction can be executed, for example, in the operation of the Web page provided by the visualization data providing unit 161. As a result, the user can grasp how the robot 2 recognizes the space and instruct the robot 2 to redo the recognition process according to the recognition state.

指示部113は、空間データの作成が指示された領域における撮影をロボット2に対して指示する。指示部113は、領域に設置されたマーカの撮影を指示するものであってもよい。空間データの作成が指示された領域における撮影は、例えば、ロボット2(撮影部21)の座標位置、撮影部21の撮影方向、解像度等の撮影条件を含んでいてもよい。空間データ生成部13は、作成が指示された空間データが未生成の領域に関するものである場合、既存の空間データに新たに作成された空間データを追加し、空間データ生成部13は、作成が指示された空間データが再作成に係るものである場合、既存の空間データを更新した空間データを生成する。また、撮影画像にマーカが含まれていた場合、認識されたマーカを含む空間データを生成するようにしてもよい。 The instruction unit 113 instructs the robot 2 to take a picture in the area in which the spatial data is instructed to be created. The instruction unit 113 may instruct the imaging of the marker installed in the area. The shooting in the area instructed to create the spatial data may include, for example, shooting conditions such as the coordinate position of the robot 2 (shooting unit 21), the shooting direction of the shooting unit 21, and the resolution. When the spatial data instructed to be created relates to an ungenerated area, the spatial data generation unit 13 adds the newly created spatial data to the existing spatial data, and the spatial data generation unit 13 is created. If the instructed spatial data is related to re-creation, generate spatial data that is an update of the existing spatial data. Further, when the captured image contains a marker, spatial data including the recognized marker may be generated.

なお、上述のように、図1では自律行動型ロボット1は、データ提供装置10とロボット2とにおいて構成される場合を説明したが、データ提供装置10の機能は、ロボット2の機能に含まれるものであってもよい。例えば、ロボット2は、データ提供装置10の機能を全て含むものであってもよい。データ提供装置10は、例えば、ロボット2において処理能力が不足する場合に、一時的に機能を代替するものであってもよい。 As described above, in FIG. 1, the case where the autonomous action type robot 1 is composed of the data providing device 10 and the robot 2 has been described, but the function of the data providing device 10 is included in the function of the robot 2. It may be a thing. For example, the robot 2 may include all the functions of the data providing device 10. The data providing device 10 may temporarily replace the function when the processing capacity of the robot 2 is insufficient, for example.

また、本実施形態において「取得」とは、取得する主体が能動的に取得するものであってもよく、また、取得する主体が受動的に取得するものであってもよい。例えば、指定取得部162は、利用者が利用者端末3から送信した空間データの作成の指示を受信することにより取得してもよく、また、利用者が図示しない記憶領域(不図示)に記憶させた空間データの作成の指示を記憶領域から読み出すことにより取得してもよい。 Further, in the present embodiment, the “acquisition” may be one in which the acquiring entity actively acquires, or one in which the acquiring entity passively acquires. For example, the designated acquisition unit 162 may be acquired by receiving an instruction for creating spatial data transmitted by the user from the user terminal 3, and may be stored in a storage area (not shown) not shown by the user. It may be acquired by reading the instruction for creating the created spatial data from the storage area.

また、データ提供装置10が有する、第1通信制御部11、点群データ生成部12、空間データ生成部13、可視化データ生成部14、撮影対象認識部15、第2通信制御部16、撮影画像取得部111、空間データ提供部112、指示部113、可視化データ提供部161、指定取得部162の各機能部は、本実施形態における自律行動型ロボット1の機能の一例を示したものであり、自律行動型ロボット1が有する機能を限定したものではない。例えば、自律行動型ロボット1は、データ提供装置10が有する全ての機能部を有している必要はなく、一部の機能部を有するものであってもよい。また、自律行動型ロボット1は、上記以外の他の機能部を有していてもよい。また、ロボット2が有する、マーカ認識部22、移動制御部23、制限範囲設定部231および状態情報取得部24の各機能部は、本実施形態における自律行動型ロボット1の機能の一例を示したものであり、自律行動型ロボット1が有する機能を限定したものではない。例えば、自律行動型ロボット1は、ロボット2が有する全ての機能部を有している必要はなく、一部の機能部を有するものであってもよい。 Further, the first communication control unit 11, the point group data generation unit 12, the spatial data generation unit 13, the visualization data generation unit 14, the image capture target recognition unit 15, the second communication control unit 16, and the captured image included in the data providing device 10. Each functional unit of the acquisition unit 111, the spatial data provision unit 112, the instruction unit 113, the visualization data provision unit 161 and the designated acquisition unit 162 shows an example of the function of the autonomous action type robot 1 in the present embodiment. The functions of the autonomous action type robot 1 are not limited. For example, the autonomous action type robot 1 does not have to have all the functional parts of the data providing device 10, but may have some of the functional parts. Further, the autonomous action type robot 1 may have a functional unit other than the above. Further, each functional unit of the marker recognition unit 22, the movement control unit 23, the restriction range setting unit 231 and the state information acquisition unit 24 of the robot 2 shows an example of the functions of the autonomous action type robot 1 in the present embodiment. This does not limit the functions of the autonomous action type robot 1. For example, the autonomous action type robot 1 does not have to have all the functional parts of the robot 2, and may have some of the functional parts.

また自律行動型ロボット1が有する上記各機能部は、上述の通り、ソフトウェアによって実現されるものとして説明した。しかし、自律行動型ロボット1が有する上記機能の中で少なくとも1つ以上の機能は、ハードウェアによって実現されるものであっても良い。 Further, as described above, each of the above-mentioned functional parts of the autonomous action type robot 1 has been described as being realized by software. However, at least one or more of the above-mentioned functions of the autonomous action type robot 1 may be realized by hardware.

また、自律行動型ロボット1が有する上記何れかの機能は、1つの機能を複数の機能に分割して実施してもよい。また、自律行動型ロボット1が有する上記何れか2つ以上の機能を1つの機能に集約して実施してもよい。すなわち、図1は、自律行動型ロボット1が有する機能を機能ブロックで表現したものであり、例えば、各機能がそれぞれ別個のプログラムファイルで構成されていることを示すものではない。 Further, any of the above-mentioned functions possessed by the autonomous action type robot 1 may be executed by dividing one function into a plurality of functions. Further, any two or more of the above-mentioned functions possessed by the autonomous action type robot 1 may be integrated into one function. That is, FIG. 1 shows the functions of the autonomous action robot 1 as functional blocks, and does not show, for example, that each function is composed of a separate program file.

また、自律行動型ロボット1は、1つの筐体によって実現される装置であっても、ネットワーク等を介して接続された複数の装置から実現されるシステムであってもよい。例えば、自律行動型ロボット1は、その機能の一部または全部をクラウドコンピューティングシステムによって提供されるクラウドサービス等、仮想的な装置によって実現するものであってもよい。すなわち、自律行動型ロボット1は、上記各機能のうち、少なくとも1以上の機能を他の装置において実現するようにしてもよい。また、自律行動型ロボット1は、タブレットPC等の汎用的なコンピュータであってもよく、また機能が限定された専用の装置であってもよい。 Further, the autonomous action type robot 1 may be a device realized by one housing or a system realized by a plurality of devices connected via a network or the like. For example, the autonomous behavior type robot 1 may realize a part or all of its functions by a virtual device such as a cloud service provided by a cloud computing system. That is, the autonomous action type robot 1 may realize at least one or more of the above-mentioned functions in another device. Further, the autonomous action type robot 1 may be a general-purpose computer such as a tablet PC, or may be a dedicated device having limited functions.

また、自律行動型ロボット1は、その機能の一部または全部をロボット2または利用者端末3において実現するものであってもよい。 Further, the autonomous action type robot 1 may realize a part or all of its functions in the robot 2 or the user terminal 3.

次に、図2を用いて、自律行動型ロボット1(ロボット2の制御部)のハードウェア構成を説明する。図2は、実施形態における自律行動型ロボット1のハードウェア構成の一例を示すブロック図である。 Next, the hardware configuration of the autonomous action type robot 1 (control unit of the robot 2) will be described with reference to FIG. FIG. 2 is a block diagram showing an example of the hardware configuration of the autonomous action type robot 1 in the embodiment.

自律行動型ロボット1は、CPU(Central Processing Unit)101、RAM(Random Access Memory)102、ROM(Read Only Memory)103、タッチパネル104、通信I/F(Interface)105、センサ106および時計107を有する。自律行動型ロボット1は、図1で説明した自律行動型ロボット制御プログラムを実行する装置である。 The autonomous action type robot 1 has a CPU (Central Processing Unit) 101, a RAM (Random Access Memory) 102, a ROM (Read Only Memory) 103, a touch panel 104, a communication I / F (Interface) 105, a sensor 106, and a clock 107. .. The autonomous action type robot 1 is a device that executes the autonomous action type robot control program described with reference to FIG.

CPU101は、RAM102またはROM103に記憶された自律行動型ロボット制御プログラムを実行することにより、自律行動型ロボット1の制御を行う。自律行動型ロボット制御プログラムは、例えば、自律行動型ロボット制御プログラムを記録した記録媒体、又はネットワークを介したプログラム配信サーバ等から取得されて、ROM103にインストールされ、CPU101から読出されて実行される。 The CPU 101 controls the autonomous action robot 1 by executing the autonomous action robot control program stored in the RAM 102 or the ROM 103. The autonomous action type robot control program is acquired from, for example, a recording medium on which the autonomous action type robot control program is recorded, a program distribution server via a network, or the like, installed in the ROM 103, read from the CPU 101, and executed.

タッチパネル104は、操作入力機能と表示機能(操作表示機能)を有する。タッチパネル104は、自律行動型ロボット1の利用者に対して指先又はタッチペン等を用いた操作入力を可能にする。本実施形態における自律行動型ロボット1は操作表示機能を有するタッチパネル104を用いる場合を説明するが、自律行動型ロボット1は、表示機能を有する表示装置と操作入力機能を有する操作入力装置とを別個有するものであってもよい。その場合、タッチパネル104の表示画面は表示装置の表示画面、タッチパネル104の操作は操作入力装置の操作として実施することができる。なお、タッチパネル104は、ヘッドマウント型、メガネ型、腕時計型のディスプレイ等の種々の形態によって実現されてもよい。 The touch panel 104 has an operation input function and a display function (operation display function). The touch panel 104 enables the user of the autonomous action robot 1 to input operations using a fingertip, a touch pen, or the like. The case where the autonomous action type robot 1 in the present embodiment uses the touch panel 104 having the operation display function will be described, but the autonomous action type robot 1 separates the display device having the display function and the operation input device having the operation input function. It may have. In that case, the display screen of the touch panel 104 can be performed as the display screen of the display device, and the operation of the touch panel 104 can be performed as the operation of the operation input device. The touch panel 104 may be realized in various forms such as a head mount type, a glasses type, and a wristwatch type display.

通信I/F105は、通信用のI/Fである。通信I/F105は、例えば、無線LAN、有線LAN、赤外線等の近距離無線通信を実行する。図2において通信用のI/Fは通信I/F105のみを図示するが、自律行動型ロボット1は複数の通信方式においてそれぞれの通信用のI/Fを有するものであってもよい。通信I/F105は、図示しない撮影部21を制御する制御部または移動機構29を制御する制御部との通信を行うものであってもよい。 The communication I / F 105 is an I / F for communication. The communication I / F 105 executes short-range wireless communication such as wireless LAN, wired LAN, and infrared rays. Although only the communication I / F 105 is shown as the communication I / F in FIG. 2, the autonomous action type robot 1 may have each communication I / F in a plurality of communication methods. The communication I / F 105 may communicate with a control unit that controls the photographing unit 21 (not shown) or a control unit that controls the moving mechanism 29.

センサ106は、撮影部21のカメラ、TOFもしくはサーモカメラ等のハードウェア、マイク、温度計、照度計、または近接センサ等のハードウェアである。これらのハードウェアによって取得されたデータは、RAM102に記憶されて、CPU101で処理される。 The sensor 106 is hardware such as a camera of the photographing unit 21, a TOF or a thermo camera, and hardware such as a microphone, a thermometer, a luminometer, or a proximity sensor. The data acquired by these hardware is stored in the RAM 102 and processed by the CPU 101.

時計107は、時刻情報を取得するための内部時計である。時計107で取得された時刻情報は、例えば、進入を禁止する時間帯の確認に使用される。 The clock 107 is an internal clock for acquiring time information. The time information acquired by the clock 107 is used, for example, to confirm the time zone in which entry is prohibited.

次に、図3を用いて、ロボット制御プログラムの可視化データ提供に係る動作を説明する。図3は、実施形態におけるロボット制御プログラムの動作の一例を示すフローチャートである。以下のフローチャートの説明において、動作の実行主体は自律行動型ロボット1であるものとして説明するが、それぞれの動作は、上述した自律行動型ロボット1の各機能において実行される。 Next, the operation related to the provision of visualization data of the robot control program will be described with reference to FIG. FIG. 3 is a flowchart showing an example of the operation of the robot control program in the embodiment. In the following description of the flowchart, it is assumed that the execution subject of the operation is the autonomous action type robot 1, but each operation is executed in each function of the above-mentioned autonomous action type robot 1.

図3において、自律行動型ロボット1は、撮影画像を取得したか否かを判断する(ステップS11)。撮影画像を取得したか否かの判断は、撮影画像取得部111がロボット2から、撮影画像を取得したか否かで判断することができる。撮影画像を取得したか否かの判断は、撮影画像の処理単位で判断される。例えば、撮影画像が動画である場合、動画はロボット2から連続して送信されるため、撮影画像を取得したか否かの判断は、取得された動画のフレーム数またはデータ量等が所定の値に達したか否かで行うことができる。撮影画像の取得は、移動式ロボットが主体となって撮影画像を送信するものであっても、撮影画像取得部111が主体となって移動式ロボットから撮影画像を引き取るものであってもよい。撮影画像を取得していないと判断した場合(ステップS11:NO)、自律行動型ロボット1は、ステップS11の処理を繰返し、撮影画像が取得されるのを待機する。 In FIG. 3, the autonomous action type robot 1 determines whether or not the captured image has been acquired (step S11). The determination of whether or not the captured image has been acquired can be determined by whether or not the captured image acquisition unit 111 has acquired the captured image from the robot 2. The determination as to whether or not the captured image has been acquired is determined in the processing unit of the captured image. For example, when the captured image is a moving image, the moving image is continuously transmitted from the robot 2, so that the number of frames or the amount of data of the acquired moving image is a predetermined value for determining whether or not the captured image is acquired. It can be done depending on whether or not it has reached. The captured image may be acquired mainly by the mobile robot to transmit the captured image, or by the captured image acquisition unit 111 to take the captured image from the mobile robot. When it is determined that the captured image has not been acquired (step S11: NO), the autonomous action type robot 1 repeats the process of step S11 and waits for the captured image to be acquired.

一方、撮影画像を取得したと判断した場合(ステップS12:NO)、自律行動型ロボット1は、点群データを生成する(ステップS12)。点群データの生成は、点群データ生成部12が、例えば、撮影画像中の輝度の変化が大きい点を特徴点として検出し、検出された特徴点に対して三次元の座標を与えることにより実行することができる。特徴点の検出は、例えば、撮影画像に対して微分処理を行い、階調変化の大きい部分を検出するようにしてもよい。また、特徴点に対する座標の付与は、異なる撮影角度から撮影された同一の特徴点を検出することにより実行してもよい。ステップS11における撮影画像の取得の有無の判断は、複数の方向から撮影された撮影画像を取得したか否かで判断することができる。 On the other hand, when it is determined that the captured image has been acquired (step S12: NO), the autonomous action type robot 1 generates point cloud data (step S12). The point cloud data is generated by, for example, the point cloud data generation unit 12 detecting a point in the captured image in which the change in brightness is large as a feature point and giving three-dimensional coordinates to the detected feature point. Can be executed. The feature points may be detected, for example, by performing differential processing on the captured image to detect a portion having a large gradation change. Further, the addition of coordinates to the feature points may be executed by detecting the same feature points shot from different shooting angles. The determination of whether or not the captured image is acquired in step S11 can be determined by whether or not the captured image captured from a plurality of directions is acquired.

ステップS12の処理を実行した後、自律行動型ロボット1は、空間データを生成する(ステップS13)。空間データの生成は、空間データ生成部13が、例えば、点群データをハフ変換することにより実行することができる。なお、ステップS13の詳細は図4において説明する。 After executing the process of step S12, the autonomous action type robot 1 generates spatial data (step S13). Spatial data generation can be executed by the spatial data generation unit 13 by, for example, Hough transforming the point cloud data. The details of step S13 will be described with reference to FIG.

ステップS13の処理を実行した後、自律行動型ロボット1は、生成した空間データをロボット2に対して提供する(ステップS14)。ロボット2に対する空間データの提供は、図3に示すように空間データ生成の都度、逐次提供するようにしてもよく、また、ステップS11〜ステップS18で示す処理とは非同期に提供するようにしてもよい。空間データを提供されたロボット2は、空間データに基づき移動可能範囲を把握することが可能となる。 After executing the process of step S13, the autonomous action type robot 1 provides the generated spatial data to the robot 2 (step S14). As shown in FIG. 3, the spatial data may be provided to the robot 2 sequentially each time the spatial data is generated, or may be provided asynchronously with the processes shown in steps S11 to S18. Good. The robot 2 provided with the spatial data can grasp the movable range based on the spatial data.

ステップS14の処理を実行した後、自律行動型ロボット1は、空間要素を認識するか否かを判断する(ステップS15)。空間要素を認識するか否かの判断は、例えば、撮影対象認識部15に対して空間要素を認識するか否かの設定を行うことにより実行することができる。なお、空間要素を認識すると判断した場合であっても、認識に失敗した場合は、空間要素を認識しないと判断するようにしてもよい。 After executing the process of step S14, the autonomous action type robot 1 determines whether or not to recognize the spatial element (step S15). The determination of whether or not to recognize the spatial element can be executed, for example, by setting whether or not to recognize the spatial element in the photographing target recognition unit 15. Even if it is determined that the spatial element is recognized, if the recognition fails, it may be determined that the spatial element is not recognized.

空間要素を認識すると判断した場合(ステップS15:YES)、自律行動型ロボット1は、第1可視化データを生成する(ステップS16)。第1可視化データの生成は、可視化データ生成部14において実行することができる。第1可視化データとは、撮影対象認識部15が空間要素を認識した上で生成される可視化データである。例えば、撮影対象認識部15が空間要素をテーブルであると判断した場合、可視化データ生成部14は、テーブルの上面が撮影されておらず点群データを有さない場合であっても、テーブルの上面は平らであるものとして可視化データを生成することができる。また、空間要素が壁であると判断された場合、可視化データ生成部14は、撮影されていない部分も平面であるとして可視化データを生成することができる。 When it is determined that the spatial element is recognized (step S15: YES), the autonomous action type robot 1 generates the first visualization data (step S16). The generation of the first visualization data can be executed in the visualization data generation unit 14. The first visualization data is visualization data generated after the imaging target recognition unit 15 recognizes the spatial element. For example, when the imaging target recognition unit 15 determines that the spatial element is a table, the visualization data generation unit 14 can display the table even if the upper surface of the table is not photographed and does not have the point cloud data. Visualization data can be generated assuming that the top surface is flat. Further, when it is determined that the spatial element is a wall, the visualization data generation unit 14 can generate visualization data assuming that the unphotographed portion is also a plane.

空間要素を認識しないと判断した場合(ステップS15:NO)、自律行動型ロボット1は、第2可視化データを生成する(ステップS17)。第2可視化データの生成は、可視化データ生成部14において実行することができる。第2可視化データとは、撮影対象認識部15が空間要素を認識しないで、すなわち、撮影画像から生成された点群データ及び空間データに基づき生成される可視化データである。自律行動型ロボット1は、空間要素の認識処理を行わないことで、処理負荷を軽減することができる。 When it is determined that the spatial element is not recognized (step S15: NO), the autonomous action type robot 1 generates the second visualization data (step S17). The generation of the second visualization data can be executed in the visualization data generation unit 14. The second visualization data is visualization data that the photographing target recognition unit 15 does not recognize the spatial element, that is, is generated based on the point cloud data and the spatial data generated from the captured image. The autonomous action type robot 1 can reduce the processing load by not performing the spatial element recognition processing.

ステップS16の処理またはステップS17の処理を実行した後、自律行動型ロボット1は、可視化データを提供する(ステップS18)。可視化データの提供は、可視化データ生成部14において生成された可視化データを可視化データ提供部161が利用者端末3に提供することにより実行される。自律行動型ロボット1は、例えば利用者端末3からの要求に応じて可視化データを生成して提供するようにしてもよい。ステップS18の処理を実行した後、自律行動型ロボット1は、フローチャートで示した動作を終了する。 After executing the process of step S16 or the process of step S17, the autonomous behavior type robot 1 provides visualization data (step S18). The provision of the visualization data is executed by the visualization data providing unit 161 providing the visualization data generated by the visualization data generation unit 14 to the user terminal 3. The autonomous action type robot 1 may generate and provide visualization data in response to a request from, for example, a user terminal 3. After executing the process of step S18, the autonomous action type robot 1 ends the operation shown in the flowchart.

次に、図4を用いて、ロボット制御プログラムの空間データ生成に係る動作を説明する。図4は、実施形態におけるロボット制御プログラムの動作の他の一例を示すフローチャートである。 Next, the operation related to the spatial data generation of the robot control program will be described with reference to FIG. FIG. 4 is a flowchart showing another example of the operation of the robot control program in the embodiment.

図4において、自律行動型ロボット1は、空間データを生成する(ステップS121)。空間データの生成は、空間データ生成部13が、例えば、点群データをハフ変換することにより実行することができる。ステップS131を実行した後、自律行動型ロボット1は、マーカを認識したか否かを判断する(ステップS122)。マーカを認識したか否かは、マーカ認識部22が、撮影部21において撮影された撮影画像の中にマーカの画像を認識したか否かで判断することができる。ロボット2は、データ提供装置10に対してマーカの認識結果を通知することができる。 In FIG. 4, the autonomous behavior type robot 1 generates spatial data (step S121). Spatial data generation can be executed by the spatial data generation unit 13 by, for example, Hough transforming the point cloud data. After executing step S131, the autonomous action type robot 1 determines whether or not the marker has been recognized (step S122). Whether or not the marker is recognized can be determined by whether or not the marker recognition unit 22 recognizes the marker image in the captured image captured by the photographing unit 21. The robot 2 can notify the data providing device 10 of the recognition result of the marker.

マーカを認識したと判断した場合(ステップS122:YES)、自律行動型ロボット1は、ステップS121において生成した空間データに移動が制限される制限範囲を設定する(ステップS123)。 When it is determined that the marker is recognized (step S122: YES), the autonomous action type robot 1 sets a restriction range in which movement is restricted to the spatial data generated in step S121 (step S123).

マーカを認識していないと判断した場合(ステップS122:NO)、自律行動型ロボット1は、状態情報が取得されているか否かを判断する(ステップS124)。状態情報が取得されているか否かは、状態情報取得部24において状態情報が取得されているか否かで判断することができる。状態情報が取得されていると判断した場合(ステップS124:YES)、自律行動型ロボット1は取得された状態情報を空間データに対応させて設定する(ステップS125)。なお、設定された状態情報は、可視化データ提供部161から可視化データに対応させて提供される。 When it is determined that the marker is not recognized (step S122: NO), the autonomous action type robot 1 determines whether or not the state information has been acquired (step S124). Whether or not the state information has been acquired can be determined by whether or not the state information has been acquired by the state information acquisition unit 24. When it is determined that the state information has been acquired (step S124: YES), the autonomous action type robot 1 sets the acquired state information in correspondence with the spatial data (step S125). The set state information is provided by the visualization data providing unit 161 in correspondence with the visualization data.

一方、状態情報が取得されていない判断した場合(ステップS124:NO)、ステップS123の処理を実行した後、またはステップS125の処理を実行した後、自律行動型ロボット1は、フローチャートで示したステップS12の提供データ生成の動作を終了する。 On the other hand, when it is determined that the state information has not been acquired (step S124: NO), after executing the process of step S123 or after executing the process of step S125, the autonomous action type robot 1 takes the step shown in the flowchart. The operation of generating the provided data in S12 is terminated.

なお、本実施形態で説明したロボット制御プログラムの動作(ロボット制御方法)における各ステップにおける処理は、実行順序を限定するものではない。 The processing in each step in the operation of the robot control program (robot control method) described in the present embodiment does not limit the execution order.

次に、図5を用いて、ペアのマーカの設置による進入禁止ラインの設定方法を説明する。図5は、実施形態における進入禁止ラインの設定方法を示す図である。 Next, with reference to FIG. 5, a method of setting an entry prohibition line by installing a pair of markers will be described. FIG. 5 is a diagram showing a method of setting an entry prohibition line in the embodiment.

<ペアのマーカによる通路への進入禁止ラインの設置>
図5において、壁1と壁2の間、および壁1と壁3の間には、ロボット2が移動可能な通路(出入口)が存在しているものとする。利用者は、壁1と壁2の間において、壁1側に第1マーカとしてマーカ1aを設置し、さらに壁2側に第2マーカとしてマーカ1bを設置する。マーカ1aとマーカ1bはマーカ認識部22によってペアのマーカであると認識される。制限範囲設定部231は、マーカ1aとマーカ1bを直線で結んだ線を進入禁止ライン1として設定する。進入禁止ライン1を設定することにより、利用者はロボット2が進入禁止ライン1を越えて移動することを制限することができる。
<Installation of a line prohibiting entry into the passage by a pair of markers>
In FIG. 5, it is assumed that there is a passage (doorway) in which the robot 2 can move between the wall 1 and the wall 2 and between the wall 1 and the wall 3. The user installs the marker 1a as the first marker on the wall 1 side and further installs the marker 1b as the second marker on the wall 2 side between the wall 1 and the wall 2. The marker 1a and the marker 1b are recognized by the marker recognition unit 22 as a pair of markers. The restriction range setting unit 231 sets the line connecting the marker 1a and the marker 1b with a straight line as the entry prohibition line 1. By setting the entry prohibition line 1, the user can restrict the robot 2 from moving beyond the entry prohibition line 1.

<単独のマーカによる通路への進入禁止ラインの設置>
利用者は、壁1と壁3の間の通路において、通路の近くの壁1側にマーカ2を設置する。マーカ2はマーカ認識部22によって単独のマーカであると認識される。制限範囲設定部231は、マーカ2の近くに通路があるか否かを確認する。通路がある場合、制限範囲設定部231は、マーカ2の設置位置と通路の位置から、通路上の直線を進入禁止ライン2として設定する。制限範囲設定部231がマーカ2の付近に通路があるか否かを確認することができるので、利用者は、単独のマーカにおいても通路へのロボットの進入を禁止することが可能となる。
<Installation of a line prohibiting entry into the passage by a single marker>
In the passage between the wall 1 and the wall 3, the user installs the marker 2 on the wall 1 side near the passage. The marker 2 is recognized by the marker recognition unit 22 as a single marker. The limit range setting unit 231 confirms whether or not there is a passage near the marker 2. When there is a passage, the restriction range setting unit 231 sets a straight line on the passage as the entry prohibition line 2 from the installation position of the marker 2 and the position of the passage. Since the restriction range setting unit 231 can confirm whether or not there is a passage in the vicinity of the marker 2, the user can prohibit the robot from entering the passage even with a single marker.

<単独のマーカによる第1進入禁止エリアの設置>
利用者は、壁3にマーカ3を貼り付ける。マーカ3はマーカ認識部22によって単独のマーカであると認識される。制限範囲設定部231は、マーカ3の近くに通路があるか否かを確認する。通路がない場合、制限範囲設定部231は、マーカ2の設置位置から所定の範囲(例えば、マーカ3の設置位置を中心とした半円形)を第1進入禁止エリアとして設定する。
<Installation of the first no-entry area with a single marker>
The user attaches the marker 3 to the wall 3. The marker 3 is recognized by the marker recognition unit 22 as a single marker. The limit range setting unit 231 confirms whether or not there is a passage near the marker 3. When there is no passage, the restriction range setting unit 231 sets a predetermined range (for example, a semicircle centered on the installation position of the marker 3) from the installation position of the marker 2 as the first entry prohibition area.

<単独のマーカによる第2進入禁止エリアの設置>
利用者は、部屋の中央部にマーカ4を設置する。マーカ4は、例えば、立体的なマーカである。マーカ4はマーカ認識部22によって単独のマーカであると認識される。制限範囲設定部231は、マーカ4の周囲の所定の範囲(例えば、マーカ4の設置位置を中心とした円形)を第2進入禁止エリアとして設定する。
<Installation of a second no-entry area with a single marker>
The user installs the marker 4 in the center of the room. The marker 4 is, for example, a three-dimensional marker. The marker 4 is recognized by the marker recognition unit 22 as a single marker. The restriction range setting unit 231 sets a predetermined range around the marker 4 (for example, a circle centered on the installation position of the marker 4) as a second entry prohibition area.

次に、図6から図7を用いて、自律行動型ロボット1が提供する利用者端末3における制限範囲の設定を説明する。図6から図7は、実施形態における利用者端末3の表示の一例を示す図である。図6から図7は、可視化データ提供部161から可視化データとして提供されたWebページを、利用者端末3として例示するスマートフォンのタッチパネルにおいて表示した表示例である。 Next, the setting of the limited range in the user terminal 3 provided by the autonomous action type robot 1 will be described with reference to FIGS. 6 to 7. 6 to 7 are diagrams showing an example of the display of the user terminal 3 in the embodiment. 6 to 7 are display examples in which a Web page provided as visualization data by the visualization data providing unit 161 is displayed on a touch panel of a smartphone illustrated as a user terminal 3.

図6において、利用者端末3には、ロボット2において撮影されたリビングルームの撮影画像に基づき、可視化データ生成部14において生成された2Dの表示データが表示される。可視化データ生成部14は、点群データがハフ変換されて抽出された線分(直線または曲線)をラスタライズし、壁や家具等の空間要素の境界線を2Dで描画している。可視化データ生成部14は、マーカ認識部22で認識されたペアのマーカ画像または状態情報取得部24で取得された状態情報に基づき、進入禁止ライン36を表示している。進入禁止ライン36は、始点と終点を指定することにより設定することができる。始点と終点の設定は、ペアのマーカの設置、または利用者端末3からの設定によって行うことができる。進入禁止ライン36の中央部には進入禁止のマークが表示されている。進入禁止のマークを押下すると削除ボタン37が表示される。削除ボタン37を押下すると一度設定した進入禁止ライン36を消去することができる。なお、図示する家型のアイコンhは、ロボット2が充電のために帰巣するホームポジションを表している。 In FIG. 6, the user terminal 3 displays the 2D display data generated by the visualization data generation unit 14 based on the image taken by the robot 2 in the living room. The visualization data generation unit 14 rasterizes the line segment (straight line or curve) extracted by Hough transforming the point cloud data, and draws the boundary line of the spatial element such as a wall or furniture in 2D. The visualization data generation unit 14 displays the entry prohibition line 36 based on the pair of marker images recognized by the marker recognition unit 22 or the state information acquired by the state information acquisition unit 24. The entry prohibition line 36 can be set by designating the start point and the end point. The start point and end point can be set by installing a pair of markers or by setting from the user terminal 3. A no-entry mark is displayed at the center of the no-entry line 36. When the entry prohibition mark is pressed, the delete button 37 is displayed. By pressing the delete button 37, the entry prohibition line 36 once set can be deleted. The house-shaped icon h shown in the figure represents the home position where the robot 2 returns home for charging.

図6は、進入禁止ライン36より右側は空間データが未作成なエリアである。利用者は進入禁止ライン36を利用者端末3に表示された可視化データから設定し、確認し、または削除することができる。すなわち、自律行動型ロボット1は、撮影部21で撮影された画像からロボット2が移動可能な範囲を定めた可視化されたマップを生成できるとともに、ロボット2が進入できない進入禁止エリアを利用者端末3から設定することを可能にする。なお、利用者端末3は、ロボット2の移動を制限する条件を設定できるようにしてもよい。例えば、利用者端末3は、利用者に対して、ロボット2の進入を禁止する時間帯、人の有無に対する移動の制限の内容、移動を制限するときの照明の状態等を設定できるようにしてもよい。例えば、利用者端末3は、人が食事の準備をする朝夕の時間帯においてキッチンへの進入を禁止したり、照明が消えている場合において書斎への侵入を禁止したりするように条件を設定できるようにしてもよい。 In FIG. 6, the area on the right side of the entry prohibition line 36 is an area where spatial data has not been created. The user can set, confirm, or delete the entry prohibition line 36 from the visualization data displayed on the user terminal 3. That is, the autonomous action type robot 1 can generate a visualized map in which the range in which the robot 2 can move is defined from the image taken by the photographing unit 21, and the user terminal 3 can enter the no-entry area where the robot 2 cannot enter. Allows you to set from. The user terminal 3 may be able to set conditions for restricting the movement of the robot 2. For example, the user terminal 3 enables the user to set a time zone during which the robot 2 is prohibited from entering, the content of movement restrictions regarding the presence or absence of a person, the lighting state when the movement is restricted, and the like. May be good. For example, the user terminal 3 sets conditions so as to prohibit entry into the kitchen during the morning and evening hours when a person prepares meals, and prohibit entry into the study when the lights are off. You may be able to do it.

図7において、利用者端末3には、図6と同様にロボット2において撮影されたリビングルームの撮影画像に基づき、可視化データ生成部14において生成された2Dの可視化データが表示される。進入禁止ライン36の右側には洋室の可視化データが表示され、進入禁止ライン36によってロボット2が洋室38に進入が禁止されていることが確認できる。例えば、洋室38の撮影画像に基づき洋室38の空間データが生成された後に洋室38を進入禁止に設定したい場合がある。利用者はペアの進入禁止のためのマーカを洋室38の入り口に設置することにより、または利用者端末3から進入禁止ライン36を設定することにより、洋室38を進入禁止のエリアに設定することが可能となる。また、洋室38は既に空間データが生成されているため、利用者は、進入禁止ライン36を削除することにより、ロボット2を洋室38に移動できることが確認できる。なお、利用者は、利用者端末3のタッチパネルをピンチインまたはピンチアウトすることにより、表示の拡大縮小を行うことができる。 In FIG. 7, the user terminal 3 displays the 2D visualization data generated by the visualization data generation unit 14 based on the image taken in the living room taken by the robot 2 as in FIG. Visualization data of the Western-style room is displayed on the right side of the entry prohibition line 36, and it can be confirmed that the robot 2 is prohibited from entering the Western-style room 38 by the entry prohibition line 36. For example, there is a case where it is desired to set the Western-style room 38 to be prohibited from entering after the spatial data of the Western-style room 38 is generated based on the captured image of the Western-style room 38. The user can set the Western-style room 38 as an entry-prohibited area by installing a marker for prohibiting the entry of the pair at the entrance of the Western-style room 38, or by setting the entry-prohibited line 36 from the user terminal 3. It will be possible. Further, since the spatial data has already been generated in the Western-style room 38, the user can confirm that the robot 2 can be moved to the Western-style room 38 by deleting the entry prohibition line 36. The user can enlarge or reduce the display by pinching in or out of the touch panel of the user terminal 3.

実施形態1の変形例として、例えば、図1の可視化データ提供部161は、可視化データとともに、その元となった画像を利用者端末3に提供してもよい。例えば、利用者が利用者端末3に表示されている間取りの一部を指定することで、そこを撮影した画像が表示されるようにしてもよい。すなわち、空間要素毎にその特定に用いた画像が蓄積され、利用者が空間要素を指定した際は、その空間要素に対応付けられた画像が提供される。これにより、利用者は可視化データから認識状態を判断できないときに、画像を用いて認識状態を判断できる。 As a modification of the first embodiment, for example, the visualization data providing unit 161 of FIG. 1 may provide the image as the source of the visualization data to the user terminal 3. For example, the user may specify a part of the floor plan displayed on the user terminal 3 so that the captured image is displayed. That is, the image used for the identification is accumulated for each spatial element, and when the user specifies the spatial element, the image associated with the spatial element is provided. As a result, when the user cannot determine the recognition state from the visualization data, the user can determine the recognition state using an image.

更に別の変形例として、図6を用いて説明した進入禁止の制限範囲の指定方法として、利用者端末3のタッチパネルの画面に対して、指先で円を描く要領で指先を滑らせる操作でよく、制限範囲を囲むように指先を動かすことで指定する。この操作に連動して、画面には指先の軌跡が描かれ、可視化データに重ねるように指先の軌跡が可視化される。 As yet another modification, as a method of specifying the restricted range of entry prohibition described with reference to FIG. 6, the operation of sliding the fingertip on the touch panel screen of the user terminal 3 in the manner of drawing a circle with the fingertip may be sufficient. , Specify by moving your fingertip so that it surrounds the restricted range. In conjunction with this operation, the locus of the fingertip is drawn on the screen, and the locus of the fingertip is visualized so as to be superimposed on the visualization data.

また、マーカが平面的である場合、上述のようにマーカの撮影角度によっては、マーカの認識ができない場合がある。例えば、道路標識の場合は、車の走行に対して運転者が視認しやすいように走行方向と略直角になるように設置される。しかし、ロボット2が移動する経路においては壁にマーカが貼り付けられる場合があり、カメラの撮影方向によってはマーカが見落とされる可能性がある。例えば、図5で示したマーカ2は壁1に貼り付けられるため、ロボット2が壁3沿いにマーカ3に向かって移動した場合、マーカを確認する前に通路に進入してしまう可能性がある。そこで、本実施形態の変形例として、ロボット2が進入可能な空間(例えば、壁に設けられた通路)を発見した場合、空間の入り口近くにマーカが設置されていないか否かの積極的な確認動作を行うようにする。例えば、空間の入り口が壁の間に設けられた通路である場合、マーカは通路の入り口近くの壁に貼り付けられている可能性がある。ロボット2は通路の入り口の壁に設置されている可能性があるマーカを視認しやすい位置、例えば通路正面の位置に移動して、壁を撮影する積極的な確認動作を行うことによりマーカの見落としを防止することが可能となる。なお、マーカの積極的な確認動作は、環境条件が異なるエリアの発見時またはそのエリアへの侵入時に行うようにしてもよい。環境条件とは、例えば、ロボット2が移動する空間の照度、温度、湿度もしくは騒音レベル等であり、環境条件の変化には壁の色等の空間要素の変化等を含んでいてもよい。 Further, when the marker is flat, the marker may not be recognized depending on the shooting angle of the marker as described above. For example, in the case of a road sign, it is installed so as to be substantially perpendicular to the traveling direction so that the driver can easily see the traveling of the vehicle. However, a marker may be attached to the wall in the path in which the robot 2 moves, and the marker may be overlooked depending on the shooting direction of the camera. For example, since the marker 2 shown in FIG. 5 is attached to the wall 1, if the robot 2 moves toward the marker 3 along the wall 3, it may enter the passage before checking the marker. .. Therefore, as a modification of the present embodiment, when a space (for example, a passage provided on a wall) that the robot 2 can enter is found, it is positive whether or not a marker is installed near the entrance of the space. Make sure to perform the confirmation operation. For example, if the entrance to the space is a passageway between walls, the marker may be affixed to the wall near the entrance to the passageway. The robot 2 moves the marker that may be installed on the wall at the entrance of the aisle to a position where it is easy to see, for example, the position in front of the aisle, and overlooks the marker by performing an active confirmation operation to photograph the wall. Can be prevented. The marker positive confirmation operation may be performed when an area with different environmental conditions is found or when the marker is invaded into the area. The environmental conditions are, for example, the illuminance, temperature, humidity, noise level, etc. of the space in which the robot 2 moves, and the changes in the environmental conditions may include changes in spatial elements such as the color of the wall.

また、制限範囲設定部231は、マーカが設置されている設置位置の空間データの代わりに、マーカが設置されている周辺の特徴点に基づき制限範囲を設定するようにしてもよい。周辺の特徴点とは、例えば、床に配置されたケーブル、段差等の空間要素である。マーカが設置されている特徴点を学習することにより、マーカが設置されていない他の同様な特徴点を有する場所においても移動を制限する学習効果を得ることが可能となる。 Further, the restriction range setting unit 231 may set the restriction range based on the feature points in the vicinity where the marker is installed, instead of the spatial data of the installation position where the marker is installed. Peripheral feature points are, for example, spatial elements such as cables and steps arranged on the floor. By learning the feature points where the markers are installed, it is possible to obtain a learning effect of restricting the movement even in a place having other similar feature points where the markers are not installed.

また、ロボットが複数台存在する場合、移動の制限の内容をロボット毎に異なる内容で設定するようにしてもよい。例えば、同じマーカを認識した場合、ロボットによって制限される進入禁止エリアを異なるように設定してもよい。ロボット毎に制限内容を変えて設定することにより、ロボットの用途(例えば、掃除用ロボット、目覚まし用ロボット等)に応じた制限を設定することが可能となる。 Further, when there are a plurality of robots, the content of the movement restriction may be set differently for each robot. For example, when the same marker is recognized, the no-entry area restricted by the robot may be set differently. By setting different restrictions for each robot, it is possible to set restrictions according to the purpose of the robot (for example, a cleaning robot, an alarm clock, etc.).

また、ロボットは、マーカによって一度設定された制限の内容を学習するようにしてもよい。例えば、ロボットは一時マーカによって進入禁止エリアが設定されたことを学習することにより、その後、マーカが撤去された後においても進入頻度を低くするようにしてもよい。これを実現するため、マーカ認識部22は、一時マーカや恒久マーカの位置を、それぞれマーカ種類を特定する情報に対応付けて記憶する。このように、一時マーカの位置も記憶しておくことで、ロボットは、一時マーカが設置されていたエリアへの進入をためらう振る舞いをしたり、エリアへの進入頻度を低くしたりする等の動作を実行することが可能となる。 Further, the robot may learn the content of the limit once set by the marker. For example, the robot may learn that the no-entry area has been set by the temporary marker, so that the access frequency may be reduced even after the marker is removed. In order to realize this, the marker recognition unit 22 stores the positions of the temporary marker and the permanent marker in association with the information for specifying the marker type. In this way, by memorizing the position of the temporary marker, the robot behaves to hesitate to enter the area where the temporary marker is installed, or reduces the frequency of entry into the area. Can be executed.

[実施形態2]
実施形態1では進入禁止の場所を自律行動型ロボット1に認識させるためにマーカを用いる例を示したが、任意の場所を自律行動型ロボット1に認識させるためにマーカを用いてもよい。つまり、住居や施設における任意の場所にマーカを設置し、自律行動型ロボット1に当該マーカが設置された場所の位置を認識させるようにしてもよい。
[Embodiment 2]
In the first embodiment, an example in which the marker is used to make the autonomous action robot 1 recognize the place where entry is prohibited may be used, but the marker may be used to make the autonomous action robot 1 recognize an arbitrary place. That is, the marker may be installed at an arbitrary place in the house or facility so that the autonomous action robot 1 recognizes the position of the place where the marker is installed.

住宅には、玄関、子供部屋や寝室のように任意のエリアが含まれる。施設には、受付カウンター、休憩所や非常口などの任意のエリアが含まれる。これらのエリアに対応付けられたエリア種別(例えば、後述する玄関タイプや受付カウンタータイプ)を識別可能なマーカを用いる。マーカは、形状、模様、色彩若しくはそのマーカに付された文字若しくは図形又はこれらの組み合わせなど、画像認識によりエリア種別が識別可能な特徴を有していれば、どのようなものであってもよい。例えば、汎用的な変換方式(バーコード方式あるいは2次元バーコード方式など)でエリア種別のコードを図形化した図形コードをマーカとして用いてもよい。この場合には、マーカ認識部22は、当該変換方式によって図形コードからエリア種別のコードを読み取ることができる。あるいは、独自にデザイン化した図形をマーカとして用いてもよい。この場合には、マーカ認識部22は、撮影画像に含まれる図形の形状が所定の形状である場合にその図形の種類を特定し、特定した図形の種類に対応するエリア種別を特定するようにしてもよい。データ提供装置10又はロボット2において、図形の種類とエリア種別を対応付けるデータを記憶しておくものとする。つまり、実施形態2におけるマーカは、いずれかのエリア種別を特定し得る。 Residential includes any area, such as a front door, a children's room or a bedroom. Facilities include any area such as reception counters, rest areas and emergency exits. A marker that can identify the area type (for example, the entrance type or reception counter type described later) associated with these areas is used. The marker may be any shape, pattern, color, characters or figures attached to the marker, or a combination thereof, as long as it has a feature that allows the area type to be identified by image recognition. .. For example, a graphic code obtained by graphicizing the area type code by a general-purpose conversion method (bar code method, two-dimensional bar code method, etc.) may be used as a marker. In this case, the marker recognition unit 22 can read the area type code from the graphic code by the conversion method. Alternatively, a uniquely designed figure may be used as a marker. In this case, the marker recognition unit 22 specifies the type of the figure included in the captured image when the shape of the figure is a predetermined shape, and specifies the area type corresponding to the specified type of the figure. You may. It is assumed that the data providing device 10 or the robot 2 stores data for associating a graphic type with an area type. That is, the marker in the second embodiment can specify any area type.

このようなマーカを、エリア種別によって識別されるエリアに設置しておけば、自律行動型ロボット1は、マーカの設置場所がエリア種別で識別されるエリアに該当すると認識できる。例えば、玄関に玄関タイプのマーカを設置しておけば、自律行動型ロボット1は玄関タイプのマーカの設置場所が玄関であると認識できる。 If such a marker is installed in an area identified by the area type, the autonomous action robot 1 can recognize that the installation location of the marker corresponds to the area identified by the area type. For example, if a front door type marker is installed at the entrance, the autonomous action robot 1 can recognize that the place where the front door type marker is installed is the front door.

実施形態2では、自律行動型ロボット1において、所定イベントとエリア種別とを対応付けるマーカ情報を記憶している。自律行動型ロボット1が所定イベントを検出すると、ロボット2は、所定イベントに対応するエリア種別のマーカが設置されている場所(マーカ設置場所という。)へ移動する。ロボット2が、マーカ設置場所へ移動する契機となる所定イベントを第1イベントという。第1イベントは、ロボット2で検出される場合とデータ提供装置10で検出される場合とがある。 In the second embodiment, the autonomous action type robot 1 stores marker information for associating a predetermined event with an area type. When the autonomous action type robot 1 detects a predetermined event, the robot 2 moves to a place (referred to as a marker installation place) where a marker of the area type corresponding to the predetermined event is installed. A predetermined event that triggers the robot 2 to move to the marker installation location is called a first event. The first event may be detected by the robot 2 or may be detected by the data providing device 10.

さらに、ロボット2がマーカ設置場所へ移動した後に、自律行動型ロボット1が別の所定イベントを検出すると、ロボット2は所定のアクションを実行する。ロボット2が、所定のアクションを実行する契機となるイベントを第2イベントという。第2イベントは、ロボット2で検出される場合とデータ提供装置10で検出される場合とがある。実行されるアクションは、第1イベント、エリア種別及び第2イベントのうちの少なくとも1つに対応する。実施形態2では、自律行動型ロボット1において、第1イベント、エリア種別及び第2イベントのうち少なくとも1つとアクションとを対応付けるイベント情報を記憶している。ロボット2において、当該イベント情報を記憶してもよい。 Further, when the autonomous action type robot 1 detects another predetermined event after the robot 2 moves to the marker installation location, the robot 2 executes a predetermined action. The event that triggers the robot 2 to execute a predetermined action is called a second event. The second event may be detected by the robot 2 or may be detected by the data providing device 10. The action to be executed corresponds to at least one of a first event, an area type and a second event. In the second embodiment, in the autonomous action type robot 1, event information for associating at least one of the first event, the area type, and the second event with the action is stored. The event information may be stored in the robot 2.

図8は、実施形態2におけるロボット2のモジュール構成の一例を示すブロック図である。図8は、後述する実施例1〜6に関する機能部についても示している。ロボット2は、マーカ認識部22、位置測定部25、移動制御部23、通信制御部26、第1イベント検出部210、第2イベント検出部220及びアクション実行部230の各機能部を有する。実施形態2におけるロボット2の上記各機能部は、ロボット2を制御するプログラムによって実現される機能モジュールであるものとして説明する。 FIG. 8 is a block diagram showing an example of the module configuration of the robot 2 in the second embodiment. FIG. 8 also shows the functional parts related to Examples 1 to 6 described later. The robot 2 has each functional unit of a marker recognition unit 22, a position measurement unit 25, a movement control unit 23, a communication control unit 26, a first event detection unit 210, a second event detection unit 220, and an action execution unit 230. Each of the above-mentioned functional units of the robot 2 in the second embodiment will be described as being a functional module realized by a program that controls the robot 2.

マーカ認識部22は、撮影画像に含まれるマーカを認識し、マーカが示すエリア種別を特定する。位置測定部25は、ロボット2の現在位置及び方向を測定する。位置測定部25は、撮影画像に基づいて現在位置及び方向を測定してもよいし、所定の位置に設置された無線通信デバイスから受信する電波に基づいて現在位置を測定してもよい。現在位置を測定する方法は、従来技術であってもよい。位置測定部25は、自己位置の推定と環境地図の作成を同時に行うSLAM(Simultaneous Localization and Mapping)技術を用いてもよい。移動制御部23は、ロボット2の移動を制御する。移動制御部23は、目的地までの経路を設定し、移動機構29を駆動して経路を辿って目的地へ自らを移動させる。通信制御部26は、データ提供装置10との通信を行う。 The marker recognition unit 22 recognizes the marker included in the captured image and specifies the area type indicated by the marker. The position measuring unit 25 measures the current position and direction of the robot 2. The position measuring unit 25 may measure the current position and direction based on the captured image, or may measure the current position based on the radio wave received from the wireless communication device installed at the predetermined position. The method for measuring the current position may be a conventional technique. The position measuring unit 25 may use SLAM (Simultaneous Localization and Mapping) technology that simultaneously estimates the self-position and creates an environmental map. The movement control unit 23 controls the movement of the robot 2. The movement control unit 23 sets a route to the destination, drives the movement mechanism 29, follows the route, and moves itself to the destination. The communication control unit 26 communicates with the data providing device 10.

第1イベント検出部210は、第1イベントを検出する。第1イベント検出部210は、音声認識や画像認識などの認識処理の結果に基づいて第1イベントを検出してもよい。つまり、第1イベント検出部210は、ロボット2が備えるマイクで入力した音が所定音声に該当すると推測される特性が含まれると判断した場合に、第1イベントを検出してもよい。第1イベント検出部210は、例えば予めサンプルとなる所定音声を録音して、その音声を分析して周波数分布、抑揚や音量が高まる周期などの特徴データを抽出しておく。そして、第1イベント検出部210は、マイクで入力した音に対しても同様の分析を行い、周波数分布、抑揚や音量が高まる周期などの特徴データがサンプルの場合と一致又は近似する場合に、マイクで入力した音が所定音声に該当すると推測してもよい。 The first event detection unit 210 detects the first event. The first event detection unit 210 may detect the first event based on the result of recognition processing such as voice recognition and image recognition. That is, the first event detection unit 210 may detect the first event when it is determined that the sound input by the microphone included in the robot 2 includes a characteristic that is presumed to correspond to a predetermined voice. For example, the first event detection unit 210 records a predetermined voice as a sample in advance, analyzes the voice, and extracts characteristic data such as frequency distribution, intonation, and period in which the volume increases. Then, the first event detection unit 210 performs the same analysis on the sound input by the microphone, and when the characteristic data such as the frequency distribution, the intonation and the period in which the volume increases match or are similar to the case of the sample, the first event detection unit 210 performs the same analysis. It may be presumed that the sound input by the microphone corresponds to the predetermined voice.

また、第1イベント検出部210は、撮影部21で撮影した画像に任意の人、所定の人あるいは所定の物が写っていると推測される場合に、第1イベントを検出してもよい。第1イベント検出部210は、例えば予めサンプルとなる任意の人、所定の人あるいは所定の物を撮影部21で撮影し、その撮影画像を分析して被写体の大きさ、形状及びパーツの配置などの特徴データを抽出しておく。そして、第1イベント検出部210は、撮影部21で撮影した画像を分析して、サンプルに大きさ、形状及びパーツの配置などの特徴データが共通又は近似する被写体が含まれると判定した場合に、撮影した画像に任意の人、所定の人あるいは所定の物が写っていると推測してもよい。 Further, the first event detection unit 210 may detect the first event when it is presumed that an arbitrary person, a predetermined person, or a predetermined object is captured in the image captured by the photographing unit 21. The first event detection unit 210, for example, photographs an arbitrary person, a predetermined person, or a predetermined object as a sample in advance with the photographing unit 21, analyzes the photographed image, and arranges the size, shape, and parts of the subject. The feature data of is extracted. Then, when the first event detection unit 210 analyzes the image captured by the photographing unit 21 and determines that the sample contains a subject having common or similar feature data such as size, shape, and arrangement of parts. , It may be presumed that an arbitrary person, a predetermined person, or a predetermined object is shown in the captured image.

第1イベント検出部210は、温度センサ、接触センサあるいは加速度センサなどの各種センサの計測結果に基づいて第1イベントを検出してもよい。第1イベント検出部210は、センサの計測値が所定の下限値を下回った場合、センサの計測値が所定の範囲に収まった場合、センサの計測値が所定の範囲から外れた場合、あるいはセンサの計測値が所定の上限値を上回った場合に、第1イベントを検出してもよい。第1イベント検出部210は、例えば温度センサによって人の体温に相当する温度を計測したときに第1イベントを検出してもよい。第1イベント検出部210は、例えば接触センサによって人のタッチに相当する接触を計測したときに第1イベントを検出してもよい。第1イベント検出部210は、交通事故の衝撃や地震などの大きな揺れに相当する加速度の変化を加速度センサによって計測したときに第1イベントを検出してもよい。 The first event detection unit 210 may detect the first event based on the measurement results of various sensors such as a temperature sensor, a contact sensor, and an acceleration sensor. The first event detection unit 210 determines that the measured value of the sensor falls below a predetermined lower limit value, the measured value of the sensor falls within a predetermined range, the measured value of the sensor deviates from the predetermined range, or the sensor The first event may be detected when the measured value of the above exceeds a predetermined upper limit value. The first event detection unit 210 may detect the first event when, for example, a temperature sensor measures a temperature corresponding to a person's body temperature. The first event detection unit 210 may detect the first event when, for example, a contact sensor measures a contact corresponding to a human touch. The first event detection unit 210 may detect the first event when the change in acceleration corresponding to a large shaking such as an impact of a traffic accident or an earthquake is measured by an acceleration sensor.

第1イベント検出部210は、通信処理における通信状態に基づいて第1イベントを検出してもよい。第1イベント検出部210は、例えば無線通信における電波強度、所定の通信相手との通信時間あるいは所定時間当たりの伝送量などの通信状態を示す特性値が下限値を下回った場合、通信状態を示す特性値が所定の範囲に収まった場合、通信状態を示す特性値が所定の範囲から外れた場合、あるいは通信状態を示す特性値が所定の上限値を上回った場合に、第1イベントを検出してもよい。 The first event detection unit 210 may detect the first event based on the communication state in the communication process. The first event detection unit 210 indicates a communication state when, for example, a characteristic value indicating a communication state such as a radio wave strength in wireless communication, a communication time with a predetermined communication partner, or a transmission amount per a predetermined time falls below a lower limit value. The first event is detected when the characteristic value falls within a predetermined range, when the characteristic value indicating the communication state deviates from the predetermined range, or when the characteristic value indicating the communication state exceeds the predetermined upper limit value. You may.

第1イベント検出部210は、データ提供装置10、利用者端末3あるいは他の外部装置から受信したデータに基づいて、第1イベントを検出してもよい。第1イベント検出部210は、例えばデータ提供装置10や他の外部装置から所定の通知を受信した場合に、第1イベントを検出してもよい。第1イベント検出部210は、利用者端末3から利用者による所定の要求を受け付けた場合に、第1イベントを検出してもよい。 The first event detection unit 210 may detect the first event based on the data received from the data providing device 10, the user terminal 3, or another external device. The first event detection unit 210 may detect the first event when, for example, a predetermined notification is received from the data providing device 10 or another external device. The first event detection unit 210 may detect the first event when a predetermined request by the user is received from the user terminal 3.

音声認識部211、電波状態検出部213、見回りイベント検出部215及び起床イベント検出部217は、第1イベント検出部210の例である。音声認識部211については、実施例2(子守の応用例)で説明する。電波状態検出部213については、実施例4(通話サポートの応用例)で説明する。見回りイベント検出部215については、実施例5(警備の応用例)で説明する。起床イベント検出部217については、実施例6(目覚ましの応用例)で説明する。 The voice recognition unit 211, the radio wave state detection unit 213, the patrol event detection unit 215, and the wake-up event detection unit 217 are examples of the first event detection unit 210. The voice recognition unit 211 will be described in the second embodiment (application example of babysitter). The radio wave state detection unit 213 will be described in the fourth embodiment (application example of call support). The patrol event detection unit 215 will be described in the fifth embodiment (application example of security). The wake-up event detection unit 217 will be described in Example 6 (application example of the alarm clock).

第2イベント検出部220は、第2イベントを検出する。第2イベント検出部220は、第1イベント検出部210の場合と同様に、音声認識や画像認識などの認識処理の結果に基づいて第2イベントを検出してもよい。第2イベント検出部220は、第1イベント検出部210の場合と同様に、温度センサ、接触センサあるいは加速度センサなどの各種センサの計測結果に基づいて第2イベントを検出してもよい。第2イベント検出部220は、第1イベント検出部210の場合と同様に、通信処理における通信状態に基づいて第2イベントを検出してもよい。第2イベント検出部220は、第1イベント検出部210の場合と同様に、データ提供装置10、利用者端末3あるいは他の外部装置から受信したデータに基づいて、第2イベントを検出してもよい。 The second event detection unit 220 detects the second event. The second event detection unit 220 may detect the second event based on the result of recognition processing such as voice recognition and image recognition, as in the case of the first event detection unit 210. The second event detection unit 220 may detect the second event based on the measurement results of various sensors such as a temperature sensor, a contact sensor, and an acceleration sensor, as in the case of the first event detection unit 210. The second event detection unit 220 may detect the second event based on the communication state in the communication processing, as in the case of the first event detection unit 210. Similar to the case of the first event detection unit 210, the second event detection unit 220 may detect the second event based on the data received from the data providing device 10, the user terminal 3, or another external device. Good.

利用者認識部221、通話要求受付部223、人認識部225及び体位認識部227は、第2イベント検出部220の例である。利用者認識部221については、実施例1(出迎えの応用例)で説明する。通話要求受付部223については、実施例4(通話サポートの応用例)で説明する。人認識部225については、実施例5(警備の応用例)で説明する。体位認識部227については、実施例6(目覚ましの応用例)で説明する。 The user recognition unit 221, the call request reception unit 223, the person recognition unit 225, and the body position recognition unit 227 are examples of the second event detection unit 220. The user recognition unit 221 will be described in the first embodiment (application example of welcoming). The call request receiving unit 223 will be described in the fourth embodiment (application example of the call support). The human recognition unit 225 will be described in the fifth embodiment (application example of security). The body position recognition unit 227 will be described in Example 6 (application example of the alarm clock).

アクション実行部230は、第2イベントを契機とするアクションを実行する。アクション実行部230は、ロボット2自身の動きを伴うアクションを実行してもよい。アクション実行部230は、ロボット2における画像、音声あるいは通信などの入力処理を伴うアクションを実行してもよい。アクション実行部230は、ロボット2における画像、音声あるいは通信などの出力処理を伴うアクションを実行してもよい。 The action execution unit 230 executes an action triggered by the second event. The action execution unit 230 may execute an action that involves the movement of the robot 2 itself. The action execution unit 230 may execute an action involving input processing such as image, voice, or communication in the robot 2. The action execution unit 230 may execute an action that involves output processing such as image, voice, or communication in the robot 2.

姿勢制御部231、音声出力部232、リモートコントロール部233、メッセージ出力部235及び電話通信部237は、アクション実行部230の例である。また、移動制御部23が、アクション実行部230として機能することもある。移動制御部23がアクション実行部230として機能する場合、移動制御部23は、移動機構29を制御して、ロボット2の移動に関するアクションを行う。姿勢制御部231は、ロボット2の姿勢に関するアクションを行う。ロボット2が人や仮想キャラクタを模した形体を有し、首や腕をアクチュエータで動かすことができるものであれば、姿勢制御部231は、アクチュエータを駆動してロボット2に種々のポーズをとらせたり、種々のジェスチャーを行わせたりしてもよい。ロボット2が四足の動物を模した形体を有し、関節部分に設けられたアクチュエータで各足を動かすことができるものであれば、姿勢制御部231は、アクチュエータを駆動してロボット2に種々のポーズをとらせたり、種々のジェスチャーを行わせたりしてもよい。 The attitude control unit 231, the voice output unit 232, the remote control unit 233, the message output unit 235, and the telephone communication unit 237 are examples of the action execution unit 230. Further, the movement control unit 23 may function as the action execution unit 230. When the movement control unit 23 functions as the action execution unit 230, the movement control unit 23 controls the movement mechanism 29 to perform an action related to the movement of the robot 2. The attitude control unit 231 performs an action related to the posture of the robot 2. If the robot 2 has a shape imitating a person or a virtual character and the neck and arms can be moved by an actuator, the attitude control unit 231 drives the actuator to cause the robot 2 to take various poses. Or you may have them perform various gestures. If the robot 2 has a shape that imitates a four-legged animal and each leg can be moved by an actuator provided at a joint portion, the attitude control unit 231 drives the actuator to make various robots 2. You may make them pose or make various gestures.

リモートコントロール部233については、実施例2(子守の応用例)及び実施例6(目覚ましの応用例)で説明する。メッセージ出力部235については、実施例3(接客の応用例)で説明する。電話通信部237については、実施例4(通話サポートの応用例)で説明する。 The remote control unit 233 will be described in Example 2 (application example of babysitter) and Example 6 (application example of alarm clock). The message output unit 235 will be described in the third embodiment (application example of customer service). The telephone communication unit 237 will be described in the fourth embodiment (application example of call support).

図9は、実施形態2におけるデータ提供装置10のモジュール構成の一例を示すブロック図である。図9は、後述する実施例1〜6に関する機能部についても示している。ロボット2は、第1通信制御部11、第2通信制御部16、マーカ登録部110、第1イベント検出部120、第2イベント検出部130及びアクション選択部140の各機能部を有する。実施形態2におけるデータ提供装置10の上記各機能部は、データ提供装置10を制御するプログラムによって実現される機能モジュールであるものとして説明する。 FIG. 9 is a block diagram showing an example of the module configuration of the data providing device 10 according to the second embodiment. FIG. 9 also shows the functional parts related to Examples 1 to 6 described later. The robot 2 has each functional unit of a first communication control unit 11, a second communication control unit 16, a marker registration unit 110, a first event detection unit 120, a second event detection unit 130, and an action selection unit 140. Each of the above-mentioned functional units of the data providing device 10 in the second embodiment will be described as being a functional module realized by a program that controls the data providing device 10.

第1通信制御部11は、ロボット2との無線通信を制御する。第2通信制御部16は、利用者端末3や他の外部機器などとの無線通信あるいは有線通信を制御する。マーカ登録部110は、後述するマーカ情報記憶部153にマーカの位置及び向きを含むマーカ情報を登録する。 The first communication control unit 11 controls wireless communication with the robot 2. The second communication control unit 16 controls wireless communication or wired communication with the user terminal 3 or another external device. The marker registration unit 110 registers marker information including the position and orientation of the marker in the marker information storage unit 153, which will be described later.

第1イベント検出部120は、第1イベントを検出する。第1イベント検出部120は、ロボット2の第1イベント検出部210の場合と同様に、音声認識や画像認識などの認識処理の結果に基づいて第1イベントを検出してもよい。第1イベント検出部120は、ロボット2の第1イベント検出部210の場合と同様に、ロボット2の温度センサ、接触センサあるいは加速度センサなどの各種センサの計測結果に基づいて第1イベントを検出してもよい。第1イベント検出部120は、ロボット2の第1イベント検出部210の場合と同様に、通信処理における通信状態に基づいて第1イベントを検出してもよい。第1イベント検出部120は、ロボット2の第1イベント検出部210の場合と同様に、利用者端末3あるいは他の外部装置から受信したデータに基づいて、第1イベントを検出してもよい。第1イベント検出部120は、ロボット2から受信したデータに基づいて、第1イベントを検出してもよい。 The first event detection unit 120 detects the first event. The first event detection unit 120 may detect the first event based on the result of recognition processing such as voice recognition and image recognition, as in the case of the first event detection unit 210 of the robot 2. The first event detection unit 120 detects the first event based on the measurement results of various sensors such as the temperature sensor, contact sensor, and acceleration sensor of the robot 2, as in the case of the first event detection unit 210 of the robot 2. You may. The first event detection unit 120 may detect the first event based on the communication state in the communication processing, as in the case of the first event detection unit 210 of the robot 2. The first event detection unit 120 may detect the first event based on the data received from the user terminal 3 or another external device, as in the case of the first event detection unit 210 of the robot 2. The first event detection unit 120 may detect the first event based on the data received from the robot 2.

帰宅イベント検出部121及び来客イベント検出部123は、第1イベント検出部120の例である。帰宅イベント検出部121については、実施例1(出迎えの応用例)で説明する。来客イベント検出部123については、実施例3(接客の応用例)で説明する。 The homecoming event detection unit 121 and the visitor event detection unit 123 are examples of the first event detection unit 120. The homecoming event detection unit 121 will be described in the first embodiment (application example of welcoming). The visitor event detection unit 123 will be described in the third embodiment (application example of customer service).

第2イベント検出部130は、第2イベントを検出する。第2イベント検出部130は、ロボット2の第1イベント検出部210の場合と同様に、音声認識や画像認識などの認識処理の結果に基づいて第2イベントを検出してもよい。第2イベント検出部130は、ロボット2の第1イベント検出部210の場合と同様に、ロボット2の温度センサ、接触センサあるいは加速度センサなどの各種センサの計測結果に基づいて第2イベントを検出してもよい。第2イベント検出部130は、ロボット2の第1イベント検出部210の場合と同様に、通信処理における通信状態に基づいて第2イベントを検出してもよい。第2イベント検出部130は、ロボット2の第1イベント検出部210の場合と同様に、利用者端末3あるいは他の外部装置から受信したデータに基づいて、第2イベントを検出してもよい。第2イベント検出部130は、ロボット2から受信したデータに基づいて、第2イベントを検出してもよい。 The second event detection unit 130 detects the second event. The second event detection unit 130 may detect the second event based on the result of recognition processing such as voice recognition and image recognition, as in the case of the first event detection unit 210 of the robot 2. The second event detection unit 130 detects the second event based on the measurement results of various sensors such as the temperature sensor, contact sensor, and acceleration sensor of the robot 2, as in the case of the first event detection unit 210 of the robot 2. You may. The second event detection unit 130 may detect the second event based on the communication state in the communication processing, as in the case of the first event detection unit 210 of the robot 2. The second event detection unit 130 may detect the second event based on the data received from the user terminal 3 or another external device, as in the case of the first event detection unit 210 of the robot 2. The second event detection unit 130 may detect the second event based on the data received from the robot 2.

空き室イベント検出部131は、第2イベント検出部130の例である。空き室イベント検出部131については、実施例3(接客の応用例)で説明する。アクション選択部140は、第1イベント、エリア種別及び第2イベントのうちの少なくとも1つに対応するアクションを選択する。以下では、主に第1イベントと第2イベントの組み合わせに対応するアクションを選択する例を示す。 The vacant room event detection unit 131 is an example of the second event detection unit 130. The vacant room event detection unit 131 will be described in the third embodiment (application example of customer service). The action selection unit 140 selects an action corresponding to at least one of the first event, the area type, and the second event. The following is an example of mainly selecting an action corresponding to a combination of the first event and the second event.

ロボット2は、さらにイベント情報記憶部151及びマーカ情報記憶部153を有する。イベント情報記憶部151は、第1イベントに対応するエリア種別、第2イベント及びアクションを含むイベント情報を記憶する。イベント情報記憶部151については、図10に関連して後述する。マーカ情報記憶部153は、エリア種別とマーカの位置及び向きを対応付けるマーカ情報を記憶する。マーカ情報記憶部153については、図11に関連して後述する。 The robot 2 further has an event information storage unit 151 and a marker information storage unit 153. The event information storage unit 151 stores event information including the area type, the second event, and the action corresponding to the first event. The event information storage unit 151 will be described later in relation to FIG. The marker information storage unit 153 stores marker information that associates the area type with the position and orientation of the marker. The marker information storage unit 153 will be described later in relation to FIG.

図10は、実施形態2におけるイベント情報記憶部151のデータ構成の一例を示すブロック図である。図10の各レコードは、第1イベントが検出された場合に、第1イベントに対応するエリア種別のマーカが設置されている場所へロボット2が移動することを定めている。さらに図10の各レコードは、第2イベントが検出された場合に、例えば第1イベントと第2イベントの組み合わせに対応するアクションをロボット2が実行することを定めている。各レコードの詳細については、実施例1〜6で説明する。イベント情報は、デフォルトとして設定されていてもよいし、利用者端末3のアプリケーションで利用者が設定してもよい。 FIG. 10 is a block diagram showing an example of the data structure of the event information storage unit 151 according to the second embodiment. Each record in FIG. 10 defines that when the first event is detected, the robot 2 moves to a place where a marker of the area type corresponding to the first event is installed. Further, each record of FIG. 10 defines that the robot 2 executes an action corresponding to, for example, a combination of the first event and the second event when the second event is detected. Details of each record will be described in Examples 1 to 6. The event information may be set as a default, or may be set by the user in the application of the user terminal 3.

図11は、実施形態2におけるマーカ情報記憶部153のデータ構成の一例を示すブロック図である。図11の各レコードには、エリア種別に対応付けて当該エリア種別のマーカの位置及び向きが設定される。 FIG. 11 is a block diagram showing an example of the data structure of the marker information storage unit 153 in the second embodiment. In each record of FIG. 11, the position and orientation of the marker of the area type are set in association with the area type.

予め利用者は、住宅や施設の任意の位置にその位置の付近のエリアを識別するエリア種別のマーカを貼り付けておく。そして、マーカ登録フェーズにおいて、ロボット1が未知のマーカを検出すると、データ提供装置10がマーカ情報を登録する。 In advance, the user attaches an area type marker that identifies an area near the position to an arbitrary position of the house or facility. Then, in the marker registration phase, when the robot 1 detects an unknown marker, the data providing device 10 registers the marker information.

図12(A)は、実施形態2のマーカ登録フェーズにおける処理手順を示すフローチャートである。例えばロボット2が自律的に移動しているときに未知のマーカを検出することがある(S21)。具体的には、ロボット2のマーカ認識部22は、撮影部21で撮影した画像に含まれるマーカを認識し、当該マーカが示すエリア種別を特定する。マーカ認識部22は、過去に検出したことがあるマーカを記憶しており、記憶されているマーカと検出されたマーカとを比較することで、未検出のマーカを判別できる。 FIG. 12A is a flowchart showing a processing procedure in the marker registration phase of the second embodiment. For example, an unknown marker may be detected when the robot 2 is moving autonomously (S21). Specifically, the marker recognition unit 22 of the robot 2 recognizes a marker included in the image captured by the photographing unit 21 and specifies the area type indicated by the marker. The marker recognition unit 22 stores markers that have been detected in the past, and can determine undetected markers by comparing the stored markers with the detected markers.

マーカ認識部22は、未検出のマーカを認識したと判断した場合に、画像認識によってロボット2とマーカの相対的な位置関係と方向を特定する。マーカ認識部22は、撮影画像に含まれるマーカの大きさによって、ロボット2とマーカの距離を求める。また、マーカ認識部22は、撮影画像に含まれるマーカのゆがみ方によって、ロボット2に対するマーカの向きを判断する。そして、マーカ認識部22は、位置測定部25で測定したロボット2の現在位置及び方向を基準として、マーカの位置及び向きを求める。通信制御部26は、エリア種別と当該エリア種別のマーカの位置及び向きを含むマーカ情報をデータ提供装置10へ送信する。 When the marker recognition unit 22 determines that the undetected marker has been recognized, the marker recognition unit 22 specifies the relative positional relationship and direction between the robot 2 and the marker by image recognition. The marker recognition unit 22 obtains the distance between the robot 2 and the marker according to the size of the marker included in the captured image. Further, the marker recognition unit 22 determines the direction of the marker with respect to the robot 2 according to how the marker included in the captured image is distorted. Then, the marker recognition unit 22 obtains the position and direction of the marker with reference to the current position and direction of the robot 2 measured by the position measurement unit 25. The communication control unit 26 transmits marker information including the area type and the position and orientation of the marker of the area type to the data providing device 10.

データ提供装置10の第1通信制御部11がマーカ情報を受信すると、マーカ登録部110は、エリア種別に対応付けて当該エリア種別のマーカの位置及び向きをマーカ情報記憶部153に登録する(ステップS22)。 When the first communication control unit 11 of the data providing device 10 receives the marker information, the marker registration unit 110 registers the position and orientation of the marker of the area type in the marker information storage unit 153 in association with the area type (step). S22).

マーカ登録フェーズを終えると、アクションフェーズにおいて、第1イベントを契機としてロボット2がマーカ設置場所へ移動して、第2イベントを契機としてロボット2が所定のアクションを行う。 When the marker registration phase is completed, in the action phase, the robot 2 moves to the marker installation location triggered by the first event, and the robot 2 performs a predetermined action triggered by the second event.

図12(B)は、実施形態2のアクションフェーズにおける処理手順を示すフローチャートである。ロボット2の第1イベント検出部210又はデータ提供装置10の第1イベント検出部120が第1イベントを検出すると(S23)、データ提供装置10のアクション選択部140は、第1イベントに対応するマーク種別を特定し、マーク種別のマークの位置への移動をロボット2へ指示する。ロボット2の移動制御部23は、移動の指示に従ってマーク位置への経路を設定して移動機構29を制御する。移動機構29の動作によって、ロボット2はマーク付近へ移動する(S24)。 FIG. 12B is a flowchart showing a processing procedure in the action phase of the second embodiment. When the first event detection unit 210 of the robot 2 or the first event detection unit 120 of the data providing device 10 detects the first event (S23), the action selection unit 140 of the data providing device 10 marks the mark corresponding to the first event. The type is specified, and the robot 2 is instructed to move to the position of the mark of the mark type. The movement control unit 23 of the robot 2 controls the movement mechanism 29 by setting a route to the mark position according to the movement instruction. By the operation of the moving mechanism 29, the robot 2 moves to the vicinity of the mark (S24).

ロボット2の第2イベント検出部220又はデータ提供装置10の第2イベント検出部130が第2イベントを検出すると、データ提供装置10のアクション選択部140は、例えば第1イベントと第2イベントの組み合わせに対応するアクションを選択し、選択したアクションをロボット2に指示する。そして、ロボット2は、指示されたアクションを実行する(S26)。以下、実施形態2に関する実施例1〜6について説明する。 When the second event detection unit 220 of the robot 2 or the second event detection unit 130 of the data providing device 10 detects the second event, the action selection unit 140 of the data providing device 10 may, for example, combine the first event and the second event. The action corresponding to is selected, and the selected action is instructed to the robot 2. Then, the robot 2 executes the instructed action (S26). Hereinafter, Examples 1 to 6 relating to the second embodiment will be described.

[実施例1]
自律行動型ロボット1による出迎えの応用例について説明する。出迎えの応用例では、ユーザが帰宅したときに、ロボット2が玄関へ向かい、ユーザを出迎えるようにする。エリアとして玄関を識別するエリア種別のマーカを玄関に設置しておけば、自律行動型ロボット1はそのマーカの設置場所が玄関であると認識できる。玄関を識別するエリア種別を玄関タイプという。
[Example 1]
An application example of welcoming by the autonomous action type robot 1 will be described. In the application example of welcoming, when the user returns home, the robot 2 heads to the entrance to greet the user. If an area type marker that identifies the entrance as an area is installed at the entrance, the autonomous action robot 1 can recognize that the installation location of the marker is the entrance. The area type that identifies the entrance is called the entrance type.

利用者が帰宅するタイミングは、利用者が保持する利用者端末3のGPS装置(Global Positioning System)が計測した位置が自宅に近づいたことによって判断できる。例えば、利用者端末3の位置と玄関(又はデータ提供装置10)の距離が基準長よりも短くなった場合に、利用者が帰宅するタイミングであると判断される。利用者が帰宅するタイミングを判断するためのイベントを、利用者帰宅イベントという。つまり、利用者帰宅イベントが、出迎えの応用例における第1イベントに相当する。 The timing at which the user returns home can be determined by the position measured by the GPS device (Global Positioning System) of the user terminal 3 held by the user approaching the home. For example, when the distance between the position of the user terminal 3 and the entrance (or the data providing device 10) is shorter than the reference length, it is determined that it is the timing when the user returns home. An event for determining when a user returns home is called a user return event. That is, the user return home event corresponds to the first event in the application example of welcoming.

玄関に着いたロボット2は、撮影部21で撮影した画像によって利用者を認識すると、利用者の帰宅に反応するアクションを行う。ロボット2が利用者を認識するイベントを、利用者認識イベントという。また、利用者の帰宅に反応するアクションを、出迎えアクションという。利用者認識イベントは、出迎えアクションを行う契機となる。利用者認識イベントは、出迎えの応用例における第2イベントに相当する。 When the robot 2 arrives at the entrance and recognizes the user by the image taken by the photographing unit 21, the robot 2 takes an action in response to the user returning home. An event in which the robot 2 recognizes a user is called a user recognition event. In addition, the action that reacts to the user's return home is called the welcome action. The user recognition event is an opportunity to perform a welcome action. The user recognition event corresponds to the second event in the application example of welcoming.

出迎えアクションでは、例えば音声出力部232が、ロボット2が備えるスピーカから音声を出力する。出力する音声は、「おかえり」のような自然言語であってもよいし、歓声のような非言語であってもよい。移動制御部23は、出迎えアクションとして移動機構29を制御して、ロボット2を小刻みに前後させたり、回転させたりするアクションを行ってもよい。ロボット2が人や仮想キャラクタを模した形体を有し、腕をアクチュエータで動かすことができるものであれば、姿勢制御部231が、アクチュエータを駆動して腕を上げ下げしてもよい。ロボット2が首をアクチュエータで動かすことができるものであれば、姿勢制御部231が、アクチュエータを駆動して首を振ってもよい。ロボット2が四足の動物を模した形体を有し、関節部分に設けられたアクチュエータで各足を動かすことができるものであれば、姿勢制御部231は、出迎えアクションとして後足だけで立ち上がるポーズをとらせてもよい。これにより、ロボット2が利用者の帰宅を喜んでいることを演出できる。利用者は、自分を待っていてくれるロボット2に親近感を持ち、愛着を深めるようになる。 In the welcoming action, for example, the voice output unit 232 outputs voice from the speaker included in the robot 2. The output voice may be a natural language such as "Welcome back" or a non-language such as cheers. The movement control unit 23 may control the movement mechanism 29 as a welcoming action to perform an action of moving the robot 2 back and forth or rotating the robot 2 in small steps. If the robot 2 has a shape imitating a person or a virtual character and the arm can be moved by the actuator, the attitude control unit 231 may drive the actuator to raise or lower the arm. If the robot 2 can move its head with an actuator, the attitude control unit 231 may drive the actuator to shake its head. If the robot 2 has a shape that imitates a four-legged animal and can move each leg with an actuator provided at the joint part, the attitude control unit 231 poses to stand up with only the hind legs as a welcoming action. You may let me take. As a result, it is possible to produce that the robot 2 is pleased with the return of the user. The user will have a sense of familiarity with the robot 2 that is waiting for him and will deepen his attachment.

図9に示したデータ提供装置10の帰宅イベント検出部121は、上述のとおり利用者端末3の位置情報に基づいて利用者が自宅に近づいたと判断したときに利用者帰宅イベントを検出する。帰宅イベント検出部121は、利用者端末3が玄関に設置されたビーコン発信器と通信を行ったことを示す通知を利用者端末3から受信したときに利用者帰宅イベントを検出してもよい。帰宅イベント検出部121は、カメラ付きインターフォンで撮影された画像や入力した音声に基づいて利用者を認識したときに利用者帰宅イベントを検出してもよい。また、帰宅イベント検出部121は、利用者端末3から帰宅予告のメールを受信したときに利用者帰宅イベントを検出してもよい。 The homecoming event detection unit 121 of the data providing device 10 shown in FIG. 9 detects the user returning home event when it is determined that the user has approached the home based on the position information of the user terminal 3 as described above. The homecoming event detection unit 121 may detect the user homecoming event when the user terminal 3 receives a notification from the user terminal 3 indicating that the user terminal 3 has communicated with the beacon transmitter installed at the entrance. The return home event detection unit 121 may detect the user return home event when the user is recognized based on the image taken by the camera-equipped intercom or the input voice. In addition, the homecoming event detection unit 121 may detect the user returning home event when receiving the homecoming notice mail from the user terminal 3.

図8に示したロボット2の利用者認識部221は、例えば撮影画像に含まれる顔部分の認識や入力した音声の認識によって、利用者を検出する。利用者認識部221は、例えば予めサンプルとして利用者の顔を撮影部21で撮影し、その撮影画像を分析して大きさ、形状及びパーツ(目、鼻や口などの部位)の配置などの特徴データを抽出しておく。そして、人認識部225は、撮影部21で撮影した画像を分析して、大きさ、形状及びパーツの配置などの特徴データがサンプルと共通又は近似する被写体が含まれると判定した場合に、撮影した画像に利用者の顔が写っていると推測してもよい。また、利用者認識部221は、例えば予めサンプルとなる利用者の声を録音して、その利用者の声を分析して周波数分布や抑揚などの特徴データを抽出しておく。そして、利用者認識部221は、マイクで入力した音に対しても同様の分析を行い、周波数分布や抑揚などの特徴データが利用者の声のサンプルの場合と一致又は近似する場合に、マイクで入力した音が利用者の声に該当すると推測してもよい。 The user recognition unit 221 of the robot 2 shown in FIG. 8 detects the user, for example, by recognizing a face portion included in a captured image or recognizing an input voice. For example, the user recognition unit 221 photographs the user's face as a sample in advance with the photographing unit 21, analyzes the photographed image, and determines the size, shape, and arrangement of parts (parts such as eyes, nose, and mouth). Extract the feature data. Then, the human recognition unit 225 analyzes the image captured by the photographing unit 21, and when it is determined that the feature data such as the size, shape, and arrangement of the parts includes a subject that is common to or similar to the sample, the image is captured. It may be inferred that the user's face is reflected in the image. Further, the user recognition unit 221 records, for example, a sample user's voice in advance, analyzes the user's voice, and extracts characteristic data such as frequency distribution and intonation. Then, the user recognition unit 221 performs the same analysis on the sound input by the microphone, and when the characteristic data such as the frequency distribution and the intonation match or approximate the case of the user's voice sample, the microphone It may be presumed that the sound input in is corresponding to the user's voice.

図10に示したイベント情報記憶部151のデータ構成における第1レコードは、出迎えの応用例に関して、第1イベントとして利用者帰宅イベントが検出された場合に、エリア種別が玄関タイプであるマーカが設置されている場所(つまり、玄関)へロボット2が移動することを定めている。第1レコードは、さらに第2イベントとして利用者認識イベントが検出された場合に、ロボット2が出迎えアクションを行うことを定めている。エリア種別が玄関タイプであるマーカを玄関マーカという。 In the first record in the data structure of the event information storage unit 151 shown in FIG. 10, a marker whose area type is the entrance type is installed when a user return event is detected as the first event in the application example of welcoming. It is stipulated that the robot 2 moves to the place where it is (that is, the entrance). The first record further stipulates that the robot 2 performs a welcoming action when a user recognition event is detected as a second event. A marker whose area type is the entrance type is called an entrance marker.

図11に示したマーカ情報記憶部153のデータ構成における第1レコードには、出迎えの応用例に関して、エリア種別の玄関タイプに対応付けて玄関マーカの位置及び向きが設定される。 In the first record in the data structure of the marker information storage unit 153 shown in FIG. 11, the position and orientation of the entrance marker are set in association with the entrance type of the area type with respect to the application example of welcoming.

図13(A)は、実施例1のマーカ登録フェーズにおける処理手順を示すフローチャートである。例えばロボット2が自律的に移動しているときにマーカ認識部22が玄関マーカを検出すると(ステップS31)、通信制御部26は、エリア種別の玄関タイプと玄関マーカの位置及び向きを含む玄関マーカ情報をデータ提供装置10へ送信する。 FIG. 13A is a flowchart showing a processing procedure in the marker registration phase of the first embodiment. For example, when the marker recognition unit 22 detects the entrance marker while the robot 2 is moving autonomously (step S31), the communication control unit 26 includes the entrance type of the area type and the position and orientation of the entrance marker. Information is transmitted to the data providing device 10.

データ提供装置10の第1通信制御部11が玄関マーカ情報を受信すると、マーカ登録部110は、エリア種別の玄関タイプに対応付けて玄関マーカの位置及び向きをマーカ情報記憶部153に登録する(ステップS32)。 When the first communication control unit 11 of the data providing device 10 receives the entrance marker information, the marker registration unit 110 registers the position and orientation of the entrance marker in the marker information storage unit 153 in association with the entrance type of the area type ( Step S32).

図13(B)は、実施例1のアクションフェーズにおける処理手順を示すフローチャートである。データ提供装置10の帰宅イベント検出部121は、利用者帰宅イベントを検出すると(ステップS33)、イベント情報記憶部151を参照して利用者帰宅イベントに対応するエリア種別の玄関タイプを特定する。帰宅イベント検出部121は、さらにマーカ情報記憶部153を参照してエリア種別の玄関タイプに対応する玄関マーカの位置と向きを特定する。第1通信制御部11は、玄関マーカの位置と向きを含む玄関への移動指示をロボット2へ送信する。このとき、帰宅イベント検出部121は、アクション選択部140へ利用者帰宅イベントを通知しておく。 FIG. 13B is a flowchart showing a processing procedure in the action phase of the first embodiment. When the return home event detection unit 121 of the data providing device 10 detects the user return home event (step S33), the return home event detection unit 121 identifies the entrance type of the area type corresponding to the user return event with reference to the event information storage unit 151. The homecoming event detection unit 121 further refers to the marker information storage unit 153 to specify the position and orientation of the entrance marker corresponding to the entrance type of the area type. The first communication control unit 11 transmits a movement instruction to the entrance including the position and direction of the entrance marker to the robot 2. At this time, the homecoming event detection unit 121 notifies the action selection unit 140 of the user homecoming event.

ロボット2の通信制御部26が玄関マーカの位置と向きを含む玄関への移動指示を受信すると、ロボット2の移動制御部23が移動機構29を制御して、ロボット2は玄関へ移動する(ステップS34)。ロボット2は、玄関マーカの位置の手前に少なくとも第1所定時間留まる。第1所定時間は、利用者帰宅イベントが検出されてからユーザ認識イベントが検出されるまでの想定間隔の上限値に相当する。第1所定時間を経過した時点で、利用者認識イベントが検出されていなければ、実施例1のアクションフェーズにおける処理を中断してもよい。 When the communication control unit 26 of the robot 2 receives a movement instruction to the entrance including the position and orientation of the entrance marker, the movement control unit 23 of the robot 2 controls the movement mechanism 29, and the robot 2 moves to the entrance (step). S34). The robot 2 stays in front of the position of the entrance marker for at least a first predetermined time. The first predetermined time corresponds to the upper limit of the assumed interval from the detection of the user return event to the detection of the user recognition event. If the user recognition event is not detected when the first predetermined time elapses, the process in the action phase of the first embodiment may be interrupted.

利用者が扉を開けて入ってくると、ロボット2は利用者を認識する。具体的には、利用者認識部221が、撮影部21で撮影した画像に含まれる利用者の顔を認識し、あるいはマイクで入力した音を音声認識して、利用者認識イベントを検出する(ステップS35)。ロボット2の利用者認識部221が利用者認識イベントを検出すると、通信制御部26は利用者認識イベントをデータ提供装置10へ送信する。 When the user opens the door and enters, the robot 2 recognizes the user. Specifically, the user recognition unit 221 recognizes the user's face included in the image taken by the shooting unit 21, or recognizes the sound input by the microphone by voice, and detects the user recognition event (). Step S35). When the user recognition unit 221 of the robot 2 detects the user recognition event, the communication control unit 26 transmits the user recognition event to the data providing device 10.

データ提供装置10の第1通信制御部11が利用者認識イベントを受信すると、アクション選択部140は、イベント情報記憶部151を参照して第2イベントの利用者認識イベントに対応する第1イベントの利用者帰宅イベントを特定する。アクション選択部140は、イベント情報記憶部151を参照して第1イベントの利用者帰宅イベントと第2イベントの利用者認識イベントの組み合わせに対応する出迎えアクションを選択する。第1通信制御部11は、選択された出迎えアクションの指示をロボット2へ送信する。 When the first communication control unit 11 of the data providing device 10 receives the user recognition event, the action selection unit 140 refers to the event information storage unit 151 and determines the first event corresponding to the user recognition event of the second event. Identify the user return event. The action selection unit 140 refers to the event information storage unit 151 and selects a welcoming action corresponding to the combination of the user return event of the first event and the user recognition event of the second event. The first communication control unit 11 transmits an instruction of the selected welcoming action to the robot 2.

ロボット2の通信制御部26が出迎えアクションの指示を受信すると、ロボット2のアクション実行部230は、出迎えアクションを実行する(ステップS36)。 When the communication control unit 26 of the robot 2 receives the instruction of the welcoming action, the action executing unit 230 of the robot 2 executes the welcoming action (step S36).

[実施例2]
自律行動型ロボット1による子守の応用例について説明する。子守の応用例では、子供部屋で幼児が泣き出したときに、ロボット2が子供部屋へ向かい幼児をあやすようにする。エリアとして子供部屋を識別するエリア種別のマーカを子供部屋に設置しておけば、自律行動型ロボット1はそのマーカの設置場所が子供部屋であると認識できる。子供部屋を識別するエリア種別を子供部屋タイプという。
[Example 2]
An application example of babysitting by the autonomous action type robot 1 will be described. In the babysitter application example, when the infant starts crying in the children's room, the robot 2 heads to the children's room to comfort the infant. If an area-type marker that identifies the child's room as an area is installed in the child's room, the autonomous action robot 1 can recognize that the marker is installed in the child's room. The area type that identifies the children's room is called the children's room type.

子守の応用例では、幼児が泣き声をあげたときに、ロボット2が子供部屋へ移動して幼児を心配する様子を演出する。幼児の泣き声は、ロボット2が備えるマイクに入力された音の分析によって検出される。つまり、幼児泣き声の検出が、子守の応用例における第1イベントに相当する。このイベントを、幼児泣き声イベントという。 In the application example of the babysitter, when the infant cries, the robot 2 moves to the children's room and is worried about the infant. The infant's crying is detected by analyzing the sound input to the microphone included in the robot 2. That is, the detection of infant crying corresponds to the first event in the babysitter application example. This event is called an infant crying event.

子供部屋に大人がいなければ、ロボット2が幼児をあやすように振舞う。幼児をあやす振る舞いを、あやしアクションという。大人の不在は、撮影部21で撮影した画像の認識によって検出される。大人の不在の検出は、子守の応用例における第2イベントに相当する。このイベントを、大人不在イベントという。 If there are no adults in the children's room, the robot 2 behaves like a toddler. The behavior of comforting an infant is called a healing action. The absence of an adult is detected by recognizing an image taken by the photographing unit 21. The detection of the absence of an adult corresponds to the second event in the babysitter application. This event is called an adult absence event.

あやしアクションでは、例えばロボット2が備えるスピーカから乳幼児の泣きやませに有効な音(例えば、あやし声、笑い声、紙袋をカサカサさせる音)が出力される。あやしアクションは、音声等の出力に加えて、ロボット2が頭を傾げたり、腕を上げ下げさせたりするような、ロボット2の構成要素を動かす振る舞いでもよいし、乳幼児の泣きやませに有効な画像などの所定の画像をディスプレイに表示するようなアクションであってもよい。あやしアクションは、近くテレビを起動させたり、オーディオ装置に音楽を出力させたりするなどの、ロボット2とは異なる機器を制御するリモートコントロールでもよい。あやしアクションによってロボット2が幼児を落ち着かせれば、親である利用者は安心する。 In the bagging action, for example, a speaker provided in the robot 2 outputs a sound effective for stopping the crying of an infant (for example, a bagging voice, a laughing voice, or a sound that makes a paper bag rustle). In addition to the output of voice, the crying action may be an action that moves the components of the robot 2, such as the robot 2 tilting its head or raising or lowering its arms, or an image that is effective for stopping crying of infants. It may be an action such as displaying a predetermined image on the display. The Ayashi action may be a remote control that controls a device different from the robot 2, such as starting a TV soon or outputting music to an audio device. If the robot 2 calms the infant by the tampering action, the user who is the parent will be relieved.

図8に示したロボット2の音声認識部211は、マイクに入力された音が幼児の泣き声であると判断した場合に幼児泣き声イベントを検出する。音声認識部211は、例えば予めサンプルとなる幼児泣き声を録音して、その幼児泣き声を分析して周波数分布や音量が高まる周期などの特徴データを抽出しておく。そして、音声認識部211は、マイクに入力された音に対しても同様の分析を行い、周波数分布や音量が高まる周期などの特徴データが幼児泣き声のサンプルの場合と一致又は近似する場合に、マイクに入力された音が幼児泣き声に該当すると推測してもよい。 The voice recognition unit 211 of the robot 2 shown in FIG. 8 detects an infant crying event when it is determined that the sound input to the microphone is the infant crying. For example, the voice recognition unit 211 records a sample infant cry in advance, analyzes the infant cry, and extracts characteristic data such as a frequency distribution and a period in which the volume increases. Then, the voice recognition unit 211 performs the same analysis on the sound input to the microphone, and when the characteristic data such as the frequency distribution and the period in which the volume increases match or are similar to the case of the infant crying sample, the voice recognition unit 211 performs the same analysis. It may be inferred that the sound input to the microphone corresponds to the infant crying.

図8に示したロボット2の人認識部225は、撮影部21で撮影した画像に大人が写っていないと認識した場合に大人不在イベントを検出する。人認識部225は、例えば予めサンプルとして性別や体型の異なる複数の大人の映像を撮影部21で撮影し、その撮影画像を分析して大きさや形状などの特徴データを抽出しておく。そして、人認識部225は、撮影部21で撮影した画像を分析して、サンプルと大きさや形状などの特徴データが共通又は近似する被写体が含まれると判定した場合に、撮影した画像に大人が写っていると推測してもよい。図8に示したロボット2のリモートコントロール部233は、リモートコントロールの無線信号を送信して、近くのテレビを起動させたり、オーディオ装置に音楽を出力させたりの、ロボット2とは異なる機器を制御するリモートコントロールを行う。 The human recognition unit 225 of the robot 2 shown in FIG. 8 detects an adult absence event when it recognizes that an adult is not shown in the image captured by the photographing unit 21. For example, the human recognition unit 225 captures images of a plurality of adults having different genders and body shapes as samples in advance by the photographing unit 21, analyzes the captured images, and extracts characteristic data such as size and shape. Then, when the human recognition unit 225 analyzes the image captured by the photographing unit 21 and determines that the captured image includes a subject whose characteristic data such as size and shape are common to or similar to the sample, an adult can perform the captured image. You may guess that it is in the picture. The remote control unit 233 of the robot 2 shown in FIG. 8 controls a device different from the robot 2, such as transmitting a wireless signal of the remote control to start a nearby TV or outputting music to an audio device. Perform remote control.

図10に示したイベント情報記憶部151のデータ構成における第2レコードは、子守の応用例に関して、第1イベントとして幼児泣き声イベントが検出された場合に、エリア種別が子供部屋タイプであるマーカが設置されている場所(つまり、子供部屋)へロボット2が移動することを定めている。第2レコードは、さらに第2イベントとして大人不在イベントが検出された場合に、ロボット2があやしアクションを行うことを定めている。エリア種別が子供部屋タイプであるマーカを子供部屋マーカという。 In the second record in the data structure of the event information storage unit 151 shown in FIG. 10, a marker whose area type is the children's room type is installed when an infant crying event is detected as the first event in an application example of child protection. It is stipulated that the robot 2 moves to the place where it is (that is, the children's room). The second record further stipulates that the robot 2 takes an action when an adult absence event is detected as the second event. A marker whose area type is a children's room type is called a children's room marker.

図11に示したマーカ情報記憶部153のデータ構成における第2レコードには、子守の応用例に関して、エリア種別の子供部屋タイプに対応付けて子供部屋マーカの位置及び向きが設定される。 In the second record in the data structure of the marker information storage unit 153 shown in FIG. 11, the position and orientation of the children's room marker are set in association with the child's room type of the area type with respect to the application example of babysitter.

図14(A)は、実施例2のマーカ登録フェーズにおける処理手順を示すフローチャートである。例えばロボット2が自律的に移動しているときにマーカ認識部22が子供部屋マーカを検出すると(ステップS41)、通信制御部26は、エリア種別の子供部屋タイプと子供部屋マーカの位置及び向きを含む子供部屋マーカ情報をデータ提供装置10へ送信する。 FIG. 14A is a flowchart showing a processing procedure in the marker registration phase of the second embodiment. For example, when the marker recognition unit 22 detects the child room marker when the robot 2 is moving autonomously (step S41), the communication control unit 26 determines the position and orientation of the child room type and the child room marker of the area type. The including child's room marker information is transmitted to the data providing device 10.

データ提供装置10の第1通信制御部11が子供部屋マーカ情報を受信すると、マーカ登録部110は、エリア種別の玄関タイプに対応付けて玄関マーカの位置及び向きをマーカ情報記憶部153に登録する(ステップS42)。 When the first communication control unit 11 of the data providing device 10 receives the child room marker information, the marker registration unit 110 registers the position and orientation of the entrance marker in the marker information storage unit 153 in association with the entrance type of the area type. (Step S42).

図14(B)は、実施例2のアクションフェーズにおける処理手順を示すフローチャートである。ロボット2の音声認識部211が幼児泣き声イベントを検出すると(ステップS43)、通信制御部26は、データ提供装置10へ幼児泣き声イベントを通知する。 FIG. 14B is a flowchart showing a processing procedure in the action phase of the second embodiment. When the voice recognition unit 211 of the robot 2 detects the infant crying event (step S43), the communication control unit 26 notifies the data providing device 10 of the infant crying event.

データ提供装置10の第1通信制御部11が幼児泣き声イベントの通知を受信すると、アクション選択部140は、イベント情報記憶部151を参照して幼児泣き声イベントに対応付けられているエリア種別の子供部屋タイプを特定する。アクション選択部140は、さらにマーカ情報記憶部153を参照してエリア種別の子供部屋タイプに対応する子供部屋マーカの位置と向きを特定する。第1通信制御部11は、子供部屋マーカの位置と向きを含む子供部屋への移動指示をロボット2へ送信する。 When the first communication control unit 11 of the data providing device 10 receives the notification of the infant crying event, the action selection unit 140 refers to the event information storage unit 151 and refers to the child room of the area type associated with the infant crying event. Identify the type. The action selection unit 140 further refers to the marker information storage unit 153 to specify the position and orientation of the child room marker corresponding to the child room type of the area type. The first communication control unit 11 transmits a movement instruction to the child room including the position and orientation of the child room marker to the robot 2.

ロボット2の通信制御部26が子供部屋マーカの位置と向きを含む子供部屋への移動指示を受信すると、移動制御部23は移動機構29を制御して、ロボット2は子供部屋へ移動する(ステップS44)。ロボット2は、子供部屋マーカの位置の手前に少なくとも第2所定時間留まる。第2所定時間は、ロボット2が子供部屋に入ってから大人の不在を認識するまでに要する想定時間の上限値に相当する。第2所定時間を経過した時点で、大人不在イベントが検出されていなければ、実施例2のアクションフェーズにおける処理を中断してもよい。 When the communication control unit 26 of the robot 2 receives a movement instruction to the children's room including the position and orientation of the children's room marker, the movement control unit 23 controls the movement mechanism 29, and the robot 2 moves to the children's room (step). S44). The robot 2 stays in front of the position of the children's room marker for at least a second predetermined time. The second predetermined time corresponds to the upper limit of the estimated time required for the robot 2 to recognize the absence of an adult after entering the children's room. If the adult absence event is not detected after the lapse of the second predetermined time, the process in the action phase of the second embodiment may be interrupted.

人認識部225が大人不在イベントを検出すると(ステップS45)、通信制御部26は大人不在イベントをデータ提供装置10へ送信する。 When the human recognition unit 225 detects the adult absence event (step S45), the communication control unit 26 transmits the adult absence event to the data providing device 10.

データ提供装置10の第1通信制御部11が大人不在イベントを受信すると、アクション選択部140は、イベント情報記憶部151を参照して第2イベントの大人不在イベントに対応する第1イベントの幼児泣き声イベントを特定する。アクション選択部140は、イベント情報記憶部151を参照して第1イベントの幼児泣き声イベントと第2イベントの大人不在イベントの組み合わせに対応するあやしアクションを選択する。第1通信制御部11は、選択されたあやしアクションの指示をロボット2へ送信する。 When the first communication control unit 11 of the data providing device 10 receives the adult absence event, the action selection unit 140 refers to the event information storage unit 151 and makes an infant cry of the first event corresponding to the adult absence event of the second event. Identify the event. The action selection unit 140 refers to the event information storage unit 151 and selects a sneak action corresponding to the combination of the infant crying event of the first event and the adult absence event of the second event. The first communication control unit 11 transmits an instruction of the selected tampering action to the robot 2.

ロボット2の通信制御部26があやしアクションの指示を受信すると、ロボット2のアクション実行部230は、あやしアクションを実行する(ステップS46)。 When the communication control unit 26 of the robot 2 receives the instruction of the pacing action, the action executing unit 230 of the robot 2 executes the pacing action (step S46).

[実施例3]
自律行動型ロボット1による接客の応用例について説明する。接客の応用例は、例えば客室で飲食サービスを提供する店舗を想定している。店舗を利用する客が入店したときに、ロボット2が受付カウンターへ向かい、客室へ案内する。エリアとして受付カウンターを識別するエリア種別のマーカを受付カウンターに設置しておけば、自律行動型ロボット1はそのマーカの設置場所が受付カウンターであると認識できる。受付カウンターを識別するエリア種別を受付カウンタータイプという。
[Example 3]
An application example of customer service by the autonomous action type robot 1 will be described. An application example of customer service assumes, for example, a store that provides food and drink services in guest rooms. When a customer who uses the store enters the store, the robot 2 heads to the reception counter and guides the customer to the guest room. If an area type marker that identifies the reception counter as an area is installed at the reception counter, the autonomous action robot 1 can recognize that the installation location of the marker is the reception counter. The area type that identifies the reception counter is called the reception counter type.

接客の応用例では、来客を検知したときに、ロボット2が受付カウンターへ移動して客に応対する様子を演出する。来客は、店舗の入り口に設けられたカメラで撮影した画像に入店する客が写っていることによって検出される。つまり、来客の検出が、接客の応用例における第1イベントに相当する。このイベントを、来客イベントという。 In the application example of customer service, when a visitor is detected, the robot 2 moves to the reception counter and responds to the customer. Visitors are detected by the fact that the image taken by the camera installed at the entrance of the store shows the customer entering the store. That is, the detection of a visitor corresponds to the first event in the application example of customer service. This event is called a visitor event.

空き室があれば、ロボット2が客を空き室へ案内するように振舞う。客を空き室へ案内する振る舞いを、案内アクションという。空き室の情報は、客室管理システム(図示せず)から得られる。空き室の検出は、接客の応用例における第2イベントに相当する。このイベントを、空き室イベントという。 If there is a vacant room, the robot 2 behaves to guide the customer to the vacant room. The behavior of guiding customers to a vacant room is called a guidance action. Vacancy information can be obtained from the guest room management system (not shown). The detection of a vacant room corresponds to the second event in the application example of customer service. This event is called a vacant room event.

案内アクションでは、例えばロボット2が空き室まで客を先導する。あるいは、メッセージ出力部235が、「○号室へお入りください。」の案内メッセージを音声出力してもよいし、ロボット2が備える表示装置に表示してもよい。ロボット2が接客すれば、客は人的サービスにはない趣向を感じる。無人化を図ることで、コストを軽減できる面もある。 In the guidance action, for example, the robot 2 leads the customer to a vacant room. Alternatively, the message output unit 235 may output the guidance message "Please enter room ○" by voice, or may display it on the display device provided in the robot 2. If the robot 2 serves customers, the customer feels a taste that human service does not have. There is also the aspect that costs can be reduced by unmanned operation.

図9に示したデータ提供装置10の来客イベント検出部123は、例えば店舗の入り口に設けられたカメラで撮影した画像で入店する客を認識したときに、来客イベントを検出する。図9に示したデータ提供装置10の空き室イベント検出部131は、客室管理システム(図示せず)に客室の状況を問い合わせて、空いている客室があれば空き室イベントを検出する。図8に示したロボット2の移動制御部23は、ゆっくりと客室へ移動するように移動機構29を駆動させる。ロボット2は、ロボット2の撮影部21で撮影した客の姿によって客との間合いを計りながら、客との距離を一定に保つように移動の速さを制御してもよい。また、図9に示したデータ提供装置10のメッセージ出力部235が、「○号室へお入りください。」の案内メッセージを音声出力し、あるいはロボット2が備える表示装置に表示するように、出力デバイスにおいて案内メッセージを出力する。 The visitor event detection unit 123 of the data providing device 10 shown in FIG. 9 detects a visitor event when, for example, an image taken by a camera provided at the entrance of the store recognizes a customer entering the store. The vacant room event detection unit 131 of the data providing device 10 shown in FIG. 9 inquires about the status of the guest room to the guest room management system (not shown), and detects the vacant room event if there is a vacant guest room. The movement control unit 23 of the robot 2 shown in FIG. 8 drives the movement mechanism 29 so as to slowly move to the guest room. The robot 2 may control the speed of movement so as to keep the distance to the customer constant while measuring the distance from the customer according to the appearance of the customer photographed by the photographing unit 21 of the robot 2. Further, the message output unit 235 of the data providing device 10 shown in FIG. 9 outputs the guidance message "Please enter room ○" by voice or displays it on the display device provided in the robot 2. Output a guidance message at.

図10に示したイベント情報記憶部151のデータ構成における第3レコードは、接客の応用例に関して、第1イベントとして来客イベントが検出された場合に、エリア種別が受付カウンタータイプであるマーカが設置されている場所(つまり、受付カウンター)へロボット2が移動することを定めている。第3レコードは、さらに第2イベントとして空き室イベントが検出された場合に、ロボット2が案内アクションを行うことを定めている。エリア種別が受付カウンタータイプであるマーカを受付カウンターマーカという。 In the third record in the data structure of the event information storage unit 151 shown in FIG. 10, a marker whose area type is the reception counter type is installed when a visitor event is detected as the first event in the application example of customer service. It is stipulated that the robot 2 moves to the place where the robot 2 is located (that is, the reception counter). The third record further stipulates that the robot 2 performs a guidance action when a vacant room event is detected as the second event. A marker whose area type is the reception counter type is called a reception counter marker.

図11に示したマーカ情報記憶部153のデータ構成における第3レコードには、接客の応用例に関して、エリア種別の受付カウンタータイプに対応付けて受付カウンターマーカの位置及び向きが設定される。 In the third record in the data structure of the marker information storage unit 153 shown in FIG. 11, the position and orientation of the reception counter marker are set in association with the reception counter type of the area type with respect to the application example of customer service.

図15(A)は、実施例3のマーカ登録フェーズにおける処理手順を示すフローチャートである。例えばロボット2が自律的に移動しているときにマーカ認識部22が受付カウンターマーカを検出すると(ステップS51)、通信制御部26は、エリア種別の受付カウンタータイプと受付カウンターマーカの位置及び向きとを含む受付カウンターマーカ情報をデータ提供装置10へ送信する。 FIG. 15A is a flowchart showing a processing procedure in the marker registration phase of the third embodiment. For example, when the marker recognition unit 22 detects the reception counter marker while the robot 2 is moving autonomously (step S51), the communication control unit 26 determines the reception counter type of the area type and the position and orientation of the reception counter marker. The reception counter marker information including the above is transmitted to the data providing device 10.

データ提供装置10の第1通信制御部11が受付カウンターマーカ情報を受信すると、マーカ登録部110は、エリア種別の受付カウンタータイプに対応付けて受付カウンターマーカの位置及び向きをマーカ情報記憶部153に登録する(ステップS52)。 When the first communication control unit 11 of the data providing device 10 receives the reception counter marker information, the marker registration unit 110 assigns the position and orientation of the reception counter marker to the marker information storage unit 153 in association with the reception counter type of the area type. Register (step S52).

図15(B)は、実施例3のアクションフェーズにおける処理手順を示すフローチャートである。データ提供装置10の来客イベント検出部123は、来客イベントを検出すると(ステップS53)、イベント情報記憶部151を参照して来客イベントに対応付けられているエリア種別の受付カウンタータイプを特定する。来客イベント検出部123は、さらにマーカ情報記憶部153を参照してエリア種別の受付カウンタータイプに対応する受付カウンターマーカの位置と向きを特定する。第1通信制御部11は、受付カウンターマーカの位置と向きを含む受付カウンターへの移動指示をロボット2へ送信する。このとき、来客イベント検出部123は、アクション選択部140へ来客イベントを通知しておく。 FIG. 15B is a flowchart showing a processing procedure in the action phase of the third embodiment. When the visitor event detection unit 123 of the data providing device 10 detects the visitor event (step S53), the visitor event detection unit 123 refers to the event information storage unit 151 to specify the reception counter type of the area type associated with the visitor event. The visitor event detection unit 123 further refers to the marker information storage unit 153 to specify the position and orientation of the reception counter marker corresponding to the reception counter type of the area type. The first communication control unit 11 transmits a movement instruction to the reception counter including the position and orientation of the reception counter marker to the robot 2. At this time, the visitor event detection unit 123 notifies the action selection unit 140 of the visitor event.

ロボット2の通信制御部26が受付カウンターマーカの位置と向きを含む受付カウンターへの移動指示を受信すると、移動制御部23は移動機構29を制御して、ロボット2は受付カウンターへ移動する(ステップS54)。ロボット2は、受付カウンターマーカの位置の手前に少なくとも第3所定時間留まる。第3所定時間は、ロボット2に代わって店員が客に応対するまでの切替り時間の上限値に相当する。第3所定時間を経過した時点で、空き室イベントが検出されていなければ、実施例3のアクションフェーズにおける処理を中断してもよい。 When the communication control unit 26 of the robot 2 receives a movement instruction to the reception counter including the position and orientation of the reception counter marker, the movement control unit 23 controls the movement mechanism 29, and the robot 2 moves to the reception counter (step). S54). The robot 2 stays in front of the position of the reception counter marker for at least a third predetermined time. The third predetermined time corresponds to the upper limit of the switching time until the clerk responds to the customer on behalf of the robot 2. If the vacant room event is not detected when the third predetermined time elapses, the process in the action phase of the third embodiment may be interrupted.

データ提供装置10の空き室イベント検出部131が空き室イベントを検出すると(ステップS55)、アクション選択部140は、イベント情報記憶部151を参照して第2イベントの空き室イベントに対応する第1イベントの来客イベントを特定する。アクション選択部140は、イベント情報記憶部151を参照して第1イベントの来客イベントと第2イベントの空き室イベントの組み合わせに対応する接客アクションを選択する。第1通信制御部11は、選択された接客アクションの指示をロボット2へ送信する。 When the vacant room event detection unit 131 of the data providing device 10 detects a vacant room event (step S55), the action selection unit 140 refers to the event information storage unit 151 and is a visitor of the first event corresponding to the vacant room event of the second event. Identify the event. The action selection unit 140 selects a customer service action corresponding to the combination of the visitor event of the first event and the vacant room event of the second event with reference to the event information storage unit 151. The first communication control unit 11 transmits the instruction of the selected customer service action to the robot 2.

ロボット2の通信制御部26が接客アクションの指示を受信すると、ロボット2のアクション実行部230は、接客アクションを実行する(ステップS56)。 When the communication control unit 26 of the robot 2 receives the instruction of the customer service action, the action execution unit 230 of the robot 2 executes the customer service action (step S56).

[実施例4]
自律行動型ロボット1による通話サポートの応用例について説明する。この例では、ロボット2が電話機能を有しているものとする。また、ロボット2が置かれている住居や施設の中で、電話機能で使用する無線通信の電波が届きやすいところと、届きにくいところがあると想定する。ロボット2は、電波の状態が悪い場所から電波の状態が良い場所(以下、電波良好の場所という。)へ移動して、通話要求に応じて通話を開始させる。エリアとして電波良好の場所を識別するエリア種別のマーカを電波良好の場所に設置しておけば、自律行動型ロボット1はそのマーカの設置場所が電波良好の場所であると認識できる。電波良好の場所を識別するエリア種別を電波良好タイプという。
[Example 4]
An application example of call support by the autonomous action type robot 1 will be described. In this example, it is assumed that the robot 2 has a telephone function. Further, it is assumed that some of the houses and facilities in which the robot 2 is placed can easily reach the radio waves of the wireless communication used in the telephone function, and some of them are difficult to reach. The robot 2 moves from a place where the radio wave condition is bad to a place where the radio wave condition is good (hereinafter, referred to as a place where the radio wave condition is good), and starts a call in response to a call request. If a marker of the area type that identifies a place with good radio waves as an area is installed in a place with good radio waves, the autonomous action robot 1 can recognize that the place where the marker is installed is a place with good radio waves. The area type that identifies a place with good radio waves is called a good radio wave type.

通話サポートの応用例では、電波の状態が悪化したときにロボット2が電波良好の場所へ移動して無線通信に支障がないようにする。つまり、電波悪化の検出が、通話サポートの応用例における第1イベントに相当する。このイベントを、電波悪化イベントという。 In the application example of the call support, when the radio wave condition deteriorates, the robot 2 moves to a place where the radio wave is good so that the wireless communication is not hindered. That is, the detection of radio wave deterioration corresponds to the first event in the application example of the call support. This event is called a radio wave deterioration event.

ロボット2は利用者から通話要求を受け付ければ、通話を開始する。通話を開始する処理動作を通話開始アクションという。通話要求の受付は、「電話をかけてください。」のような音声を認識したり、撮影画像から電話をかけるジェスチャーやポーズを認識したりするなどの認識処理によって検知される。通話要求の受付は、通話サポートの応用例における第2イベントに相当する。このイベントを、通話要求イベントという。 When the robot 2 receives a call request from the user, the robot 2 starts the call. The process operation to start a call is called a call start action. The reception of a call request is detected by recognition processing such as recognizing a voice such as "Please make a call" or recognizing a gesture or pose for making a call from a captured image. The reception of a call request corresponds to the second event in the application example of the call support. This event is called a call request event.

図8に示したロボット2の電波状態検出部213は、電話機能で使用する無線通信の電波の状態を監視し、電波の強度が許容基準以下になった場合に、電波悪化イベントを検出する。図8に示したロボット2の通話要求受付部223は、「電話をかけてください。」の発話を音声認識したり、撮影画像によって電話をかけるジェスチャーやポーズを認識したりすることで、利用者から通話の要求を受け付ける。通話要求受付部223は、音声認識によって電話番号や通話の相手を特定してもよい。図8に示したロボット2の電話通信部237は、電話の通信を制御し、通話処理を行う。 The radio wave condition detection unit 213 of the robot 2 shown in FIG. 8 monitors the radio wave condition of the wireless communication used in the telephone function, and detects a radio wave deterioration event when the strength of the radio wave becomes equal to or less than the permissible standard. The call request reception unit 223 of the robot 2 shown in FIG. 8 recognizes the utterance of "Please make a call" by voice, and recognizes the gesture or pose of making a call based on the captured image. Accepts call requests from. The call request reception unit 223 may specify a telephone number or a call partner by voice recognition. The telephone communication unit 237 of the robot 2 shown in FIG. 8 controls telephone communication and performs call processing.

図10に示したイベント情報記憶部151のデータ構成における第4レコードは、通話サポートの応用例に関して、第1イベントとして電波悪化イベントが検出された場合に、エリア種別が電波良好タイプであるマーカが設置されている場所(つまり、電波良好の場所)へロボット2が移動することを定めている。第4レコードは、さらに第2イベントとして通話要求イベントが検出された場合に、ロボット2が通話を開始することを定めている。エリア種別が電波良好タイプであるマーカを電波良好マーカという。 The fourth record in the data configuration of the event information storage unit 151 shown in FIG. 10 contains a marker whose area type is demparyoukou type when a radio wave deterioration event is detected as the first event in an application example of call support. It is stipulated that the robot 2 moves to the place where it is installed (that is, the place where the radio wave is good). The fourth record further stipulates that the robot 2 starts a call when a call request event is detected as the second event. A marker whose area type is a good radio wave type is called a good radio wave marker.

図11に示したマーカ情報記憶部153のデータ構成における第4レコードには、通話サポートの応用例に関して、エリア種別の電波良好タイプに対応付けて電波良好マーカの位置及び向きが設定される。 In the fourth record in the data structure of the marker information storage unit 153 shown in FIG. 11, the position and direction of the radio wave good marker are set in association with the radio wave good type of the area type for the application example of the call support.

図16(A)は、実施例4のマーカ登録フェーズにおける処理手順を示すフローチャートである。例えばロボット2が自律的に移動しているときにマーカ認識部22が電波良好マーカを検出すると(ステップS61)、通信制御部26は、エリア種別の電波良好タイプと電波良好マーカの位置及び向きを含む電波良好マーカ情報をデータ提供装置10へ送信する。 FIG. 16A is a flowchart showing a processing procedure in the marker registration phase of the fourth embodiment. For example, when the marker recognition unit 22 detects a good radio wave marker while the robot 2 is moving autonomously (step S61), the communication control unit 26 determines the position and direction of the good radio wave type and the good radio wave marker for each area type. The included radio wave good marker information is transmitted to the data providing device 10.

データ提供装置10の第1通信制御部11が電波良好マーカ情報を受信すると、マーカ登録部110は、エリア種別の電波良好タイプに対応付けて電波良好マーカの位置及び向きをマーカ情報記憶部153に登録する(ステップS62)。 When the first communication control unit 11 of the data providing device 10 receives the radio wave good marker information, the marker registration unit 110 assigns the position and direction of the radio wave good marker to the marker information storage unit 153 in association with the radio wave good type of the area type. Register (step S62).

図16(B)は、実施例4のアクションフェーズにおける処理手順を示すフローチャートである。ロボット2の電波状態検出部213が電波悪化イベントを検出すると(ステップS63)、通信制御部26は、データ提供装置10へ電波悪化イベントを通知する。 FIG. 16B is a flowchart showing a processing procedure in the action phase of the fourth embodiment. When the radio wave condition detection unit 213 of the robot 2 detects the radio wave deterioration event (step S63), the communication control unit 26 notifies the data providing device 10 of the radio wave deterioration event.

データ提供装置10の第1通信制御部11が電波悪化イベントの通知を受信すると、アクション選択部140は、イベント情報記憶部151を参照して電波悪化イベントに対応付けられているエリア種別の電波良好タイプを特定する。アクション選択部140は、さらにマーカ情報記憶部153を参照してエリア種別の電波良好タイプに対応する電波良好マーカの位置と向きを特定する。第1通信制御部11は、電波良好マーカの位置と向きを含む電波良好の場所への移動指示をロボット2へ送信する。 When the first communication control unit 11 of the data providing device 10 receives the notification of the radio wave deterioration event, the action selection unit 140 refers to the event information storage unit 151 and has a good radio wave of the area type associated with the radio wave deterioration event. Identify the type. The action selection unit 140 further refers to the marker information storage unit 153 to specify the position and orientation of the demparyoukou marker corresponding to the demparyoukou type of the area type. The first communication control unit 11 transmits to the robot 2 a movement instruction to a place where the radio wave is good, including the position and direction of the radio wave good marker.

ロボット2の通信制御部26が電波悪化マーカの位置と向きを含む電波良好の場所への移動指示を受信すると、移動制御部23は移動機構29を制御して、ロボット2は電波良好の場所へ移動する(ステップS64)。ロボット2は、電波良好マーカの位置の手前に少なくとも第4所定時間留まる。第4所定時間は、利用者に通話を要求されると想定される期間の上限長に相当する。第4所定時間を経過した時点で、通話要求イベントが検出されていなければ、実施例4のアクションフェーズにおける処理を中断してもよい。 When the communication control unit 26 of the robot 2 receives a movement instruction to a place with good radio waves including the position and direction of the radio wave deterioration marker, the movement control unit 23 controls the movement mechanism 29, and the robot 2 moves to a place with good radio waves. Move (step S64). The robot 2 stays in front of the position of the radio wave good marker for at least a fourth predetermined time. The fourth predetermined time corresponds to the upper limit length of the period in which the user is expected to make a call. If the call request event is not detected when the fourth predetermined time elapses, the process in the action phase of the fourth embodiment may be interrupted.

通話要求受付部223が通話要求イベントを検出すると(ステップS65)、通信制御部26は通話要求イベントをデータ提供装置10へ送信する。 When the call request receiving unit 223 detects the call request event (step S65), the communication control unit 26 transmits the call request event to the data providing device 10.

データ提供装置10の第1通信制御部11が通話要求イベントを受信すると、アクション選択部140は、イベント情報記憶部151を参照して第2イベントの通話要求イベントに対応する通話開始アクションを選択する。第1通信制御部11は、選択された通話開始アクションの指示をロボット2へ送信する。従って、先に電波悪化イベントが通知されているか否かに関わらず、通話開始アクションが送信される。 When the first communication control unit 11 of the data providing device 10 receives the call request event, the action selection unit 140 refers to the event information storage unit 151 and selects a call start action corresponding to the call request event of the second event. .. The first communication control unit 11 transmits an instruction of the selected call start action to the robot 2. Therefore, the call start action is transmitted regardless of whether or not the radio wave deterioration event has been notified first.

ロボット2の通信制御部26が通話開始アクションの指示を受信すると、ロボット2の電話通信237は、通話開始アクションを実行する(ステップS66)。電話通信部237が発呼して通話状態になれば、ロボット2が備えるマイクの入力音声を変換した信号が送信され、受信した信号から変換された相手音声がマイクロフォンから出力される。 When the communication control unit 26 of the robot 2 receives the instruction of the call start action, the telephone communication 237 of the robot 2 executes the call start action (step S66). When the telephone communication unit 237 calls and enters a call state, a signal converted from the input voice of the microphone included in the robot 2 is transmitted, and the other party voice converted from the received signal is output from the microphone.

[実施例5]
自律行動型ロボット1による警備の応用例について説明する。警備の応用例では、金庫が置かれている住居や施設において金庫荒らしを警戒することを想定し、ロボット2が見回りを行う。エリアとして金庫置き場を識別するエリア種別のマーカを金庫置き場に設置しておけば、自律行動型ロボット1はそのマーカの設置場所が金庫置き場であると認識できる。金庫置き場を識別するエリア種別を金庫タイプという。
[Example 5]
An application example of security by the autonomous action type robot 1 will be described. In the application example of security, the robot 2 patrols on the assumption that the safe is warned in the house or facility where the safe is placed. If an area-type marker that identifies the safe storage area as an area is installed in the safe storage area, the autonomous action robot 1 can recognize that the installation location of the marker is the safe storage area. The area type that identifies the safe storage area is called the safe type.

警備の応用例では、見回りを指示されたロボット2が、金庫付近へ移動して状況を把握するように振舞う。見回り指示の受付は、例えば「金庫を見て来い」などの音声の認識や、撮影画像から所定のポーズやジェスチャーを認識するなどの認識処理によって行われてもよい。データ提供装置10が利用者端末3のアプリケーションから見守り指示を受信してロボット2へ転送し、ロボット2が見守り指示を受信するようにしてもよい。所定時刻になったときに、データ提供装置10が自動的に見回り指示をロボット2へ発信し、ロボット2が見守り指示を受信するようにしてもよい。警備の応用例では、ロボット2に対する見回り指示が第1イベントに相当する。このイベントを、見回りイベントという。 In the security application example, the robot 2 instructed to look around moves to the vicinity of the safe and behaves as if to grasp the situation. The reception of the patrol instruction may be performed by recognition processing such as recognition of a voice such as "look at the safe" or recognition of a predetermined pose or gesture from the captured image. The data providing device 10 may receive the watching instruction from the application of the user terminal 3 and transfer it to the robot 2, and the robot 2 may receive the watching instruction. When the predetermined time comes, the data providing device 10 may automatically send a patrol instruction to the robot 2, and the robot 2 may receive the watching instruction. In the security application example, the patrol instruction to the robot 2 corresponds to the first event. This event is called a patrol event.

撮影画像の認識によって金庫の近くに人の姿を捉えたときに、ロボット2は警戒アクションを実行する。つまり警備の応用例で、金庫付近における人の認識は、第2イベントに相当する。このイベントを、人認識イベントという。金庫付近にいる人は、不審者である可能性があると想定する。警戒アクションとして、通信制御部26は、ロボット2は撮影部21で撮影した映像(動画あるいは静止画)をデータ提供装置10へ送信する。この処理に関して通信制御部26は、アクション実行部230の例である。データ提供装置10は、受信した映像を証拠として記録してもよい。また、データ提供装置10は、利用者端末3のアプリケーションへ警告メッセージを送信したり、ロボット2から受信した映像を転送したりして、利用者端末3のアプリケーションへのデータ送信を行ってもよい。警戒アクションとして、ロボット2の音声出力部232は、警報音を発してもよい。 When a person is caught near the safe by recognizing the captured image, the robot 2 executes a warning action. In other words, in the application example of security, the recognition of a person near the safe corresponds to the second event. This event is called a human recognition event. It is assumed that a person near the safe may be a suspicious person. As a warning action, the communication control unit 26 transmits the video (moving image or still image) captured by the robot 2 to the data providing device 10. Regarding this process, the communication control unit 26 is an example of the action execution unit 230. The data providing device 10 may record the received video as evidence. Further, the data providing device 10 may transmit a warning message to the application of the user terminal 3 or transfer the video received from the robot 2 to transmit the data to the application of the user terminal 3. .. As a warning action, the voice output unit 232 of the robot 2 may emit an alarm sound.

図8に示したロボット2の見回りイベント検出部215は、上述の認識処理で見回り指示を受け付けたときやデータ提供装置10から見回り指示を受信したときに、見回りイベントを検出する。図8に示したロボット2の人認識部225は、撮影画像に含まれる人の姿を認識する。人の話し声を音声認識することによって人の存在を認識してもよい。人認識部225は、マイクに入力された音から標準的な人の声に相当する周波数を抽出した場合に、人の話し声であると判定してもよい。 The patrol event detection unit 215 of the robot 2 shown in FIG. 8 detects the patrol event when the patrol instruction is received in the above recognition process or when the patrol instruction is received from the data providing device 10. The human recognition unit 225 of the robot 2 shown in FIG. 8 recognizes the figure of a person included in the captured image. The existence of a person may be recognized by recognizing the voice of the person. The human recognition unit 225 may determine that the voice is a human voice when a frequency corresponding to a standard human voice is extracted from the sound input to the microphone.

図10に示したイベント情報記憶部151のデータ構成における第5レコードは、警備の応用例に関して、第1イベントとして見回りイベントが検出された場合に、エリア種別が金庫タイプであるマーカが設置されている場所(つまり、金庫置き場)へロボット2が移動することを定めている。第5レコードは、さらに第2イベントとして人認識イベントが検出された場合に、ロボット2が警戒アクションを行うことを定めている。エリア種別が金庫タイプであるマーカを金庫マーカという。 In the fifth record in the data configuration of the event information storage unit 151 shown in FIG. 10, a marker whose area type is a safe type is installed when a patrol event is detected as the first event in an application example of security. It is stipulated that the robot 2 moves to the place where it is (that is, the safe storage place). The fifth record further stipulates that the robot 2 takes a warning action when a human recognition event is detected as the second event. A marker whose area type is a safe type is called a safe marker.

図11に示したマーカ情報記憶部153のデータ構成における第5レコードには、警備の応用例に関して、エリア種別の金庫タイプに対応付けて金庫マーカの位置及び向きが設定される。 In the fifth record in the data structure of the marker information storage unit 153 shown in FIG. 11, the position and orientation of the safe marker are set in association with the safe type of the area type with respect to the application example of security.

図17(A)は、実施例5のマーカ登録フェーズにおける処理手順を示すフローチャートである。例えばロボット2が自律的に移動しているときにマーカ認識部22が金庫マーカを検出すると(ステップS71)、通信制御部26は、エリア種別の金庫タイプと金庫マーカの位置及び向きを含む金庫マーカ情報をデータ提供装置10へ送信する。 FIG. 17A is a flowchart showing a processing procedure in the marker registration phase of the fifth embodiment. For example, when the marker recognition unit 22 detects the safe marker when the robot 2 is moving autonomously (step S71), the communication control unit 26 determines the safe type of the area type and the safe marker including the position and orientation of the safe marker. Information is transmitted to the data providing device 10.

データ提供装置10の第1通信制御部11が金庫マーカ情報を受信すると、マーカ登録部110は、エリア種別の金庫タイプに対応付けて金庫マーカの位置及び向きをマーカ情報記憶部153に登録する(ステップS72)。 When the first communication control unit 11 of the data providing device 10 receives the safe marker information, the marker registration unit 110 registers the position and orientation of the safe marker in the marker information storage unit 153 in association with the safe type of the area type ( Step S72).

図17(B)は、実施例5のアクションフェーズにおける処理手順を示すフローチャートである。ロボット2の見回りイベント検出部215が見回りイベントを検出すると(ステップS73)、通信制御部26は、データ提供装置10へ見回りイベントを通知する。 FIG. 17B is a flowchart showing a processing procedure in the action phase of the fifth embodiment. When the patrol event detection unit 215 of the robot 2 detects the patrol event (step S73), the communication control unit 26 notifies the data providing device 10 of the patrol event.

データ提供装置10の第1通信制御部11が見回りイベントの通知を受信すると、アクション選択部140は、イベント情報記憶部151を参照して見回りイベントに対応付けられているエリア種別の金庫タイプを特定する。アクション選択部140は、さらにマーカ情報記憶部153を参照してエリア種別の金庫タイプに対応する金庫マーカの位置と向きを特定する。第1通信制御部11は、金庫マーカの位置と向きを含む金庫置き場への移動指示をロボット2へ送信する。 When the first communication control unit 11 of the data providing device 10 receives the notification of the patrol event, the action selection unit 140 refers to the event information storage unit 151 and identifies the safe type of the area type associated with the patrol event. To do. The action selection unit 140 further refers to the marker information storage unit 153 to specify the position and orientation of the safe marker corresponding to the safe type of the area type. The first communication control unit 11 transmits a movement instruction to the safe storage area including the position and orientation of the safe marker to the robot 2.

ロボット2の通信制御部26が金庫マーカの位置と向きを含む金庫置き場への移動指示を受信すると、移動制御部23は移動機構29を制御して、ロボット2は金庫付近へ移動する(ステップS74)。ロボット2は、金庫マーカの位置の手前に少なくとも第5所定時間留まる。第5所定時間は、ロボット2が金庫付近に移動してから人を認識するまでに要する想定時間の上限値に相当する。第5所定時間を経過した時点で、人認識イベントが検出されていなければ、実施例5のアクションフェーズにおける処理を中断してもよい。 When the communication control unit 26 of the robot 2 receives a movement instruction to the safe storage area including the position and orientation of the safe marker, the movement control unit 23 controls the movement mechanism 29, and the robot 2 moves to the vicinity of the safe (step S74). ). The robot 2 stays in front of the position of the safe marker for at least a fifth predetermined time. The fifth predetermined time corresponds to the upper limit of the estimated time required for the robot 2 to recognize a person after moving to the vicinity of the safe. If the human recognition event is not detected after the lapse of the fifth predetermined time, the process in the action phase of the fifth embodiment may be interrupted.

人認識部225が人認識イベントを検出すると(ステップS75)、通信制御部26は人認識イベントをデータ提供装置10へ送信する。 When the person recognition unit 225 detects the person recognition event (step S75), the communication control unit 26 transmits the person recognition event to the data providing device 10.

データ提供装置10の第1通信制御部11が人認識イベントを受信すると、アクション選択部140は、イベント情報記憶部151を参照して第2イベントの人認識イベントに対応する第1イベントの見回りイベントを特定する。アクション選択部140は、イベント情報記憶部151を参照して第1イベントの見回りイベントと第2イベントの人認識イベントの組み合わせに対応する警戒アクションを選択する。第1通信制御部11は、選択された警戒アクションの指示をロボット2へ送信する。 When the first communication control unit 11 of the data providing device 10 receives the person recognition event, the action selection unit 140 refers to the event information storage unit 151 and performs a patrol event of the first event corresponding to the person recognition event of the second event. To identify. The action selection unit 140 refers to the event information storage unit 151 and selects a warning action corresponding to the combination of the patrol event of the first event and the person recognition event of the second event. The first communication control unit 11 transmits an instruction of the selected alert action to the robot 2.

ロボット2の通信制御部26が警戒アクションの指示を受信すると、ロボット2のアクション実行部230は、警戒アクションを実行する(ステップS76)。 When the communication control unit 26 of the robot 2 receives the instruction of the alert action, the action execution unit 230 of the robot 2 executes the alert action (step S76).

[実施例6]
自律行動型ロボット1による目覚ましの応用例について説明する。例えば、朝に寝室で寝ている利用者を、ロボット2が起こす。エリアとして寝室を識別するエリア種別のマーカを寝室に設置しておけば、自律行動型ロボット1はそのマーカの設置場所が寝室であると認識できる。寝室を識別するエリア種別を寝室タイプという。
[Example 6]
An application example of the alarm clock by the autonomous action type robot 1 will be described. For example, the robot 2 wakes up a user sleeping in the bedroom in the morning. If an area type marker that identifies the bedroom as an area is installed in the bedroom, the autonomous action robot 1 can recognize that the location of the marker is the bedroom. The area type that identifies the bedroom is called the bedroom type.

目覚ましの応用例では、利用者を起床させるタイミングで、ロボット2が寝室へ移動して目覚ましアクションを行う。利用者を起床させるタイミングは、例えば予定の起床時刻によって判断される。あるいは、利用者の家族が発する「お父さん(利用者)を起こしてきてください。」のような音声の認識、撮影画像から所定のポーズやジェスチャーを認識するなどの認識処理によって、利用者を起床させるタイミングを判断してもよい。つまり、利用者を起床させるタイミングの判断が、目覚ましの応用例における第1イベントに相当する。このイベントを、起床イベントという。 In the application example of the alarm clock, the robot 2 moves to the bedroom and performs an alarm clock action at the timing of waking up the user. The timing for waking up the user is determined, for example, by the scheduled wake-up time. Alternatively, the user is woken up by voice recognition such as "Please wake up the father (user)" issued by the user's family, or recognition processing such as recognizing a predetermined pose or gesture from the captured image. You may judge the timing. That is, the determination of the timing of waking up the user corresponds to the first event in the application example of the alarm clock. This event is called a wake-up event.

寝室のベッドの上で利用者が横になっている状態(臥位)を認識したときに、ロボット2は目覚ましアクションを実行する。ベッドの上に利用者がいない場合や利用者が既に起きている場合など利用者が臥位でないときには、ロボット2は目覚ましアクションを実行しない。つまり、目覚ましの応用例でベッド上の臥位の利用者を検出することは、第2イベントに相当する。このイベントを、利用者臥位イベントという。目覚ましアクションとして、たとえば音声出力部232は、スピーカから目覚まし音や呼びかけなどの音声を出力する。目覚ましアクションとして、リモートコントロール部233がテレビを起動させたり、オーディオ装置に音楽を出力させたりなど、外部機器に音声を出力させてもよい。リモートコントロール部233は、照明機器を点灯させてもよい。あるいは、移動制御部23が移動機構29を制御して、ロボット2がベッドの周囲を激しく動き回るようにしてもよい。 When the user recognizes that the user is lying on the bed in the bedroom (lying position), the robot 2 executes an alarm clock action. When the user is not in the lying position, such as when there is no user on the bed or when the user is already awake, the robot 2 does not perform the wake-up action. That is, detecting a user lying on the bed in the application example of the alarm clock corresponds to the second event. This event is called a user recumbent event. As an alarm clock action, for example, the voice output unit 232 outputs a voice such as an alarm clock or a call from the speaker. As an alarm clock action, the remote control unit 233 may activate the television, output music to the audio device, or output audio to an external device. The remote control unit 233 may turn on the lighting device. Alternatively, the movement control unit 23 may control the movement mechanism 29 so that the robot 2 violently moves around the bed.

図8に示したロボット2の起床イベント検出部217は、上述のように予定の起床時刻に至り、あるいは上述した認識処理などによって起床イベントを検出する。図8に示したロボット2の体位認識部227は、寝室のベッドの上で寝ている人(実際には、利用者であるとみなす)の体位を認識する。体位認識部227は、ベッドに寝ている人が臥位であれば、利用者臥位イベントを検出する。体位認識部227は、例えば予めサンプルとなる臥位の利用者の姿を撮影部21で撮影し、その撮影画像を分析して臥位の利用者の大きさ、形状及びパーツ(頭、手や足などの部位)の配置などの特徴データを抽出しておく。そして、体位認識部227は、撮影部21で撮影した画像を分析して、大きさ、形状及びパーツの配置などの特徴データがサンプルと共通又は近似する被写体が含まれると判定した場合に、撮影した画像に臥位の利用者が写っていると判定してもよい。 The wake-up event detection unit 217 of the robot 2 shown in FIG. 8 detects the wake-up event when the scheduled wake-up time is reached as described above or by the recognition process described above. The posture recognition unit 227 of the robot 2 shown in FIG. 8 recognizes the posture of a person sleeping on a bed in the bedroom (actually, it is regarded as a user). The body position recognition unit 227 detects the user lying position event if the person sleeping on the bed is in the lying position. The body position recognition unit 227, for example, photographs the figure of the user in the lying position as a sample in advance by the photographing unit 21, analyzes the photographed image, and analyzes the size, shape, and parts (head, hand, and parts) of the user in the lying position. Extract feature data such as the placement of (parts such as legs). Then, the body position recognition unit 227 analyzes the image captured by the imaging unit 21, and when it is determined that the feature data such as the size, shape, and arrangement of the parts includes a subject that is common to or similar to the sample, the image is captured. It may be determined that the user in the recumbent position is shown in the image.

図10に示したイベント情報記憶部151のデータ構成における第6レコードは、目覚ましの応用例に関して、第1イベントとして起床イベントが検出された場合に、エリア種別が寝室タイプであるマーカが設置されている場所(つまり、寝室)へロボット2が移動することを定めている。第6レコードは、さらに第2イベントとして利用者臥位イベントが検出された場合に、ロボット2が目覚ましアクションを行うことを定めている。寝室タイプであるマーカを寝室マーカという。 In the sixth record in the data structure of the event information storage unit 151 shown in FIG. 10, a marker whose area type is the bedroom type is installed when a wake-up event is detected as the first event in the application example of the alarm clock. It is stipulated that the robot 2 moves to the place where it is (that is, the bedroom). The sixth record further stipulates that the robot 2 performs an alarm clock action when a user recumbent event is detected as a second event. A bedroom type marker is called a bedroom marker.

図11に示したマーカ情報記憶部153のデータ構成における第6レコードには、目覚ましの応用例に関して、エリア種別の寝室タイプに対応付けて寝室マーカの位置及び向きが設定される。 In the sixth record in the data structure of the marker information storage unit 153 shown in FIG. 11, the position and orientation of the bedroom marker are set in association with the bedroom type of the area type with respect to the application example of the alarm clock.

図18(A)は、実施例6のマーカ登録フェーズにおける処理手順を示すフローチャートである。例えばロボット2が自律的に移動しているときにマーカ認識部22が寝室マーカを検出すると(ステップS81)、通信制御部26は、エリア種別の寝室タイプと寝室マーカの位置及び向きを含む寝室マーカ情報をデータ提供装置10へ送信する。 FIG. 18A is a flowchart showing a processing procedure in the marker registration phase of the sixth embodiment. For example, when the marker recognition unit 22 detects the bedroom marker when the robot 2 is moving autonomously (step S81), the communication control unit 26 determines the bedroom type of the area type and the bedroom marker including the position and orientation of the bedroom marker. Information is transmitted to the data providing device 10.

データ提供装置10の第1通信制御部11が寝室マーカ情報を受信すると、マーカ登録部110は、エリア種別の寝室タイプに対応付けて寝室マーカの位置及び向きをマーカ情報記憶部153に登録する(ステップS82)。 When the first communication control unit 11 of the data providing device 10 receives the bedroom marker information, the marker registration unit 110 registers the position and orientation of the bedroom marker in the marker information storage unit 153 in association with the bedroom type of the area type ( Step S82).

図18(B)は、実施例6のアクションフェーズにおける処理手順を示すフローチャートである。ロボット2の起床イベント検出部217が起床イベントを検出すると(ステップS83)、通信制御部26は、データ提供装置10へ起床イベントを通知する。 FIG. 18B is a flowchart showing a processing procedure in the action phase of the sixth embodiment. When the wake-up event detection unit 217 of the robot 2 detects the wake-up event (step S83), the communication control unit 26 notifies the data providing device 10 of the wake-up event.

データ提供装置10の第1通信制御部11が起床イベントの通知を受信すると、アクション選択部140は、イベント情報記憶部151を参照して起床イベントに対応付けられているエリア種別の寝室タイプを特定する。アクション選択部140は、さらにマーカ情報記憶部153を参照してエリア種別の寝室タイプに対応する寝室マーカの位置と向きを特定する。第1通信制御部11は、寝室マーカの位置と向きを含む寝室への移動指示をロボット2へ送信する。 When the first communication control unit 11 of the data providing device 10 receives the notification of the wake-up event, the action selection unit 140 refers to the event information storage unit 151 to specify the bedroom type of the area type associated with the wake-up event. To do. The action selection unit 140 further refers to the marker information storage unit 153 to specify the position and orientation of the bedroom marker corresponding to the bedroom type of the area type. The first communication control unit 11 transmits a movement instruction to the bedroom including the position and orientation of the bedroom marker to the robot 2.

ロボット2の通信制御部26が寝室マーカの位置と向きを含む寝室への移動指示を受信すると、移動制御部23は移動機構29を制御して、ロボット2は寝室へ移動する(ステップS84)。ロボット2は、寝室マーカの位置の手前に少なくとも第6所定時間留まる。第6所定時間は、ロボット2が寝室に入ってから利用者臥位イベントを検出するまでに要する想定時間の上限値に相当する。第6所定時間を経過した時点で、利用者臥位イベントが検出されていなければ、実施例6のアクションフェーズにおける処理を中断してもよい。 When the communication control unit 26 of the robot 2 receives a movement instruction to the bedroom including the position and orientation of the bedroom marker, the movement control unit 23 controls the movement mechanism 29, and the robot 2 moves to the bedroom (step S84). The robot 2 stays in front of the position of the bedroom marker for at least the sixth predetermined time. The sixth predetermined time corresponds to the upper limit of the estimated time required from when the robot 2 enters the bedroom to when the user lying down event is detected. If the user recumbent event is not detected when the sixth predetermined time elapses, the process in the action phase of the sixth embodiment may be interrupted.

体位認識部227が利用者臥位イベントを検出すると(ステップS85)、通信制御部26は利用者臥位イベントをデータ提供装置10へ送信する。 When the body position recognition unit 227 detects the user lying position event (step S85), the communication control unit 26 transmits the user lying position event to the data providing device 10.

データ提供装置10の第1通信制御部11が利用者臥位イベントを受信すると、アクション選択部140は、イベント情報記憶部151を参照して第2イベントの利用者臥位イベントに対応する第1イベントの起床イベントを特定する。アクション選択部140は、イベント情報記憶部151を参照して第1イベントの起床イベントと第2イベントの利用者臥位イベントの組み合わせに対応する目覚ましアクションを選択する。第1通信制御部11は、選択された目覚ましアクションの指示をロボット2へ送信する。 When the first communication control unit 11 of the data providing device 10 receives the user decubitus event, the action selection unit 140 refers to the event information storage unit 151 and corresponds to the user decubitus event of the second event. Identify the event wakeup event. The action selection unit 140 selects an alarm clock action corresponding to the combination of the wake-up event of the first event and the user recumbent event of the second event with reference to the event information storage unit 151. The first communication control unit 11 transmits an instruction of the selected wake-up action to the robot 2.

ロボット2の通信制御部26が目覚ましアクションの指示を受信すると、ロボット2のアクション実行部230は、目覚ましアクションを実行する(ステップS86)。 When the communication control unit 26 of the robot 2 receives the instruction of the alarm clock action, the action execution unit 230 of the robot 2 executes the alarm clock action (step S86).

上述の実施例1〜6において、ロボット2の第1イベント検出部210で行うと説明した処理を、データ提供装置10の第1イベント検出部120で行ってもよい。ロボット2の第2イベント検出部220で行うと説明した処理を、データ提供装置10の第2イベント検出部130で行ってもよい。データ提供装置10の第1イベント検出部120で行うと説明した処理を、ロボット2の第1イベント検出部210で行ってもよい。データ提供装置10の第2イベント検出部130で行うと説明した処理を、ロボット2の第2イベント検出部220で行ってもよい。 In the above-described first to sixth embodiments, the process described to be performed by the first event detection unit 210 of the robot 2 may be performed by the first event detection unit 120 of the data providing device 10. The process described to be performed by the second event detection unit 220 of the robot 2 may be performed by the second event detection unit 130 of the data providing device 10. The process described as being performed by the first event detection unit 120 of the data providing device 10 may be performed by the first event detection unit 210 of the robot 2. The process described as being performed by the second event detection unit 130 of the data providing device 10 may be performed by the second event detection unit 220 of the robot 2.

以上述べた実施形態2では、所定のタイミングにおいてロボット2を所定の場所に移動させ、さらに所定の条件を満たす場合に所定のアクションを実行する。マーカを所定の場所に設置することにより、このような一連の動作を簡単に実現できるので便利である。 In the second embodiment described above, the robot 2 is moved to a predetermined place at a predetermined timing, and when a predetermined condition is satisfied, a predetermined action is executed. By installing the marker in a predetermined place, it is convenient because such a series of operations can be easily realized.

[実施形態3]
ロボット2がマーカを認識したときにそのマーカによって指示されたアクションを、ロボット2が実行するようにしてもよい。そのために、アクションの識別子を図形化したマーカを用いる。例えば、汎用的な変換方式(バーコード方式あるいは2次元バーコード方式など)でアクションの識別子を図形化した図形コードをマーカとして用いてもよい。この場合には、マーカ認識部22は、当該変換方式によって図形コードからアクションの識別子を読み取ることができる。あるいは、独自にデザイン化した図形をマーカとして用いてもよい。この場合には、マーカ認識部22は、撮影画像に含まれる図形の形状が所定の形状である場合にその図形の種類を特定し、特定した図形の種類に対応するアクションの識別子を特定するようにしてもよい。マーカ認識部22において、図形の種類とアクションの識別子を対応付けるデータを記憶しておくものとする。つまり、実施形態3におけるマーカは、いずれかのアクションの識別子を特定し得る。
[Embodiment 3]
When the robot 2 recognizes the marker, the robot 2 may execute the action instructed by the marker. For that purpose, a marker in which the identifier of the action is graphic is used. For example, a graphic code in which an action identifier is graphicized by a general-purpose conversion method (bar code method, two-dimensional bar code method, etc.) may be used as a marker. In this case, the marker recognition unit 22 can read the action identifier from the graphic code by the conversion method. Alternatively, a uniquely designed figure may be used as a marker. In this case, the marker recognition unit 22 specifies the type of the figure included in the captured image when the shape of the figure is a predetermined shape, and specifies the identifier of the action corresponding to the specified type of the figure. It may be. It is assumed that the marker recognition unit 22 stores data that associates the type of the figure with the identifier of the action. That is, the marker in the third embodiment can identify the identifier of any action.

例えば、子供部屋の入り口に、アクションとしてリビングルームへの移動を指示するマーカを設置しておけば、ロボット2が子供部屋の前でマーカを認識した段階で、子供部屋の中へ立ち入ることなく、直ぐにリビングルームへ移動する。 For example, if a marker is installed at the entrance of the children's room to instruct the movement to the living room as an action, the robot 2 does not enter the children's room when it recognizes the marker in front of the children's room. Immediately move to the living room.

マーカによって指示されるアクションは、別の所定マーカの探索であってもよい。マーカAによって指示されるアクションがマーカBの探索であれば、ロボット2は、マーカAを認識した段階でマーカBを探して移動を始める。さらに、マーカBによって指示されるアクションがマーカCの探索であれば、ロボット2は、マーカBを認識した段階でマーカCを探して移動を始める。順次マーカを探索するように指示する一連のマーカを経路上のポイントに配置すれば、ロボット2に一連のマーカを順にめぐる経路を探索させることになる。このようにすれば、オリエンテーリングを模した屋内ゲームを子供とロボット2で競わせる遊び方もできる。また、複数台のロボット2を走行させて、屋内レースを行わせることもできる。 The action directed by the marker may be the search for another predetermined marker. If the action instructed by the marker A is the search for the marker B, the robot 2 searches for the marker B at the stage of recognizing the marker A and starts moving. Further, if the action instructed by the marker B is the search for the marker C, the robot 2 searches for the marker C at the stage of recognizing the marker B and starts moving. If a series of markers instructing the search for the markers in sequence are arranged at points on the route, the robot 2 is made to search the route around the series of markers in order. In this way, it is possible to play an indoor game that imitates orienteering with a child and a robot 2. It is also possible to run a plurality of robots 2 to perform an indoor race.

上述の屋内ゲームや屋内レースのような屋内プレイを行う場合に、利用者が利用者端末3のアプリケーションから自律行動型ロボット1に対して、ロボット2が最初にマーカAを探すように指示してもよい。ロボット2が、「始めろ」や「探せ」のような利用者の掛け声を音声認識し、利用者の掛け声を検出したイベントを契機としてマーカの探索を始めるようにしてもよい。ロボット2が、撮影画像から利用者がスタートを指示するポーズやジェスチャーを画像認識して、ポーズやジェスチャーを検出したイベントを契機としてマーカの探索を始めるようにしてもよい。あるいは、利用者が利用者端末3のアプリケーションから自律行動型ロボット1に対してスタート時刻を設定し、ロボット2は、スタート時刻に至ったことを契機として起点となるマーカの探索を始めるようにしてもよい。 When performing indoor play such as the above-mentioned indoor game or indoor race, the user instructs the autonomous action robot 1 from the application of the user terminal 3 that the robot 2 first searches for the marker A. May be good. The robot 2 may start searching for a marker by voice-recognizing a user's shout such as "start" or "find" and triggering an event that detects the user's shout. The robot 2 may image-recognize a pose or gesture instructing the user to start from the captured image, and may start searching for a marker triggered by an event in which the pose or gesture is detected. Alternatively, the user sets a start time for the autonomous action robot 1 from the application of the user terminal 3, and the robot 2 starts searching for a marker as a starting point when the start time is reached. May be good.

以上述べた実施形態3では、マーカを所定の場所に設置することにより、その場所におけるロボット2のアクションを簡単に指示することができる。 In the third embodiment described above, by installing the marker at a predetermined place, the action of the robot 2 at that place can be easily instructed.

[実施形態4]
接近禁止を指示するマーカを用いて、接近してはならない物品をロボット2に認識させるようにしてもよい。例えば装飾品や精密機器のように壊れやすい物品に接近禁止のコードを図形化したマーカを設置する。上述したように、汎用的な変換方式(バーコード方式あるいは2次元バーコード方式など)で接近禁止のコードを図形化した図形コードをマーカとして用いてもよい。あるいは、独自にデザイン化した図形をマーカとして用いてもよい。この場合、マーカ認識部22は、接近禁止に相当する図形の種類を記憶しており、撮影画像から特定した図形の種類が接近禁止に該当すると判定する。ロボット2のマーカ認識部22は、認識したマーカとの間隔を測定する。移動制御部23は、マーカとの間隔が第1基準距離よりも短くなったと判定した場合に、マーカから遠ざかる方向へロボット2を移動させるように、移動機構29を制御する。第1基準距離は、ロボット2が方向を転換して、ロボット2の移動によってマーカの位置に到達しないように制御するために必要な距離である。このようにすれば、ロボット2が壊れやすい物品に衝突するリスクを減らせる。
[Embodiment 4]
The robot 2 may be made to recognize an article that should not be approached by using a marker instructing the prohibition of approach. For example, a marker with a graphic representation of an access prohibition code is installed on fragile items such as ornaments and precision equipment. As described above, a graphic code obtained by graphicizing the access prohibition code by a general-purpose conversion method (bar code method, two-dimensional bar code method, etc.) may be used as a marker. Alternatively, a uniquely designed figure may be used as a marker. In this case, the marker recognition unit 22 stores the type of the figure corresponding to the access prohibition, and determines that the type of the figure specified from the captured image corresponds to the access prohibition. The marker recognition unit 22 of the robot 2 measures the distance from the recognized marker. The movement control unit 23 controls the movement mechanism 29 so as to move the robot 2 in a direction away from the marker when it is determined that the distance from the marker is shorter than the first reference distance. The first reference distance is a distance required for the robot 2 to change the direction and control the movement of the robot 2 so as not to reach the position of the marker. In this way, the risk of the robot 2 colliding with a fragile article can be reduced.

また、バランスボールや掃除機本体のように移動する可能性が高い物品に接近禁止を指示するマーカを設置して、移動する可能性が高い物品をロボット2に認識させるようにしてもよい。移動制御部23は、マーカとの間隔が第2基準距離よりも短くなったと判定した場合に、マーカから遠ざかる方向へロボット2を移動させるように、移動機構29を制御する。第2基準距離は、物品が移動してロボット2の位置に到達する前に、ロボット2が物品との距離を広げるように制御するために必要な距離である。このようにすれば、物品が移動してロボット2に衝突するリスクを減らせる。 Further, a marker for instructing access prohibition may be installed on an article having a high possibility of moving, such as a balance ball or a vacuum cleaner body, so that the robot 2 recognizes the article having a high possibility of moving. The movement control unit 23 controls the movement mechanism 29 so as to move the robot 2 in a direction away from the marker when it is determined that the distance from the marker is shorter than the second reference distance. The second reference distance is a distance required for the robot 2 to control to increase the distance to the article before the article moves and reaches the position of the robot 2. In this way, the risk of the article moving and colliding with the robot 2 can be reduced.

マーカによって物品の種類を識別し、物品の種類に応じてロボット2の接近を規制してもよい。物品の種類を示すマーカを用いてもよいし、マーカIDと物品の種類を対応付ける物品管理データをデータ提供装置10で保持するようにしてもよい。物品の種類を示すマーカを用いる場合には、マーカ認識部22がマーカを認識した段階で物品の種類も検出する。マーカ認識部22は、マーカIDと物品の種類を対応付ける物品管理データを記憶している。マーカ認識部22は、マーカからマーカIDを検出し、物品管理データを参照してマーカIDに対応する物品の種類を特定する。物品管理データは、利用者が利用者端末3のアプリケーションから設定するようにしてもよい。 The type of the article may be identified by the marker, and the approach of the robot 2 may be regulated according to the type of the article. A marker indicating the type of the article may be used, or the article management data for associating the marker ID with the type of the article may be held by the data providing device 10. When a marker indicating the type of the article is used, the type of the article is also detected when the marker recognition unit 22 recognizes the marker. The marker recognition unit 22 stores article management data that associates the marker ID with the type of article. The marker recognition unit 22 detects the marker ID from the marker and identifies the type of the article corresponding to the marker ID with reference to the article management data. The article management data may be set by the user from the application of the user terminal 3.

さらに、マーカ認識部22が、物品の種類毎にロボット2の接近可否が設定された接近制御データを記憶し、マーカIDによって特定した物品の種類に関する接近可否を判定するようにしてもよい。接近制御データにおいて、例えばテーブルや椅子のように壊れにくく且つ移動する可能性が低い物品に対して接近許可が設定され、装飾品や精密機器のように壊れやすい物品及びバランスボールや掃除機本体のように移動する可能性が高い物品に対して接近禁止が設定されている。掃除機本体は常に前方に移動し、後方に移動することは無いので、掃除機本体の後方への接近を許可してもよい。つまり、掃除機本体の前方への接近のみを禁止すれば足りる。マーカの向きで掃除機本体の前後を認識できるようにすれば、掃除機本体の前方への接近のみを禁止してもよい。マーカが矢印を含み、矢印の先が掃除機の前方を指すようにマーカを貼り付ければ、ロボット2はマーカを基準として接近が禁止される範囲を判断することができる。矢印が指す先を接近禁止とするというルールが設けられていれば、マーカを貼り付ける段階でマーカの向きに注意すれば運用上問題がない。矢印が指す先に限らず接近禁止の範囲を設ける場合には、接近制御データに矢印を基準とした接近禁止の範囲を設定しておいてもよいし、利用者端末3のアプリケーションから同様の接近禁止の範囲を設定してもよい。 Further, the marker recognition unit 22 may store the approach control data in which the accessibility of the robot 2 is set for each type of article, and may determine the accessibility of the type of article specified by the marker ID. In the approach control data, access permission is set for items that are difficult to break and are unlikely to move, such as tables and chairs, and fragile items such as ornaments and precision equipment, and balance balls and vacuum cleaners. No access is set for items that are likely to move in this way. Since the vacuum cleaner body always moves forward and never moves backward, the vacuum cleaner body may be allowed to approach the rear. In other words, it is sufficient to prohibit only the approach to the front of the vacuum cleaner body. If the front and back of the vacuum cleaner body can be recognized by the direction of the marker, only the approach to the front of the vacuum cleaner body may be prohibited. If the marker is attached so that the marker includes an arrow and the tip of the arrow points to the front of the vacuum cleaner, the robot 2 can determine the range in which access is prohibited based on the marker. If there is a rule that the point pointed by the arrow is prohibited from approaching, there is no operational problem if the direction of the marker is noted at the stage of pasting the marker. When setting the access prohibition range not limited to the point pointed by the arrow, the access prohibition range based on the arrow may be set in the approach control data, or the same approach from the application of the user terminal 3 may be set. The prohibited range may be set.

以上述べた実施形態4では、壊れやすい物品や移動する可能性がある物品などロボット2との衝突のリスクがある物品にマークを設置することにより、ロボット2と物品との衝突を回避しやすくする。 In the fourth embodiment described above, by placing a mark on an article that has a risk of collision with the robot 2, such as a fragile article or an article that may move, it is easy to avoid a collision between the robot 2 and the article. ..

[その他の変形例] [Other variants]

実施形態2に関して、マーカ認識部22は、マーカIDとエリア種別を対応付けるマーカ定義情報を記憶し、マーカからマーカIDを検出し、マーカIDに対応するエリア種別を特定するようにしてもよい。マーカIDとエリア種別の対応付けは、利用者が利用者端末3のアプリケーションから設定してもよい。 Regarding the second embodiment, the marker recognition unit 22 may store the marker definition information for associating the marker ID with the area type, detect the marker ID from the marker, and specify the area type corresponding to the marker ID. The association between the marker ID and the area type may be set by the user from the application of the user terminal 3.

実施形態2に関して、第1イベントは上述した例に限らない。第1イベントは、任意である。ロボット2の第1イベント検出部210及びデータ提供装置10の第1イベント検出部120は、利用者以外の人を認識したときに第1イベントを検出してもよい。ロボット2の第1イベント検出部210及びデータ提供装置10の第1イベント検出部120は、認識したことがない未知の人を初めて認識したときに第1イベントを検出してもよい。ロボット2の第1イベント検出部210及びデータ提供装置10の第1イベント検出部120は、過去に認識したことがある既知の人を改めて認識したときに第1イベントを検出してもよい。ロボット2の第1イベント検出部210及びデータ提供装置10の第1イベント検出部120は、所定時間以内に同じ人を繰り返し認識した場合に第1イベントを検出してもよい。ロボット2の第1イベント検出部210及びデータ提供装置10の第1イベント検出部120は、所定時間以内に認識していなかった人を認識したときに第1イベントを検出してもよい。さらに、ロボット2の第1イベント検出部210及びデータ提供装置10の第1イベント検出部120は、撮影画像において認識した人とマーカとの位置関係や向きが所定の条件を満たすと判断したときに第1イベントを検出してもよい。 Regarding the second embodiment, the first event is not limited to the above-mentioned example. The first event is optional. The first event detection unit 210 of the robot 2 and the first event detection unit 120 of the data providing device 10 may detect the first event when recognizing a person other than the user. The first event detection unit 210 of the robot 2 and the first event detection unit 120 of the data providing device 10 may detect the first event when an unknown person who has never been recognized is recognized for the first time. The first event detection unit 210 of the robot 2 and the first event detection unit 120 of the data providing device 10 may detect the first event when a known person who has been recognized in the past is recognized again. The first event detection unit 210 of the robot 2 and the first event detection unit 120 of the data providing device 10 may detect the first event when the same person is repeatedly recognized within a predetermined time. The first event detection unit 210 of the robot 2 and the first event detection unit 120 of the data providing device 10 may detect the first event when recognizing a person who has not been recognized within a predetermined time. Further, when the first event detection unit 210 of the robot 2 and the first event detection unit 120 of the data providing device 10 determine that the positional relationship and orientation between the person and the marker recognized in the captured image satisfy a predetermined condition. The first event may be detected.

実施形態2に関して、第2イベントは上述した例に限らない。第2イベントは、任意である。ロボット2の第2イベント検出部220及びデータ提供装置10の第2イベント検出部130は、利用者以外の人を認識したときに第2イベントを検出してもよい。ロボット2の第2イベント検出部220及びデータ提供装置10の第2イベント検出部130は、認識したことがない未知の人を初めて認識したときに第2イベントを検出してもよい。ロボット2の第2イベント検出部220及びデータ提供装置10の第2イベント検出部130は、過去に認識したことがある既知の人を改めて認識したときに第2イベントを検出してもよい。ロボット2の第2イベント検出部220及びデータ提供装置10の第2イベント検出部130は、所定時間以内に同じ人を繰り返し認識した場合に第2イベントを検出してもよい。ロボット2の第2イベント検出部220及びデータ提供装置10の第2イベント検出部130は、所定時間以内に認識していなかった人を認識したときに第2イベントを検出してもよい。さらに、ロボット2の第2イベント検出部220及びデータ提供装置10の第2イベント検出部130は、撮影画像において認識した人とマーカとの位置関係や向きが所定の条件を満たすと判断したときに第2イベントを検出してもよい。 Regarding the second embodiment, the second event is not limited to the above-mentioned example. The second event is optional. The second event detection unit 220 of the robot 2 and the second event detection unit 130 of the data providing device 10 may detect the second event when recognizing a person other than the user. The second event detection unit 220 of the robot 2 and the second event detection unit 130 of the data providing device 10 may detect the second event when the unknown person who has never been recognized is recognized for the first time. The second event detection unit 220 of the robot 2 and the second event detection unit 130 of the data providing device 10 may detect the second event when a known person who has been recognized in the past is recognized again. The second event detection unit 220 of the robot 2 and the second event detection unit 130 of the data providing device 10 may detect the second event when the same person is repeatedly recognized within a predetermined time. The second event detection unit 220 of the robot 2 and the second event detection unit 130 of the data providing device 10 may detect the second event when recognizing a person who has not been recognized within a predetermined time. Further, when the second event detection unit 220 of the robot 2 and the second event detection unit 130 of the data providing device 10 determine that the positional relationship and orientation between the person and the marker recognized in the captured image satisfy a predetermined condition. The second event may be detected.

実施形態2に関して、第1イベント及び第2イベントは、複数段階のイベントの組み合わせであってもよい。例えば実施例1で説明した出迎えの応用例において、データ提供装置10の帰宅イベント検出部121は、利用者端末3の位置が自宅に近づいたときに第1段階のイベントを検出し、利用者端末3が玄関に設置されたビーコン発信器と通信を行ったときに第2段階のイベントを検出してもよい。そして、帰宅イベント検出部121は、第1段階のイベントと第2段階のイベントの両方を検出した場合に、第1イベントを検出したと判断してもよい。 With respect to the second embodiment, the first event and the second event may be a combination of a plurality of stages of events. For example, in the application example of welcoming described in the first embodiment, the homecoming event detection unit 121 of the data providing device 10 detects the event of the first stage when the position of the user terminal 3 approaches the home, and the user terminal. The second stage event may be detected when the 3 communicates with the beacon transmitter installed at the entrance. Then, when the homecoming event detection unit 121 detects both the first stage event and the second stage event, it may be determined that the first event has been detected.

実施形態2に関して、アクション選択部140が第1イベントと第2イベントの組み合わせに対応するアクションを選択する例を説明したが、アクション選択部140は、第2イベントに対応するアクションを選択してもよい。アクション選択部140は、エリア種別に対応するアクションを選択してもよい。アクション選択部140は、第1イベントに対応するアクションを選択してもよい。アクション選択部140は、エリア種別と第2イベントの組み合わせに対応するアクションを選択してもよい。アクション選択部140は、第1イベントとエリア種別の組み合わせに対応するアクションを選択してもよい。アクション選択部140は、第1イベントとエリア種別と第2イベントの組み合わせに対応するアクションを選択してもよい。 Regarding the second embodiment, the example in which the action selection unit 140 selects the action corresponding to the combination of the first event and the second event has been described, but the action selection unit 140 may select the action corresponding to the second event. Good. The action selection unit 140 may select an action corresponding to the area type. The action selection unit 140 may select an action corresponding to the first event. The action selection unit 140 may select an action corresponding to the combination of the area type and the second event. The action selection unit 140 may select an action corresponding to the combination of the first event and the area type. The action selection unit 140 may select an action corresponding to a combination of the first event, the area type, and the second event.

実施形態2に関して、アクション実行部230は、特定の人を対象としたアクションを行ってもよい。例えば実施例3で説明した接客の応用例において、アクション実行部230は、特定の客に対して空き室を案内してもよい。また、アクション実行部230が実行するアクションの内容は、利用者が利用者端末3のアプリケーションから設定してもよい。 Regarding the second embodiment, the action execution unit 230 may perform an action targeting a specific person. For example, in the customer service application example described in the third embodiment, the action execution unit 230 may guide a vacant room to a specific customer. Further, the content of the action executed by the action execution unit 230 may be set by the user from the application of the user terminal 3.

実施形態2に関して、ロボット2の第1イベント検出部210は、通信制御部26において他のロボット2と通信した場合に、第1イベントを検出してもよい。ロボット2の第2イベント検出部220は、通信制御部26において他のロボット2と通信した場合に、第2イベントを検出してもよい。ロボット2の第1イベント検出部210及びデータ提供装置10の第1イベント検出部120は、利用者端末3や他の外部装置から所定の指示やデータ受け付けたときに第1イベントを検出してもよい。ロボット2の第2イベント検出部220及びデータ提供装置10の第2イベント検出部130は、利用者端末3や他の外部装置から所定の指示やデータ受け付けたときに第2イベントを検出してもよい。例えば実施例3で説明した接客の応用例において、データ提供装置10の来客イベント検出部123は、受付用タブレット端末において来店人数や禁煙等の客室条件を受け付けたことを、受付用タブレット端末から通知されたときに第1イベントを検出してもよい。 Regarding the second embodiment, the first event detection unit 210 of the robot 2 may detect the first event when the communication control unit 26 communicates with another robot 2. The second event detection unit 220 of the robot 2 may detect the second event when the communication control unit 26 communicates with another robot 2. Even if the first event detection unit 210 of the robot 2 and the first event detection unit 120 of the data providing device 10 detect the first event when a predetermined instruction or data is received from the user terminal 3 or another external device. Good. Even if the second event detection unit 220 of the robot 2 and the second event detection unit 130 of the data providing device 10 detect the second event when a predetermined instruction or data is received from the user terminal 3 or another external device. Good. For example, in the customer service application example described in the third embodiment, the visitor event detection unit 123 of the data providing device 10 notifies from the reception tablet terminal that the reception tablet terminal has accepted the guest room conditions such as the number of visitors and smoking cessation. The first event may be detected when it is done.

実施形態2に関して、第1イベント及び第2イベントの検出条件は、複数のロボット2毎に異なってもよい。例えば特定のロボット2に限って、通常第1イベント又は第2イベントを検出するタイミングよりも遅らせて第1イベント又は第2イベントを検出するようにしてもよい。第1イベント又は第2イベントの検出タイミングを遅くすれば、ロボット2の消極的な性格を演出することができる。逆に特定のロボット2に限って、通常第1イベント又は第2イベントを検出するタイミングよりも早く第1イベント又は第2イベントを検出するようにしてもよい。第1イベント又は第2イベントの検出タイミングを早くすれば、ロボット2の積極的な性格を演出することができる。尚、第1イベント及び第2イベントの内容は、利用者が利用者端末3のアプリケーションから設定してもよい。 Regarding the second embodiment, the detection conditions of the first event and the second event may be different for each of the plurality of robots 2. For example, only the specific robot 2 may detect the first event or the second event later than the timing for detecting the first event or the second event. By delaying the detection timing of the first event or the second event, the passive character of the robot 2 can be produced. On the contrary, only the specific robot 2 may detect the first event or the second event earlier than the timing when the first event or the second event is usually detected. If the detection timing of the first event or the second event is advanced, the positive character of the robot 2 can be produced. The contents of the first event and the second event may be set by the user from the application of the user terminal 3.

実施形態2に関して、イベント情報記憶部151において、ロボット2毎に異なるイベント情報を設定してもよい。つまり、特定のロボット2に限って適用されるイベント情報を設けてもよい。例えば2台のロボット2を動作させる家庭で、一方のロボットにだけ出迎えアクションを行わせ、他方のロボットにだけ子守アクションを行わせるように、イベント情報を設定してもよい。 Regarding the second embodiment, the event information storage unit 151 may set different event information for each robot 2. That is, event information that is applied only to the specific robot 2 may be provided. For example, in a home in which two robots 2 are operated, event information may be set so that only one robot performs a welcoming action and only the other robot performs a babysitter action.

複数台のロボット2を動作させる場合には、一方のロボット2が認識したマーカ情報を、他方のロボット2に通知するようにしてもよい。そのようにすれば、エリア種別、マーカの位置及び向きを、早く共有できるようになる。 When operating a plurality of robots 2, the marker information recognized by one robot 2 may be notified to the other robot 2. By doing so, the area type, the position and orientation of the marker can be shared quickly.

ロボット2は、SLAM技術において検出される特徴点や特徴形状をマーカとみなしてもよい。また、マーカとして発光するデバイスを用いてもよい。ロボット2が備える蓄電池に給電するための充電ステーションにマーカを設置して、ロボット2がマーカに基づいて充電ステーションとの位置関係と向きを検出するようにしてもよい。ロボット2は、自動連結のために充電ステーションに近づくときに、マーカによって検出した充電ステーションの位置関係と向きを用いてもよい。 The robot 2 may consider the feature points and feature shapes detected in the SLAM technology as markers. Further, a device that emits light as a marker may be used. A marker may be installed in the charging station for supplying power to the storage battery included in the robot 2, and the robot 2 may detect the positional relationship and the orientation with the charging station based on the marker. The robot 2 may use the positional relationship and orientation of the charging station detected by the marker when approaching the charging station for automatic connection.

マーカ認識部22は、同じマーカについて複数回位置を計測し、それらの位置に関する平均値を求めるようにしてもよい。マーカ認識部22がマーカの位置の平均値を用いれば、マーカの位置の計測における誤差の影響を軽減できる。同様にマーカ認識部22は、同じマーカについて複数回向きを計測し、それらの向きに関する平均値を求めるようにしてもよい。マーカ認識部22がマーカの向きの平均値を用いれば、マーカの位置の計測における誤差の影響を軽減できる。 The marker recognition unit 22 may measure the positions of the same marker a plurality of times and obtain an average value for those positions. If the marker recognition unit 22 uses the average value of the marker positions, the influence of an error in measuring the marker position can be reduced. Similarly, the marker recognition unit 22 may measure the orientation of the same marker a plurality of times and obtain an average value for those orientations. If the marker recognition unit 22 uses the average value of the orientations of the markers, the influence of an error in measuring the position of the marker can be reduced.

利用者端末3のアプリケーションは、利用者端末3の出力装置に、マーカの位置や向きを表示してもよい。利用者端末3のアプリケーションから利用者が、利用者端末3の入力装置を介して、マーカの内容(進入禁止、エリア種別、アクションの識別子又は接近禁止など)、マーカの位置や向きを設定し、あるいは修正できるようにしてもよい。 The application of the user terminal 3 may display the position and orientation of the marker on the output device of the user terminal 3. From the application of the user terminal 3, the user sets the content of the marker (entry prohibited, area type, action identifier or access prohibited, etc.), the position and orientation of the marker, via the input device of the user terminal 3. Alternatively, it may be possible to modify it.

ロボット2は、ビーコン受信器を備え、所定の位置に設置されたビーコン発信器が発信するビーコン信号をビーコン受信器において受信し、ビーコン発信器のIDを特定してもよい。ロボット2は、さらにビーコン分析部を備え、ビーコン分析部においてビーコン信号の電波強度を分析することによってビーコン発信器の位置を特定してもよい。従って、自律行動型ロボット1は、ビーコン発信器のIDをマーカIDとみなし、ビーコン発信器の位置をマーカの位置とみなして、上述の実施形態に適用してもよい。 The robot 2 may include a beacon receiver, receive a beacon signal transmitted by a beacon transmitter installed at a predetermined position at the beacon receiver, and specify the ID of the beacon transmitter. The robot 2 may further include a beacon analysis unit, and the beacon analysis unit may identify the position of the beacon transmitter by analyzing the radio wave intensity of the beacon signal. Therefore, the autonomous action type robot 1 may consider the ID of the beacon transmitter as the marker ID and the position of the beacon transmitter as the position of the marker, and apply it to the above-described embodiment.

なお、本実施形態で説明した装置を構成する機能を実現するためのプログラムを、コンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、本実施形態の上述した種々の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。 It should be noted that the program for realizing the function constituting the apparatus described in the present embodiment is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into the computer system and executed. Therefore, the above-mentioned various processes of the present embodiment may be performed. The "computer system" referred to here may include hardware such as an OS and peripheral devices. Further, the "computer system" includes a homepage providing environment (or a display environment) if a WWW system is used. The "computer-readable recording medium" includes a flexible disk, a magneto-optical disk, a ROM, a writable non-volatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, and the like. It refers to the storage device of.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組合せで実現するもの、いわゆる差分ファイル(差分プログラム)であっても良い。 Further, the "computer-readable recording medium" is a volatile memory (for example, DRAM (Dynamic)) inside a computer system that serves as a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. It also includes those that hold the program for a certain period of time, such as Random Access Memory)). Further, the program may be transmitted from a computer system in which this program is stored in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the "transmission medium" for transmitting a program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. Further, the above program may be for realizing a part of the above-mentioned functions. Further, it may be a so-called difference file (difference program) that realizes the above-mentioned function in combination with a program already recorded in the computer system.

以上、本発明の実施形態について、図面を参照して説明してきたが、具体的な構成はこの実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲においての種々の変更も含まれる。 Although the embodiments of the present invention have been described above with reference to the drawings, the specific configuration is not limited to this embodiment and includes various modifications within a range not deviating from the gist of the present invention. Is done.

Claims (17)

移動機構と、
周囲の空間を撮影する撮影部と、
前記撮影部において撮影された撮影画像に含まれる所定のマーカを認識するマーカ認識部と、
認識された前記マーカに基づき前記移動機構による移動を制御する移動制御部と
を備える、ロボット。
Movement mechanism and
A shooting section that shoots the surrounding space,
A marker recognition unit that recognizes a predetermined marker included in a captured image captured by the photographing unit, and a marker recognition unit.
A robot including a movement control unit that controls movement by the movement mechanism based on the recognized marker.
前記移動制御部は、認識された前記マーカに基づき前記移動による進入を禁止する、請求項1に記載のロボット。 The robot according to claim 1, wherein the movement control unit prohibits entry by the movement based on the recognized marker. 前記移動制御部は、認識された前記マーカに基づき前記移動の速度を制限する、請求項1又は2に記載のロボット。 The robot according to claim 1 or 2, wherein the movement control unit limits the speed of the movement based on the recognized marker. 前記移動制御部は、認識された前記マーカの設置位置に基づき前記移動を制御する、請求項1から3のいずれか一項に記載のロボット。 The robot according to any one of claims 1 to 3, wherein the movement control unit controls the movement based on the recognized installation position of the marker. 前記移動制御部は、前記設置位置に基づく制限範囲を設定し、前記制限範囲における前記移動を制限する、請求項4に記載のロボット。 The robot according to claim 4, wherein the movement control unit sets a limited range based on the installation position and limits the movement in the limited range. 前記移動制御部は、前記設置位置より奥側、又は前記設置位置の周囲における所定の範囲を前記制限範囲として設定する、請求項5に記載のロボット。 The robot according to claim 5, wherein the movement control unit sets a predetermined range as the limiting range on the back side of the installation position or around the installation position. 前記移動制御部は、認識された前記マーカが複数である場合、認識された複数の前記設置位置に基づき前記移動を制限する、請求項4から6のいずれか一項に記載のロボット。 The robot according to any one of claims 4 to 6, wherein the movement control unit restricts the movement based on the recognized plurality of the recognized installation positions when the number of the recognized markers is a plurality. 前記移動制御部は、認識された第1マーカの設置位置と認識された第2マーカの設置位置とを結ぶ線分に基づき前記移動を制限する、請求項7に記載のロボット。 The robot according to claim 7, wherein the movement control unit limits the movement based on a line segment connecting the recognized first marker installation position and the recognized second marker installation position. 前記移動制御部は、認識された前記マーカの種類に基づき前記移動を制御する、請求項1から8のいずれか一項に記載のロボット。 The robot according to any one of claims 1 to 8, wherein the movement control unit controls the movement based on the recognized type of the marker. 前記移動制御部は、記録されているマーカに基づき前記移動を制御する、請求項1から9のいずれか一項に記載のロボット。 The robot according to any one of claims 1 to 9, wherein the movement control unit controls the movement based on a recorded marker. 前記移動制御部は、前記撮影画像において前記マーカが認識されない場合、前記記録されているマーカに基づき前記移動を制御する、請求項10に記載のロボット。 The robot according to claim 10, wherein the movement control unit controls the movement based on the recorded marker when the marker is not recognized in the captured image. 前記撮影部において撮影された撮影画像に基づいて、前記空間を認識した空間データを生成する空間データ生成部と、
生成された前記空間データに基づいて、前記空間に含まれる空間要素を可視化した可視化データを生成する可視化データ生成部と、
生成された前記可視化データを利用者端末に対して提供する可視化データ提供部と
をさらに備える、請求項1から11のいずれか一項に記載のロボット。
A spatial data generation unit that generates spatial data that recognizes the space based on a captured image captured by the imaging unit, and a spatial data generation unit.
A visualization data generation unit that generates visualization data that visualizes spatial elements included in the space based on the generated spatial data.
The robot according to any one of claims 1 to 11, further comprising a visualization data providing unit that provides the generated visualization data to a user terminal.
提供された前記可視化データに含まれる領域の指定を前記利用者端末から取得する指定取得部をさらに備え、
前記空間データ生成部は、取得された前記指定に係る領域において再撮影された前記撮影画像に基づいて前記空間を再認識する、請求項12に記載のロボット。
Further provided with a designation acquisition unit for acquiring the designation of the area included in the provided visualization data from the user terminal.
The robot according to claim 12, wherein the space data generation unit re-recognizes the space based on the captured image re-photographed in the acquired region according to the designation.
前記移動における移動先の状態を示す状態情報を取得する状態情報取得部をさらに備え、
前記移動制御部は、前記状態情報にさらに基づき前記移動を制御する、請求項1から13のいずれか一項に記載のロボット。
Further, a state information acquisition unit for acquiring state information indicating the state of the movement destination in the movement is provided.
The robot according to any one of claims 1 to 13, wherein the movement control unit further controls the movement based on the state information.
前記マーカの位置を記憶するマーカ情報記憶部と、
第1イベントを検出する第1イベント検出部と、
第2イベントを検出する第2イベント検出部と、
アクションを実行するアクション実行部と
をさらに備え、
前記第1イベントが検出されると、前記マーカの前記位置の付近へ移動し、前記第2イベントが検出されると、前記マーカ、前記第1イベント及び前記第2イベントのうちの少なくとも1つに対応する前記アクションを実行する、請求項1から14のいずれか一項に記載のロボット。
A marker information storage unit that stores the position of the marker,
The first event detection unit that detects the first event and
The second event detection unit that detects the second event,
It also has an action execution unit that executes actions,
When the first event is detected, it moves to the vicinity of the position of the marker, and when the second event is detected, it becomes at least one of the marker, the first event, and the second event. The robot according to any one of claims 1 to 14, which executes the corresponding action.
周囲の空間を撮影する撮影ステップと、
前記撮影ステップにおいて撮影された撮影画像に含まれる所定のマーカを認識するマーカ認識ステップと、
認識された前記マーカに基づき移動機構による移動を制御する移動制御ステップと
を含む、ロボット制御方法。
Shooting steps to shoot the surrounding space and
A marker recognition step that recognizes a predetermined marker included in a captured image captured in the photographing step, and a marker recognition step.
A robot control method including a movement control step for controlling movement by a movement mechanism based on the recognized marker.
コンピュータに、
周囲の空間を撮影する撮影機能と、
前記撮影機能において撮影された撮影画像に含まれる所定のマーカを認識するマーカ認識機能と、
認識された前記マーカに基づき移動機構による移動を制御する移動制御機能と
を実現させるための、ロボット制御プログラム。
On the computer
A shooting function that shoots the surrounding space and
A marker recognition function that recognizes a predetermined marker included in a shot image shot by the shooting function, and a marker recognition function.
A robot control program for realizing a movement control function that controls movement by a movement mechanism based on the recognized marker.
JP2020525643A 2018-06-13 2019-06-13 Robots and their control methods, as well as programs Pending JPWO2019240208A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023202283A JP2024020582A (en) 2018-06-13 2023-11-29 Robot, method of controlling the same, and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018113083 2018-06-13
JP2018113083 2018-06-13
PCT/JP2019/023433 WO2019240208A1 (en) 2018-06-13 2019-06-13 Robot, method for controlling robot, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023202283A Division JP2024020582A (en) 2018-06-13 2023-11-29 Robot, method of controlling the same, and program

Publications (2)

Publication Number Publication Date
JPWO2019240208A1 true JPWO2019240208A1 (en) 2021-06-24
JPWO2019240208A5 JPWO2019240208A5 (en) 2022-06-21

Family

ID=68842204

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020525643A Pending JPWO2019240208A1 (en) 2018-06-13 2019-06-13 Robots and their control methods, as well as programs
JP2023202283A Pending JP2024020582A (en) 2018-06-13 2023-11-29 Robot, method of controlling the same, and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023202283A Pending JP2024020582A (en) 2018-06-13 2023-11-29 Robot, method of controlling the same, and program

Country Status (2)

Country Link
JP (2) JPWO2019240208A1 (en)
WO (1) WO2019240208A1 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11493930B2 (en) * 2018-09-28 2022-11-08 Intrinsic Innovation Llc Determining changes in marker setups for robot localization
US20230271317A1 (en) * 2020-08-14 2023-08-31 Nec Corporation Operation range setting device, operation range setting method, and storage medium
CN115705064B (en) * 2021-08-03 2024-05-24 北京小米移动软件有限公司 Following control method and device of foot-type robot and robot
WO2023119566A1 (en) * 2021-12-23 2023-06-29 本田技研工業株式会社 Transport system
WO2023204025A1 (en) * 2022-04-20 2023-10-26 パナソニックIpマネジメント株式会社 Movement management system, movement management method, and program
WO2024004453A1 (en) * 2022-06-28 2024-01-04 ソニーグループ株式会社 Moving body control information generating method, moving body control information generating device, moving body, and moving body control system
WO2024014529A1 (en) * 2022-07-15 2024-01-18 Thk株式会社 Autonomous mobile robot and system for controlling autonomous mobile robot
CN116755464B (en) * 2023-05-17 2024-04-16 贵州师范学院 Mobile robot control method based on Internet of things

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0854927A (en) * 1994-08-10 1996-02-27 Kawasaki Heavy Ind Ltd Landmark deciding method and device
JPH1011135A (en) * 1996-06-27 1998-01-16 Ohbayashi Corp Mark recognizing horizontal conveyance system
JP2013508874A (en) * 2009-10-30 2013-03-07 ユージン ロボット シーオー., エルティーディー. Map generation and update method for mobile robot position recognition
JP2013164754A (en) * 2012-02-10 2013-08-22 Fujitsu Ltd Image processing device, advance information updating method, and program
WO2016103562A1 (en) * 2014-12-25 2016-06-30 村田機械株式会社 Traveling vehicle system and traveling state changing method
JP2017041200A (en) * 2015-08-21 2017-02-23 シャープ株式会社 Autonomous mobile device, autonomous mobile system and circumstance map evaluation method
WO2017169826A1 (en) * 2016-03-28 2017-10-05 Groove X株式会社 Autonomous behavior robot that performs welcoming behavior
JP2018068885A (en) * 2016-11-02 2018-05-10 東芝ライフスタイル株式会社 Autonomous vacuum cleaner

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0854927A (en) * 1994-08-10 1996-02-27 Kawasaki Heavy Ind Ltd Landmark deciding method and device
JPH1011135A (en) * 1996-06-27 1998-01-16 Ohbayashi Corp Mark recognizing horizontal conveyance system
JP2013508874A (en) * 2009-10-30 2013-03-07 ユージン ロボット シーオー., エルティーディー. Map generation and update method for mobile robot position recognition
JP2013164754A (en) * 2012-02-10 2013-08-22 Fujitsu Ltd Image processing device, advance information updating method, and program
WO2016103562A1 (en) * 2014-12-25 2016-06-30 村田機械株式会社 Traveling vehicle system and traveling state changing method
JP2017041200A (en) * 2015-08-21 2017-02-23 シャープ株式会社 Autonomous mobile device, autonomous mobile system and circumstance map evaluation method
WO2017169826A1 (en) * 2016-03-28 2017-10-05 Groove X株式会社 Autonomous behavior robot that performs welcoming behavior
JP2018068885A (en) * 2016-11-02 2018-05-10 東芝ライフスタイル株式会社 Autonomous vacuum cleaner

Also Published As

Publication number Publication date
JP2024020582A (en) 2024-02-14
WO2019240208A1 (en) 2019-12-19

Similar Documents

Publication Publication Date Title
JPWO2019240208A1 (en) Robots and their control methods, as well as programs
CN109998429B (en) Mobile cleaning robot artificial intelligence for context awareness
US20230336695A1 (en) Apparatus and Method of Location Determination in a Thermal Imaging System
JP6694053B2 (en) Radar compatible sensor fusion
US11010601B2 (en) Intelligent assistant device communicating non-verbal cues
KR102644519B1 (en) Method and systems for generating detailed datasets of an environment via gameplay
US20180158244A1 (en) Virtual sensor configuration
KR102577785B1 (en) Cleaning robot and Method of performing task thereof
CN106662926A (en) Systems and methods of gestural interaction in a pervasive computing environment
CN107211113B (en) Method and device for monitoring
JP2021532478A (en) User interface for configuring a thermal imaging system
KR20200078311A (en) The control method of robot
CN107408146A (en) Monitoring
KR102277967B1 (en) System for providing artificial intelligence based baby monitoring service
JPWO2019216016A1 (en) Information processing equipment, information processing methods, and programs
WO2020022371A1 (en) Robot, method for controlling robot, and control program
JP2005056213A (en) System, server and method for providing information
JPWO2020116233A1 (en) Information processing equipment, information processing methods, and programs
KR20230134109A (en) Cleaning robot and Method of performing task thereof
US11460994B2 (en) Information processing apparatus and information processing method
JP2019220145A (en) Operation terminal, voice input method, and program
CN111919250B (en) Intelligent assistant device for conveying non-language prompt
US20220126439A1 (en) Information processing apparatus and information processing method
WO2019188697A1 (en) Autonomous action robot, data supply device, and data supply program
KR102234081B1 (en) Hybrid IoT Management type chair for reading room, and Reading room learning management system using the same

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220610

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230710

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231129

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20231215

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20231228