JP2024020582A - Robots, their control methods, and programs - Google Patents

Robots, their control methods, and programs Download PDF

Info

Publication number
JP2024020582A
JP2024020582A JP2023202283A JP2023202283A JP2024020582A JP 2024020582 A JP2024020582 A JP 2024020582A JP 2023202283 A JP2023202283 A JP 2023202283A JP 2023202283 A JP2023202283 A JP 2023202283A JP 2024020582 A JP2024020582 A JP 2024020582A
Authority
JP
Japan
Prior art keywords
marker
robot
event
unit
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023202283A
Other languages
Japanese (ja)
Inventor
要 林
博教 小川
秀哉 南地
泰士 深谷
芳樹 松浦
浩平 高田
直人 吉岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Groove X Inc
Original Assignee
Groove X Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Groove X Inc filed Critical Groove X Inc
Publication of JP2024020582A publication Critical patent/JP2024020582A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions

Abstract

【課題】利用者がロボットの移動を制御できる、ロボットおよびその制御方法、ならびにプログラムを提供する。【解決手段】ロボットは、移動機構と、周囲の空間を撮影する撮影部と、撮影部において撮影された撮影画像に含まれる所定のマーカを認識するマーカ認識部と、認識されたマーカに基づき移動機構による移動を制御する移動制御部とを備える。【選択図】図1The present invention provides a robot, a control method thereof, and a program that allow a user to control the movement of the robot. [Solution] The robot includes a movement mechanism, a photographing unit that photographs the surrounding space, a marker recognition unit that recognizes a predetermined marker included in a photographed image photographed by the photographing unit, and moves based on the recognized marker. and a movement control section that controls movement by the mechanism. [Selection diagram] Figure 1

Description

本発明は、ロボットおよびその制御方法、ならびにプログラムに関する。 The present invention relates to a robot, a control method thereof, and a program.

従来から、家屋内を自律的に移動しながらカメラで画像を撮影し、撮影画像から屋内の空間を認識し、認識している空間に基づき移動経路を設定して屋内を移動するロボットがある。ロボット移動経路の設定は、ロボットが移動する経路を定めたマップを利用者が予め作成することにより行われる。ロボットは作成されたマップに基づき定められた経路を移動することができる(例えば、特許文献1を参照)。 BACKGROUND ART Conventionally, there have been robots that autonomously move inside a house while taking images with a camera, recognize the indoor space from the captured images, set a movement route based on the recognized space, and move indoors. The robot movement route is set by the user creating in advance a map that defines the robot movement route. The robot can move along a route determined based on the created map (see, for example, Patent Document 1).

特開2016-103277号公報Japanese Patent Application Publication No. 2016-103277

しかし、自律行動型ロボットにおいては、ロボットが空間を自律的に移動できるため、例えば、利用者が進入して欲しくない範囲やロボットが移動すると危険な範囲にロボットが進入することがある。 However, since autonomous robots can move autonomously in space, for example, the robot may enter an area that the user does not want it to enter or an area that is dangerous if it moves.

また、自律的な移動だけでなく、所定の場所へロボットを移動させて、所定のアクションを行わせたいこともある。 Furthermore, in addition to autonomous movement, there are times when we want the robot to move to a predetermined location and perform a predetermined action.

本発明は上記事情に鑑みてなされたものであり、1つの実施形態において、利用者がロボットの移動を制御できる、ロボットおよびその制御方法、ならびにプログラムを提供することを一つの目的とする。 The present invention has been made in view of the above circumstances, and in one embodiment, an object thereof is to provide a robot, a control method thereof, and a program that allow a user to control the movement of the robot.

(1)上記の課題を解決するため、実施形態のロボットは、移動機構と、周囲の空間を撮影する撮影部と、前記撮影部において撮影された撮影画像に含まれる所定のマーカを認識するマーカ認識部と、認識された前記マーカに基づき前記移動機構による移動を制御する移動制御部とを備える。 (1) In order to solve the above problems, the robot of the embodiment includes a moving mechanism, a photographing section that photographs the surrounding space, and a marker that recognizes a predetermined marker included in the photographed image photographed by the photographing section. It includes a recognition section and a movement control section that controls movement by the movement mechanism based on the recognized marker.

(2)また、実施形態のロボットにおいて、前記移動制御部は、認識された前記マーカに基づき前記移動による進入を禁止する。 (2) Furthermore, in the robot of the embodiment, the movement control unit prohibits entry by movement based on the recognized marker.

(3)また、実施形態のロボットにおいて、前記移動制御部は、認識された前記マーカに基づき前記移動の速度を制限する。 (3) Furthermore, in the robot of the embodiment, the movement control unit limits the speed of the movement based on the recognized marker.

(4)また、実施形態のロボットにおいて、前記移動制御部は、認識された前記マーカの設置位置に基づき前記移動を制御する。 (4) Furthermore, in the robot of the embodiment, the movement control section controls the movement based on the recognized installation position of the marker.

(5)また、実施形態のロボットにおいて、前記移動制御部は、前記設置位置に基づく制限範囲を設定し、前記制限範囲における前記移動を制限する。 (5) Furthermore, in the robot of the embodiment, the movement control section sets a restriction range based on the installation position, and limits the movement within the restriction range.

(6)また、実施形態のロボットにおいて、前記移動制御部は、前記設置位置より奥側、又は前記設置位置の周囲における所定の範囲を前記制限範囲として設定する。 (6) Furthermore, in the robot of the embodiment, the movement control section sets a predetermined range behind the installation position or around the installation position as the limit range.

(7)また、実施形態のロボットにおいて、前記移動制御部は、認識された前記マーカが複数である場合、認識された複数の前記設置位置に基づき前記移動を制限する。 (7) Furthermore, in the robot of the embodiment, when a plurality of the markers are recognized, the movement control unit limits the movement based on the plurality of recognized installation positions.

(8)また、実施形態のロボットにおいて、前記移動制御部は、認識された第1マーカの設置位置と認識された第2マーカの設置位置とを結ぶ線分に基づき前記移動を制限する。 (8) Furthermore, in the robot of the embodiment, the movement control unit limits the movement based on a line segment connecting the recognized installation position of the first marker and the recognized installation position of the second marker.

(9)また、実施形態のロボットにおいて、前記移動制御部は、認識された前記マーカの種類に基づき前記移動を制御する。 (9) Furthermore, in the robot of the embodiment, the movement control unit controls the movement based on the recognized type of the marker.

(10)また、実施形態のロボットにおいて、前記移動制御部は、記録されているマーカに基づき前記移動を制御する。 (10) Furthermore, in the robot of the embodiment, the movement control section controls the movement based on recorded markers.

(11)また、実施形態のロボットにおいて、前記移動制御部は、前記撮影画像において前記マーカが認識されない場合、前記記録されているマーカに基づき前記移動を制御する。 (11) Furthermore, in the robot of the embodiment, the movement control unit controls the movement based on the recorded marker when the marker is not recognized in the photographed image.

(12)また、実施形態のロボットにおいて、前記撮影部において撮影された撮影画像に基づいて、前記空間を認識した空間データを生成する空間データ生成部と、生成された前記空間データに基づいて、前記空間に含まれる空間要素を可視化した可視化データを生成する可視化データ生成部と、生成された前記可視化データを利用者端末に対して提供する可視化データ提供部とをさらに備える。 (12) Further, in the robot of the embodiment, a spatial data generation unit generates spatial data in which the space is recognized based on a photographed image photographed by the photographing unit, and based on the generated spatial data, The apparatus further includes a visualization data generation section that generates visualization data that visualizes spatial elements included in the space, and a visualization data provision section that provides the generated visualization data to a user terminal.

(13)また、実施形態のロボットにおいて、提供された前記可視化データに含まれる領域の指定を前記利用者端末から取得する指定取得部をさらに備え、前記空間データ生成部は、取得された前記指定に係る領域において再撮影された前記撮影画像に基づいて前記空間を再認識する。 (13) The robot of the embodiment further includes a designation acquisition unit that acquires from the user terminal a designation of a region included in the provided visualization data, and the spatial data generation unit is configured to The space is re-recognized based on the photographed image re-photographed in the area.

(14)また、実施形態のロボットにおいて、前記移動における移動先の状態を示す状態情報を取得する状態情報取得部をさらに備え、前記移動制御部は、前記状態情報にさらに基づき前記移動を制御する。 (14) The robot of the embodiment further includes a state information acquisition unit that acquires state information indicating a state of a destination in the movement, and the movement control unit controls the movement further based on the state information. .

(15)また、実施形態のロボットにおいて、前記マーカの位置を記憶するマーカ情報記憶部と、第1イベントを検出する第1イベント検出部と、第2イベントを検出する第2イベント検出部と、アクションを実行するアクション実行部とをさらに備え、前記第1イベントが検出されると、前記マーカの前記位置の付近へ移動し、前記第2イベントが検出されると、前記マーカ、前記第1イベント及び前記第2イベントのうちの少なくとも1つに対応する前記アクションを実行する。 (15) Further, in the robot of the embodiment, a marker information storage section that stores the position of the marker, a first event detection section that detects the first event, and a second event detection section that detects the second event, and an action execution unit that executes an action, when the first event is detected, the marker is moved to the vicinity of the position of the marker, and when the second event is detected, the marker and the first event are moved to the vicinity of the position of the marker. and performing the action corresponding to at least one of the second events.

(16)上記の課題を解決するため、実施形態のロボット制御方法は、周囲の空間を撮影する撮影ステップと、前記撮影ステップにおいて撮影された撮影画像に含まれる所定のマーカを認識するマーカ認識ステップと、認識された前記マーカに基づき移動機構による移動を制御する移動制御ステップとを含む。 (16) In order to solve the above problems, the robot control method of the embodiment includes a photographing step of photographing the surrounding space, and a marker recognition step of recognizing a predetermined marker included in the photographed image photographed in the photographing step. and a movement control step of controlling movement by a movement mechanism based on the recognized marker.

(17)上記の課題を解決するため、実施形態のロボット制御プログラムは、コンピュータに、周囲の空間を撮影する撮影機能と、前記撮影機能において撮影された撮影画像に含まれる所定のマーカを認識するマーカ認識機能と、認識された前記マーカに基づき移動機構による移動を制御する移動制御機能とを実現させる。 (17) In order to solve the above-mentioned problem, the robot control program of the embodiment provides a computer with a photographing function for photographing the surrounding space and recognizing a predetermined marker included in a photographed image photographed in the photographing function. A marker recognition function and a movement control function for controlling movement by a movement mechanism based on the recognized marker are realized.

一つの実施形態によれば、利用者がロボットの移動を制御できる、ロボットおよびその制御方法、ならびにプログラムを提供することができる。 According to one embodiment, it is possible to provide a robot, a control method thereof, and a program that allow a user to control the movement of the robot.

実施形態1における自律行動型ロボットのソフトウェア構成の一例を示すブロック図である。1 is a block diagram showing an example of a software configuration of an autonomous robot in Embodiment 1. FIG. 実施形態1における自律行動型ロボットのハードウェア構成の一例を示すブロック図である。1 is a block diagram showing an example of a hardware configuration of an autonomous robot in Embodiment 1. FIG. 実施形態1における自律行動型ロボット制御プログラムの動作の一例を示すフローチャートである。2 is a flowchart illustrating an example of the operation of an autonomous robot control program in Embodiment 1. FIG. 実施形態1における自律行動型ロボット制御プログラムの動作の他の一例を示すフローチャートである。7 is a flowchart showing another example of the operation of the autonomous robot control program in Embodiment 1. FIG. 実施形態1における進入禁止ラインの設定方法を示す図である。FIG. 3 is a diagram showing a method of setting a no-entry line in the first embodiment. 実施形態1における利用者端末の表示の一例を示す図である。3 is a diagram showing an example of a display on a user terminal in Embodiment 1. FIG. 実施形態1における利用者端末の表示の一例を示す図である。3 is a diagram showing an example of a display on a user terminal in Embodiment 1. FIG. 実施形態2におけるロボットのモジュール構成の一例を示すブロック図である。3 is a block diagram showing an example of a module configuration of a robot in Embodiment 2. FIG. 実施形態2におけるデータ提供装置のモジュール構成の一例を示すブロック図である。FIG. 3 is a block diagram showing an example of a module configuration of a data providing device in Embodiment 2. FIG. 実施形態2におけるイベント情報記憶部のデータ構成の一例を示すブロック図である。7 is a block diagram illustrating an example of a data configuration of an event information storage unit in Embodiment 2. FIG. 実施形態2におけるマーカ情報記憶部のデータ構成の一例を示すブロック図である。7 is a block diagram illustrating an example of a data configuration of a marker information storage unit in Embodiment 2. FIG. 図12(A)は、実施形態2のマーカ登録フェーズにおける処理手順を示すフローチャートである。図12(B)は、実施形態2のアクションフェーズにおける処理手順を示すフローチャートである。FIG. 12(A) is a flowchart showing the processing procedure in the marker registration phase of the second embodiment. FIG. 12(B) is a flowchart showing the processing procedure in the action phase of the second embodiment. 図13(A)は、実施例1のマーカ登録フェーズにおける処理手順を示すフローチャートである。図13(B)は、実施例1のアクションフェーズにおける処理手順を示すフローチャートである。FIG. 13(A) is a flowchart showing the processing procedure in the marker registration phase of the first embodiment. FIG. 13(B) is a flowchart showing the processing procedure in the action phase of the first embodiment. 図14(A)は、実施例2のマーカ登録フェーズにおける処理手順を示すフローチャートである。図14(B)は、実施例2のアクションフェーズにおける処理手順を示すフローチャートである。FIG. 14(A) is a flowchart showing the processing procedure in the marker registration phase of the second embodiment. FIG. 14(B) is a flowchart showing the processing procedure in the action phase of the second embodiment. 図15(A)は、実施例3のマーカ登録フェーズにおける処理手順を示すフローチャートである。図15(B)は、実施例3のアクションフェーズにおける処理手順を示すフローチャートである。FIG. 15(A) is a flowchart showing the processing procedure in the marker registration phase of the third embodiment. FIG. 15(B) is a flowchart showing the processing procedure in the action phase of the third embodiment. 図16(A)は、実施例4のマーカ登録フェーズにおける処理手順を示すフローチャートである。図16(B)は、実施例4のアクションフェーズにおける処理手順を示すフローチャートである。FIG. 16(A) is a flowchart showing the processing procedure in the marker registration phase of the fourth embodiment. FIG. 16(B) is a flowchart showing the processing procedure in the action phase of the fourth embodiment. 図17(A)は、実施例5のマーカ登録フェーズにおける処理手順を示すフローチャートである。図17(B)は、実施例5のアクションフェーズにおける処理手順を示すフローチャートである。FIG. 17(A) is a flowchart showing the processing procedure in the marker registration phase of the fifth embodiment. FIG. 17(B) is a flowchart showing the processing procedure in the action phase of the fifth embodiment. 図18(A)は、実施例6のマーカ登録フェーズにおける処理手順を示すフローチャートである。図18(B)は、実施例6のアクションフェーズにおける処理手順を示すフローチャートである。FIG. 18(A) is a flowchart showing the processing procedure in the marker registration phase of the sixth embodiment. FIG. 18(B) is a flowchart showing the processing procedure in the action phase of the sixth embodiment.

以下、図面を参照して本発明の実施形態における自律行動型ロボット、データ提供装置およびデータ提供プログラムについて詳細に説明する。 DESCRIPTION OF THE PREFERRED EMBODIMENTS An autonomous robot, a data providing device, and a data providing program according to embodiments of the present invention will be described in detail below with reference to the drawings.

[実施形態1]
先ず、図1を用いて、自律行動型ロボット1のソフトウェア構成を説明する。図1は、実施形態における自律行動型ロボット1のソフトウェア構成の一例を示すブロック図である。
[Embodiment 1]
First, the software configuration of the autonomous robot 1 will be explained using FIG. 1. FIG. 1 is a block diagram showing an example of the software configuration of an autonomous robot 1 according to an embodiment.

図1において、自律行動型ロボット1は、データ提供装置10およびロボット2を有する。データ提供装置10とロボット2は通信にて接続されて、自律行動型ロボット1として機能する。ロボット2は、撮影部21、マーカ認識部22、移動制御部23、状態情報取得部24および移動機構29の各機能部を有する移動式ロボットである。データ提供装置10は、第1通信制御部11、点群データ生成部12、空間データ生成部13、可視化データ生成部14、撮影対象認識部15および第2通信制御部16の各機能部を有する。第1通信制御部11は、撮影画像取得部111、空間データ提供部112および指示部113の各機能部を有する。第2通信制御部16は、可視化データ提供部161、指定取得部162の各機能部を有する。本実施形態における自律行動型ロボット1のデータ提供装置10の上記各機能部は、データ提供装置10を制御するデータ提供プログラム(ソフトウェア)によって実現される機能モジュールであるものとして説明する。また、ロボット2の、マーカ認識部22、移動制御部23および状態情報取得部24の各機能部は、自律行動型ロボット1におけるロボット2を制御するプログラムによって実現される機能モジュールであるものとして説明する。 In FIG. 1, an autonomous robot 1 includes a data providing device 10 and a robot 2. The data providing device 10 and the robot 2 are connected through communication and function as an autonomous robot 1. The robot 2 is a mobile robot that includes a photographing section 21 , a marker recognition section 22 , a movement control section 23 , a state information acquisition section 24 , and a movement mechanism 29 . The data providing device 10 includes functional units such as a first communication control unit 11, a point cloud data generation unit 12, a spatial data generation unit 13, a visualization data generation unit 14, an imaging target recognition unit 15, and a second communication control unit 16. . The first communication control unit 11 includes a photographed image acquisition unit 111, a spatial data providing unit 112, and an instruction unit 113. The second communication control unit 16 includes functional units such as a visualization data providing unit 161 and a specification acquisition unit 162. The above-mentioned functional units of the data providing device 10 of the autonomous robot 1 in this embodiment will be described as functional modules realized by a data providing program (software) that controls the data providing device 10. Furthermore, each functional unit of the robot 2, including the marker recognition unit 22, movement control unit 23, and state information acquisition unit 24, will be described as a functional module realized by a program that controls the robot 2 in the autonomous robot 1. do.

データ提供装置10は、自律行動型ロボット1の機能の一部を実行することができる装置であって、例えば、ロボット2と物理的に近い場所に設置され、ロボット2と通信し、ロボット2の処理の負荷を分散させるエッジサーバである。なお、本実施形態において自律行動型ロボット1は、データ提供装置10とロボット2とにおいて構成される場合を説
明するが、データ提供装置10の機能は、ロボット2の機能に含まれるものであってもよい。また、ロボット2は、空間データに基づき移動可能なロボットであって、空間データに基づき移動範囲が定められるロボットの一態様である。データ提供装置10は、1つの筐体において構成されるものであっても、複数の筐体から構成されるものであってもよい。
The data providing device 10 is a device that can execute some of the functions of the autonomous robot 1, and is, for example, installed in a place physically close to the robot 2, communicates with the robot 2, and communicates with the robot 2. It is an edge server that distributes the processing load. In this embodiment, a case will be described in which the autonomous robot 1 is composed of a data providing device 10 and a robot 2, but the functions of the data providing device 10 are not included in the functions of the robot 2. Good too. Further, the robot 2 is a robot that can move based on spatial data, and is one aspect of the robot whose movement range is determined based on the spatial data. The data providing device 10 may be configured in one housing or may be configured in a plurality of housings.

第1通信制御部11は、ロボット2との通信機能を制御する。ロボット2との通信方式は任意であり、例えば、無線LAN(Local Area Network)、Bluetooth(登録商標)、または赤外線通信等の近距離無線通信、もしくは有線通信等を用いることができる。第1通信制御部11が有する、撮影画像取得部111、空間データ提供部112および指示部113の各機能は、第1通信制御部11において制御される通信機能を用いてロボット2と通信する。 The first communication control unit 11 controls communication functions with the robot 2. The communication method with the robot 2 is arbitrary, and for example, wireless LAN (Local Area Network), Bluetooth (registered trademark), short-range wireless communication such as infrared communication, or wired communication can be used. Each function of the photographed image acquisition section 111, the spatial data providing section 112, and the instruction section 113 that the first communication control section 11 has communicates with the robot 2 using the communication function controlled by the first communication control section 11.

撮影画像取得部111は、ロボット2の撮影部21により撮影された撮影画像を取得する。撮影部21は、ロボット2に設けられて、ロボット2の移動に伴い撮影範囲を変更することができる。ここで、ロボット2の撮影部21、マーカ認識部22、移動制御部23、状態情報取得部24および移動機構29について説明する。 The photographed image acquisition section 111 acquires a photographed image photographed by the photographing section 21 of the robot 2 . The photographing unit 21 is provided on the robot 2 and can change the photographing range as the robot 2 moves. Here, the photographing section 21, marker recognition section 22, movement control section 23, state information acquisition section 24, and movement mechanism 29 of the robot 2 will be explained.

撮影部21は、1台または複数台のカメラで構成することができる。例えば、撮影部21が2台のカメラで構成されるステレオカメラである場合、撮影部21は撮影対象である空間要素を異なる撮影角度から立体的に撮影することが可能となる。撮影部21は、例えば、CCD(Charge-Coupled Device)センサまたはCMOS(Complementary Metal Oxide Semiconductor)センサ等の撮像素子を用いたビデオカメラである。2台のカメラ(ステレオカメラ)で空間要素を撮影することにより、空間要素の形状を測定することができる。また、撮影部21は、ToF(Time of Flight)技術を用いたカメラであってもよい。ToFカメラにおいては、変調された赤外光を空間要素に照射して、空間要素までの距離を測定することにより、空間要素の形状を測定することができる。また、撮影部21は、ストラクチャードライトを用いるカメラであってもよい。ストラクチャードライトは、ストライプ、または格子状のパターンの光を空間要素に投影するライトである。撮影部21は、ストラクチャードライトと別角度から空間要素を撮影することにより、投影されたパターンの歪みから空間要素の形状を測定することができる。撮影部21は、これらのカメラのいずれか1つ、または2つ以上の組合せであってもよい。 The photographing unit 21 can be composed of one or more cameras. For example, when the photographing unit 21 is a stereo camera composed of two cameras, the photographing unit 21 can three-dimensionally photograph the spatial element to be photographed from different photographing angles. The photographing unit 21 is, for example, a video camera using an imaging device such as a CCD (Charge-Coupled Device) sensor or a CMOS (Complementary Metal Oxide Semiconductor) sensor. By photographing a spatial element with two cameras (stereo cameras), the shape of the spatial element can be measured. Furthermore, the photographing unit 21 may be a camera using ToF (Time of Flight) technology. In a ToF camera, the shape of a spatial element can be measured by irradiating the spatial element with modulated infrared light and measuring the distance to the spatial element. Further, the photographing unit 21 may be a camera using structured light. Structured lights are lights that project a striped or grid-like pattern of light onto a spatial element. The imaging unit 21 can measure the shape of the spatial element from the distortion of the projected pattern by photographing the spatial element from a different angle from the structured light. The photographing unit 21 may be any one of these cameras or a combination of two or more of these cameras.

また、撮影部21は、ロボット2に取付けられてロボット2の移動に合わせて移動するものである。しかし、撮影部21は、ロボット2とは分離して設置されるものであってもよい。 Further, the imaging unit 21 is attached to the robot 2 and moves in accordance with the movement of the robot 2. However, the imaging unit 21 may be installed separately from the robot 2.

撮影部21で撮影された撮影画像は、第1通信制御部11に対応する通信方式において撮影画像取得部111に対して提供される。撮影された撮影画像は、ロボット2の記憶部に一時的に記憶されて、撮影画像取得部111は、リアルタイムにまたは所定の通信間隔で一時記憶された撮影画像を取得する。 The photographed image photographed by the photographing section 21 is provided to the photographed image acquisition section 111 using a communication method compatible with the first communication control section 11 . The captured images are temporarily stored in the storage unit of the robot 2, and the captured image acquisition unit 111 acquires the temporarily stored captured images in real time or at predetermined communication intervals.

マーカ認識部22は、撮影部21において撮影された撮影画像に含まれる所定のマーカを認識する。マーカとは、ロボット2の移動の制限を示す空間要素である。マーカは、撮影画像から認識可能な物品の形状、模様若しくは色彩若しくは物品に付された文字若しくは図形又はこれらの結合である。利用者がロボット2の移動を制限する位置にマーカを設置することにより、ロボット2が撮影部21で空間を撮影したときに、家具等とともに撮影される。マーカは、平面的な物品であっても立体的な物品であってもよい。マーカは、例えば、2次元コードまたは特定の色の組合せもしくは形状が印刷されたシールまたは用
紙等である。また、マーカは特定の色や形状の置物または敷物等であってもよい。このように、印刷物や身の回りにある物をマーカとして利用することにより、利用者はマーカの電源を確保したり、設置場所を確保したりする必要がない。また、部屋の雰囲気を損なうこと無く、利用者の意思でロボットの移動を制限できる。また、利用者もマーカを視認できるので、移動制限範囲を直観的に把握でき、制限範囲の変更も容易にできる。マーカは利用者によって、例えば壁や家具に貼付され、または床に載置されることにより設置される。マーカ認識部17は、撮影画像に含まれるマーカの画像を認識することにより、ロボット2の移動が制限されることを認識することができる。
The marker recognition unit 22 recognizes a predetermined marker included in the photographed image taken by the photographing unit 21. A marker is a spatial element that indicates a restriction on movement of the robot 2. A marker is a shape, pattern, or color of an article that can be recognized from a photographed image, a character or figure attached to an article, or a combination thereof. By placing a marker at a position where the user restricts the movement of the robot 2, when the robot 2 photographs the space with the photographing unit 21, the robot 2 is photographed together with furniture and the like. The marker may be a flat article or a three-dimensional article. The marker is, for example, a sticker or paper on which a two-dimensional code or a specific color combination or shape is printed. Further, the marker may be an ornament or a rug of a specific color or shape. In this way, by using printed matter or objects around us as markers, the user does not need to secure a power source for the marker or secure a place to install it. Furthermore, the movement of the robot can be restricted at the user's will without spoiling the atmosphere of the room. Furthermore, since the user can visually recognize the marker, the user can intuitively understand the movement restriction range and can easily change the movement restriction range. The marker is installed by the user, for example, by pasting it on a wall or furniture, or placing it on the floor. The marker recognition unit 17 can recognize that the movement of the robot 2 is restricted by recognizing the marker image included in the photographed image.

ここで、マーカが平面的である場合、壁や家具への貼付等が可能となるため、省スペースでの設置が可能となる。マーカが平面的である場合、マーカの平面を水平方向から撮影すると(撮影角度が小さいとき)、撮影画像におけるマーカが歪んでしまうため認識が難くなる。一方、マーカの平面を垂直方向から撮影すると(撮影角度が大きいとき)、マーカを認識しやすくなる。したがって、例えばマーカを廊下に貼付した場合、マーカから遠い位置では撮影角度が小さいためロボット2にマーカを認識させないようにすることができる。ロボットが廊下を移動してマーカに近付くと撮影角度が大きくなるため、マーカが認識される。このため、平面的なマーカにおいては、マーカの設置位置(後述)とロボットがマーカを認識できる位置を近づけることが可能となるため、マーカの設置位置をロボットが正確に把握することが可能となる。また、マーカが立体的である場合、部屋の中央等への設置が容易となる。マーカが立体的である場合、マーカは様々な撮影角度から認識可能になる。したがって、立体的なマーカを設置することにより、マーカの設置位置から遠い位置にあるロボット2にマーカを認識させることが可能となる。 Here, if the marker is flat, it can be attached to a wall or furniture, so it can be installed in a space-saving manner. If the marker is planar, if the plane of the marker is photographed from the horizontal direction (when the photographing angle is small), the marker in the photographed image will be distorted, making recognition difficult. On the other hand, if the plane of the marker is photographed from the vertical direction (when the photographing angle is large), the marker becomes easier to recognize. Therefore, for example, when a marker is pasted in a hallway, the robot 2 can be prevented from recognizing the marker because the photographing angle is small at a position far from the marker. As the robot moves along the hallway and approaches the marker, the imaging angle increases, allowing the marker to be recognized. For this reason, with flat markers, it is possible to bring the marker installation position (described later) closer to the position where the robot can recognize the marker, allowing the robot to accurately grasp the marker installation position. . Furthermore, if the marker is three-dimensional, it can be easily installed in the center of a room. When the marker is three-dimensional, the marker can be recognized from various photographing angles. Therefore, by installing a three-dimensional marker, it is possible to make the robot 2 located far from the marker installation position recognize the marker.

マーカ認識部22は、マーカの視覚的な特徴を予め記憶しておく。例えば、マーカ認識部22は、マーカとして認識すべき2次元コードや立体物を予め記憶しておく。マーカ認識部22は、利用者によって予め登録された物をマーカとして認識するようにしてもよい。例えば、利用者が利用者端末3のカメラで撮影した植木鉢をマーカとして登録した場合、廊下等に設置された植木鉢をマーカとして認識することができる。したがって、利用者はマーカを設置する場所において違和感が無い物をマーカとして設置することが可能となる。なお、マーカ認識部22は、物以外の空間要素をマーカとして認識するようにしてもよい。例えば、マーカ認識部22は、利用者が腕を体の正面でクロスさせる等の利用者のジェスチャーをマーカとして認識するようにしてもよい。マーカ認識部22は、利用者がジェスチャーをした位置をマーカの設置位置として認識する。 The marker recognition unit 22 stores the visual characteristics of markers in advance. For example, the marker recognition unit 22 stores in advance two-dimensional codes and three-dimensional objects to be recognized as markers. The marker recognition unit 22 may recognize an object registered in advance by the user as a marker. For example, if a user registers a flower pot photographed with the camera of the user terminal 3 as a marker, a flower pot installed in a hallway or the like can be recognized as a marker. Therefore, the user can install an object as a marker that does not feel strange in the place where the marker is installed. Note that the marker recognition unit 22 may recognize spatial elements other than objects as markers. For example, the marker recognition unit 22 may recognize a user's gesture, such as a user crossing his arms in front of his body, as a marker. The marker recognition unit 22 recognizes the position where the user made the gesture as the marker installation position.

マーカ認識部22は、マーカが貼付されまたは設置等された位置(以下、「設置位置」という。)を認識する。設置位置とは、空間データにおけるマーカが設置された空間の中の位置である。設置位置は、例えば、ロボット2が認識している空間データに基づき、ロボット2の現在位置と撮影されたマーカとの距離において認識することができる。例えば、マーカの大きさが予め分かっている場合、マーカ認識部22は、撮影画像に含まれるマーカ画像の大きさから、ロボット2とマーカの距離を算出し、ロボット2の現在位置と撮影方向(例えば、図示しない方位計による方位)に基づき、マーカの設置位置を認識することができる。また、設置位置は空間における位置が既に分かっている空間要素からマーカまでの相対的な位置から認識するようにしてもよい。例えば、ドアの位置が既に分かっている場合、マーカ認識部22は、マーカとドアの相対的な位置から設置位置を認識するようにしてもよい。また、撮影画像がデプスカメラにおいて撮影されたものである場合、設置位置はデプスカメラで撮影されたマーカの撮影深度に基づき認識することが可能となる。 The marker recognition unit 22 recognizes a position where a marker is attached or installed (hereinafter referred to as "installation position"). The installation position is the position in the space where the marker in the spatial data is installed. The installation position can be recognized, for example, based on spatial data recognized by the robot 2, based on the distance between the current position of the robot 2 and the photographed marker. For example, if the size of the marker is known in advance, the marker recognition unit 22 calculates the distance between the robot 2 and the marker from the size of the marker image included in the photographed image, and calculates the distance between the robot 2's current position and the photographing direction ( For example, the installation position of the marker can be recognized based on the direction determined by a compass (not shown). Furthermore, the installation position may be recognized from the relative position of the marker from a spatial element whose position in space is already known. For example, if the position of the door is already known, the marker recognition unit 22 may recognize the installation position from the relative position of the marker and the door. Further, if the photographed image is taken with a depth camera, the installation position can be recognized based on the photographing depth of the marker photographed with the depth camera.

また、マーカ認識部22は、撮影画像に含まれる複数のマーカを認識するようにしてもよい。例えば、移動を制限する範囲を直線で設定したい場合、利用者は第1マーカと第2
マーカからなる、2つのマーカの対(ペア)で構成されるマーカを設置することができる。マーカ認識部22は、第1マーカの設置位置(始点)と第2マーカの設置位置(終点)を認識することにより、始点と終点を結ぶ線分(直線又は曲線)の位置を認識してもよい。マーカ認識部22は、第1マーカと第2マーカの位置を空間データにマッピングすることにより空間データにおける線分の位置を認識することができる。利用者は、マーカを所定の位置に設置等することにより、移動を制限する線分を簡単に設定することが可能となる。マーカの設置は3つ以上を可能としてもよい。例えば、マーカが3つ以上であった場合、マーカ認識部22は、それぞれのマーカの設置位置に基づき、折れ線または多角形(エリア)を認識することができる。
Further, the marker recognition unit 22 may recognize a plurality of markers included in the photographed image. For example, if the user wants to set the range in which movement is restricted as a straight line, the user can set the first marker and the second marker.
A marker consisting of a pair of two markers can be installed. By recognizing the installation position (starting point) of the first marker and the installation position (end point) of the second marker, the marker recognition unit 22 can recognize the position of the line segment (straight line or curved line) connecting the starting point and the ending point. good. The marker recognition unit 22 can recognize the position of a line segment in the spatial data by mapping the positions of the first marker and the second marker to the spatial data. By placing a marker at a predetermined position, the user can easily set a line segment that restricts movement. Three or more markers may be installed. For example, when there are three or more markers, the marker recognition unit 22 can recognize a polygonal line or a polygon (area) based on the installation position of each marker.

移動制御部23は、マーカ認識部22において認識されたマーカの設置位置に基づき移動を制限する。移動制御部23は、認識されたマーカの設置位置に応じて移動を制限する制限範囲を設定する、制限範囲設定部231を有する。移動制御部23は、制限範囲設定部231に設定された制限範囲に対するロボット2の移動を制限する。マーカの設置位置とは、1つまたは複数のマーカの設置位置に基づき設定される点、線、面または空間である。制限範囲設定部231は、マーカの設置位置を、例えば、空間データにおける座標データとして認識することにより、制限範囲を設定することができる。制限範囲設定部231は、設置位置に基づく制限範囲を設定し、制限範囲における移動を制限してもよい。例えば、制限範囲設定部231は、1つのマーカの設置位置に基づき、廊下等の空間要素を区切る線分、またはマーカを中心とした空間における円もしくは球体のエリアを、移動を制限する制限範囲として設定することができる。つまり、制限範囲設定部231は、矩形、円、直線などの幾何学的に決められる範囲をマーカの設置位置に基づいて空間に配置することで制限範囲を設定する。例えば、円状に範囲を設定するのであれば、制限範囲設定部231はマーカの設置位置を中心とし、所定の半径の円状の範囲を制限範囲としてもよい。また、矩形状に範囲を設定するのであれば、制限範囲設定部231はマーカの設置位置を矩形の一辺の中央になるように配置することで矩形状の制限範囲を決めてもよい。制限範囲は、例えば、マーカから1~3m程度であり、マーカ認識部22がマーカを認識できる範囲より狭い範囲である。制限範囲は、マーカ毎に予め決められていてもよいし、後述のアプリケーションを利用することで利用者が任意に調整できてもよい。 The movement control unit 23 limits movement based on the marker installation position recognized by the marker recognition unit 22. The movement control unit 23 includes a restriction range setting unit 231 that sets a restriction range for restricting movement according to the recognized installation position of the marker. The movement control section 23 limits the movement of the robot 2 within the limit range set in the limit range setting section 231 . The marker installation position is a point, line, plane, or space that is set based on the installation position of one or more markers. The restricted range setting unit 231 can set the restricted range by recognizing the marker installation position as, for example, coordinate data in spatial data. The restricted range setting unit 231 may set a restricted range based on the installation position and restrict movement within the restricted range. For example, based on the installation position of one marker, the restriction range setting unit 231 sets a line segment that separates spatial elements such as a corridor, or a circular or spherical area in a space centered on the marker as a restriction range that restricts movement. Can be set. That is, the limit range setting unit 231 sets the limit range by arranging a geometrically determined range such as a rectangle, circle, or straight line in space based on the installation position of the marker. For example, if the range is set in a circular shape, the limit range setting unit 231 may set the limit range to be a circular range with a predetermined radius centered on the marker installation position. Further, if the range is set in a rectangular shape, the limit range setting unit 231 may determine the rectangular limit range by arranging the marker installation position at the center of one side of the rectangle. The restricted range is, for example, about 1 to 3 meters from the marker, which is narrower than the range in which the marker recognition unit 22 can recognize the marker. The restriction range may be predetermined for each marker, or may be arbitrarily adjusted by the user using an application to be described later.

また、制限範囲設定部231は、複数のマーカによって設定される線、面または空間を制限範囲として設定してもよい。例えば、制限範囲設定部231は、マーカ認識部22がマーカを認識したときのロボット2の位置を基準として、マーカの設置位置より奥側、又は設置位置の周囲における所定の範囲を制限範囲として設定してもよい。制限範囲設定部231が線状に制限範囲を設定した場合、移動制御部23はその線を越えないようにロボット2の移動を制限する。このように、制限範囲設定部231は、マーカの設置位置を基準として予め定められたルールに基づいて制限範囲を設定してもよい。 Further, the limit range setting unit 231 may set a line, plane, or space set by a plurality of markers as a limit range. For example, the limit range setting unit 231 sets a predetermined range behind or around the marker installation position as the limit range based on the position of the robot 2 when the marker recognition unit 22 recognizes the marker. You may. When the limit range setting section 231 sets a linear limit range, the movement control section 23 limits the movement of the robot 2 so as not to exceed the line. In this way, the restricted range setting unit 231 may set the restricted range based on a predetermined rule with the marker installation position as a reference.

また、制限範囲設定部231は、マーカ周辺の空間的な特徴を認識し、空間的な特徴に応じて制限範囲を設定してもよい。言い換えれば、制限範囲設定部231は、間取りを認識し、間取りに応じて制限範囲を設定してもよい。例えば、制限範囲設定部231は、マーカが通路の入口周辺(所定範囲内)にあれば、その通路を制限範囲として設定するようにしてもよい。また、制限範囲設定部231は、部屋の中央(壁から所定距離離れている)にマーカが配置されている場合は、そのマーカを中心とする円形状の範囲を制限範囲として設定してもよい。また、制限範囲設定部231は、マーカが壁に貼り付けられており、周辺にドアがなければ、壁から所定範囲を制限範囲として設定してもよい。 Further, the restricted range setting unit 231 may recognize the spatial characteristics around the marker and set the restricted range according to the spatial characteristics. In other words, the limit range setting unit 231 may recognize the floor plan and set the limit range according to the floor plan. For example, if the marker is located around the entrance of a passage (within a predetermined range), the restriction range setting unit 231 may set the passage as the restriction range. Furthermore, if a marker is placed in the center of the room (at a predetermined distance from the wall), the restriction range setting unit 231 may set a circular range centered on the marker as the restriction range. . Furthermore, if a marker is attached to a wall and there are no doors nearby, the restriction range setting unit 231 may set a predetermined range from the wall as the restriction range.

マーカには種類が設定されてもよい。例えば、マーカが視認できるときだけ移動を制限するマーカ(「一時マーカ」という)と、マーカの位置を記憶し、マーカが視認できなくても恒久的に移動を制限するマーカ(「恒久マーカ」という)とをマーカの種類として設
定する。恒久マーカを視認した場合、ロボット2は、マーカの位置を記憶部(図示せず)に記憶して、マーカがその場所から無くなった場合でも、記憶したマーカの位置に基づいて移動が制限される。また、一時マーカを視認した場合、ロボット2は、一時マーカの位置を記憶しないため、一時マーカが撤去されれば制限範囲は解除される。
A type may be set for the marker. For example, there are markers that restrict movement only when the marker is visible (referred to as "temporary markers"), and markers that memorize the marker's position and permanently restrict movement even when the marker is not visible (referred to as "permanent markers"). ) as the marker type. When the permanent marker is visually recognized, the robot 2 stores the marker's position in a storage unit (not shown), and even if the marker disappears from that location, its movement is restricted based on the memorized marker position. . Further, when the temporary marker is visually recognized, the robot 2 does not memorize the position of the temporary marker, so if the temporary marker is removed, the restricted range is canceled.

マーカ認識部22は、設定されたマーカの種類を認識する。マーカの種類は、例えば、マーカの形状、模様、色彩、文字若しくは図形又はこれらの結合によって予め区分されるようにしておくことができる。また、マーカの種類は、マーカの設置個数、またはマーカの設置方法(例えば、マーカの上下方向を変えた設置)等において区分されてもよい。マーカが2次元コードを含む場合、2次元コードの情報にマーカの種類を特定する情報が書き込まれる。この場合、マーカ認識部22は、2次元コードを読み込むことで、一時マーカか恒久マーカかを特定できる。また、2次元コードに、マーカを特定する識別情報(「マーカ識別情報」という)が書き込まれてもよい。この場合、マーカ認識部22は、2次元コードからマーカ識別情報を読み込み、予め用意されたテーブルを参照して、マーカ識別情報に対応付けられたマーカの種類を特定する。 The marker recognition unit 22 recognizes the type of marker that has been set. The types of markers can be classified in advance by, for example, the shape, pattern, color, text or figure of the marker, or a combination thereof. Further, the types of markers may be classified based on the number of markers installed, the method of installing the markers (for example, installing the markers in different vertical directions), or the like. When the marker includes a two-dimensional code, information specifying the type of marker is written in the two-dimensional code information. In this case, the marker recognition unit 22 can identify whether the marker is a temporary marker or a permanent marker by reading the two-dimensional code. Further, identification information that identifies the marker (referred to as "marker identification information") may be written in the two-dimensional code. In this case, the marker recognition unit 22 reads the marker identification information from the two-dimensional code, refers to a table prepared in advance, and identifies the type of marker associated with the marker identification information.

すなわち、マーカ認識部22は、2次元コードのようにマーカ自体に付帯する情報が含まれている場合にマーカ自体から付帯する情報を読み込むように構成されてもよい。また、マーカ認識部22は、マーカからマーカ識別情報を読み込み、マーカ識別情報をキーとしてテーブルを参照することにより付帯する情報を読み込むように構成されてもよい。本実施の形態では、マーカ認識部22は、マーカ識別情報に対応付けて、マーカの付帯情報を保持するマーカ情報格納部(図示せず)を有し、マーカ情報格納部を参照することでマーカ毎の付帯情報を取得できるように構成される場合を例示している。マーカ認識部22は、マーカ識別情報を2次元コードから読み込んでもよいし、一般的な物体認識によりマーカを特定することで、マーカ識別情報を取得してもよい。 That is, the marker recognition unit 22 may be configured to read the attached information from the marker itself when the marker itself includes information like a two-dimensional code. Further, the marker recognition unit 22 may be configured to read marker identification information from a marker, and read accompanying information by referring to a table using the marker identification information as a key. In the present embodiment, the marker recognition unit 22 has a marker information storage unit (not shown) that holds additional information of the marker in association with marker identification information, and can identify the marker by referring to the marker information storage unit. This example shows a case where the configuration is such that additional information can be acquired for each item. The marker recognition unit 22 may read the marker identification information from a two-dimensional code, or may acquire the marker identification information by identifying the marker using general object recognition.

このように、マーカに付帯する情報を管理できるよう構成することで、単にマーカの周囲に制限範囲を設定し、ロボット2の移動を制限するだけでなく、利用者の希望に応じて様々な条件でロボット2の行動を制限(「行動制限」という。)することができる。例えば、浴室を使う時間帯にロボット2を脱衣所に進入させたくない場合に、マーカに進入禁止の時間帯を関連付けておく。また、キッチンを使っているときにロボット2をキッチンに進入させたくないのであれば、人がいる場合(人を検出した場合)は進入を禁止する条件をマーカに関連付けておく。また、ロボットの進入を禁止するのではなく、進入を許可する場合であっても、制限範囲内では行動を抑制し静かにしなければならない、音を発してはならない、または、ゆっくり走行しなければならない等のロボットの行動を制限する指示を付帯情報として関連付けてもよい。つまり、付帯情報には、マーカの種類を特定する情報、または制限範囲におけるロボットの振る舞いを規定する情報を含めるようにしてもよい。振る舞いを規定する情報は、ロボットの行動を制限するための情報であり、制限範囲内での移動を禁止するのであれば、禁止することの他に、禁止の時間帯を指定する情報等が含まれてもよい。付帯する情報には、制限範囲内での移動を条件付きで許可するのであれば、許可することの他に、その条件を指定する情報(「行動条件」という。)などが含まれてもよい。 In this way, by configuring the information attached to the marker to be manageable, it is possible to not only set a restricted range around the marker and restrict the movement of the robot 2, but also to set various conditions according to the user's wishes. The actions of the robot 2 can be restricted (referred to as "action restrictions"). For example, if you do not want the robot 2 to enter the changing room during times when the bathroom is used, a time period during which entry is prohibited is associated with the marker. Furthermore, if you do not want the robot 2 to enter the kitchen while the kitchen is being used, a condition that prohibits the robot 2 from entering if there is a person (if a person is detected) is associated with the marker. In addition, even if robots are allowed to enter rather than prohibited, they must restrain their actions and be quiet within the restricted range, must not make noise, or must drive slowly. Instructions to restrict the robot's behavior, such as not to do so, may be associated as additional information. That is, the supplementary information may include information specifying the type of marker or information specifying the behavior of the robot within the restricted range. Information regulating behavior is information for restricting the robot's actions, and if movement within the restricted range is prohibited, it also includes information specifying the prohibited time period, etc. You may be If movement within the restricted range is conditionally permitted, the accompanying information may include information specifying the conditions (referred to as "behavior conditions") in addition to permission. .

移動制御部23は、マーカ認識部22においてマーカが認識されなかった場合、記憶された設置位置に基づき移動を制限してもよい。例えば、マーカによるコマンドが恒久的な制限を設定する恒久的なマーカを設定するものである場合、移動制御部23は、マーカが撤去されて撮影画像から認識できない場合であってもマーカに基づく移動を恒久的に制限する。なお、制限範囲設定部231において設定されたマーカは、例えば、利用者端末3からの指示により消去、位置の変更またはコマンドの変更等のマーカを編集できるようにしてもよい。例えば、利用者端末3は、マーカを編集することができる不図示のアプリケ
ションプログラム(以下、「アプリ」という。)を有するものであってもよい。例えば、アプリは、上述した利用者端末3の表示画面にマーカを選択可能に表示して、利用者が選択したマーカを編集するようにしてもよい。また、アプリは、マーカが一時マーカである場合、マーカを恒久マーカに変更できるようにしてもよい。これにより、利用者は、設置された一時マーカを撤去することにより制限範囲を解除することができるとともに、アプリで一時マーカを恒久マーカに変更することにより、設置されたマーカを撤去した後においても制限範囲を維持させることが可能となる。なお、アプリは、上述した利用者端末3のカメラで撮影した空間要素をマーカとして登録する登録機能を有していてもよい。また、アプリは、制限範囲の調整、または上述した行動制限の内容を設定もしくは変更する機能を有していてもよい。アプリは、ロボット2が有するマーカ情報格納部に接続し、マーカ毎の行動制限や行動条件を参照し、更新する機能を有してもよい。
If the marker recognition unit 22 does not recognize the marker, the movement control unit 23 may restrict movement based on the stored installation position. For example, if the marker command is to set a permanent marker that sets a permanent limit, the movement control unit 23 will control the movement based on the marker even if the marker has been removed and cannot be recognized from the captured image. be permanently restricted. Note that the marker set in the restricted range setting unit 231 may be edited such as deletion, position change, or command change based on an instruction from the user terminal 3, for example. For example, the user terminal 3 may include an unillustrated application program (hereinafter referred to as "application") that can edit markers. For example, the application may display markers in a selectable manner on the display screen of the user terminal 3 described above, and allow the user to edit the selected marker. Additionally, if the marker is a temporary marker, the app may allow the marker to be changed to a permanent marker. As a result, the user can remove the restricted range by removing the installed temporary marker, and by changing the temporary marker to a permanent marker in the app, even after the installed marker is removed. It becomes possible to maintain the restricted range. Note that the application may have a registration function that registers a spatial element photographed by the camera of the user terminal 3 described above as a marker. Further, the application may have a function of adjusting the restriction range or setting or changing the content of the above-mentioned action restriction. The application may have a function of connecting to the marker information storage section of the robot 2, and referring to and updating the action restrictions and action conditions for each marker.

なお、マーカにより設定されるロボット2の移動の制限は、後述する状態情報による制限範囲の設定と併存させることができる。例えば、廊下への進入禁止エリアの設定をマーカの設置によって行うことができるとともに、脱衣所への立ち入り禁止を状態情報によって行うことができるようにしてもよい。また、移動が制限されるエリアの設定をマーカで行うとともに、状態情報によって当該エリアにおける制限の内容(例えば、進入が制限される時間等の条件)を設定できるようにしてもよい。 Note that the restriction on the movement of the robot 2 set by the marker can coexist with the setting of a restriction range based on state information, which will be described later. For example, an area where entry to a hallway is prohibited may be set by installing a marker, and entry to a dressing room may be prohibited based on status information. In addition, it may be possible to set an area where movement is restricted using a marker, and to set the content of restrictions in the area (for example, conditions such as time during which entry is restricted) using status information.

状態情報取得部24は、移動における移動先の状態を示す状態情報を取得する。状態情報とは、ロボット2が検出した移動先の状態に応じてロボット2の移動を制限するための情報である。移動先の状態とは、例えば、移動範囲に係る、人の有無、ペットの有無、部屋の温度もしくは湿度、ドアの施錠状態、または照明の点灯状態等であり、時間、曜日、天候等の状態を含んでいてもよい。状態情報は、例えば、移動範囲に人を検知したときに、そのエリア(範囲)における移動速度を制限するための情報である。また、状態情報は、所定の曜日または時間において、そのエリアにおける進入を禁止し、ドアが施錠されているときにそのドアを通過する移動を禁止し、または照明が点灯されているエリアにおいて撮影を禁止するものであってよい。状態情報は、空間データと併せて提供することができる。 The status information acquisition unit 24 acquires status information indicating the status of a destination during movement. The state information is information for restricting the movement of the robot 2 according to the state of the destination detected by the robot 2. The state of the destination includes, for example, the presence or absence of people, the presence or absence of pets, the temperature or humidity of the room, the locked state of the door, the lighting state of the lights, etc., and the state of the time, day of the week, weather, etc. May contain. The status information is, for example, information for restricting the movement speed in the area (range) when a person is detected in the movement area. Status information may also prohibit entry into an area, prohibit movement through a door when it is locked, or prohibit photography in an area where the lights are on, on a given day or time. It may be prohibited. Status information can be provided in conjunction with spatial data.

再び、データ提供装置10について説明する。空間データ提供部112は、ロボット2に対して空間データ生成部13において生成された空間データを提供する。空間データは、ロボット2が存在している空間において、ロボットが認識している空間要素をデータ化したものである。ロボット2は、空間データに定められた範囲内において移動することができる。すなわち、空間データはロボット2において移動可能範囲を定めるための地図として機能する。ロボット2は、空間データ提供部112から空間データを提供される。例えば、空間データには、ロボット2が移動できない壁、家具、電化製品、段差等の空間要素の位置データを含めることができる。ロボット2は、提供された空間データに基づき、自身が移動できる場所か否かの判断をすることができる。また、ロボット2は、空間データの中に未生成の範囲が含まれるか否かを認識できるようにしてもよい。未生成の範囲が含まれるか否かは、例えば、空間データの一部に空間要素がない空間が含まれているか否かで判断することができる。 The data providing device 10 will be explained again. The spatial data providing section 112 provides the robot 2 with the spatial data generated by the spatial data generating section 13 . The spatial data is data of spatial elements recognized by the robot 2 in the space where the robot 2 exists. The robot 2 can move within the range defined by the spatial data. That is, the spatial data functions as a map for determining the movable range of the robot 2. The robot 2 is provided with spatial data from the spatial data providing section 112. For example, the spatial data can include positional data of spatial elements such as walls, furniture, electrical appliances, and steps that the robot 2 cannot move. Based on the provided spatial data, the robot 2 can determine whether or not the location is a place to which it can move. Further, the robot 2 may be configured to be able to recognize whether or not the spatial data includes an ungenerated range. Whether or not an ungenerated range is included can be determined by, for example, whether a part of the spatial data includes a space without a spatial element.

指示部113は、ロボット2に対して、空間データ生成部13において生成された空間データに基づく撮影を指示する。空間データ生成部13は、撮影画像取得部111において取得された撮影画像に基づき空間データを作成するため、例えば、室内の空間データを作成する場合、撮影されていない部分については空間データが未作成の部分を含む場合がある。また、撮影画像が不鮮明等であると、作成された空間データにノイズが含まれてしまい空間データに不正確な部分が含まれてしまう場合がある。指示部113は、空間データに未生成の部分がある場合、未生成の部分についての撮影指示をするようにしてもよい
。また、指示部113は、空間データが不正確な部分が含まれている場合、不正確な部分についての撮影指示をするようにしてもよい。指示部113は、空間データに基づき、自発的に撮影を指示してもよい。なお、指示部113は、空間データに基づき生成された可視化データ(後述)を確認した利用者からの明示的な指示に基づき、撮影を指示してもよい。利用者は、可視化データに含まれる領域を指定して、ロボット2に対して、撮影を指示することにより、空間を認識して空間データを生成させることができる。
The instruction unit 113 instructs the robot 2 to take an image based on the spatial data generated by the spatial data generation unit 13. Since the spatial data generation unit 13 creates spatial data based on the captured image acquired by the captured image acquisition unit 111, for example, when creating indoor spatial data, spatial data is not created for areas that are not photographed. It may include parts of Furthermore, if the photographed image is unclear, noise may be included in the created spatial data, and the spatial data may include inaccurate portions. If there is an ungenerated portion in the spatial data, the instruction unit 113 may issue an instruction to photograph the ungenerated portion. Further, when the spatial data includes an inaccurate portion, the instruction unit 113 may issue an instruction to photograph the inaccurate portion. The instruction unit 113 may spontaneously instruct photography based on the spatial data. Note that the instruction unit 113 may instruct photography based on an explicit instruction from a user who has confirmed visualization data (described later) generated based on spatial data. The user can recognize the space and generate spatial data by specifying an area included in the visualization data and instructing the robot 2 to take a picture.

点群データ生成部12は、撮影画像取得部111において取得された撮影画像に基づき空間要素の三次元の点群データを生成する。点群データ生成部12は、撮影画像に含まれる空間要素を所定の空間における三次元の点の集合に変換して点群データを生成する。空間要素は、上述のように、部屋の壁、段差、扉、部屋に置いてある家具、家電、荷物、観葉植物等である。点群データ生成部12は、空間要素の撮影画像に基づき点群データを生成するため、点群データは撮影された空間要素の表面の形状を表すことになる。撮影画像は、ロボット2の撮影部21が、所定の撮影位置において所定の撮影角度で撮影することにより生成される。したがって、ロボット2が正面の位置から家具等の空間要素を撮影した場合、撮影されていない家具の裏側等の形状については点群データを生成することができず、家具の裏側にロボット2が移動可能な空間があったとしても、ロボット2はそれを認識することができない。一方、ロボット2が移動して側面の撮影位置から家具を撮影すると、家具等の空間要素の裏側の形状について点群データを生成することができるので、空間を正しく把握することが可能となる。 The point cloud data generation unit 12 generates three-dimensional point cloud data of a spatial element based on the captured image acquired by the captured image acquisition unit 111. The point cloud data generation unit 12 generates point cloud data by converting spatial elements included in a photographed image into a set of three-dimensional points in a predetermined space. As mentioned above, the spatial elements include the walls of the room, steps, doors, furniture placed in the room, home appliances, luggage, foliage plants, etc. Since the point cloud data generation unit 12 generates point cloud data based on the photographed image of the spatial element, the point cloud data represents the shape of the surface of the photographed spatial element. The photographed image is generated by the photographing unit 21 of the robot 2 photographing at a predetermined photographing position and at a predetermined photographing angle. Therefore, when the robot 2 photographs a spatial element such as furniture from the front position, point cloud data cannot be generated for the shape of the back side of the furniture, which is not photographed, and the robot 2 moves to the back side of the furniture. Even if there is a possible space, the robot 2 cannot recognize it. On the other hand, when the robot 2 moves and photographs furniture from a side photographing position, it is possible to generate point cloud data about the shape of the back side of spatial elements such as furniture, making it possible to accurately grasp the space.

空間データ生成部13は、点群データ生成部12において生成された空間要素の点群データに基づきロボット2の移動可能範囲を定める空間データを生成する。空間データは空間における点群データに基づき生成されるため、空間データに含まれる空間要素に関しても三次元の座標情報を有している。座標情報には、点の位置、長さ(高さを含む)、面積、または体積の情報が含まれていてもよい。ロボット2は、生成された空間データに含まれる空間要素の位置情報に基づき、移動が可能な範囲を判断することが可能となる。例えば、ロボット2が床面を水平移動する移動機構29を有するものである場合、ロボット2は、空間データにおいて空間要素である床面からの段差が所定の高さ以上(例えば、1cm以上)である場合移動が不可能であると判断することができる。一方、空間データにおいて、空間要素であるテーブルの天板またはベッド等が床面から所定の高さを有する場合、ロボット2は、床面からの高さが所定の高さ以上(例えば、60cm以上)の範囲を自身の高さとのクリアランスを考慮して移動可能な範囲として判断する。また、ロボット2は、空間データにおいて、空間要素である壁と家具の隙間が所定の幅以上(例えば、40cm以上)である範囲を自身の幅とのクリアランスを考慮して移動可能な範囲として判断する。 The spatial data generating section 13 generates spatial data that defines the movable range of the robot 2 based on the point cloud data of the spatial elements generated by the point cloud data generating section 12 . Since spatial data is generated based on point group data in space, spatial elements included in the spatial data also have three-dimensional coordinate information. The coordinate information may include information on the position, length (including height), area, or volume of a point. The robot 2 can determine the movable range based on the position information of the spatial elements included in the generated spatial data. For example, if the robot 2 is equipped with a movement mechanism 29 that moves horizontally on the floor, the robot 2 is configured such that the height difference from the floor, which is a spatial element in the spatial data, is at least a predetermined height (for example, 1 cm or more). In some cases, it can be determined that movement is impossible. On the other hand, in the spatial data, if the spatial element such as a table top or a bed has a predetermined height from the floor, the robot 2 will be able to move to ) is determined as a movable range considering the clearance with the user's own height. In addition, in the spatial data, the robot 2 determines an area where the gap between the wall and the furniture, which is a spatial element, is a predetermined width or more (for example, 40 cm or more) as a movable range considering the clearance with the robot's own width. do.

空間データ生成部13は、空間における所定のエリアについて属性情報を設定してもよい。属性情報とは、所定のエリアについてロボット2の移動条件を定めた情報である。移動条件とは、例えば、ロボット2が移動可能な空間要素とのクリアランスを定めた条件である。例えば、ロボット2が移動可能な通常の移動条件が、クリアランスが30cm以上である場合、所定のエリアについてのクリアランスが5cm以上とした属性情報を設定することができる。また、属性情報において設定する移動条件は、ロボットの移動を制限する情報を設定してもよい。移動の制限とは、例えば、移動速度の制限、または進入の禁止等である。例えば、クリアランスが小さいエリアや人が存在しているエリアにおいて、ロボット2の移動速度を落とした属性情報を設定してもよい。また、属性情報において設定する移動条件は、エリアの床材によって定められるものであってもよい。例えば、属性情報は、床がクッションフロア、フローロング、畳、またはカーペットにおいて移動機構29の動作(走行速度または走行手段等)の変更を設定するものであってもよい。また、属性情報には、ロボット2が移動して充電できる充電スポット、ロボット2の姿勢が不安定
になるため移動が制限される段差またはカーペットの端等における以上条件を設定できるようにしてもよい。なお、属性情報を設定したエリアは、後述する可視化データにおいて表示方法を変更する等、利用者が把握できるようにしてもよい。
The spatial data generation unit 13 may set attribute information for a predetermined area in the space. Attribute information is information that defines movement conditions for the robot 2 in a predetermined area. The movement condition is, for example, a condition that defines the clearance between the robot 2 and a spatial element in which the robot 2 can move. For example, if the normal movement condition under which the robot 2 can move is that the clearance is 30 cm or more, attribute information can be set such that the clearance for a predetermined area is 5 cm or more. Furthermore, the movement conditions set in the attribute information may include information that limits movement of the robot. Restrictions on movement include, for example, restrictions on movement speed or prohibition of entry. For example, attribute information may be set that reduces the movement speed of the robot 2 in areas where clearance is small or where people are present. Furthermore, the movement conditions set in the attribute information may be determined by the flooring material of the area. For example, the attribute information may set a change in the operation (traveling speed, traveling means, etc.) of the moving mechanism 29 when the floor is a cushion floor, a flowing floor, a tatami mat, or a carpet. In addition, the attribute information may include conditions such as a charging spot where the robot 2 can move to charge, a step or the edge of a carpet where movement is restricted because the robot 2's posture becomes unstable, etc. . Note that the area in which the attribute information is set may be made clear to the user by, for example, changing the display method in the visualization data described later.

空間データ生成部13は、点群データ生成部12において生成された点群データを、例えば、ハフ変換して、点群データにおいて共通する直線や曲線等の図形を抽出し、抽出された図形により表現される空間要素の輪郭によって空間データを生成する。ハフ変換は、点群データを特徴点とした場合、特徴点を最も多く通過する図形を抽出する座標変換方法である。点群データは、部屋に置いてある家具等の空間要素の形状を点群において表現するものであるため、利用者は、点群データで表現される空間要素が何なのかの判別(例えば、テーブル、椅子、壁等の認識)をするのが困難な場合がある。空間データ生成部13は、点群データをハフ変換することにより、家具等の輪郭を表現することができるので、利用者が空間要素を判別しやすくすることができる。なお、空間データ生成部13は、点群データ生成部12において生成された点群データを、画像認識において認識された空間要素(例えば、テーブル、椅子、壁等)における基本形状に変換して空間データを生成してもよい。テーブル等の空間要素は、画像認識でテーブルであることが認識されることにより、空間要素の一部の点群データ(例えば、テーブルを正面から見たときの点群データ)からテーブルの形状を正確に予測することができる。空間データ生成部13は、点群データと画像認識を組み合わせることにより、空間要素を正確に把握した空間データを生成することが可能となる。 The spatial data generation unit 13 performs, for example, Hough transform on the point cloud data generated in the point cloud data generation unit 12, extracts figures such as straight lines and curves that are common in the point cloud data, and uses the extracted figures to Spatial data is generated by the contour of the represented spatial element. Hough transformation is a coordinate transformation method that extracts a figure that passes through the feature points most often when point cloud data is used as feature points. Since point cloud data expresses the shape of spatial elements such as furniture in a room as a point cloud, users are required to determine what spatial elements are represented by point cloud data (for example, It may be difficult to recognize objects such as tables, chairs, walls, etc. The spatial data generation unit 13 can express the contours of furniture, etc. by performing Hough transform on the point cloud data, and therefore can make it easier for the user to identify spatial elements. Note that the spatial data generation unit 13 converts the point cloud data generated in the point cloud data generation unit 12 into basic shapes of spatial elements (for example, tables, chairs, walls, etc.) recognized in image recognition, and May also generate data. When a spatial element such as a table is recognized as a table through image recognition, the shape of the table can be determined from point cloud data of a part of the spatial element (for example, point cloud data when the table is viewed from the front). Can be predicted accurately. By combining point cloud data and image recognition, the spatial data generation unit 13 can generate spatial data in which spatial elements are accurately understood.

空間データ生成部13は、ロボット2の移動した位置から所定の範囲に含まれる点群データに基づき空間データを生成する。ロボット2の移動した位置からの所定の範囲とは、ロボット2が実際に移動した位置を含み、例えば、ロボット2が移動した位置から30cm等の距離にある範囲であってもよい。点群データは、ロボット2の撮影部21により撮影された撮影画像に基づき生成されるため、撮影画像にはロボット2から離れた位置にある空間要素が含まれる場合がある。撮影部21から空間要素までが離れている場合、撮影されていない部分が存在し、または撮影されていない障害物の存在によって実際にはロボット2が移動できない範囲が存在する場合がある。また、廊下等のように撮影部21から遠い位置にある空間要素が撮影画像に含まれる場合、特徴点において抽出された空間要素が歪んでしまう場合がある。また、撮影距離が大きい場合、撮影画像に含まれる空間要素が小さくなるため、点群データの精度が低くなる場合がある。空間データ生成部13は、大きく離れている特徴点を無視することにより、精度が低い空間要素、または歪んだ空間要素を含まない空間データを生成するようにしてもよい。空間データ生成部13は、ロボット2の移動した位置から所定の範囲の外側にある点群データを削除して空間データを生成することにより、実際にはデータが存在しない飛び地が発生することを防ぎ、ロボット2が移動できない範囲を含まず、またデータ精度の高い空間データを生成することが可能となる。また、空間データから生成される可視化データにおいて飛び地状の描画を防ぐことができ、視認性を向上させることができる。 The spatial data generation unit 13 generates spatial data based on point group data included in a predetermined range from the position to which the robot 2 has moved. The predetermined range from the position to which the robot 2 has moved includes the position to which the robot 2 has actually moved, and may be, for example, a range at a distance of 30 cm from the position to which the robot 2 has moved. Since the point cloud data is generated based on a photographed image photographed by the photographing unit 21 of the robot 2, the photographed image may include a spatial element located away from the robot 2. If the spatial element is far from the imaging unit 21, there may be a portion that is not photographed or a range in which the robot 2 cannot actually move due to the presence of an obstacle that is not photographed. Furthermore, if a spatial element located far from the photographing unit 21, such as a hallway, is included in the photographed image, the spatial element extracted at the feature point may be distorted. Furthermore, when the photographing distance is long, the spatial elements included in the photographed image become small, so the accuracy of the point cloud data may decrease. The spatial data generation unit 13 may generate spatial data that does not include spatial elements with low accuracy or distorted spatial elements by ignoring feature points that are far apart. The spatial data generation unit 13 generates spatial data by deleting point cloud data outside a predetermined range from the position where the robot 2 has moved, thereby preventing the occurrence of enclaves where no data actually exists. , it is possible to generate spatial data that does not include the range in which the robot 2 cannot move and has high data accuracy. Moreover, it is possible to prevent enclaves from being drawn in visualization data generated from spatial data, and visibility can be improved.

空間データ生成部13は、マーカ認識部22においてマーカが認識された場合、生成した空間データに対して制限範囲を設定する。空間データに対して制限範囲を設定することにより、制限範囲を可視化データの一部として可視化することが可能となる。また、空間データ生成部13は、状態情報取得部24において状態情報が取得された場合、空間データに対して状態情報を設定する。空間データに対して状態情報を設定することにより、状態情報を可視化データの一部とすることが可能となる。 When the marker recognition unit 22 recognizes the marker, the spatial data generation unit 13 sets a restriction range for the generated spatial data. By setting a restricted range for spatial data, it becomes possible to visualize the restricted range as part of the visualization data. Furthermore, when the status information is acquired by the status information acquisition unit 24, the spatial data generation unit 13 sets status information for the spatial data. By setting state information to spatial data, it becomes possible to make the state information a part of visualization data.

可視化データ生成部14は、空間データ生成部13において生成された空間データに基づいて、空間に含まれる空間要素を人が直観的に判別できるように可視化した可視化データを生成する。 The visualization data generation unit 14 generates visualization data based on the spatial data generated by the spatial data generation unit 13 in a manner that allows a person to intuitively identify spatial elements included in the space.

一般的に、ロボットは、カメラやマイク等の様々なセンサを有し、それらのセンサから得られる情報を総合的に判断することで周囲の状況を認識する。ロボットが移動するためには、空間に存在する種々の物体を認識し、空間データにおいて移動ルートを判断する必要があるが、物体を正しく認識できないために移動ルートが適切で無いことがある。誤認識が原因となり、例えば、人が十分に広い空間があると思っても、ロボットは障害物があり狭い範囲しか動けないとして認識してしまう場合がある。このように人とロボットとの間に認識の齟齬が生じると、人の期待に反した行動をロボットがおこなうことになり、人はストレスを感じる。本実施形態における自立型行動ロボットは、人とロボットの認識の齟齬を減らすために、自身の認識状態である空間データを可視化して人に提供するとともに、人に指摘された箇所に対して再度認識処理をおこなうことができる。 Generally, robots have various sensors such as cameras and microphones, and recognize the surrounding situation by comprehensively judging information obtained from these sensors. In order for a robot to move, it is necessary to recognize various objects existing in space and determine a movement route based on spatial data, but the movement route may not be appropriate because the robot cannot correctly recognize the objects. For example, even if a person thinks there is a large enough space, the robot may think that there are obstacles and that it can only move within a narrow range. When a discrepancy in recognition occurs between humans and robots, the robot may behave in ways that are contrary to human expectations, and humans feel stressed. In order to reduce the discrepancy between recognition between humans and robots, the autonomous behavioral robot in this embodiment visualizes spatial data representing its own recognition state and provides it to humans, and also re-visits points pointed out by humans. Recognition processing can be performed.

空間データは、自律行動型ロボット1が認識している空間要素を含むデータであるのに対して、可視化データは、自律行動型ロボット1が認識している空間要素を利用者が視認するためのデータである。空間データには、誤認識された空間要素が含まれる場合がある。空間データを可視化することにより、自律行動型ロボット1における空間要素の認識状態(誤認識の有無等)を人が確認し易くなる。 Spatial data is data that includes spatial elements that the autonomous robot 1 recognizes, whereas visualization data is data that allows the user to visually recognize the spatial elements that the autonomous robot 1 recognizes. It is data. Spatial data may include spatial elements that are misrecognized. By visualizing the spatial data, it becomes easier for a person to check the recognition state of spatial elements in the autonomous robot 1 (presence or absence of misrecognition, etc.).

可視化データは、表示装置において表示可能なデータである。可視化データは、いわゆる間取りであり、壁として認識された空間要素に囲まれた領域の中に、テーブル、椅子、ソファー等として認識された空間要素が含まれる。可視化データ生成部14は、ハフ変換によって抽出された図形において形成される家具等の形状を、例えばRGBデータで表現される可視化データとして生成する。空間データ生成部13は、空間要素の三次元における平面の方向に基づき、平面の描画方法を変更した可視化データを生成する。空間要素の三次元における平面の方向とは、例えば、点群データ生成部12において生成された点群データをハフ変換して、点群データにおいて生成された図形で形成される平面の法線方向である。可視化データ生成部14は、法線方向に応じて平面の描画方法を変更した可視化データを生成する。描画方法とは、例えば、平面に付与する色相、明度または彩度等の色属性、平面に付与する模様、またはテクスチャ等である。例えば、可視化データ生成部14は、平面の法線が垂直方向(平面が水平方向)である場合、平面の明度を高くして明るい色で描画する。一方、可視化データ生成部14は、平面の法線が水平方向(平面が垂直方向)である場合、平面の明度を低くして暗い色で描画する。平面の描画方法を変更することにより、家具等の形状を立体的に表現することが可能となり、利用者が家具等の形状を確認しやすくすることができる。また、可視化データは、空間データに含まれる各空間要素の座標情報と対応づけられた可視化データにおける座標情報(「可視化座標情報」という。)を含んでいてもよい。可視化座標情報は、座標情報と対応付けられているため、可視化座標情報における点は実際の空間における点に対応し、また、可視化座標情報における面は実際の空間における面に対応している。したがって、利用者が可視化データにおいてある点の位置を特定すると、それに対応した実際の部屋における点の位置が特定できることになる。また、座標系を変換するための変換関数を用意し、可視化データにおける座標系と、空間データにおける座標系とを相互に変換できるようにしてもよい。もちろん、可視化データにおける座標系と、実際の空間における座標系とを相互に変換できるようにしてもよい。 Visualized data is data that can be displayed on a display device. The visualization data is a so-called floor plan, and includes spatial elements recognized as tables, chairs, sofas, etc. in an area surrounded by spatial elements recognized as walls. The visualization data generation unit 14 generates the shape of furniture or the like formed in the figure extracted by the Hough transform as visualization data expressed, for example, in RGB data. The spatial data generation unit 13 generates visualization data in which the plane drawing method is changed based on the direction of the three-dimensional plane of the spatial element. The direction of a three-dimensional plane of a spatial element is, for example, the normal direction of a plane formed by a figure generated in the point cloud data by Hough-transforming the point cloud data generated in the point cloud data generation unit 12. It is. The visualization data generation unit 14 generates visualization data in which the plane drawing method is changed according to the normal direction. The drawing method is, for example, a color attribute such as hue, brightness, or saturation applied to a plane, a pattern or texture applied to a plane, or the like. For example, when the normal to the plane is in the vertical direction (the plane is in the horizontal direction), the visualization data generation unit 14 increases the brightness of the plane and draws it in a bright color. On the other hand, when the normal to the plane is in the horizontal direction (the plane is in the vertical direction), the visualization data generation unit 14 lowers the brightness of the plane and draws it in a dark color. By changing the plane drawing method, it becomes possible to represent the shape of furniture, etc. three-dimensionally, and it is possible to make it easier for the user to confirm the shape of the furniture, etc. Furthermore, the visualization data may include coordinate information in the visualization data (referred to as "visualization coordinate information") that is associated with coordinate information of each spatial element included in the spatial data. Since the visualized coordinate information is associated with coordinate information, a point in the visualized coordinate information corresponds to a point in the actual space, and a surface in the visualized coordinate information corresponds to a surface in the actual space. Therefore, when the user specifies the position of a certain point in the visualization data, the corresponding position of the point in the actual room can be specified. Further, a conversion function for converting the coordinate system may be prepared so that the coordinate system in the visualization data and the coordinate system in the spatial data can be mutually converted. Of course, the coordinate system in the visualized data and the coordinate system in the actual space may be mutually convertible.

可視化データ生成部14は、可視化データを立体的(3D(Dimensions))データで生成する。また、可視化データ生成部14は、可視化データを平面的(2D)データで生成してもよい。可視化データを3Dで生成することにより、利用者が家具等の形状を確認しやすくすることができる。可視化データ生成部14は、空間データ生成部13において、可視化データを3Dで生成するために十分なデータが生成された場合に可視化データを3Dで生成するようにしてもよい。可視化データ生成部14は、利用者によって
指定された3Dの視点位置(視点高さ、視点仰俯角等)によって可視化データを3Dで生成するようにしてもよい。視点位置を指定可能とすることにより、利用者が家具等の形状を確認しやすくすることができる。また、可視化データ生成部14は、部屋の壁または天井については、奥側の壁についてのみ着色し、手前側の壁または天井を透明にした(着色しない)可視化データを生成してもよい。手前側の壁を透明にすることにより、利用者が手前側の壁の先(室内)に配置された家具等の形状を確認しやすくすることができる。
The visualization data generation unit 14 generates visualization data as three-dimensional (3D (Dimensions)) data. Further, the visualization data generation unit 14 may generate the visualization data as two-dimensional (2D) data. By generating visualization data in 3D, users can easily confirm the shape of furniture, etc. The visualization data generation unit 14 may generate visualization data in 3D when sufficient data is generated in the spatial data generation unit 13 to generate visualization data in 3D. The visualization data generation unit 14 may generate visualization data in 3D based on the 3D viewpoint position (viewpoint height, viewpoint elevation/depression angle, etc.) specified by the user. By making it possible to specify the viewpoint position, it is possible for the user to easily confirm the shape of furniture, etc. Furthermore, the visualization data generation unit 14 may generate visualization data in which only the back wall of the room is colored, and the front wall or ceiling is made transparent (not colored). By making the wall on the near side transparent, it is possible for the user to easily check the shape of furniture, etc. placed beyond the wall on the near side (in the room).

可視化データ生成部14は、撮影画像取得部111において取得された撮影画像に応じた色属性を付与した可視化データを生成する。例えば、可視化データ生成部14は、撮影画像に木目調の家具が含まれ、木目の色(例えば、茶色)を検出した場合、抽出された家具の図形に検出した色に近似した色を付与した可視化データを生成する。撮影画像に応じた色属性を付与することにより、利用者が家具等の種別を確認しやすくすることができる。 The visualization data generation unit 14 generates visualization data to which color attributes are added according to the captured image acquired by the captured image acquisition unit 111. For example, if the captured image includes woodgrain furniture and the color of the woodgrain (for example, brown) is detected, the visualization data generation unit 14 assigns a color similar to the detected color to the extracted furniture figure. Generate visualization data. By assigning a color attribute according to the photographed image, it is possible for the user to easily confirm the type of furniture or the like.

可視化データ生成部14は、固定されている固定物と、移動する移動物との描画方法を変更した可視化データを生成する。固定物とは、例えば、部屋の壁、段差、固定されている家具等である。移動物とは、例えば、椅子、ごみ箱、キャスター付き家具等である。また、移動物には、例えば、荷物やカバン等の一時的に床に置かれた一時物を含んでいてもよい。描画方法とは、例えば、平面に付与する色相、明度または彩度等の色属性、平面に付与する模様、またはテクスチャ等である。 The visualization data generation unit 14 generates visualization data in which a method for drawing a fixed object and a moving object is changed. Fixed objects include, for example, a wall in a room, a step, fixed furniture, and the like. Examples of moving objects include chairs, trash cans, and furniture with casters. Furthermore, the moving objects may include, for example, temporary objects such as luggage and bags that are temporarily placed on the floor. The drawing method is, for example, a color attribute such as hue, brightness, or saturation applied to a plane, a pattern or texture applied to a plane, or the like.

固定物、移動物または一時物の区分は、その場所に存在している期間によって識別することができる。例えば、空間データ生成部13は、点群データ生成部12において生成された点群データの経時的な変化に基づき、空間要素が固定物、移動物または一時物の区分を識別して空間データを生成する。空間データ生成部13は、例えば、第1の時刻において生成した空間データと、第2の時刻において生成した空間データの差分から、空間要素が変化していない場合に空間要素が固定物であると判断する。また、空間データ生成部13は、空間データの差分から、空間要素の位置が変化している場合に空間要素が移動物であると判断してもよい。また、空間データ生成部13は、空間データの差分から、空間要素が無くなっている場合または出現した場合に空間要素が一次物であると判断してもよい。可視化データ生成部14は、空間データ生成部13において識別された区分に基づき描画方法を変更する。描画方法の変更とは、例えば、色分け、ハッチングの追加または所定のマークの追加等である。例えば、空間データ生成部13は、固定物を黒で表示し、移動物を青で表示し、または、一時物を黄で表示するようにしてもよい。空間データ生成部13は、固定物、移動物または一時物の区分を識別して空間データを生成する。可視化データ生成部14は、空間データ生成部13において識別された区分に基づき描画方法を変更した可視化データを生成してもよい。また、空間データ生成部13は、画像認識で認識された空間要素の描画方法を変更した可視化データを生成してもよい。 The categories of fixed objects, moving objects, and temporary objects can be distinguished by the period of time they have existed at a particular location. For example, the spatial data generation unit 13 identifies categories of fixed objects, moving objects, or temporary objects as spatial elements based on changes over time in the point cloud data generated by the point cloud data generation unit 12, and generates spatial data. generate. For example, based on the difference between the spatial data generated at the first time and the spatial data generated at the second time, the spatial data generation unit 13 determines that the spatial element is a fixed object when the spatial element has not changed. to decide. Furthermore, the spatial data generation unit 13 may determine that the spatial element is a moving object when the position of the spatial element has changed based on the difference in the spatial data. Further, the spatial data generation unit 13 may determine that the spatial element is a primary object based on the difference in the spatial data when the spatial element disappears or appears. The visualization data generation unit 14 changes the drawing method based on the classification identified by the spatial data generation unit 13. Changes in the drawing method include, for example, color coding, addition of hatching, or addition of predetermined marks. For example, the spatial data generation unit 13 may display fixed objects in black, moving objects in blue, or temporary objects in yellow. The spatial data generation unit 13 generates spatial data by identifying categories of fixed objects, moving objects, and temporary objects. The visualization data generation unit 14 may generate visualization data in which the drawing method is changed based on the classification identified by the spatial data generation unit 13. Further, the spatial data generation unit 13 may generate visualization data in which the drawing method of spatial elements recognized through image recognition is changed.

可視化データ生成部14は、複数に区分されたエリアにおける可視化データを生成することができる。例えば、可視化データ生成部14は、リビングルーム、寝室、ダイニングルーム、廊下等の壁で仕切られた空間をひとつの部屋としてそれぞれ可視化データを生成する。部屋毎に可視化データを生成することにより、例えば、空間データまたは可視化データの生成を部屋ごとに分けて行うことが可能となり、空間データ等の生成が容易になる。また、ロボット2が移動する可能性があるエリアのみについて空間データ等を作成することが可能となる。可視化データ提供部161は、利用者がエリアを選択可能な可視化データを提供する。可視化データ提供部161は、例えば、利用者が選択したエリアの可視化データを拡大して、または利用者が選択したエリアの詳細な可視化データ提供するようにしてもよい。 The visualization data generation unit 14 can generate visualization data in a plurality of divided areas. For example, the visualization data generation unit 14 generates visualization data for each space partitioned by walls, such as a living room, a bedroom, a dining room, and a hallway, as one room. By generating visualization data for each room, for example, it becomes possible to generate spatial data or visualization data separately for each room, making it easier to generate spatial data and the like. Furthermore, it becomes possible to create spatial data etc. only for areas where the robot 2 may move. The visualization data providing unit 161 provides visualization data that allows the user to select an area. The visualization data providing unit 161 may, for example, enlarge the visualization data of the area selected by the user or provide detailed visualization data of the area selected by the user.

撮影対象認識部15は、撮影画像取得部において取得された撮影画像に基づき、空間要素を画像認識する。空間要素の認識は、例えば機械学習において蓄積された画像認識結果に基づき空間要素が何であるかを判断する画像認識エンジンを用いることにより実行することができる。空間要素の画像認識は、例えば、空間要素の形状、色、模様、空間要素に付された文字または図形等において、認識することができる。撮影対象認識部15は、例えば図示しないクラウドサーバにおいて提供される画像認識サービスを利用することにより空間要素を画像認識できるようにしてもよい。可視化データ生成部14は、撮影対象認識部15において画像認識された空間要素に応じて描画方法を変更した可視化データを生成する。例えば、画像認識された空間要素がソファーであった場合、可視化データ生成部14は、空間要素に布の質感を有するテクスチャを付与した可視化データを生成する。また、画像認識された空間要素が壁であった場合、可視化データ生成部14は、壁紙の色属性(例えば白色)を付与した可視化データを生成してもよい。このような可視化処理を施すことで、利用者はロボット2における空間の認識状態を直観的に把握できる。 The photographic object recognition section 15 performs image recognition of spatial elements based on the photographed image acquired by the photographed image acquisition section. Recognition of a spatial element can be performed, for example, by using an image recognition engine that determines what a spatial element is based on accumulated image recognition results in machine learning. Image recognition of a spatial element can be performed by recognizing, for example, the shape, color, pattern, or character or figure attached to the spatial element. The photographic object recognition unit 15 may be able to image-recognize spatial elements by using, for example, an image recognition service provided by a cloud server (not shown). The visualization data generation unit 14 generates visualization data in which the drawing method is changed according to the spatial element image-recognized by the imaging target recognition unit 15. For example, if the image-recognized spatial element is a sofa, the visualization data generation unit 14 generates visualization data in which the spatial element is given a texture that has the feel of cloth. Further, when the image-recognized spatial element is a wall, the visualization data generation unit 14 may generate visualization data to which the color attribute (for example, white) of wallpaper is added. By performing such visualization processing, the user can intuitively grasp the spatial recognition state of the robot 2.

第2通信制御部16は、利用者が所有する利用者端末3との通信を制御する。利用者端末3は、例えば、スマートフォン、タブレットPC、ノートPC、デスクトップPC等である。利用者端末3との通信方式は任意であり、例えば、無線LAN、Bluetooth(登録商標)、または赤外線通信等の近距離無線通信、もしくは有線通信を用いることができる。第2通信制御部16が有する、可視化データ提供部161および指定取得部162の各機能は、第2通信制御部16において制御される通信機能を用いて利用者端末3と通信する。 The second communication control unit 16 controls communication with the user terminal 3 owned by the user. The user terminal 3 is, for example, a smartphone, a tablet PC, a notebook PC, a desktop PC, or the like. The communication method with the user terminal 3 is arbitrary, and for example, wireless LAN, Bluetooth (registered trademark), short-range wireless communication such as infrared communication, or wired communication can be used. Each function of the visualized data providing unit 161 and the specification acquisition unit 162 that the second communication control unit 16 has communicates with the user terminal 3 using communication functions controlled by the second communication control unit 16.

可視化データ提供部161は、可視化データ生成部14において生成された可視化データを利用者端末3に対して提供する。可視化データ提供部161は、例えば、Webサーバであり、利用者端末3のブラウザに対してWebページとして可視化データを提供する。可視化データ提供部161は、複数の利用者端末3に対して可視化データを提供するようにしてもよい。利用者は利用者端末3に表示された可視化データを視認することにより、ロボット2が移動可能な範囲を2D又は3Dの表示として確認することができる。可視化データには、家具等の形状が所定の描画方法において描画されている。利用者は利用者端末3を操作することにより、例えば、2D表示と3D表示の切り替え、可視化データのズームインもしくはズームアウト、または3D表示における視点の移動を行うことができる。 The visualized data providing unit 161 provides the visualized data generated by the visualized data generating unit 14 to the user terminal 3. The visualized data providing unit 161 is, for example, a web server, and provides visualized data to the browser of the user terminal 3 as a web page. The visualization data providing unit 161 may provide visualization data to a plurality of user terminals 3. By viewing the visualization data displayed on the user terminal 3, the user can confirm the movable range of the robot 2 as a 2D or 3D display. In the visualization data, shapes of furniture and the like are drawn using a predetermined drawing method. By operating the user terminal 3, the user can, for example, switch between 2D display and 3D display, zoom in or out of visualized data, or move the viewpoint in 3D display.

利用者は、利用者端末3に表示された可視化データを視認し、空間データの生成状態やエリアの属性情報を確認することができる。利用者は可視化データの中から空間データが生成されていない領域を指定して、空間データの作成を指示することができる。また、利用者は、利用者端末3に表示された可視化データを視認し、家具等の空間要素の形状が不自然である等、空間データが不正確であると思われる領域があれば、その領域を指定して、空間データの再生成を指示することができる。上述のように、可視化データにおける可視化座標情報は、空間データの座標情報と対応付けられているため、利用者によって再生成が指定された可視化データにおける領域は、空間データにおける領域に一意に特定できる。の座標情報に対応付けられる。再生成された空間データは可視化データ生成部14において可視化データが再生成されて可視化データ提供部161から提供される。なお、再生成された可視化データにおいても空間要素が誤認識されている等、空間データの生成状態が変化しない場合がある。その場合、利用者は、ロボット2の動作パラメータを変化させることにより、空間データの生成を指示するようにしてもよい。動作パラメータとは、例えば、ロボット2における撮影部21における撮影条件(露光量またはシャッター速度等)、図示しないセンサの感度、ロボット2の移動を許可する際のクリアランス条件等である。動作パラメータは、例えばエリアの属性情報として空間データに含めるようにしてもよい。 The user can visually check the visualization data displayed on the user terminal 3 and check the generation state of the spatial data and the attribute information of the area. The user can specify an area in the visualized data for which spatial data has not been generated and instruct the creation of spatial data. In addition, the user visually checks the visualization data displayed on the user terminal 3, and if there is an area where the spatial data seems to be inaccurate, such as an unnatural shape of a spatial element such as furniture, You can specify a region and instruct the regeneration of spatial data. As mentioned above, the visualization coordinate information in the visualization data is associated with the coordinate information of the spatial data, so the area in the visualization data that is specified to be regenerated by the user can be uniquely identified as the area in the spatial data. . It is mapped to the coordinate information of The regenerated spatial data is regenerated into visualization data by the visualization data generation unit 14 and provided from the visualization data provision unit 161 . Note that even in the regenerated visualization data, the generation state of the spatial data may not change, such as when spatial elements are misrecognized. In that case, the user may instruct the generation of spatial data by changing the operating parameters of the robot 2. The operating parameters include, for example, the photographing conditions (exposure amount, shutter speed, etc.) in the photographing unit 21 of the robot 2, the sensitivity of a sensor (not shown), the clearance conditions when allowing the robot 2 to move, and the like. The operational parameters may be included in the spatial data, for example, as area attribute information.

可視化データ生成部14は、例えば、空間データの作成(「再作成」を含む。)を指示するボタンの表示を含む可視化データを生成する。利用者端末3は、表示されたボタンを利用者が操作することにより、自律行動型ロボット1に対して空間データの作成の指示を送信することができる。利用者端末3から送信された空間データの作成指示は、指定取得部162において取得される。 The visualization data generation unit 14 generates visualization data including, for example, a button display for instructing creation of spatial data (including "re-creation"). The user terminal 3 can transmit an instruction to create spatial data to the autonomous robot 1 by the user operating a displayed button. The spatial data creation instruction transmitted from the user terminal 3 is acquired by the designation acquisition unit 162.

指定取得部162は、可視化データ提供部161において提供された可視化データに基づき利用者に指定された領域の空間データの作成の指示を取得する。指定取得部162は、エリアの属性情報を設定(変更を含む)する指示を取得してもよい。また、指定取得部162は、領域の位置と、ロボットがその領域にアプローチする際の方向、つまり撮影すべき方向を取得する。作成の指示の取得は、例えば可視化データ提供部161において提供されたWebページの操作において実行することができる。これにより、利用者は、ロボット2がどのように空間を認識しているのかを把握し、認識状態に応じて、認識処理のやり直しをロボット2に指示することができる。 The designation acquisition unit 162 acquires an instruction to create spatial data of a region designated by the user based on the visualization data provided by the visualization data provision unit 161. The designation acquisition unit 162 may acquire an instruction to set (including change) attribute information of an area. Further, the designation acquisition unit 162 acquires the position of the area and the direction in which the robot approaches the area, that is, the direction in which the image should be photographed. The creation instruction can be obtained, for example, by operating a web page provided by the visualization data providing unit 161. Thereby, the user can understand how the robot 2 recognizes the space and can instruct the robot 2 to redo the recognition process depending on the recognition state.

指示部113は、空間データの作成が指示された領域における撮影をロボット2に対して指示する。指示部113は、領域に設置されたマーカの撮影を指示するものであってもよい。空間データの作成が指示された領域における撮影は、例えば、ロボット2(撮影部21)の座標位置、撮影部21の撮影方向、解像度等の撮影条件を含んでいてもよい。空間データ生成部13は、作成が指示された空間データが未生成の領域に関するものである場合、既存の空間データに新たに作成された空間データを追加し、空間データ生成部13は、作成が指示された空間データが再作成に係るものである場合、既存の空間データを更新した空間データを生成する。また、撮影画像にマーカが含まれていた場合、認識されたマーカを含む空間データを生成するようにしてもよい。 The instruction unit 113 instructs the robot 2 to take an image in a region for which creation of spatial data has been instructed. The instruction unit 113 may instruct the imaging of a marker placed in the area. Photographing in the area for which creation of spatial data is instructed may include, for example, photographing conditions such as the coordinate position of the robot 2 (photographing unit 21), the photographing direction of the photographing unit 21, and the resolution. If the spatial data that has been instructed to be created relates to an area that has not yet been created, the spatial data generator 13 adds the newly created spatial data to the existing spatial data; If the specified spatial data is related to re-creation, spatial data is generated by updating the existing spatial data. Further, if the photographed image includes a marker, spatial data including the recognized marker may be generated.

なお、上述のように、図1では自律行動型ロボット1は、データ提供装置10とロボット2とにおいて構成される場合を説明したが、データ提供装置10の機能は、ロボット2の機能に含まれるものであってもよい。例えば、ロボット2は、データ提供装置10の機能を全て含むものであってもよい。データ提供装置10は、例えば、ロボット2において処理能力が不足する場合に、一時的に機能を代替するものであってもよい。 As mentioned above, in FIG. 1, the autonomous robot 1 is configured with the data providing device 10 and the robot 2, but the functions of the data providing device 10 are included in the functions of the robot 2. It may be something. For example, the robot 2 may include all the functions of the data providing device 10. The data providing device 10 may temporarily replace the function when the robot 2 lacks processing capacity, for example.

また、本実施形態において「取得」とは、取得する主体が能動的に取得するものであってもよく、また、取得する主体が受動的に取得するものであってもよい。例えば、指定取得部162は、利用者が利用者端末3から送信した空間データの作成の指示を受信することにより取得してもよく、また、利用者が図示しない記憶領域(不図示)に記憶させた空間データの作成の指示を記憶領域から読み出すことにより取得してもよい。 Furthermore, in this embodiment, "acquisition" may be something that is actively acquired by the acquiring entity, or it may be something that is passively acquired by the acquiring entity. For example, the designation acquisition unit 162 may acquire the spatial data by receiving an instruction to create spatial data transmitted from the user terminal 3 by the user, or the designation acquisition unit 162 may acquire the spatial data by receiving the instruction to create the spatial data transmitted by the user from the user terminal 3. The instructions for creating the spatial data may be obtained by reading them from the storage area.

また、データ提供装置10が有する、第1通信制御部11、点群データ生成部12、空間データ生成部13、可視化データ生成部14、撮影対象認識部15、第2通信制御部16、撮影画像取得部111、空間データ提供部112、指示部113、可視化データ提供部161、指定取得部162の各機能部は、本実施形態における自律行動型ロボット1の機能の一例を示したものであり、自律行動型ロボット1が有する機能を限定したものではない。例えば、自律行動型ロボット1は、データ提供装置10が有する全ての機能部を有している必要はなく、一部の機能部を有するものであってもよい。また、自律行動型ロボット1は、上記以外の他の機能部を有していてもよい。また、ロボット2が有する、マーカ認識部22、移動制御部23、制限範囲設定部231および状態情報取得部24の各機能部は、本実施形態における自律行動型ロボット1の機能の一例を示したものであり、自律行動型ロボット1が有する機能を限定したものではない。例えば、自律行動型ロボット1は、ロボット2が有する全ての機能部を有している必要はなく、一部の機能部を有する
ものであってもよい。
The data providing device 10 also includes a first communication control unit 11, a point cloud data generation unit 12, a spatial data generation unit 13, a visualization data generation unit 14, a photographic target recognition unit 15, a second communication control unit 16, and a photographed image. The functional units of the acquisition unit 111, the spatial data provision unit 112, the instruction unit 113, the visualization data provision unit 161, and the specification acquisition unit 162 are examples of the functions of the autonomous robot 1 in this embodiment. This does not limit the functions that the autonomous robot 1 has. For example, the autonomous robot 1 does not need to have all the functional units that the data providing device 10 has, and may have some of the functional units. Furthermore, the autonomous robot 1 may have functional units other than those described above. Further, each functional unit of the robot 2, including the marker recognition unit 22, the movement control unit 23, the limit range setting unit 231, and the state information acquisition unit 24, represents an example of the functions of the autonomous robot 1 in this embodiment. This does not limit the functions that the autonomous robot 1 has. For example, the autonomous robot 1 does not need to have all the functional parts that the robot 2 has, and may have some of the functional parts.

また自律行動型ロボット1が有する上記各機能部は、上述の通り、ソフトウェアによって実現されるものとして説明した。しかし、自律行動型ロボット1が有する上記機能の中で少なくとも1つ以上の機能は、ハードウェアによって実現されるものであっても良い。 Further, each of the above-mentioned functional units included in the autonomous robot 1 has been described as being realized by software, as described above. However, at least one or more of the above functions possessed by the autonomous robot 1 may be realized by hardware.

また、自律行動型ロボット1が有する上記何れかの機能は、1つの機能を複数の機能に分割して実施してもよい。また、自律行動型ロボット1が有する上記何れか2つ以上の機能を1つの機能に集約して実施してもよい。すなわち、図1は、自律行動型ロボット1が有する機能を機能ブロックで表現したものであり、例えば、各機能がそれぞれ別個のプログラムファイルで構成されていることを示すものではない。 Moreover, any of the above-mentioned functions that the autonomous robot 1 has may be implemented by dividing one function into a plurality of functions. Moreover, any two or more of the above-mentioned functions that the autonomous robot 1 has may be combined into one function and implemented. That is, FIG. 1 expresses the functions of the autonomous robot 1 using functional blocks, and does not indicate that each function is constituted by a separate program file, for example.

また、自律行動型ロボット1は、1つの筐体によって実現される装置であっても、ネットワーク等を介して接続された複数の装置から実現されるシステムであってもよい。例えば、自律行動型ロボット1は、その機能の一部または全部をクラウドコンピューティングシステムによって提供されるクラウドサービス等、仮想的な装置によって実現するものであってもよい。すなわち、自律行動型ロボット1は、上記各機能のうち、少なくとも1以上の機能を他の装置において実現するようにしてもよい。また、自律行動型ロボット1は、タブレットPC等の汎用的なコンピュータであってもよく、また機能が限定された専用の装置であってもよい。 Moreover, the autonomous robot 1 may be a device realized by one housing, or a system realized by a plurality of devices connected via a network or the like. For example, the autonomous robot 1 may realize some or all of its functions using a virtual device such as a cloud service provided by a cloud computing system. That is, the autonomous robot 1 may realize at least one or more of the above functions in another device. Further, the autonomous robot 1 may be a general-purpose computer such as a tablet PC, or may be a dedicated device with limited functions.

また、自律行動型ロボット1は、その機能の一部または全部をロボット2または利用者端末3において実現するものであってもよい。 Further, the autonomous robot 1 may realize some or all of its functions in the robot 2 or the user terminal 3.

次に、図2を用いて、自律行動型ロボット1(ロボット2の制御部)のハードウェア構成を説明する。図2は、実施形態における自律行動型ロボット1のハードウェア構成の一例を示すブロック図である。 Next, the hardware configuration of the autonomous robot 1 (control unit of the robot 2) will be described using FIG. 2. FIG. 2 is a block diagram showing an example of the hardware configuration of the autonomous robot 1 in the embodiment.

自律行動型ロボット1は、CPU(Central Processing Unit)101、RAM(Random Access Memory)102、ROM(Read Only Memory)103、タッチパネル104、通信I/F(Interface)105、センサ106および時計107を有する。自律行動型ロボット1は、図1で説明した自律行動型ロボット制御プログラムを実行する装置である。 The autonomous robot 1 includes a CPU (Central Processing Unit) 101, a RAM (Random Access Memory) 102, a ROM (Read Only Memory) 103, a touch panel 104, a communication I/F (Interface) 105, a sensor 106, and has a clock 107 . The autonomous robot 1 is a device that executes the autonomous robot control program described in FIG.

CPU101は、RAM102またはROM103に記憶された自律行動型ロボット制御プログラムを実行することにより、自律行動型ロボット1の制御を行う。自律行動型ロボット制御プログラムは、例えば、自律行動型ロボット制御プログラムを記録した記録媒体、又はネットワークを介したプログラム配信サーバ等から取得されて、ROM103にインストールされ、CPU101から読出されて実行される。 The CPU 101 controls the autonomous robot 1 by executing an autonomous robot control program stored in the RAM 102 or ROM 103. The autonomous robot control program is acquired from, for example, a recording medium that records the autonomous robot control program, or a program distribution server via a network, installed in the ROM 103, and read and executed by the CPU 101.

タッチパネル104は、操作入力機能と表示機能(操作表示機能)を有する。タッチパネル104は、自律行動型ロボット1の利用者に対して指先又はタッチペン等を用いた操作入力を可能にする。本実施形態における自律行動型ロボット1は操作表示機能を有するタッチパネル104を用いる場合を説明するが、自律行動型ロボット1は、表示機能を有する表示装置と操作入力機能を有する操作入力装置とを別個有するものであってもよい。その場合、タッチパネル104の表示画面は表示装置の表示画面、タッチパネル104の操作は操作入力装置の操作として実施することができる。なお、タッチパネル104は、ヘッドマウント型、メガネ型、腕時計型のディスプレイ等の種々の形態によって実現されてもよい。 The touch panel 104 has an operation input function and a display function (operation display function). The touch panel 104 allows the user of the autonomous robot 1 to input operations using a fingertip, a touch pen, or the like. The autonomous robot 1 in this embodiment uses a touch panel 104 having an operation display function. However, the autonomous robot 1 has a display device having a display function and an operation input device having an operation input function separately. It may be something that you have. In that case, the display screen of the touch panel 104 can be performed as a display screen of a display device, and the operation of the touch panel 104 can be performed as an operation of an operation input device. Note that the touch panel 104 may be realized in various forms such as a head-mounted display, a glasses-type display, a wristwatch-type display, and the like.

通信I/F105は、通信用のI/Fである。通信I/F105は、例えば、無線LAN、有線LAN、赤外線等の近距離無線通信を実行する。図2において通信用のI/Fは通信I/F105のみを図示するが、自律行動型ロボット1は複数の通信方式においてそれぞれの通信用のI/Fを有するものであってもよい。通信I/F105は、図示しない撮影部21を制御する制御部または移動機構29を制御する制御部との通信を行うものであってもよい。 Communication I/F 105 is a communication I/F. The communication I/F 105 performs short-range wireless communication such as wireless LAN, wired LAN, and infrared rays, for example. In FIG. 2, only the communication I/F 105 is shown as the communication I/F, but the autonomous robot 1 may have communication I/Fs for each of a plurality of communication methods. The communication I/F 105 may communicate with a control unit that controls the photographing unit 21 or a control unit that controls the moving mechanism 29 (not shown).

センサ106は、撮影部21のカメラ、TOFもしくはサーモカメラ等のハードウェア、マイク、温度計、照度計、または近接センサ等のハードウェアである。これらのハードウェアによって取得されたデータは、RAM102に記憶されて、CPU101で処理される。 The sensor 106 is a camera of the photographing unit 21, hardware such as a TOF or thermo camera, a microphone, a thermometer, an illumination meter, or a proximity sensor. Data acquired by these hardware is stored in RAM 102 and processed by CPU 101.

時計107は、時刻情報を取得するための内部時計である。時計107で取得された時刻情報は、例えば、進入を禁止する時間帯の確認に使用される。 Clock 107 is an internal clock for acquiring time information. The time information acquired by the clock 107 is used, for example, to confirm the time period during which entry is prohibited.

次に、図3を用いて、ロボット制御プログラムの可視化データ提供に係る動作を説明する。図3は、実施形態におけるロボット制御プログラムの動作の一例を示すフローチャートである。以下のフローチャートの説明において、動作の実行主体は自律行動型ロボット1であるものとして説明するが、それぞれの動作は、上述した自律行動型ロボット1の各機能において実行される。 Next, the operation of the robot control program related to providing visualization data will be described using FIG. 3. FIG. 3 is a flowchart showing an example of the operation of the robot control program in the embodiment. In the explanation of the flowcharts below, it will be assumed that the autonomous robot 1 is the main entity that executes the operations, but each operation is executed by each function of the autonomous robot 1 described above.

図3において、自律行動型ロボット1は、撮影画像を取得したか否かを判断する(ステップS11)。撮影画像を取得したか否かの判断は、撮影画像取得部111がロボット2から、撮影画像を取得したか否かで判断することができる。撮影画像を取得したか否かの判断は、撮影画像の処理単位で判断される。例えば、撮影画像が動画である場合、動画はロボット2から連続して送信されるため、撮影画像を取得したか否かの判断は、取得された動画のフレーム数またはデータ量等が所定の値に達したか否かで行うことができる。撮影画像の取得は、移動式ロボットが主体となって撮影画像を送信するものであっても、撮影画像取得部111が主体となって移動式ロボットから撮影画像を引き取るものであってもよい。撮影画像を取得していないと判断した場合(ステップS11:NO)、自律行動型ロボット1は、ステップS11の処理を繰返し、撮影画像が取得されるのを待機する。 In FIG. 3, the autonomous robot 1 determines whether a photographed image has been acquired (step S11). Whether or not a photographed image has been acquired can be determined based on whether or not the photographed image acquisition unit 111 has acquired a photographed image from the robot 2. The determination as to whether or not a photographed image has been acquired is made in units of processing of the photographed image. For example, if the captured image is a video, the video is continuously transmitted from the robot 2, so the determination as to whether or not the captured image has been obtained is based on whether the number of frames or data amount of the captured video is a predetermined value. This can be done depending on whether or not it has been reached. The captured image may be acquired by the mobile robot primarily transmitting the captured image, or by the captured image acquisition unit 111 primarily receiving the captured image from the mobile robot. If it is determined that the photographed image has not been acquired (step S11: NO), the autonomous robot 1 repeats the process of step S11 and waits for the photographed image to be acquired.

一方、撮影画像を取得したと判断した場合(ステップS12:NO)、自律行動型ロボット1は、点群データを生成する(ステップS12)。点群データの生成は、点群データ生成部12が、例えば、撮影画像中の輝度の変化が大きい点を特徴点として検出し、検出された特徴点に対して三次元の座標を与えることにより実行することができる。特徴点の検出は、例えば、撮影画像に対して微分処理を行い、階調変化の大きい部分を検出するようにしてもよい。また、特徴点に対する座標の付与は、異なる撮影角度から撮影された同一の特徴点を検出することにより実行してもよい。ステップS11における撮影画像の取得の有無の判断は、複数の方向から撮影された撮影画像を取得したか否かで判断することができる。 On the other hand, if it is determined that a captured image has been acquired (step S12: NO), the autonomous robot 1 generates point cloud data (step S12). The point cloud data is generated by the point cloud data generation unit 12, for example, by detecting points with large changes in brightness in the photographed image as feature points and giving three-dimensional coordinates to the detected feature points. can be executed. To detect feature points, for example, differential processing may be performed on the captured image to detect portions with large gradation changes. Furthermore, assigning coordinates to feature points may be performed by detecting the same feature point photographed from different photographing angles. The determination as to whether or not photographed images have been acquired in step S11 can be made based on whether or not photographed images photographed from a plurality of directions have been acquired.

ステップS12の処理を実行した後、自律行動型ロボット1は、空間データを生成する(ステップS13)。空間データの生成は、空間データ生成部13が、例えば、点群データをハフ変換することにより実行することができる。なお、ステップS13の詳細は図4において説明する。 After executing the process in step S12, the autonomous robot 1 generates spatial data (step S13). The spatial data generation unit 13 can generate the spatial data by, for example, performing Hough transform on the point cloud data. Note that details of step S13 will be explained with reference to FIG.

ステップS13の処理を実行した後、自律行動型ロボット1は、生成した空間データをロボット2に対して提供する(ステップS14)。ロボット2に対する空間データの提供は、図3に示すように空間データ生成の都度、逐次提供するようにしてもよく、また、ス
テップS11~ステップS18で示す処理とは非同期に提供するようにしてもよい。空間データを提供されたロボット2は、空間データに基づき移動可能範囲を把握することが可能となる。
After executing the process in step S13, the autonomous robot 1 provides the generated spatial data to the robot 2 (step S14). The spatial data may be provided to the robot 2 sequentially each time the spatial data is generated, as shown in FIG. 3, or may be provided asynchronously with the processing shown in steps S11 to S18. good. The robot 2 provided with the spatial data can grasp the movable range based on the spatial data.

ステップS14の処理を実行した後、自律行動型ロボット1は、空間要素を認識するか否かを判断する(ステップS15)。空間要素を認識するか否かの判断は、例えば、撮影対象認識部15に対して空間要素を認識するか否かの設定を行うことにより実行することができる。なお、空間要素を認識すると判断した場合であっても、認識に失敗した場合は、空間要素を認識しないと判断するようにしてもよい。 After executing the process in step S14, the autonomous robot 1 determines whether or not it recognizes a spatial element (step S15). The determination as to whether or not to recognize a spatial element can be performed, for example, by setting the imaging target recognition unit 15 as to whether or not to recognize a spatial element. Note that even if it is determined that the spatial element is recognized, if recognition fails, it may be determined that the spatial element is not recognized.

空間要素を認識すると判断した場合(ステップS15:YES)、自律行動型ロボット1は、第1可視化データを生成する(ステップS16)。第1可視化データの生成は、可視化データ生成部14において実行することができる。第1可視化データとは、撮影対象認識部15が空間要素を認識した上で生成される可視化データである。例えば、撮影対象認識部15が空間要素をテーブルであると判断した場合、可視化データ生成部14は、テーブルの上面が撮影されておらず点群データを有さない場合であっても、テーブルの上面は平らであるものとして可視化データを生成することができる。また、空間要素が壁であると判断された場合、可視化データ生成部14は、撮影されていない部分も平面であるとして可視化データを生成することができる。 If it is determined that the spatial element is recognized (step S15: YES), the autonomous robot 1 generates first visualization data (step S16). Generation of the first visualization data can be executed by the visualization data generation section 14. The first visualization data is visualization data generated after the imaging target recognition unit 15 recognizes a spatial element. For example, when the photographing object recognition unit 15 determines that the spatial element is a table, the visualization data generation unit 14 can detect the table even if the top surface of the table is not photographed and does not have point cloud data. Visualization data can be generated assuming that the top surface is flat. Further, when it is determined that the spatial element is a wall, the visualization data generation unit 14 can generate visualization data by assuming that the portion that is not photographed is also a plane.

空間要素を認識しないと判断した場合(ステップS15:NO)、自律行動型ロボット1は、第2可視化データを生成する(ステップS17)。第2可視化データの生成は、可視化データ生成部14において実行することができる。第2可視化データとは、撮影対象認識部15が空間要素を認識しないで、すなわち、撮影画像から生成された点群データ及び空間データに基づき生成される可視化データである。自律行動型ロボット1は、空間要素の認識処理を行わないことで、処理負荷を軽減することができる。 If it is determined that the spatial element is not recognized (step S15: NO), the autonomous robot 1 generates second visualization data (step S17). Generation of the second visualization data can be executed by the visualization data generation unit 14. The second visualization data is visualization data that is generated without the photographing target recognition unit 15 recognizing spatial elements, that is, based on point cloud data and spatial data generated from the photographed image. The autonomous robot 1 can reduce the processing load by not performing spatial element recognition processing.

ステップS16の処理またはステップS17の処理を実行した後、自律行動型ロボット1は、可視化データを提供する(ステップS18)。可視化データの提供は、可視化データ生成部14において生成された可視化データを可視化データ提供部161が利用者端末3に提供することにより実行される。自律行動型ロボット1は、例えば利用者端末3からの要求に応じて可視化データを生成して提供するようにしてもよい。ステップS18の処理を実行した後、自律行動型ロボット1は、フローチャートで示した動作を終了する。 After executing the process of step S16 or the process of step S17, the autonomous robot 1 provides visualization data (step S18). The visualization data is provided by the visualization data providing unit 161 providing the user terminal 3 with the visualization data generated by the visualization data generating unit 14 . The autonomous robot 1 may generate and provide visualization data in response to a request from the user terminal 3, for example. After executing the process of step S18, the autonomous robot 1 ends the operation shown in the flowchart.

次に、図4を用いて、ロボット制御プログラムの空間データ生成に係る動作を説明する。図4は、実施形態におけるロボット制御プログラムの動作の他の一例を示すフローチャートである。 Next, operations related to spatial data generation of the robot control program will be explained using FIG. 4. FIG. 4 is a flowchart showing another example of the operation of the robot control program in the embodiment.

図4において、自律行動型ロボット1は、空間データを生成する(ステップS121)。空間データの生成は、空間データ生成部13が、例えば、点群データをハフ変換することにより実行することができる。ステップS131を実行した後、自律行動型ロボット1は、マーカを認識したか否かを判断する(ステップS122)。マーカを認識したか否かは、マーカ認識部22が、撮影部21において撮影された撮影画像の中にマーカの画像を認識したか否かで判断することができる。ロボット2は、データ提供装置10に対してマーカの認識結果を通知することができる。 In FIG. 4, the autonomous robot 1 generates spatial data (step S121). The spatial data generation unit 13 can generate the spatial data by, for example, performing Hough transform on the point cloud data. After executing step S131, the autonomous robot 1 determines whether the marker has been recognized (step S122). Whether or not the marker has been recognized can be determined by whether the marker recognition section 22 has recognized the marker image in the photographed image photographed by the photographing section 21. The robot 2 can notify the data providing device 10 of the marker recognition results.

マーカを認識したと判断した場合(ステップS122:YES)、自律行動型ロボット1は、ステップS121において生成した空間データに移動が制限される制限範囲を設定する(ステップS123)。 If it is determined that the marker has been recognized (step S122: YES), the autonomous robot 1 sets a restriction range within which movement is restricted in the spatial data generated in step S121 (step S123).

マーカを認識していないと判断した場合(ステップS122:NO)、自律行動型ロボット1は、状態情報が取得されているか否かを判断する(ステップS124)。状態情報が取得されているか否かは、状態情報取得部24において状態情報が取得されているか否かで判断することができる。状態情報が取得されていると判断した場合(ステップS124:YES)、自律行動型ロボット1は取得された状態情報を空間データに対応させて設定する(ステップS125)。なお、設定された状態情報は、可視化データ提供部161から可視化データに対応させて提供される。 If it is determined that the marker is not recognized (step S122: NO), the autonomous robot 1 determines whether state information has been acquired (step S124). Whether or not the status information has been acquired can be determined based on whether the status information is acquired by the status information acquisition unit 24. If it is determined that the state information has been acquired (step S124: YES), the autonomous robot 1 sets the acquired state information in correspondence with the spatial data (step S125). Note that the set status information is provided by the visualization data providing unit 161 in correspondence with the visualization data.

一方、状態情報が取得されていない判断した場合(ステップS124:NO)、ステップS123の処理を実行した後、またはステップS125の処理を実行した後、自律行動型ロボット1は、フローチャートで示したステップS12の提供データ生成の動作を終了する。 On the other hand, if it is determined that the state information has not been acquired (step S124: NO), after executing the process of step S123 or after executing the process of step S125, the autonomous robot 1 performs the steps shown in the flowchart. The operation of generating provided data in S12 ends.

なお、本実施形態で説明したロボット制御プログラムの動作(ロボット制御方法)における各ステップにおける処理は、実行順序を限定するものではない。 Note that the execution order of the processing in each step in the operation of the robot control program (robot control method) described in this embodiment is not limited.

次に、図5を用いて、ペアのマーカの設置による進入禁止ラインの設定方法を説明する。図5は、実施形態における進入禁止ラインの設定方法を示す図である。 Next, a method of setting a no-entry line by installing a pair of markers will be explained using FIG. 5. FIG. 5 is a diagram showing a method of setting a no-entry line in the embodiment.

<ペアのマーカによる通路への進入禁止ラインの設置>
図5において、壁1と壁2の間、および壁1と壁3の間には、ロボット2が移動可能な通路(出入口)が存在しているものとする。利用者は、壁1と壁2の間において、壁1側に第1マーカとしてマーカ1aを設置し、さらに壁2側に第2マーカとしてマーカ1bを設置する。マーカ1aとマーカ1bはマーカ認識部22によってペアのマーカであると認識される。制限範囲設定部231は、マーカ1aとマーカ1bを直線で結んだ線を進入禁止ライン1として設定する。進入禁止ライン1を設定することにより、利用者はロボット2が進入禁止ライン1を越えて移動することを制限することができる。
<Installation of a no-entry line into the aisle using paired markers>
In FIG. 5, it is assumed that passages (entrances and exits) through which the robot 2 can move exist between walls 1 and 2 and between walls 1 and 3. Between walls 1 and 2, the user places a marker 1a on the wall 1 side as a first marker, and further places a marker 1b on the wall 2 side as a second marker. The marker recognition unit 22 recognizes the marker 1a and the marker 1b as a pair of markers. The restricted range setting unit 231 sets a line connecting the marker 1a and the marker 1b with a straight line as the no-entry line 1. By setting the entry prohibition line 1, the user can restrict the robot 2 from moving beyond the entry prohibition line 1.

<単独のマーカによる通路への進入禁止ラインの設置>
利用者は、壁1と壁3の間の通路において、通路の近くの壁1側にマーカ2を設置する。マーカ2はマーカ認識部22によって単独のマーカであると認識される。制限範囲設定部231は、マーカ2の近くに通路があるか否かを確認する。通路がある場合、制限範囲設定部231は、マーカ2の設置位置と通路の位置から、通路上の直線を進入禁止ライン2として設定する。制限範囲設定部231がマーカ2の付近に通路があるか否かを確認することができるので、利用者は、単独のマーカにおいても通路へのロボットの進入を禁止することが可能となる。
<Installation of a no-entry line in the aisle using a single marker>
In the passage between the walls 1 and 3, the user places the marker 2 on the wall 1 side near the passage. Marker 2 is recognized by the marker recognition unit 22 as a single marker. The limit range setting unit 231 checks whether there is a passage near the marker 2 or not. If there is a passage, the restriction range setting unit 231 sets a straight line on the passage as a no-entry line 2 based on the installation position of the marker 2 and the position of the passage. Since the restriction range setting unit 231 can confirm whether there is a passage near the marker 2, the user can prohibit the robot from entering the passage even with a single marker.

<単独のマーカによる第1進入禁止エリアの設置>
利用者は、壁3にマーカ3を貼り付ける。マーカ3はマーカ認識部22によって単独のマーカであると認識される。制限範囲設定部231は、マーカ3の近くに通路があるか否かを確認する。通路がない場合、制限範囲設定部231は、マーカ2の設置位置から所定の範囲(例えば、マーカ3の設置位置を中心とした半円形)を第1進入禁止エリアとして設定する。
<Establishment of the first no-entry area using a single marker>
The user pastes the marker 3 on the wall 3. Marker 3 is recognized by the marker recognition unit 22 as a single marker. The limit range setting unit 231 checks whether there is a passage near the marker 3 or not. If there is no passage, the restricted range setting unit 231 sets a predetermined range from the installation position of the marker 2 (for example, a semicircle centered on the installation position of the marker 3) as the first no-entry area.

<単独のマーカによる第2進入禁止エリアの設置>
利用者は、部屋の中央部にマーカ4を設置する。マーカ4は、例えば、立体的なマーカである。マーカ4はマーカ認識部22によって単独のマーカであると認識される。制限範囲設定部231は、マーカ4の周囲の所定の範囲(例えば、マーカ4の設置位置を中心とした円形)を第2進入禁止エリアとして設定する。
<Establishment of a second no-entry area using a single marker>
The user places the marker 4 in the center of the room. The marker 4 is, for example, a three-dimensional marker. The marker recognition unit 22 recognizes the marker 4 as a single marker. The restricted range setting unit 231 sets a predetermined range around the marker 4 (for example, a circle centered on the installation position of the marker 4) as a second no-entry area.

次に、図6から図7を用いて、自律行動型ロボット1が提供する利用者端末3における制限範囲の設定を説明する。図6から図7は、実施形態における利用者端末3の表示の一例を示す図である。図6から図7は、可視化データ提供部161から可視化データとして提供されたWebページを、利用者端末3として例示するスマートフォンのタッチパネルにおいて表示した表示例である。 Next, the setting of the limit range in the user terminal 3 provided by the autonomous robot 1 will be explained using FIGS. 6 to 7. 6 to 7 are diagrams showing examples of displays on the user terminal 3 in the embodiment. 6 to 7 are display examples in which a web page provided as visualization data from the visualization data providing unit 161 is displayed on a touch panel of a smartphone exemplified as the user terminal 3.

図6において、利用者端末3には、ロボット2において撮影されたリビングルームの撮影画像に基づき、可視化データ生成部14において生成された2Dの表示データが表示される。可視化データ生成部14は、点群データがハフ変換されて抽出された線分(直線または曲線)をラスタライズし、壁や家具等の空間要素の境界線を2Dで描画している。可視化データ生成部14は、マーカ認識部22で認識されたペアのマーカ画像または状態情報取得部24で取得された状態情報に基づき、進入禁止ライン36を表示している。進入禁止ライン36は、始点と終点を指定することにより設定することができる。始点と終点の設定は、ペアのマーカの設置、または利用者端末3からの設定によって行うことができる。進入禁止ライン36の中央部には進入禁止のマークが表示されている。進入禁止のマークを押下すると削除ボタン37が表示される。削除ボタン37を押下すると一度設定した進入禁止ライン36を消去することができる。なお、図示する家型のアイコンhは、ロボット2が充電のために帰巣するホームポジションを表している。 In FIG. 6, the user terminal 3 displays 2D display data generated by the visualization data generation unit 14 based on the captured image of the living room captured by the robot 2. The visualization data generation unit 14 rasterizes line segments (straight lines or curves) extracted by Hough transform of the point cloud data, and draws boundaries of spatial elements such as walls and furniture in 2D. The visualization data generation unit 14 displays the no-entry line 36 based on the pair of marker images recognized by the marker recognition unit 22 or the status information acquired by the status information acquisition unit 24. The no-entry line 36 can be set by specifying a starting point and an ending point. The starting point and ending point can be set by setting a pair of markers or by setting from the user terminal 3. An entry prohibition mark is displayed in the center of the entry prohibition line 36. When the entry prohibition mark is pressed, a delete button 37 is displayed. By pressing the delete button 37, the once set entry prohibition line 36 can be deleted. Note that the illustrated house-shaped icon h represents the home position where the robot 2 returns to its home for charging.

図6は、進入禁止ライン36より右側は空間データが未作成なエリアである。利用者は進入禁止ライン36を利用者端末3に表示された可視化データから設定し、確認し、または削除することができる。すなわち、自律行動型ロボット1は、撮影部21で撮影された画像からロボット2が移動可能な範囲を定めた可視化されたマップを生成できるとともに、ロボット2が進入できない進入禁止エリアを利用者端末3から設定することを可能にする。なお、利用者端末3は、ロボット2の移動を制限する条件を設定できるようにしてもよい。例えば、利用者端末3は、利用者に対して、ロボット2の進入を禁止する時間帯、人の有無に対する移動の制限の内容、移動を制限するときの照明の状態等を設定できるようにしてもよい。例えば、利用者端末3は、人が食事の準備をする朝夕の時間帯においてキッチンへの進入を禁止したり、照明が消えている場合において書斎への侵入を禁止したりするように条件を設定できるようにしてもよい。 In FIG. 6, the area to the right of the no-entry line 36 is an area where spatial data has not yet been created. The user can set, confirm, or delete the no-entry line 36 from the visualization data displayed on the user terminal 3. That is, the autonomous robot 1 can generate a visualized map that defines the movable range of the robot 2 from the image taken by the photographing unit 21, and also mark the user terminal 3 as a prohibited area where the robot 2 cannot enter. Allows you to configure from Note that the user terminal 3 may be configured to be able to set conditions for restricting the movement of the robot 2. For example, the user terminal 3 allows the user to set the time period during which the robot 2 is prohibited from entering, the content of restrictions on movement based on the presence or absence of people, the state of lighting when restricting movement, etc. Good too. For example, the user terminal 3 sets conditions such as prohibiting people from entering the kitchen during morning and evening hours when people are preparing meals, or prohibiting people from entering the study when the lights are off. It may be possible to do so.

図7において、利用者端末3には、図6と同様にロボット2において撮影されたリビングルームの撮影画像に基づき、可視化データ生成部14において生成された2Dの可視化データが表示される。進入禁止ライン36の右側には洋室の可視化データが表示され、進入禁止ライン36によってロボット2が洋室38に進入が禁止されていることが確認できる。例えば、洋室38の撮影画像に基づき洋室38の空間データが生成された後に洋室38を進入禁止に設定したい場合がある。利用者はペアの進入禁止のためのマーカを洋室38の入り口に設置することにより、または利用者端末3から進入禁止ライン36を設定することにより、洋室38を進入禁止のエリアに設定することが可能となる。また、洋室38は既に空間データが生成されているため、利用者は、進入禁止ライン36を削除することにより、ロボット2を洋室38に移動できることが確認できる。なお、利用者は、利用者端末3のタッチパネルをピンチインまたはピンチアウトすることにより、表示の拡大縮小を行うことができる。 In FIG. 7, the user terminal 3 displays 2D visualization data generated by the visualization data generation unit 14 based on the captured image of the living room captured by the robot 2, as in FIG. Visualization data of the Western-style room is displayed on the right side of the no-entry line 36, and it can be confirmed that the robot 2 is prohibited from entering the Western-style room 38 due to the no-entry line 36. For example, after the spatial data of the Western-style room 38 is generated based on the photographed image of the Western-style room 38, there is a case where it is desired to set the Western-style room 38 to be prohibited from entering. The user can set the Western-style room 38 as a no-entry area by placing a marker at the entrance of the Western-style room 38 to prohibit the pair from entering, or by setting a no-entry line 36 from the user terminal 3. It becomes possible. Furthermore, since spatial data has already been generated for the Western-style room 38, the user can confirm that the robot 2 can be moved to the Western-style room 38 by deleting the no-entry line 36. Note that the user can enlarge or reduce the display by pinching in or pinching out the touch panel of the user terminal 3.

実施形態1の変形例として、例えば、図1の可視化データ提供部161は、可視化データとともに、その元となった画像を利用者端末3に提供してもよい。例えば、利用者が利用者端末3に表示されている間取りの一部を指定することで、そこを撮影した画像が表示されるようにしてもよい。すなわち、空間要素毎にその特定に用いた画像が蓄積され、利用者が空間要素を指定した際は、その空間要素に対応付けられた画像が提供される。これにより、利用者は可視化データから認識状態を判断できないときに、画像を用いて認識状
態を判断できる。
As a modification of the first embodiment, for example, the visualization data providing unit 161 in FIG. 1 may provide the user terminal 3 with the original image along with the visualization data. For example, when the user specifies a part of the floor plan displayed on the user terminal 3, an image taken of that part may be displayed. That is, images used for specifying each spatial element are accumulated, and when a user specifies a spatial element, an image associated with that spatial element is provided. This allows the user to use the image to determine the recognition state when the recognition state cannot be determined from the visualized data.

更に別の変形例として、図6を用いて説明した進入禁止の制限範囲の指定方法として、利用者端末3のタッチパネルの画面に対して、指先で円を描く要領で指先を滑らせる操作でよく、制限範囲を囲むように指先を動かすことで指定する。この操作に連動して、画面には指先の軌跡が描かれ、可視化データに重ねるように指先の軌跡が可視化される。 As yet another modification, the method of specifying the restricted area where entry is prohibited as explained using FIG. 6 may be performed by sliding the fingertip in a circular motion on the touch panel screen of the user terminal 3. , specify by moving your fingertips to enclose the restricted range. In conjunction with this operation, the trajectory of the fingertip is drawn on the screen, and the trajectory of the fingertip is visualized overlapping the visualization data.

また、マーカが平面的である場合、上述のようにマーカの撮影角度によっては、マーカの認識ができない場合がある。例えば、道路標識の場合は、車の走行に対して運転者が視認しやすいように走行方向と略直角になるように設置される。しかし、ロボット2が移動する経路においては壁にマーカが貼り付けられる場合があり、カメラの撮影方向によってはマーカが見落とされる可能性がある。例えば、図5で示したマーカ2は壁1に貼り付けられるため、ロボット2が壁3沿いにマーカ3に向かって移動した場合、マーカを確認する前に通路に進入してしまう可能性がある。そこで、本実施形態の変形例として、ロボット2が進入可能な空間(例えば、壁に設けられた通路)を発見した場合、空間の入り口近くにマーカが設置されていないか否かの積極的な確認動作を行うようにする。例えば、空間の入り口が壁の間に設けられた通路である場合、マーカは通路の入り口近くの壁に貼り付けられている可能性がある。ロボット2は通路の入り口の壁に設置されている可能性があるマーカを視認しやすい位置、例えば通路正面の位置に移動して、壁を撮影する積極的な確認動作を行うことによりマーカの見落としを防止することが可能となる。なお、マーカの積極的な確認動作は、環境条件が異なるエリアの発見時またはそのエリアへの侵入時に行うようにしてもよい。環境条件とは、例えば、ロボット2が移動する空間の照度、温度、湿度もしくは騒音レベル等であり、環境条件の変化には壁の色等の空間要素の変化等を含んでいてもよい。 Furthermore, if the marker is planar, the marker may not be recognized depending on the photographing angle of the marker as described above. For example, in the case of a road sign, the road sign is installed approximately perpendicular to the direction of travel so that the driver can easily see the road sign. However, markers may be pasted on walls along the route that the robot 2 moves, and the markers may be overlooked depending on the shooting direction of the camera. For example, since the marker 2 shown in FIG. 5 is pasted on the wall 1, if the robot 2 moves toward the marker 3 along the wall 3, it may enter the passageway before checking the marker. . Therefore, as a modification of the present embodiment, when the robot 2 discovers a space into which it can enter (for example, a passage provided on a wall), it actively checks whether or not a marker is installed near the entrance of the space. Perform a confirmation operation. For example, if the entrance to the space is a passageway between walls, the marker may be affixed to the wall near the entrance to the passageway. Robot 2 moves to a position where it is easy to see markers that may be installed on the wall at the entrance of the passageway, for example, to a position in front of the passageway, and performs an active checking operation of photographing the wall, thereby making sure that the marker is not overlooked. This makes it possible to prevent Note that the active marker confirmation operation may be performed when an area with different environmental conditions is discovered or when an area is entered. The environmental conditions are, for example, the illuminance, temperature, humidity, or noise level of the space in which the robot 2 moves, and changes in the environmental conditions may include changes in spatial elements such as the color of the walls.

また、制限範囲設定部231は、マーカが設置されている設置位置の空間データの代わりに、マーカが設置されている周辺の特徴点に基づき制限範囲を設定するようにしてもよい。周辺の特徴点とは、例えば、床に配置されたケーブル、段差等の空間要素である。マーカが設置されている特徴点を学習することにより、マーカが設置されていない他の同様な特徴点を有する場所においても移動を制限する学習効果を得ることが可能となる。 Further, the restricted range setting unit 231 may set the restricted range based on feature points around the marker, instead of the spatial data of the installation position where the marker is installed. The surrounding feature points are, for example, spatial elements such as cables placed on the floor and steps. By learning the feature points where markers are installed, it is possible to obtain the learning effect of restricting movement even in locations with similar feature points where markers are not installed.

また、ロボットが複数台存在する場合、移動の制限の内容をロボット毎に異なる内容で設定するようにしてもよい。例えば、同じマーカを認識した場合、ロボットによって制限される進入禁止エリアを異なるように設定してもよい。ロボット毎に制限内容を変えて設定することにより、ロボットの用途(例えば、掃除用ロボット、目覚まし用ロボット等)に応じた制限を設定することが可能となる。 Furthermore, if there are multiple robots, the content of movement restrictions may be set differently for each robot. For example, when the same marker is recognized, the prohibited areas restricted by the robot may be set differently. By setting different restrictions for each robot, it is possible to set restrictions according to the purpose of the robot (for example, a cleaning robot, an alarm clock robot, etc.).

また、ロボットは、マーカによって一度設定された制限の内容を学習するようにしてもよい。例えば、ロボットは一時マーカによって進入禁止エリアが設定されたことを学習することにより、その後、マーカが撤去された後においても進入頻度を低くするようにしてもよい。これを実現するため、マーカ認識部22は、一時マーカや恒久マーカの位置を、それぞれマーカ種類を特定する情報に対応付けて記憶する。このように、一時マーカの位置も記憶しておくことで、ロボットは、一時マーカが設置されていたエリアへの進入をためらう振る舞いをしたり、エリアへの進入頻度を低くしたりする等の動作を実行することが可能となる。 Further, the robot may learn the contents of the restrictions once set by the marker. For example, by learning that a no-entry area has been set by a temporary marker, the robot may reduce the frequency of entry even after the marker is removed. To achieve this, the marker recognition unit 22 stores the positions of temporary markers and permanent markers in association with information specifying the marker type. In this way, by remembering the position of the temporary marker, the robot can take actions such as hesitating to enter the area where the temporary marker was placed or reducing the frequency of entering the area. It becomes possible to execute.

[実施形態2]
実施形態1では進入禁止の場所を自律行動型ロボット1に認識させるためにマーカを用いる例を示したが、任意の場所を自律行動型ロボット1に認識させるためにマーカを用いてもよい。つまり、住居や施設における任意の場所にマーカを設置し、自律行動型ロボッ
ト1に当該マーカが設置された場所の位置を認識させるようにしてもよい。
[Embodiment 2]
In the first embodiment, an example is shown in which a marker is used to make the autonomous robot 1 recognize a place where entry is prohibited, but a marker may be used to make the autonomous robot 1 recognize an arbitrary place. That is, a marker may be installed at an arbitrary location in a residence or facility, and the autonomous robot 1 may be made to recognize the position of the location where the marker is installed.

住宅には、玄関、子供部屋や寝室のように任意のエリアが含まれる。施設には、受付カウンター、休憩所や非常口などの任意のエリアが含まれる。これらのエリアに対応付けられたエリア種別(例えば、後述する玄関タイプや受付カウンタータイプ)を識別可能なマーカを用いる。マーカは、形状、模様、色彩若しくはそのマーカに付された文字若しくは図形又はこれらの組み合わせなど、画像認識によりエリア種別が識別可能な特徴を有していれば、どのようなものであってもよい。例えば、汎用的な変換方式(バーコード方式あるいは2次元バーコード方式など)でエリア種別のコードを図形化した図形コードをマーカとして用いてもよい。この場合には、マーカ認識部22は、当該変換方式によって図形コードからエリア種別のコードを読み取ることができる。あるいは、独自にデザイン化した図形をマーカとして用いてもよい。この場合には、マーカ認識部22は、撮影画像に含まれる図形の形状が所定の形状である場合にその図形の種類を特定し、特定した図形の種類に対応するエリア種別を特定するようにしてもよい。データ提供装置10又はロボット2において、図形の種類とエリア種別を対応付けるデータを記憶しておくものとする。つまり、実施形態2におけるマーカは、いずれかのエリア種別を特定し得る。 A home can include any area such as the entryway, children's room or bedroom. Facilities include any areas such as reception counters, rest areas and emergency exits. A marker is used that can identify the area type (for example, an entrance type or a reception counter type, which will be described later) associated with these areas. The marker may be of any type as long as it has characteristics that allow the area type to be identified through image recognition, such as shape, pattern, color, characters or figures attached to the marker, or a combination thereof. . For example, a graphic code obtained by converting an area type code into a graphic using a general-purpose conversion method (bar code method, two-dimensional bar code method, etc.) may be used as the marker. In this case, the marker recognition unit 22 can read the area type code from the graphic code using the conversion method. Alternatively, a uniquely designed figure may be used as a marker. In this case, the marker recognition unit 22 specifies the type of figure included in the captured image if the shape is a predetermined shape, and specifies the area type corresponding to the identified type of figure. You can. It is assumed that the data providing device 10 or the robot 2 stores data that associates the type of figure with the type of area. In other words, the marker in the second embodiment can specify any area type.

このようなマーカを、エリア種別によって識別されるエリアに設置しておけば、自律行動型ロボット1は、マーカの設置場所がエリア種別で識別されるエリアに該当すると認識できる。例えば、玄関に玄関タイプのマーカを設置しておけば、自律行動型ロボット1は玄関タイプのマーカの設置場所が玄関であると認識できる。 If such a marker is installed in an area identified by the area type, the autonomous robot 1 can recognize that the marker installation location corresponds to the area identified by the area type. For example, if an entrance-type marker is installed at the entrance, the autonomous robot 1 can recognize that the entrance-type marker is installed at the entrance.

実施形態2では、自律行動型ロボット1において、所定イベントとエリア種別とを対応付けるマーカ情報を記憶している。自律行動型ロボット1が所定イベントを検出すると、ロボット2は、所定イベントに対応するエリア種別のマーカが設置されている場所(マーカ設置場所という。)へ移動する。ロボット2が、マーカ設置場所へ移動する契機となる所定イベントを第1イベントという。第1イベントは、ロボット2で検出される場合とデータ提供装置10で検出される場合とがある。 In the second embodiment, the autonomous robot 1 stores marker information that associates a predetermined event with an area type. When the autonomous robot 1 detects a predetermined event, the robot 2 moves to a location where a marker of the area type corresponding to the predetermined event is installed (referred to as a marker installation location). The predetermined event that triggers the robot 2 to move to the marker installation location is referred to as a first event. The first event may be detected by the robot 2 or the data providing device 10.

さらに、ロボット2がマーカ設置場所へ移動した後に、自律行動型ロボット1が別の所定イベントを検出すると、ロボット2は所定のアクションを実行する。ロボット2が、所定のアクションを実行する契機となるイベントを第2イベントという。第2イベントは、ロボット2で検出される場合とデータ提供装置10で検出される場合とがある。実行されるアクションは、第1イベント、エリア種別及び第2イベントのうちの少なくとも1つに対応する。実施形態2では、自律行動型ロボット1において、第1イベント、エリア種別及び第2イベントのうち少なくとも1つとアクションとを対応付けるイベント情報を記憶している。ロボット2において、当該イベント情報を記憶してもよい。 Furthermore, when the autonomous robot 1 detects another predetermined event after the robot 2 moves to the marker installation location, the robot 2 executes a predetermined action. An event that triggers the robot 2 to perform a predetermined action is referred to as a second event. The second event may be detected by the robot 2 or the data providing device 10. The action to be executed corresponds to at least one of the first event, the area type, and the second event. In the second embodiment, the autonomous robot 1 stores event information that associates an action with at least one of the first event, area type, and second event. The robot 2 may store the event information.

図8は、実施形態2におけるロボット2のモジュール構成の一例を示すブロック図である。図8は、後述する実施例1~6に関する機能部についても示している。ロボット2は、マーカ認識部22、位置測定部25、移動制御部23、通信制御部26、第1イベント検出部210、第2イベント検出部220及びアクション実行部230の各機能部を有する。実施形態2におけるロボット2の上記各機能部は、ロボット2を制御するプログラムによって実現される機能モジュールであるものとして説明する。 FIG. 8 is a block diagram showing an example of the module configuration of the robot 2 in the second embodiment. FIG. 8 also shows functional units related to Examples 1 to 6, which will be described later. The robot 2 includes a marker recognition section 22, a position measurement section 25, a movement control section 23, a communication control section 26, a first event detection section 210, a second event detection section 220, and an action execution section 230. The above-mentioned functional units of the robot 2 in the second embodiment will be described as functional modules realized by a program that controls the robot 2.

マーカ認識部22は、撮影画像に含まれるマーカを認識し、マーカが示すエリア種別を特定する。位置測定部25は、ロボット2の現在位置及び方向を測定する。位置測定部25は、撮影画像に基づいて現在位置及び方向を測定してもよいし、所定の位置に設置された無線通信デバイスから受信する電波に基づいて現在位置を測定してもよい。現在位置を測定する方法は、従来技術であってもよい。位置測定部25は、自己位置の推定と環境地
図の作成を同時に行うSLAM(Simultaneous Localization and Mapping)技術を用いてもよい。移動制御部23は、ロボット2の移動を制御する。移動制御部23は、目的地までの経路を設定し、移動機構29を駆動して経路を辿って目的地へ自らを移動させる。通信制御部26は、データ提供装置10との通信を行う。
The marker recognition unit 22 recognizes the marker included in the photographed image and specifies the area type indicated by the marker. The position measuring unit 25 measures the current position and direction of the robot 2. The position measuring unit 25 may measure the current position and direction based on a captured image, or may measure the current position based on radio waves received from a wireless communication device installed at a predetermined position. The method of determining the current location may be any conventional technique. The position measurement unit 25 may use SLAM (Simultaneous Localization and Mapping) technology that simultaneously estimates the self-position and creates an environmental map. The movement control unit 23 controls the movement of the robot 2. The movement control unit 23 sets a route to the destination and drives the movement mechanism 29 to move itself to the destination along the route. The communication control unit 26 communicates with the data providing device 10.

第1イベント検出部210は、第1イベントを検出する。第1イベント検出部210は、音声認識や画像認識などの認識処理の結果に基づいて第1イベントを検出してもよい。つまり、第1イベント検出部210は、ロボット2が備えるマイクで入力した音が所定音声に該当すると推測される特性が含まれると判断した場合に、第1イベントを検出してもよい。第1イベント検出部210は、例えば予めサンプルとなる所定音声を録音して、その音声を分析して周波数分布、抑揚や音量が高まる周期などの特徴データを抽出しておく。そして、第1イベント検出部210は、マイクで入力した音に対しても同様の分析を行い、周波数分布、抑揚や音量が高まる周期などの特徴データがサンプルの場合と一致又は近似する場合に、マイクで入力した音が所定音声に該当すると推測してもよい。 The first event detection unit 210 detects a first event. The first event detection unit 210 may detect the first event based on the result of recognition processing such as voice recognition or image recognition. That is, the first event detection unit 210 may detect the first event when it is determined that the sound input by the microphone included in the robot 2 includes characteristics that are presumed to correspond to the predetermined sound. The first event detection unit 210, for example, records a predetermined audio sample in advance, analyzes the audio, and extracts characteristic data such as frequency distribution, intonation, and the period of increase in volume. Then, the first event detection unit 210 performs a similar analysis on the sound input through the microphone, and if the characteristic data such as frequency distribution, intonation, and period of increase in volume match or approximate the sample, It may be assumed that the sound inputted by the microphone corresponds to the predetermined sound.

また、第1イベント検出部210は、撮影部21で撮影した画像に任意の人、所定の人あるいは所定の物が写っていると推測される場合に、第1イベントを検出してもよい。第1イベント検出部210は、例えば予めサンプルとなる任意の人、所定の人あるいは所定の物を撮影部21で撮影し、その撮影画像を分析して被写体の大きさ、形状及びパーツの配置などの特徴データを抽出しておく。そして、第1イベント検出部210は、撮影部21で撮影した画像を分析して、サンプルに大きさ、形状及びパーツの配置などの特徴データが共通又は近似する被写体が含まれると判定した場合に、撮影した画像に任意の人、所定の人あるいは所定の物が写っていると推測してもよい。 Further, the first event detection section 210 may detect the first event when it is estimated that an arbitrary person, a predetermined person, or a predetermined object is included in the image photographed by the photographing section 21. The first event detection unit 210 photographs an arbitrary person, a predetermined person, or a predetermined object as a sample in advance using the photographing unit 21, and analyzes the photographed image to determine the size, shape, and arrangement of parts of the subject. Extract the feature data of. Then, the first event detection unit 210 analyzes the image taken by the imaging unit 21 and determines that the sample includes an object that has common or similar characteristic data such as size, shape, and arrangement of parts. , it may be assumed that an arbitrary person, a predetermined person, or a predetermined object appears in the photographed image.

第1イベント検出部210は、温度センサ、接触センサあるいは加速度センサなどの各種センサの計測結果に基づいて第1イベントを検出してもよい。第1イベント検出部210は、センサの計測値が所定の下限値を下回った場合、センサの計測値が所定の範囲に収まった場合、センサの計測値が所定の範囲から外れた場合、あるいはセンサの計測値が所定の上限値を上回った場合に、第1イベントを検出してもよい。第1イベント検出部210は、例えば温度センサによって人の体温に相当する温度を計測したときに第1イベントを検出してもよい。第1イベント検出部210は、例えば接触センサによって人のタッチに相当する接触を計測したときに第1イベントを検出してもよい。第1イベント検出部210は、交通事故の衝撃や地震などの大きな揺れに相当する加速度の変化を加速度センサによって計測したときに第1イベントを検出してもよい。 The first event detection unit 210 may detect the first event based on measurement results of various sensors such as a temperature sensor, a contact sensor, or an acceleration sensor. The first event detection unit 210 detects when the measured value of the sensor falls below a predetermined lower limit value, when the measured value of the sensor falls within a predetermined range, when the measured value of the sensor deviates from the predetermined range, or when the measured value of the sensor The first event may be detected when the measured value of exceeds a predetermined upper limit. The first event detection unit 210 may detect the first event when, for example, a temperature sensor measures a temperature corresponding to a person's body temperature. The first event detection unit 210 may detect the first event when a contact corresponding to a human touch is measured by a contact sensor, for example. The first event detection unit 210 may detect the first event when an acceleration sensor measures a change in acceleration corresponding to a large shaking such as an impact caused by a traffic accident or an earthquake.

第1イベント検出部210は、通信処理における通信状態に基づいて第1イベントを検出してもよい。第1イベント検出部210は、例えば無線通信における電波強度、所定の通信相手との通信時間あるいは所定時間当たりの伝送量などの通信状態を示す特性値が下限値を下回った場合、通信状態を示す特性値が所定の範囲に収まった場合、通信状態を示す特性値が所定の範囲から外れた場合、あるいは通信状態を示す特性値が所定の上限値を上回った場合に、第1イベントを検出してもよい。 The first event detection unit 210 may detect the first event based on the communication state in communication processing. The first event detection unit 210 indicates the communication state when a characteristic value indicating the communication state, such as radio wave intensity in wireless communication, communication time with a predetermined communication partner, or transmission amount per predetermined time, falls below a lower limit value. The first event is detected when the characteristic value falls within a predetermined range, when the characteristic value indicating the communication status deviates from the predetermined range, or when the characteristic value indicating the communication status exceeds a predetermined upper limit value. You can.

第1イベント検出部210は、データ提供装置10、利用者端末3あるいは他の外部装置から受信したデータに基づいて、第1イベントを検出してもよい。第1イベント検出部210は、例えばデータ提供装置10や他の外部装置から所定の通知を受信した場合に、第1イベントを検出してもよい。第1イベント検出部210は、利用者端末3から利用者による所定の要求を受け付けた場合に、第1イベントを検出してもよい。 The first event detection unit 210 may detect the first event based on data received from the data providing device 10, the user terminal 3, or another external device. The first event detection unit 210 may detect the first event, for example, when receiving a predetermined notification from the data providing device 10 or another external device. The first event detection unit 210 may detect the first event when receiving a predetermined request from the user from the user terminal 3.

音声認識部211、電波状態検出部213、見回りイベント検出部215及び起床イベント検出部217は、第1イベント検出部210の例である。音声認識部211について
は、実施例2(子守の応用例)で説明する。電波状態検出部213については、実施例4(通話サポートの応用例)で説明する。見回りイベント検出部215については、実施例5(警備の応用例)で説明する。起床イベント検出部217については、実施例6(目覚ましの応用例)で説明する。
The voice recognition section 211 , the radio wave condition detection section 213 , the patrol event detection section 215 , and the wake-up event detection section 217 are examples of the first event detection section 210 . The voice recognition unit 211 will be described in a second embodiment (an application example of babysitting). The radio wave condition detection unit 213 will be explained in a fourth embodiment (an application example of call support). The patrol event detection unit 215 will be described in Example 5 (security application example). The wake-up event detection unit 217 will be described in Example 6 (alarm clock application example).

第2イベント検出部220は、第2イベントを検出する。第2イベント検出部220は、第1イベント検出部210の場合と同様に、音声認識や画像認識などの認識処理の結果に基づいて第2イベントを検出してもよい。第2イベント検出部220は、第1イベント検出部210の場合と同様に、温度センサ、接触センサあるいは加速度センサなどの各種センサの計測結果に基づいて第2イベントを検出してもよい。第2イベント検出部220は、第1イベント検出部210の場合と同様に、通信処理における通信状態に基づいて第2イベントを検出してもよい。第2イベント検出部220は、第1イベント検出部210の場合と同様に、データ提供装置10、利用者端末3あるいは他の外部装置から受信したデータに基づいて、第2イベントを検出してもよい。 The second event detection unit 220 detects a second event. The second event detection section 220 may detect the second event based on the result of recognition processing such as voice recognition or image recognition, as in the case of the first event detection section 210. The second event detection section 220 may detect the second event based on the measurement results of various sensors such as a temperature sensor, a contact sensor, or an acceleration sensor, as in the case of the first event detection section 210. The second event detection section 220 may detect the second event based on the communication state in the communication process, as in the case of the first event detection section 210. Similarly to the first event detection unit 210, the second event detection unit 220 detects a second event based on data received from the data providing device 10, the user terminal 3, or another external device. good.

利用者認識部221、通話要求受付部223、人認識部225及び体位認識部227は、第2イベント検出部220の例である。利用者認識部221については、実施例1(出迎えの応用例)で説明する。通話要求受付部223については、実施例4(通話サポートの応用例)で説明する。人認識部225については、実施例5(警備の応用例)で説明する。体位認識部227については、実施例6(目覚ましの応用例)で説明する。 The user recognition section 221, the call request reception section 223, the person recognition section 225, and the body position recognition section 227 are examples of the second event detection section 220. The user recognition unit 221 will be described in Example 1 (an application example of greeting). The call request receiving unit 223 will be described in a fourth embodiment (an application example of call support). The person recognition unit 225 will be explained in Example 5 (security application example). The body position recognition unit 227 will be described in Example 6 (alarm clock application example).

アクション実行部230は、第2イベントを契機とするアクションを実行する。アクション実行部230は、ロボット2自身の動きを伴うアクションを実行してもよい。アクション実行部230は、ロボット2における画像、音声あるいは通信などの入力処理を伴うアクションを実行してもよい。アクション実行部230は、ロボット2における画像、音声あるいは通信などの出力処理を伴うアクションを実行してもよい。 The action execution unit 230 executes an action triggered by the second event. The action execution unit 230 may execute an action that involves the movement of the robot 2 itself. The action execution unit 230 may execute an action that involves input processing such as image, voice, or communication in the robot 2. The action execution unit 230 may execute an action that involves output processing of images, sounds, communications, etc. in the robot 2.

姿勢制御部231、音声出力部232、リモートコントロール部233、メッセージ出力部235及び電話通信部237は、アクション実行部230の例である。また、移動制御部23が、アクション実行部230として機能することもある。移動制御部23がアクション実行部230として機能する場合、移動制御部23は、移動機構29を制御して、ロボット2の移動に関するアクションを行う。姿勢制御部231は、ロボット2の姿勢に関するアクションを行う。ロボット2が人や仮想キャラクタを模した形体を有し、首や腕をアクチュエータで動かすことができるものであれば、姿勢制御部231は、アクチュエータを駆動してロボット2に種々のポーズをとらせたり、種々のジェスチャーを行わせたりしてもよい。ロボット2が四足の動物を模した形体を有し、関節部分に設けられたアクチュエータで各足を動かすことができるものであれば、姿勢制御部231は、アクチュエータを駆動してロボット2に種々のポーズをとらせたり、種々のジェスチャーを行わせたりしてもよい。 Posture control section 231 , voice output section 232 , remote control section 233 , message output section 235 , and telephone communication section 237 are examples of action execution section 230 . Furthermore, the movement control section 23 may function as the action execution section 230. When the movement control unit 23 functions as the action execution unit 230, the movement control unit 23 controls the movement mechanism 29 to perform an action related to movement of the robot 2. The posture control unit 231 performs actions related to the posture of the robot 2. If the robot 2 has a shape imitating a person or a virtual character and can move its neck and arms using actuators, the posture control unit 231 drives the actuators to make the robot 2 take various poses. or make various gestures. If the robot 2 has a shape imitating a four-legged animal and can move each leg using actuators provided at the joints, the posture control unit 231 drives the actuators to cause the robot 2 to perform various movements. You may also have them take a pose or perform various gestures.

リモートコントロール部233については、実施例2(子守の応用例)及び実施例6(目覚ましの応用例)で説明する。メッセージ出力部235については、実施例3(接客の応用例)で説明する。電話通信部237については、実施例4(通話サポートの応用例)で説明する。 The remote control unit 233 will be described in Example 2 (an application example of babysitting) and Example 6 (an application example of alarm clock). The message output unit 235 will be explained in Example 3 (customer service application example). The telephone communication unit 237 will be described in a fourth embodiment (an application example of call support).

図9は、実施形態2におけるデータ提供装置10のモジュール構成の一例を示すブロック図である。図9は、後述する実施例1~6に関する機能部についても示している。ロボット2は、第1通信制御部11、第2通信制御部16、マーカ登録部110、第1イベント検出部120、第2イベント検出部130及びアクション選択部140の各機能部を有する。実施形態2におけるデータ提供装置10の上記各機能部は、データ提供装置10を
制御するプログラムによって実現される機能モジュールであるものとして説明する。
FIG. 9 is a block diagram showing an example of the module configuration of the data providing device 10 in the second embodiment. FIG. 9 also shows functional units related to Examples 1 to 6, which will be described later. The robot 2 includes a first communication control section 11 , a second communication control section 16 , a marker registration section 110 , a first event detection section 120 , a second event detection section 130 , and an action selection section 140 . The above-mentioned functional units of the data providing device 10 in the second embodiment will be described as functional modules realized by a program that controls the data providing device 10.

第1通信制御部11は、ロボット2との無線通信を制御する。第2通信制御部16は、利用者端末3や他の外部機器などとの無線通信あるいは有線通信を制御する。マーカ登録部110は、後述するマーカ情報記憶部153にマーカの位置及び向きを含むマーカ情報を登録する。 The first communication control unit 11 controls wireless communication with the robot 2. The second communication control unit 16 controls wireless communication or wired communication with the user terminal 3 and other external devices. The marker registration unit 110 registers marker information including the position and orientation of the marker in a marker information storage unit 153, which will be described later.

第1イベント検出部120は、第1イベントを検出する。第1イベント検出部120は、ロボット2の第1イベント検出部210の場合と同様に、音声認識や画像認識などの認識処理の結果に基づいて第1イベントを検出してもよい。第1イベント検出部120は、ロボット2の第1イベント検出部210の場合と同様に、ロボット2の温度センサ、接触センサあるいは加速度センサなどの各種センサの計測結果に基づいて第1イベントを検出してもよい。第1イベント検出部120は、ロボット2の第1イベント検出部210の場合と同様に、通信処理における通信状態に基づいて第1イベントを検出してもよい。第1イベント検出部120は、ロボット2の第1イベント検出部210の場合と同様に、利用者端末3あるいは他の外部装置から受信したデータに基づいて、第1イベントを検出してもよい。第1イベント検出部120は、ロボット2から受信したデータに基づいて、第1イベントを検出してもよい。 The first event detection unit 120 detects a first event. The first event detection section 120 may detect the first event based on the result of recognition processing such as voice recognition or image recognition, as in the case of the first event detection section 210 of the robot 2. The first event detection unit 120 detects a first event based on the measurement results of various sensors such as the temperature sensor, contact sensor, or acceleration sensor of the robot 2, as in the case of the first event detection unit 210 of the robot 2. You can. The first event detection section 120 may detect the first event based on the communication state in the communication process, similarly to the case of the first event detection section 210 of the robot 2. The first event detection section 120 may detect the first event based on data received from the user terminal 3 or other external device, as in the case of the first event detection section 210 of the robot 2. The first event detection unit 120 may detect the first event based on data received from the robot 2.

帰宅イベント検出部121及び来客イベント検出部123は、第1イベント検出部120の例である。帰宅イベント検出部121については、実施例1(出迎えの応用例)で説明する。来客イベント検出部123については、実施例3(接客の応用例)で説明する。 The returning home event detection unit 121 and the visitor event detection unit 123 are examples of the first event detection unit 120. The returning home event detection unit 121 will be described in Example 1 (an application example of meeting and receiving). The visitor event detection unit 123 will be explained in Example 3 (an application example of customer service).

第2イベント検出部130は、第2イベントを検出する。第2イベント検出部130は、ロボット2の第1イベント検出部210の場合と同様に、音声認識や画像認識などの認識処理の結果に基づいて第2イベントを検出してもよい。第2イベント検出部130は、ロボット2の第1イベント検出部210の場合と同様に、ロボット2の温度センサ、接触センサあるいは加速度センサなどの各種センサの計測結果に基づいて第2イベントを検出してもよい。第2イベント検出部130は、ロボット2の第1イベント検出部210の場合と同様に、通信処理における通信状態に基づいて第2イベントを検出してもよい。第2イベント検出部130は、ロボット2の第1イベント検出部210の場合と同様に、利用者端末3あるいは他の外部装置から受信したデータに基づいて、第2イベントを検出してもよい。第2イベント検出部130は、ロボット2から受信したデータに基づいて、第2イベントを検出してもよい。 The second event detection unit 130 detects a second event. The second event detection unit 130 may detect the second event based on the result of recognition processing such as voice recognition or image recognition, as in the case of the first event detection unit 210 of the robot 2. The second event detection unit 130 detects a second event based on the measurement results of various sensors such as the temperature sensor, contact sensor, or acceleration sensor of the robot 2, as in the case of the first event detection unit 210 of the robot 2. You can. The second event detection unit 130 may detect the second event based on the communication state in the communication process, as in the case of the first event detection unit 210 of the robot 2. The second event detection unit 130 may detect the second event based on data received from the user terminal 3 or other external device, similarly to the first event detection unit 210 of the robot 2. The second event detection unit 130 may detect the second event based on data received from the robot 2.

空き室イベント検出部131は、第2イベント検出部130の例である。空き室イベント検出部131については、実施例3(接客の応用例)で説明する。アクション選択部140は、第1イベント、エリア種別及び第2イベントのうちの少なくとも1つに対応するアクションを選択する。以下では、主に第1イベントと第2イベントの組み合わせに対応するアクションを選択する例を示す。 The vacant room event detection unit 131 is an example of the second event detection unit 130. The vacant room event detection unit 131 will be explained in the third embodiment (an application example for customer service). The action selection unit 140 selects an action corresponding to at least one of the first event, area type, and second event. Below, an example will be shown in which an action mainly corresponding to a combination of a first event and a second event is selected.

ロボット2は、さらにイベント情報記憶部151及びマーカ情報記憶部153を有する。イベント情報記憶部151は、第1イベントに対応するエリア種別、第2イベント及びアクションを含むイベント情報を記憶する。イベント情報記憶部151については、図10に関連して後述する。マーカ情報記憶部153は、エリア種別とマーカの位置及び向きを対応付けるマーカ情報を記憶する。マーカ情報記憶部153については、図11に関連して後述する。 The robot 2 further includes an event information storage section 151 and a marker information storage section 153. The event information storage unit 151 stores event information including the area type, second event, and action corresponding to the first event. The event information storage unit 151 will be described later in relation to FIG. 10. The marker information storage unit 153 stores marker information that associates the area type with the position and orientation of the marker. The marker information storage unit 153 will be described later in relation to FIG. 11.

図10は、実施形態2におけるイベント情報記憶部151のデータ構成の一例を示すブロック図である。図10の各レコードは、第1イベントが検出された場合に、第1イベン
トに対応するエリア種別のマーカが設置されている場所へロボット2が移動することを定めている。さらに図10の各レコードは、第2イベントが検出された場合に、例えば第1イベントと第2イベントの組み合わせに対応するアクションをロボット2が実行することを定めている。各レコードの詳細については、実施例1~6で説明する。イベント情報は、デフォルトとして設定されていてもよいし、利用者端末3のアプリケーションで利用者が設定してもよい。
FIG. 10 is a block diagram showing an example of the data structure of the event information storage unit 151 in the second embodiment. Each record in FIG. 10 specifies that when the first event is detected, the robot 2 moves to a location where a marker of the area type corresponding to the first event is installed. Further, each record in FIG. 10 specifies that, when the second event is detected, the robot 2 executes an action corresponding to the combination of the first event and the second event, for example. Details of each record will be explained in Examples 1 to 6. The event information may be set as a default or may be set by the user using an application on the user terminal 3.

図11は、実施形態2におけるマーカ情報記憶部153のデータ構成の一例を示すブロック図である。図11の各レコードには、エリア種別に対応付けて当該エリア種別のマーカの位置及び向きが設定される。 FIG. 11 is a block diagram showing an example of the data structure of the marker information storage unit 153 in the second embodiment. In each record in FIG. 11, the position and orientation of the marker of the area type are set in association with the area type.

予め利用者は、住宅や施設の任意の位置にその位置の付近のエリアを識別するエリア種別のマーカを貼り付けておく。そして、マーカ登録フェーズにおいて、ロボット1が未知のマーカを検出すると、データ提供装置10がマーカ情報を登録する。 The user attaches an area type marker to an arbitrary position of the house or facility in advance to identify the area near that position. Then, in the marker registration phase, when the robot 1 detects an unknown marker, the data providing device 10 registers the marker information.

図12(A)は、実施形態2のマーカ登録フェーズにおける処理手順を示すフローチャートである。例えばロボット2が自律的に移動しているときに未知のマーカを検出することがある(S21)。具体的には、ロボット2のマーカ認識部22は、撮影部21で撮影した画像に含まれるマーカを認識し、当該マーカが示すエリア種別を特定する。マーカ認識部22は、過去に検出したことがあるマーカを記憶しており、記憶されているマーカと検出されたマーカとを比較することで、未検出のマーカを判別できる。 FIG. 12(A) is a flowchart showing the processing procedure in the marker registration phase of the second embodiment. For example, an unknown marker may be detected while the robot 2 is moving autonomously (S21). Specifically, the marker recognition unit 22 of the robot 2 recognizes the marker included in the image photographed by the photographing unit 21, and specifies the area type indicated by the marker. The marker recognition unit 22 stores markers that have been detected in the past, and can identify undetected markers by comparing the stored markers and the detected markers.

マーカ認識部22は、未検出のマーカを認識したと判断した場合に、画像認識によってロボット2とマーカの相対的な位置関係と方向を特定する。マーカ認識部22は、撮影画像に含まれるマーカの大きさによって、ロボット2とマーカの距離を求める。また、マーカ認識部22は、撮影画像に含まれるマーカのゆがみ方によって、ロボット2に対するマーカの向きを判断する。そして、マーカ認識部22は、位置測定部25で測定したロボット2の現在位置及び方向を基準として、マーカの位置及び向きを求める。通信制御部26は、エリア種別と当該エリア種別のマーカの位置及び向きを含むマーカ情報をデータ提供装置10へ送信する。 When the marker recognition unit 22 determines that an undetected marker has been recognized, the marker recognition unit 22 identifies the relative positional relationship and direction between the robot 2 and the marker by image recognition. The marker recognition unit 22 determines the distance between the robot 2 and the marker based on the size of the marker included in the photographed image. Furthermore, the marker recognition unit 22 determines the orientation of the marker with respect to the robot 2 based on the way the marker is distorted in the photographed image. Then, the marker recognition unit 22 determines the position and orientation of the marker based on the current position and direction of the robot 2 measured by the position measurement unit 25. The communication control unit 26 transmits marker information including the area type and the position and orientation of the marker of the area type to the data providing device 10.

データ提供装置10の第1通信制御部11がマーカ情報を受信すると、マーカ登録部110は、エリア種別に対応付けて当該エリア種別のマーカの位置及び向きをマーカ情報記憶部153に登録する(ステップS22)。 When the first communication control unit 11 of the data providing device 10 receives the marker information, the marker registration unit 110 registers the position and orientation of the marker of the area type in the marker information storage unit 153 in association with the area type (step S22).

マーカ登録フェーズを終えると、アクションフェーズにおいて、第1イベントを契機としてロボット2がマーカ設置場所へ移動して、第2イベントを契機としてロボット2が所定のアクションを行う。 After completing the marker registration phase, in the action phase, the robot 2 moves to the marker installation location using the first event as a trigger, and the robot 2 performs a predetermined action using the second event as a trigger.

図12(B)は、実施形態2のアクションフェーズにおける処理手順を示すフローチャートである。ロボット2の第1イベント検出部210又はデータ提供装置10の第1イベント検出部120が第1イベントを検出すると(S23)、データ提供装置10のアクション選択部140は、第1イベントに対応するマーク種別を特定し、マーク種別のマークの位置への移動をロボット2へ指示する。ロボット2の移動制御部23は、移動の指示に従ってマーク位置への経路を設定して移動機構29を制御する。移動機構29の動作によって、ロボット2はマーク付近へ移動する(S24)。 FIG. 12(B) is a flowchart showing the processing procedure in the action phase of the second embodiment. When the first event detection unit 210 of the robot 2 or the first event detection unit 120 of the data providing device 10 detects the first event (S23), the action selection unit 140 of the data providing device 10 selects a mark corresponding to the first event. The type is specified and the robot 2 is instructed to move to the position of the mark of the mark type. The movement control unit 23 of the robot 2 controls the movement mechanism 29 by setting a route to the mark position according to movement instructions. The robot 2 moves near the mark by the operation of the moving mechanism 29 (S24).

ロボット2の第2イベント検出部220又はデータ提供装置10の第2イベント検出部130が第2イベントを検出すると、データ提供装置10のアクション選択部140は、例えば第1イベントと第2イベントの組み合わせに対応するアクションを選択し、選択し
たアクションをロボット2に指示する。そして、ロボット2は、指示されたアクションを実行する(S26)。以下、実施形態2に関する実施例1~6について説明する。
When the second event detection unit 220 of the robot 2 or the second event detection unit 130 of the data providing device 10 detects the second event, the action selection unit 140 of the data providing device 10 selects, for example, a combination of the first event and the second event. , and instructs the robot 2 to perform the selected action. The robot 2 then executes the instructed action (S26). Examples 1 to 6 related to the second embodiment will be described below.

[実施例1]
自律行動型ロボット1による出迎えの応用例について説明する。出迎えの応用例では、ユーザが帰宅したときに、ロボット2が玄関へ向かい、ユーザを出迎えるようにする。エリアとして玄関を識別するエリア種別のマーカを玄関に設置しておけば、自律行動型ロボット1はそのマーカの設置場所が玄関であると認識できる。玄関を識別するエリア種別を玄関タイプという。
[Example 1]
An application example of greeting by the autonomous robot 1 will be explained. In an application example of greeting, when the user returns home, the robot 2 heads to the entrance and greets the user. If an area type marker that identifies the entrance as an area is installed at the entrance, the autonomous robot 1 can recognize that the location where the marker is installed is the entrance. The area type that identifies the entrance is called the entrance type.

利用者が帰宅するタイミングは、利用者が保持する利用者端末3のGPS装置(Global Positioning System)が計測した位置が自宅に近づいたことによって判断できる。例えば、利用者端末3の位置と玄関(又はデータ提供装置10)の距離が基準長よりも短くなった場合に、利用者が帰宅するタイミングであると判断される。利用者が帰宅するタイミングを判断するためのイベントを、利用者帰宅イベントという。つまり、利用者帰宅イベントが、出迎えの応用例における第1イベントに相当する。 The timing for the user to return home can be determined by the fact that the position measured by the GPS device (Global Positioning System) of the user terminal 3 held by the user approaches his or her home. For example, when the distance between the position of the user terminal 3 and the entrance (or the data providing device 10) becomes shorter than a reference length, it is determined that it is time for the user to return home. An event for determining when a user returns home is called a user return home event. In other words, the user returning home event corresponds to the first event in the application example of meeting and picking up.

玄関に着いたロボット2は、撮影部21で撮影した画像によって利用者を認識すると、利用者の帰宅に反応するアクションを行う。ロボット2が利用者を認識するイベントを、利用者認識イベントという。また、利用者の帰宅に反応するアクションを、出迎えアクションという。利用者認識イベントは、出迎えアクションを行う契機となる。利用者認識イベントは、出迎えの応用例における第2イベントに相当する。 When the robot 2 arrives at the entrance and recognizes the user from the image photographed by the photographing unit 21, it performs an action in response to the user returning home. An event in which the robot 2 recognizes a user is called a user recognition event. Furthermore, an action that responds to the user returning home is called a welcome action. A user recognition event is an opportunity to perform a welcome action. The user recognition event corresponds to the second event in the meet and greet application.

出迎えアクションでは、例えば音声出力部232が、ロボット2が備えるスピーカから音声を出力する。出力する音声は、「おかえり」のような自然言語であってもよいし、歓声のような非言語であってもよい。移動制御部23は、出迎えアクションとして移動機構29を制御して、ロボット2を小刻みに前後させたり、回転させたりするアクションを行ってもよい。ロボット2が人や仮想キャラクタを模した形体を有し、腕をアクチュエータで動かすことができるものであれば、姿勢制御部231が、アクチュエータを駆動して腕を上げ下げしてもよい。ロボット2が首をアクチュエータで動かすことができるものであれば、姿勢制御部231が、アクチュエータを駆動して首を振ってもよい。ロボット2が四足の動物を模した形体を有し、関節部分に設けられたアクチュエータで各足を動かすことができるものであれば、姿勢制御部231は、出迎えアクションとして後足だけで立ち上がるポーズをとらせてもよい。これにより、ロボット2が利用者の帰宅を喜んでいることを演出できる。利用者は、自分を待っていてくれるロボット2に親近感を持ち、愛着を深めるようになる。 In the greeting action, for example, the audio output unit 232 outputs audio from a speaker included in the robot 2. The output voice may be a natural language such as "welcome back" or a non-verbal voice such as cheers. The movement control unit 23 may control the movement mechanism 29 to perform an action of moving the robot 2 back and forth in small increments or rotating it as a greeting action. If the robot 2 has a shape imitating a person or a virtual character and can move its arms using actuators, the posture control unit 231 may drive the actuators to raise and lower its arms. If the robot 2 can move its head using an actuator, the posture control unit 231 may drive the actuator to shake its head. If the robot 2 has a shape imitating a four-legged animal and can move each leg using actuators provided at its joints, the posture control unit 231 can create a pose in which it stands up with only its hind legs as a greeting action. You may have them take it. This makes it possible to show that the robot 2 is happy for the user to return home. The user begins to feel close to the robot 2 that is waiting for him and deepens his attachment to it.

図9に示したデータ提供装置10の帰宅イベント検出部121は、上述のとおり利用者端末3の位置情報に基づいて利用者が自宅に近づいたと判断したときに利用者帰宅イベントを検出する。帰宅イベント検出部121は、利用者端末3が玄関に設置されたビーコン発信器と通信を行ったことを示す通知を利用者端末3から受信したときに利用者帰宅イベントを検出してもよい。帰宅イベント検出部121は、カメラ付きインターフォンで撮影された画像や入力した音声に基づいて利用者を認識したときに利用者帰宅イベントを検出してもよい。また、帰宅イベント検出部121は、利用者端末3から帰宅予告のメールを受信したときに利用者帰宅イベントを検出してもよい。 The return home event detection unit 121 of the data providing device 10 shown in FIG. 9 detects a user return home event when it is determined that the user approaches home based on the position information of the user terminal 3, as described above. The returning home event detection unit 121 may detect a user returning home event when receiving a notification from the user terminal 3 indicating that the user terminal 3 has communicated with a beacon transmitter installed at the entrance. The returning home event detection unit 121 may detect a user returning home event when the user is recognized based on an image photographed by a camera-equipped intercom or an input voice. Further, the return home event detection unit 121 may detect a user return home event when receiving a return home advance notice email from the user terminal 3.

図8に示したロボット2の利用者認識部221は、例えば撮影画像に含まれる顔部分の認識や入力した音声の認識によって、利用者を検出する。利用者認識部221は、例えば予めサンプルとして利用者の顔を撮影部21で撮影し、その撮影画像を分析して大きさ、形状及びパーツ(目、鼻や口などの部位)の配置などの特徴データを抽出しておく。そし
て、人認識部225は、撮影部21で撮影した画像を分析して、大きさ、形状及びパーツの配置などの特徴データがサンプルと共通又は近似する被写体が含まれると判定した場合に、撮影した画像に利用者の顔が写っていると推測してもよい。また、利用者認識部221は、例えば予めサンプルとなる利用者の声を録音して、その利用者の声を分析して周波数分布や抑揚などの特徴データを抽出しておく。そして、利用者認識部221は、マイクで入力した音に対しても同様の分析を行い、周波数分布や抑揚などの特徴データが利用者の声のサンプルの場合と一致又は近似する場合に、マイクで入力した音が利用者の声に該当すると推測してもよい。
The user recognition unit 221 of the robot 2 shown in FIG. 8 detects a user by, for example, recognizing a facial part included in a photographed image or recognizing an input voice. The user recognition unit 221, for example, photographs a user's face as a sample in advance with the photographing unit 21, analyzes the photographed image, and determines the size, shape, and arrangement of parts (parts such as eyes, nose, mouth, etc.). Extract feature data. Then, the person recognition unit 225 analyzes the image photographed by the photographing unit 21, and if it is determined that the image contains a subject whose characteristic data such as size, shape, and arrangement of parts is the same as or similar to the sample, the photographed image is It may be assumed that the user's face appears in the image. Further, the user recognition unit 221 records the user's voice as a sample in advance, for example, and analyzes the user's voice to extract characteristic data such as frequency distribution and intonation. Then, the user recognition unit 221 performs a similar analysis on the sound input by the microphone, and if the characteristic data such as frequency distribution and intonation match or approximate the user's voice sample, the user recognition unit 221 determines whether the microphone It may be assumed that the input sound corresponds to the user's voice.

図10に示したイベント情報記憶部151のデータ構成における第1レコードは、出迎えの応用例に関して、第1イベントとして利用者帰宅イベントが検出された場合に、エリア種別が玄関タイプであるマーカが設置されている場所(つまり、玄関)へロボット2が移動することを定めている。第1レコードは、さらに第2イベントとして利用者認識イベントが検出された場合に、ロボット2が出迎えアクションを行うことを定めている。エリア種別が玄関タイプであるマーカを玄関マーカという。 In the first record in the data structure of the event information storage unit 151 shown in FIG. 10, when a user returning home event is detected as the first event regarding the application example of greeting, a marker whose area type is the entrance type is installed. It is determined that the robot 2 moves to the location where the robot 2 is located (that is, the entrance). The first record further specifies that the robot 2 performs a welcoming action when a user recognition event is detected as a second event. A marker whose area type is an entrance type is called an entrance marker.

図11に示したマーカ情報記憶部153のデータ構成における第1レコードには、出迎えの応用例に関して、エリア種別の玄関タイプに対応付けて玄関マーカの位置及び向きが設定される。 In the first record in the data structure of the marker information storage unit 153 shown in FIG. 11, the position and direction of the entrance marker are set in association with the entrance type of the area type regarding the application example of greeting.

図13(A)は、実施例1のマーカ登録フェーズにおける処理手順を示すフローチャートである。例えばロボット2が自律的に移動しているときにマーカ認識部22が玄関マーカを検出すると(ステップS31)、通信制御部26は、エリア種別の玄関タイプと玄関マーカの位置及び向きを含む玄関マーカ情報をデータ提供装置10へ送信する。 FIG. 13(A) is a flowchart showing the processing procedure in the marker registration phase of the first embodiment. For example, when the marker recognition unit 22 detects an entrance marker while the robot 2 is moving autonomously (step S31), the communication control unit 26 detects an entrance marker including the entrance type of the area type and the position and orientation of the entrance marker. The information is transmitted to the data providing device 10.

データ提供装置10の第1通信制御部11が玄関マーカ情報を受信すると、マーカ登録部110は、エリア種別の玄関タイプに対応付けて玄関マーカの位置及び向きをマーカ情報記憶部153に登録する(ステップS32)。 When the first communication control unit 11 of the data providing device 10 receives the entrance marker information, the marker registration unit 110 registers the position and orientation of the entrance marker in the marker information storage unit 153 in association with the entrance type of the area type ( Step S32).

図13(B)は、実施例1のアクションフェーズにおける処理手順を示すフローチャートである。データ提供装置10の帰宅イベント検出部121は、利用者帰宅イベントを検出すると(ステップS33)、イベント情報記憶部151を参照して利用者帰宅イベントに対応するエリア種別の玄関タイプを特定する。帰宅イベント検出部121は、さらにマーカ情報記憶部153を参照してエリア種別の玄関タイプに対応する玄関マーカの位置と向きを特定する。第1通信制御部11は、玄関マーカの位置と向きを含む玄関への移動指示をロボット2へ送信する。このとき、帰宅イベント検出部121は、アクション選択部140へ利用者帰宅イベントを通知しておく。 FIG. 13(B) is a flowchart showing the processing procedure in the action phase of the first embodiment. When the returning home event detection unit 121 of the data providing device 10 detects the user returning home event (step S33), it refers to the event information storage unit 151 and specifies the entrance type of the area type corresponding to the user returning home event. The returning home event detection unit 121 further refers to the marker information storage unit 153 to identify the position and orientation of the entrance marker corresponding to the entrance type of the area type. The first communication control unit 11 transmits to the robot 2 a movement instruction to the entrance including the position and orientation of the entrance marker. At this time, the return home event detection unit 121 notifies the action selection unit 140 of the user return home event.

ロボット2の通信制御部26が玄関マーカの位置と向きを含む玄関への移動指示を受信すると、ロボット2の移動制御部23が移動機構29を制御して、ロボット2は玄関へ移動する(ステップS34)。ロボット2は、玄関マーカの位置の手前に少なくとも第1所定時間留まる。第1所定時間は、利用者帰宅イベントが検出されてからユーザ認識イベントが検出されるまでの想定間隔の上限値に相当する。第1所定時間を経過した時点で、利用者認識イベントが検出されていなければ、実施例1のアクションフェーズにおける処理を中断してもよい。 When the communication control unit 26 of the robot 2 receives an instruction to move to the entrance including the position and orientation of the entrance marker, the movement control unit 23 of the robot 2 controls the movement mechanism 29, and the robot 2 moves to the entrance (step S34). The robot 2 remains in front of the entrance marker position for at least a first predetermined period of time. The first predetermined time corresponds to the upper limit of the expected interval from when the user returns home event is detected until when the user recognition event is detected. If the user recognition event is not detected after the first predetermined time has elapsed, the processing in the action phase of the first embodiment may be interrupted.

利用者が扉を開けて入ってくると、ロボット2は利用者を認識する。具体的には、利用者認識部221が、撮影部21で撮影した画像に含まれる利用者の顔を認識し、あるいはマイクで入力した音を音声認識して、利用者認識イベントを検出する(ステップS35)。ロボット2の利用者認識部221が利用者認識イベントを検出すると、通信制御部26
は利用者認識イベントをデータ提供装置10へ送信する。
When a user opens the door and enters, the robot 2 recognizes the user. Specifically, the user recognition unit 221 detects a user recognition event by recognizing the user's face included in the image taken by the photographing unit 21 or by voice recognition of the sound input by the microphone ( Step S35). When the user recognition unit 221 of the robot 2 detects a user recognition event, the communication control unit 26
sends a user recognition event to the data providing device 10.

データ提供装置10の第1通信制御部11が利用者認識イベントを受信すると、アクション選択部140は、イベント情報記憶部151を参照して第2イベントの利用者認識イベントに対応する第1イベントの利用者帰宅イベントを特定する。アクション選択部140は、イベント情報記憶部151を参照して第1イベントの利用者帰宅イベントと第2イベントの利用者認識イベントの組み合わせに対応する出迎えアクションを選択する。第1通信制御部11は、選択された出迎えアクションの指示をロボット2へ送信する。 When the first communication control unit 11 of the data providing device 10 receives a user recognition event, the action selection unit 140 refers to the event information storage unit 151 and selects the first event corresponding to the user recognition event of the second event. Identify user return home events. The action selection unit 140 refers to the event information storage unit 151 and selects a welcome action corresponding to the combination of the first event, the user returning home event, and the second event, the user recognition event. The first communication control unit 11 transmits an instruction for the selected welcome action to the robot 2.

ロボット2の通信制御部26が出迎えアクションの指示を受信すると、ロボット2のアクション実行部230は、出迎えアクションを実行する(ステップS36)。 When the communication control unit 26 of the robot 2 receives the instruction for the greeting action, the action execution unit 230 of the robot 2 executes the greeting action (step S36).

[実施例2]
自律行動型ロボット1による子守の応用例について説明する。子守の応用例では、子供部屋で幼児が泣き出したときに、ロボット2が子供部屋へ向かい幼児をあやすようにする。エリアとして子供部屋を識別するエリア種別のマーカを子供部屋に設置しておけば、自律行動型ロボット1はそのマーカの設置場所が子供部屋であると認識できる。子供部屋を識別するエリア種別を子供部屋タイプという。
[Example 2]
An application example of babysitting using the autonomous robot 1 will be described. In a babysitting application example, when an infant starts crying in a child's room, the robot 2 heads to the child's room and comforts the infant. If a marker of the area type that identifies the child's room as an area is installed in the child's room, the autonomous robot 1 can recognize that the location of the marker is the child's room. The area type for identifying a child's room is called a child's room type.

子守の応用例では、幼児が泣き声をあげたときに、ロボット2が子供部屋へ移動して幼児を心配する様子を演出する。幼児の泣き声は、ロボット2が備えるマイクに入力された音の分析によって検出される。つまり、幼児泣き声の検出が、子守の応用例における第1イベントに相当する。このイベントを、幼児泣き声イベントという。 In the babysitting application example, when an infant cries, the robot 2 moves to the child's room and shows concern for the infant. The infant's cry is detected by analyzing the sound input to the microphone included in the robot 2. In other words, the detection of infant crying corresponds to the first event in the babysitting application example. This event is called an infant crying event.

子供部屋に大人がいなければ、ロボット2が幼児をあやすように振舞う。幼児をあやす振る舞いを、あやしアクションという。大人の不在は、撮影部21で撮影した画像の認識によって検出される。大人の不在の検出は、子守の応用例における第2イベントに相当する。このイベントを、大人不在イベントという。 If there is no adult in the child's room, the robot 2 acts as if it were soothing the infant. The behavior of soothing an infant is called a soothing action. Absence of an adult is detected by recognition of an image photographed by the photographing unit 21. Detection of the absence of an adult corresponds to the second event in the babysitting application. This event is called an adult absence event.

あやしアクションでは、例えばロボット2が備えるスピーカから乳幼児の泣きやませに有効な音(例えば、あやし声、笑い声、紙袋をカサカサさせる音)が出力される。あやしアクションは、音声等の出力に加えて、ロボット2が頭を傾げたり、腕を上げ下げさせたりするような、ロボット2の構成要素を動かす振る舞いでもよいし、乳幼児の泣きやませに有効な画像などの所定の画像をディスプレイに表示するようなアクションであってもよい。あやしアクションは、近くテレビを起動させたり、オーディオ装置に音楽を出力させたりするなどの、ロボット2とは異なる機器を制御するリモートコントロールでもよい。あやしアクションによってロボット2が幼児を落ち着かせれば、親である利用者は安心する。 In the cradling action, for example, a speaker included in the robot 2 outputs a sound that is effective for making the baby stop crying (for example, a cradling voice, laughter, the sound of rustling a paper bag). In addition to outputting sounds, the soothing action may also be a behavior that moves the components of the robot 2, such as the robot 2 tilting its head or raising and lowering its arms, or an image that is effective in stopping infants from crying. An action such as displaying a predetermined image on a display may also be used. The cradling action may be a remote control that controls a device different from the robot 2, such as starting up a television or outputting music from an audio device. If the robot 2 calms down the infant through the soothing action, the user, who is the parent, will feel at ease.

図8に示したロボット2の音声認識部211は、マイクに入力された音が幼児の泣き声であると判断した場合に幼児泣き声イベントを検出する。音声認識部211は、例えば予めサンプルとなる幼児泣き声を録音して、その幼児泣き声を分析して周波数分布や音量が高まる周期などの特徴データを抽出しておく。そして、音声認識部211は、マイクに入力された音に対しても同様の分析を行い、周波数分布や音量が高まる周期などの特徴データが幼児泣き声のサンプルの場合と一致又は近似する場合に、マイクに入力された音が幼児泣き声に該当すると推測してもよい。 The voice recognition unit 211 of the robot 2 shown in FIG. 8 detects an infant crying event when it determines that the sound input to the microphone is an infant's crying. The voice recognition unit 211 records, for example, a sample of an infant's cry in advance, analyzes the infant's cry, and extracts characteristic data such as frequency distribution and a cycle of increasing volume. Then, the voice recognition unit 211 performs a similar analysis on the sound input to the microphone, and if the characteristic data such as the frequency distribution and the period of increase in volume match or approximate the sample of infant crying, It may be assumed that the sound input into the microphone corresponds to the cry of an infant.

図8に示したロボット2の人認識部225は、撮影部21で撮影した画像に大人が写っていないと認識した場合に大人不在イベントを検出する。人認識部225は、例えば予めサンプルとして性別や体型の異なる複数の大人の映像を撮影部21で撮影し、その撮影画
像を分析して大きさや形状などの特徴データを抽出しておく。そして、人認識部225は、撮影部21で撮影した画像を分析して、サンプルと大きさや形状などの特徴データが共通又は近似する被写体が含まれると判定した場合に、撮影した画像に大人が写っていると推測してもよい。図8に示したロボット2のリモートコントロール部233は、リモートコントロールの無線信号を送信して、近くのテレビを起動させたり、オーディオ装置に音楽を出力させたりの、ロボット2とは異なる機器を制御するリモートコントロールを行う。
The human recognition unit 225 of the robot 2 shown in FIG. 8 detects an adult absence event when it recognizes that an adult is not included in the image taken by the imaging unit 21. For example, the person recognition unit 225 uses the photographing unit 21 to previously photograph images of a plurality of adults with different genders and body types as samples, and analyzes the photographed images to extract feature data such as size and shape. Then, the person recognition unit 225 analyzes the image photographed by the photographing unit 21, and if it is determined that the photographed image contains a subject whose characteristic data such as size and shape is common or similar to the sample, the photographed image contains an adult. You can assume that it is in the photo. The remote control unit 233 of the robot 2 shown in FIG. 8 transmits remote control wireless signals to control devices different from the robot 2, such as starting a nearby television or outputting music to an audio device. remote control.

図10に示したイベント情報記憶部151のデータ構成における第2レコードは、子守の応用例に関して、第1イベントとして幼児泣き声イベントが検出された場合に、エリア種別が子供部屋タイプであるマーカが設置されている場所(つまり、子供部屋)へロボット2が移動することを定めている。第2レコードは、さらに第2イベントとして大人不在イベントが検出された場合に、ロボット2があやしアクションを行うことを定めている。エリア種別が子供部屋タイプであるマーカを子供部屋マーカという。 In the second record in the data structure of the event information storage unit 151 shown in FIG. 10, when an infant crying event is detected as the first event regarding the babysitting application example, a marker whose area type is a children's room type is set. It is determined that the robot 2 will move to the location where the child is playing (that is, the child's room). The second record further specifies that the robot 2 performs a soothing action when an adult absence event is detected as a second event. A marker whose area type is a children's room type is called a children's room marker.

図11に示したマーカ情報記憶部153のデータ構成における第2レコードには、子守の応用例に関して、エリア種別の子供部屋タイプに対応付けて子供部屋マーカの位置及び向きが設定される。 In the second record in the data structure of the marker information storage unit 153 shown in FIG. 11, the position and orientation of the child's room marker is set in association with the child's room type of the area type regarding the babysitting application example.

図14(A)は、実施例2のマーカ登録フェーズにおける処理手順を示すフローチャートである。例えばロボット2が自律的に移動しているときにマーカ認識部22が子供部屋マーカを検出すると(ステップS41)、通信制御部26は、エリア種別の子供部屋タイプと子供部屋マーカの位置及び向きを含む子供部屋マーカ情報をデータ提供装置10へ送信する。 FIG. 14(A) is a flowchart showing the processing procedure in the marker registration phase of the second embodiment. For example, when the marker recognition unit 22 detects a children's room marker while the robot 2 is moving autonomously (step S41), the communication control unit 26 determines the area type of the children's room type and the position and orientation of the children's room marker. The children's room marker information including the child's room marker information is transmitted to the data providing device 10.

データ提供装置10の第1通信制御部11が子供部屋マーカ情報を受信すると、マーカ登録部110は、エリア種別の玄関タイプに対応付けて玄関マーカの位置及び向きをマーカ情報記憶部153に登録する(ステップS42)。 When the first communication control unit 11 of the data providing device 10 receives the children's room marker information, the marker registration unit 110 registers the position and orientation of the entrance marker in the marker information storage unit 153 in association with the entrance type of the area type. (Step S42).

図14(B)は、実施例2のアクションフェーズにおける処理手順を示すフローチャートである。ロボット2の音声認識部211が幼児泣き声イベントを検出すると(ステップS43)、通信制御部26は、データ提供装置10へ幼児泣き声イベントを通知する。 FIG. 14(B) is a flowchart showing the processing procedure in the action phase of the second embodiment. When the voice recognition unit 211 of the robot 2 detects an infant crying event (step S43), the communication control unit 26 notifies the data providing device 10 of the infant crying event.

データ提供装置10の第1通信制御部11が幼児泣き声イベントの通知を受信すると、アクション選択部140は、イベント情報記憶部151を参照して幼児泣き声イベントに対応付けられているエリア種別の子供部屋タイプを特定する。アクション選択部140は、さらにマーカ情報記憶部153を参照してエリア種別の子供部屋タイプに対応する子供部屋マーカの位置と向きを特定する。第1通信制御部11は、子供部屋マーカの位置と向きを含む子供部屋への移動指示をロボット2へ送信する。 When the first communication control unit 11 of the data providing device 10 receives a notification of an infant crying event, the action selection unit 140 refers to the event information storage unit 151 and selects a child's room of the area type associated with the infant crying event. Identify the type. The action selection unit 140 further refers to the marker information storage unit 153 to specify the position and orientation of the children's room marker corresponding to the children's room type of the area type. The first communication control unit 11 transmits to the robot 2 an instruction to move to the child's room, including the position and orientation of the child's room marker.

ロボット2の通信制御部26が子供部屋マーカの位置と向きを含む子供部屋への移動指示を受信すると、移動制御部23は移動機構29を制御して、ロボット2は子供部屋へ移動する(ステップS44)。ロボット2は、子供部屋マーカの位置の手前に少なくとも第2所定時間留まる。第2所定時間は、ロボット2が子供部屋に入ってから大人の不在を認識するまでに要する想定時間の上限値に相当する。第2所定時間を経過した時点で、大人不在イベントが検出されていなければ、実施例2のアクションフェーズにおける処理を中断してもよい。 When the communication control unit 26 of the robot 2 receives an instruction to move to the child's room including the position and orientation of the child's room marker, the movement control unit 23 controls the movement mechanism 29, and the robot 2 moves to the child's room (step S44). The robot 2 remains in front of the child's room marker for at least a second predetermined period of time. The second predetermined time corresponds to the upper limit of the estimated time required for the robot 2 to recognize the absence of an adult after entering the child's room. If the adult absence event is not detected after the second predetermined time has elapsed, the processing in the action phase of the second embodiment may be interrupted.

人認識部225が大人不在イベントを検出すると(ステップS45)、通信制御部26は大人不在イベントをデータ提供装置10へ送信する。 When the person recognition unit 225 detects an adult absence event (step S45), the communication control unit 26 transmits the adult absence event to the data providing device 10.

データ提供装置10の第1通信制御部11が大人不在イベントを受信すると、アクション選択部140は、イベント情報記憶部151を参照して第2イベントの大人不在イベントに対応する第1イベントの幼児泣き声イベントを特定する。アクション選択部140は、イベント情報記憶部151を参照して第1イベントの幼児泣き声イベントと第2イベントの大人不在イベントの組み合わせに対応するあやしアクションを選択する。第1通信制御部11は、選択されたあやしアクションの指示をロボット2へ送信する。 When the first communication control unit 11 of the data providing device 10 receives the adult absence event, the action selection unit 140 refers to the event information storage unit 151 and selects the first event, the infant crying, corresponding to the second event, the adult absence event. Identify the event. The action selection unit 140 refers to the event information storage unit 151 and selects a soothing action corresponding to the combination of the first event, the infant crying event, and the second event, the adult absence event. The first communication control unit 11 transmits an instruction for the selected cradling action to the robot 2.

ロボット2の通信制御部26があやしアクションの指示を受信すると、ロボット2のアクション実行部230は、あやしアクションを実行する(ステップS46)。 When the communication control unit 26 of the robot 2 receives the instruction for the soothing action, the action execution unit 230 of the robot 2 executes the soothing action (step S46).

[実施例3]
自律行動型ロボット1による接客の応用例について説明する。接客の応用例は、例えば客室で飲食サービスを提供する店舗を想定している。店舗を利用する客が入店したときに、ロボット2が受付カウンターへ向かい、客室へ案内する。エリアとして受付カウンターを識別するエリア種別のマーカを受付カウンターに設置しておけば、自律行動型ロボット1はそのマーカの設置場所が受付カウンターであると認識できる。受付カウンターを識別するエリア種別を受付カウンタータイプという。
[Example 3]
An application example of customer service using the autonomous robot 1 will be explained. An example of a customer service application is assumed to be a store that provides food and beverage services in guest rooms, for example. When a customer using the store enters the store, the robot 2 heads to the reception counter and guides the customer to the guest room. If an area type marker that identifies the reception counter as an area is installed at the reception counter, the autonomous robot 1 can recognize that the location where the marker is installed is the reception counter. The area type that identifies the reception counter is called the reception counter type.

接客の応用例では、来客を検知したときに、ロボット2が受付カウンターへ移動して客に応対する様子を演出する。来客は、店舗の入り口に設けられたカメラで撮影した画像に入店する客が写っていることによって検出される。つまり、来客の検出が、接客の応用例における第1イベントに相当する。このイベントを、来客イベントという。 In a customer service application example, when a visitor is detected, the robot 2 moves to a reception counter and serves the customer. A visitor is detected by seeing the customer entering the store in an image taken by a camera installed at the entrance of the store. In other words, the detection of a visitor corresponds to the first event in the customer service application example. This event is called a visitor event.

空き室があれば、ロボット2が客を空き室へ案内するように振舞う。客を空き室へ案内する振る舞いを、案内アクションという。空き室の情報は、客室管理システム(図示せず)から得られる。空き室の検出は、接客の応用例における第2イベントに相当する。このイベントを、空き室イベントという。 If there is a vacant room, the robot 2 behaves to guide the guest to the vacant room. The behavior of guiding a guest to a vacant room is called a guidance action. Information on vacant rooms is obtained from a guest room management system (not shown). Detection of a vacant room corresponds to the second event in the customer service application. This event is called a vacant room event.

案内アクションでは、例えばロボット2が空き室まで客を先導する。あるいは、メッセージ出力部235が、「○号室へお入りください。」の案内メッセージを音声出力してもよいし、ロボット2が備える表示装置に表示してもよい。ロボット2が接客すれば、客は人的サービスにはない趣向を感じる。無人化を図ることで、コストを軽減できる面もある。 In the guidance action, for example, the robot 2 guides the customer to a vacant room. Alternatively, the message output unit 235 may output the guidance message "Please enter room No. ○" by voice or display it on the display device included in the robot 2. When Robot 2 serves customers, customers feel a special touch that human service does not have. By making it unmanned, costs can also be reduced.

図9に示したデータ提供装置10の来客イベント検出部123は、例えば店舗の入り口に設けられたカメラで撮影した画像で入店する客を認識したときに、来客イベントを検出する。図9に示したデータ提供装置10の空き室イベント検出部131は、客室管理システム(図示せず)に客室の状況を問い合わせて、空いている客室があれば空き室イベントを検出する。図8に示したロボット2の移動制御部23は、ゆっくりと客室へ移動するように移動機構29を駆動させる。ロボット2は、ロボット2の撮影部21で撮影した客の姿によって客との間合いを計りながら、客との距離を一定に保つように移動の速さを制御してもよい。また、図9に示したデータ提供装置10のメッセージ出力部235が、「○号室へお入りください。」の案内メッセージを音声出力し、あるいはロボット2が備える表示装置に表示するように、出力デバイスにおいて案内メッセージを出力する。 The visitor event detection unit 123 of the data providing device 10 shown in FIG. 9 detects a visitor event, for example, when a customer entering the store is recognized from an image taken with a camera provided at the entrance of the store. The vacant room event detection unit 131 of the data providing device 10 shown in FIG. 9 inquires of the guest room management system (not shown) about the status of guest rooms, and detects a vacant room event if there is a vacant guest room. The movement control unit 23 of the robot 2 shown in FIG. 8 drives the movement mechanism 29 so that the robot 2 moves slowly to the guest room. The robot 2 may measure its distance with the customer based on the image of the customer photographed by the photographing unit 21 of the robot 2, and may control the speed of movement so as to maintain a constant distance from the customer. In addition, the message output unit 235 of the data providing device 10 shown in FIG. Outputs a guidance message.

図10に示したイベント情報記憶部151のデータ構成における第3レコードは、接客の応用例に関して、第1イベントとして来客イベントが検出された場合に、エリア種別が受付カウンタータイプであるマーカが設置されている場所(つまり、受付カウンター)へロボット2が移動することを定めている。第3レコードは、さらに第2イベントとして空
き室イベントが検出された場合に、ロボット2が案内アクションを行うことを定めている。エリア種別が受付カウンタータイプであるマーカを受付カウンターマーカという。
In the third record in the data structure of the event information storage unit 151 shown in FIG. 10, when a visitor event is detected as the first event regarding the application example of customer service, a marker whose area type is the reception counter type is installed. It is determined that the robot 2 moves to the location where the robot 2 is located (that is, the reception counter). The third record further specifies that the robot 2 performs a guidance action when an empty room event is detected as the second event. A marker whose area type is a reception counter type is called a reception counter marker.

図11に示したマーカ情報記憶部153のデータ構成における第3レコードには、接客の応用例に関して、エリア種別の受付カウンタータイプに対応付けて受付カウンターマーカの位置及び向きが設定される。 In the third record in the data configuration of the marker information storage unit 153 shown in FIG. 11, the position and orientation of the reception counter marker is set in association with the reception counter type of the area type regarding the customer service application example.

図15(A)は、実施例3のマーカ登録フェーズにおける処理手順を示すフローチャートである。例えばロボット2が自律的に移動しているときにマーカ認識部22が受付カウンターマーカを検出すると(ステップS51)、通信制御部26は、エリア種別の受付カウンタータイプと受付カウンターマーカの位置及び向きとを含む受付カウンターマーカ情報をデータ提供装置10へ送信する。 FIG. 15(A) is a flowchart showing the processing procedure in the marker registration phase of the third embodiment. For example, when the marker recognition unit 22 detects a reception counter marker while the robot 2 is moving autonomously (step S51), the communication control unit 26 determines the reception counter type of the area type and the position and orientation of the reception counter marker. The reception counter marker information including the information is sent to the data providing device 10.

データ提供装置10の第1通信制御部11が受付カウンターマーカ情報を受信すると、マーカ登録部110は、エリア種別の受付カウンタータイプに対応付けて受付カウンターマーカの位置及び向きをマーカ情報記憶部153に登録する(ステップS52)。 When the first communication control unit 11 of the data providing device 10 receives the reception counter marker information, the marker registration unit 110 stores the position and orientation of the reception counter marker in the marker information storage unit 153 in association with the reception counter type of the area type. Register (step S52).

図15(B)は、実施例3のアクションフェーズにおける処理手順を示すフローチャートである。データ提供装置10の来客イベント検出部123は、来客イベントを検出すると(ステップS53)、イベント情報記憶部151を参照して来客イベントに対応付けられているエリア種別の受付カウンタータイプを特定する。来客イベント検出部123は、さらにマーカ情報記憶部153を参照してエリア種別の受付カウンタータイプに対応する受付カウンターマーカの位置と向きを特定する。第1通信制御部11は、受付カウンターマーカの位置と向きを含む受付カウンターへの移動指示をロボット2へ送信する。このとき、来客イベント検出部123は、アクション選択部140へ来客イベントを通知しておく。 FIG. 15(B) is a flowchart showing the processing procedure in the action phase of the third embodiment. When the visitor event detection unit 123 of the data providing device 10 detects a visitor event (step S53), it refers to the event information storage unit 151 and identifies the reception counter type of the area type associated with the visitor event. The visitor event detection unit 123 further refers to the marker information storage unit 153 to identify the position and orientation of the reception counter marker corresponding to the reception counter type of the area type. The first communication control unit 11 transmits to the robot 2 an instruction to move to the reception counter, including the position and orientation of the reception counter marker. At this time, the visitor event detection section 123 notifies the action selection section 140 of the visitor event.

ロボット2の通信制御部26が受付カウンターマーカの位置と向きを含む受付カウンターへの移動指示を受信すると、移動制御部23は移動機構29を制御して、ロボット2は受付カウンターへ移動する(ステップS54)。ロボット2は、受付カウンターマーカの位置の手前に少なくとも第3所定時間留まる。第3所定時間は、ロボット2に代わって店員が客に応対するまでの切替り時間の上限値に相当する。第3所定時間を経過した時点で、空き室イベントが検出されていなければ、実施例3のアクションフェーズにおける処理を中断してもよい。 When the communication control unit 26 of the robot 2 receives an instruction to move to the reception counter including the position and orientation of the reception counter marker, the movement control unit 23 controls the movement mechanism 29, and the robot 2 moves to the reception counter (step S54). The robot 2 remains in front of the position of the reception counter marker for at least a third predetermined period of time. The third predetermined time corresponds to the upper limit of the switching time until the store clerk responds to the customer instead of the robot 2. If no vacant room event is detected after the third predetermined time period has elapsed, the processing in the action phase of the third embodiment may be interrupted.

データ提供装置10の空き室イベント検出部131が空き室イベントを検出すると(ステップS55)、アクション選択部140は、イベント情報記憶部151を参照して第2イベントの空き室イベントに対応する第1イベントの来客イベントを特定する。アクション選択部140は、イベント情報記憶部151を参照して第1イベントの来客イベントと第2イベントの空き室イベントの組み合わせに対応する接客アクションを選択する。第1通信制御部11は、選択された接客アクションの指示をロボット2へ送信する。 When the vacant room event detection unit 131 of the data providing device 10 detects a vacant room event (step S55), the action selection unit 140 refers to the event information storage unit 151 to determine whether the visitor of the first event corresponding to the vacant room event of the second event Identify the event. The action selection unit 140 refers to the event information storage unit 151 and selects a customer service action corresponding to the combination of the first event, the visitor event, and the second event, the vacant room event. The first communication control unit 11 transmits an instruction for the selected customer service action to the robot 2.

ロボット2の通信制御部26が接客アクションの指示を受信すると、ロボット2のアクション実行部230は、接客アクションを実行する(ステップS56)。 When the communication control unit 26 of the robot 2 receives the instruction for the customer service action, the action execution unit 230 of the robot 2 executes the customer service action (step S56).

[実施例4]
自律行動型ロボット1による通話サポートの応用例について説明する。この例では、ロボット2が電話機能を有しているものとする。また、ロボット2が置かれている住居や施設の中で、電話機能で使用する無線通信の電波が届きやすいところと、届きにくいところがあると想定する。ロボット2は、電波の状態が悪い場所から電波の状態が良い場所(以
下、電波良好の場所という。)へ移動して、通話要求に応じて通話を開始させる。エリアとして電波良好の場所を識別するエリア種別のマーカを電波良好の場所に設置しておけば、自律行動型ロボット1はそのマーカの設置場所が電波良好の場所であると認識できる。電波良好の場所を識別するエリア種別を電波良好タイプという。
[Example 4]
An application example of call support by the autonomous robot 1 will be described. In this example, it is assumed that the robot 2 has a telephone function. Furthermore, it is assumed that in the residence or facility where the robot 2 is located, there are some places where it is easy to receive radio waves for wireless communication used for telephone functions and some places where it is difficult to reach. The robot 2 moves from a place where the radio wave condition is poor to a place where the radio wave condition is good (hereinafter referred to as a place with good radio wave condition), and starts a call in response to a call request. If a marker of an area type for identifying a place with good radio waves is installed in a place with good radio waves, the autonomous robot 1 can recognize that the place where the marker is installed is a place with good radio waves. The area type that identifies a location with good radio waves is called a good radio wave type.

通話サポートの応用例では、電波の状態が悪化したときにロボット2が電波良好の場所へ移動して無線通信に支障がないようにする。つまり、電波悪化の検出が、通話サポートの応用例における第1イベントに相当する。このイベントを、電波悪化イベントという。 In a call support application example, when the radio wave condition deteriorates, the robot 2 moves to a place with good radio waves so that there is no problem with wireless communication. In other words, the detection of radio wave deterioration corresponds to the first event in the call support application example. This event is called a radio wave deterioration event.

ロボット2は利用者から通話要求を受け付ければ、通話を開始する。通話を開始する処理動作を通話開始アクションという。通話要求の受付は、「電話をかけてください。」のような音声を認識したり、撮影画像から電話をかけるジェスチャーやポーズを認識したりするなどの認識処理によって検知される。通話要求の受付は、通話サポートの応用例における第2イベントに相当する。このイベントを、通話要求イベントという。 When the robot 2 receives a call request from the user, it starts the call. The processing action for starting a call is called a call start action. Acceptance of a call request is detected through recognition processing, such as recognizing a voice such as "Please make a call," or recognizing a gesture or pose used to make a call from a captured image. Acceptance of the call request corresponds to the second event in the application example of call support. This event is called a call request event.

図8に示したロボット2の電波状態検出部213は、電話機能で使用する無線通信の電波の状態を監視し、電波の強度が許容基準以下になった場合に、電波悪化イベントを検出する。図8に示したロボット2の通話要求受付部223は、「電話をかけてください。」の発話を音声認識したり、撮影画像によって電話をかけるジェスチャーやポーズを認識したりすることで、利用者から通話の要求を受け付ける。通話要求受付部223は、音声認識によって電話番号や通話の相手を特定してもよい。図8に示したロボット2の電話通信部237は、電話の通信を制御し、通話処理を行う。 The radio wave state detection unit 213 of the robot 2 shown in FIG. 8 monitors the state of radio waves for wireless communication used in the telephone function, and detects a radio wave deterioration event when the strength of the radio waves falls below an acceptable standard. The call request accepting unit 223 of the robot 2 shown in FIG. Accept call requests from. The call request reception unit 223 may identify the telephone number and the other party to call by voice recognition. The telephone communication unit 237 of the robot 2 shown in FIG. 8 controls telephone communication and performs call processing.

図10に示したイベント情報記憶部151のデータ構成における第4レコードは、通話サポートの応用例に関して、第1イベントとして電波悪化イベントが検出された場合に、エリア種別が電波良好タイプであるマーカが設置されている場所(つまり、電波良好の場所)へロボット2が移動することを定めている。第4レコードは、さらに第2イベントとして通話要求イベントが検出された場合に、ロボット2が通話を開始することを定めている。エリア種別が電波良好タイプであるマーカを電波良好マーカという。 In the fourth record in the data structure of the event information storage unit 151 shown in FIG. 10, when a radio wave deterioration event is detected as the first event regarding the application example of call support, a marker whose area type is good radio wave type is displayed. It is determined that the robot 2 moves to a location where it is installed (that is, a location with good radio waves). The fourth record further specifies that the robot 2 initiates a call when a call request event is detected as the second event. A marker whose area type is a good signal type is called a good signal marker.

図11に示したマーカ情報記憶部153のデータ構成における第4レコードには、通話サポートの応用例に関して、エリア種別の電波良好タイプに対応付けて電波良好マーカの位置及び向きが設定される。 In the fourth record in the data structure of the marker information storage unit 153 shown in FIG. 11, the position and orientation of the radio wave good marker is set in association with the radio wave good type of the area type regarding the application example of call support.

図16(A)は、実施例4のマーカ登録フェーズにおける処理手順を示すフローチャートである。例えばロボット2が自律的に移動しているときにマーカ認識部22が電波良好マーカを検出すると(ステップS61)、通信制御部26は、エリア種別の電波良好タイプと電波良好マーカの位置及び向きを含む電波良好マーカ情報をデータ提供装置10へ送信する。 FIG. 16(A) is a flowchart showing the processing procedure in the marker registration phase of the fourth embodiment. For example, when the marker recognition unit 22 detects a good radio wave marker while the robot 2 is moving autonomously (step S61), the communication control unit 26 detects the good radio wave type of the area type and the position and orientation of the good radio wave marker. The radio wave good marker information including the information is transmitted to the data providing device 10.

データ提供装置10の第1通信制御部11が電波良好マーカ情報を受信すると、マーカ登録部110は、エリア種別の電波良好タイプに対応付けて電波良好マーカの位置及び向きをマーカ情報記憶部153に登録する(ステップS62)。 When the first communication control unit 11 of the data providing device 10 receives the good radio wave marker information, the marker registration unit 110 stores the position and orientation of the good radio wave marker in the marker information storage unit 153 in association with the good radio wave type of the area type. Register (step S62).

図16(B)は、実施例4のアクションフェーズにおける処理手順を示すフローチャートである。ロボット2の電波状態検出部213が電波悪化イベントを検出すると(ステップS63)、通信制御部26は、データ提供装置10へ電波悪化イベントを通知する。 FIG. 16(B) is a flowchart showing the processing procedure in the action phase of the fourth embodiment. When the radio wave condition detection unit 213 of the robot 2 detects a radio wave deterioration event (step S63), the communication control unit 26 notifies the data providing device 10 of the radio wave deterioration event.

データ提供装置10の第1通信制御部11が電波悪化イベントの通知を受信すると、アクション選択部140は、イベント情報記憶部151を参照して電波悪化イベントに対応
付けられているエリア種別の電波良好タイプを特定する。アクション選択部140は、さらにマーカ情報記憶部153を参照してエリア種別の電波良好タイプに対応する電波良好マーカの位置と向きを特定する。第1通信制御部11は、電波良好マーカの位置と向きを含む電波良好の場所への移動指示をロボット2へ送信する。
When the first communication control unit 11 of the data providing device 10 receives a notification of a radio wave deterioration event, the action selection unit 140 refers to the event information storage unit 151 and selects a good radio wave for the area type associated with the radio wave deterioration event. Identify the type. The action selection unit 140 further refers to the marker information storage unit 153 to identify the position and orientation of the radio wave good marker corresponding to the radio wave good type of the area type. The first communication control unit 11 transmits to the robot 2 an instruction to move to a location with good radio waves, including the position and orientation of the radio wave good marker.

ロボット2の通信制御部26が電波悪化マーカの位置と向きを含む電波良好の場所への移動指示を受信すると、移動制御部23は移動機構29を制御して、ロボット2は電波良好の場所へ移動する(ステップS64)。ロボット2は、電波良好マーカの位置の手前に少なくとも第4所定時間留まる。第4所定時間は、利用者に通話を要求されると想定される期間の上限長に相当する。第4所定時間を経過した時点で、通話要求イベントが検出されていなければ、実施例4のアクションフェーズにおける処理を中断してもよい。 When the communication control unit 26 of the robot 2 receives an instruction to move to a place with good radio waves, including the position and direction of the poor radio wave marker, the movement control unit 23 controls the movement mechanism 29, and the robot 2 moves to a place with good radio waves. Move (step S64). The robot 2 remains in front of the position of the radio wave good marker for at least a fourth predetermined time. The fourth predetermined time corresponds to the upper limit length of the period during which the user is expected to request a call. If a call request event is not detected after the fourth predetermined time has elapsed, the processing in the action phase of the fourth embodiment may be interrupted.

通話要求受付部223が通話要求イベントを検出すると(ステップS65)、通信制御部26は通話要求イベントをデータ提供装置10へ送信する。 When the call request reception unit 223 detects a call request event (step S65), the communication control unit 26 transmits the call request event to the data providing device 10.

データ提供装置10の第1通信制御部11が通話要求イベントを受信すると、アクション選択部140は、イベント情報記憶部151を参照して第2イベントの通話要求イベントに対応する通話開始アクションを選択する。第1通信制御部11は、選択された通話開始アクションの指示をロボット2へ送信する。従って、先に電波悪化イベントが通知されているか否かに関わらず、通話開始アクションが送信される。 When the first communication control unit 11 of the data providing device 10 receives the call request event, the action selection unit 140 refers to the event information storage unit 151 and selects a call start action corresponding to the second event, the call request event. . The first communication control unit 11 transmits an instruction for the selected call start action to the robot 2. Therefore, the call start action is transmitted regardless of whether or not the radio wave deterioration event has been notified first.

ロボット2の通信制御部26が通話開始アクションの指示を受信すると、ロボット2の電話通信237は、通話開始アクションを実行する(ステップS66)。電話通信部237が発呼して通話状態になれば、ロボット2が備えるマイクの入力音声を変換した信号が送信され、受信した信号から変換された相手音声がマイクロフォンから出力される。 When the communication control unit 26 of the robot 2 receives the instruction for the call start action, the telephone communication 237 of the robot 2 executes the call start action (step S66). When the telephone communication unit 237 makes a call and enters a conversation state, a signal obtained by converting the input voice of the microphone provided in the robot 2 is transmitted, and the other party's voice converted from the received signal is output from the microphone.

[実施例5]
自律行動型ロボット1による警備の応用例について説明する。警備の応用例では、金庫が置かれている住居や施設において金庫荒らしを警戒することを想定し、ロボット2が見回りを行う。エリアとして金庫置き場を識別するエリア種別のマーカを金庫置き場に設置しておけば、自律行動型ロボット1はそのマーカの設置場所が金庫置き場であると認識できる。金庫置き場を識別するエリア種別を金庫タイプという。
[Example 5]
An example of security application using the autonomous robot 1 will be described. In a security application example, the robot 2 patrols a residence or facility where a safe is located to guard against safe breakers. If a marker of the area type that identifies the safe storage area is installed in the safe storage area, the autonomous robot 1 can recognize that the location where the marker is installed is the safe storage area. The area type that identifies the safe storage area is called a safe type.

警備の応用例では、見回りを指示されたロボット2が、金庫付近へ移動して状況を把握するように振舞う。見回り指示の受付は、例えば「金庫を見て来い」などの音声の認識や、撮影画像から所定のポーズやジェスチャーを認識するなどの認識処理によって行われてもよい。データ提供装置10が利用者端末3のアプリケーションから見守り指示を受信してロボット2へ転送し、ロボット2が見守り指示を受信するようにしてもよい。所定時刻になったときに、データ提供装置10が自動的に見回り指示をロボット2へ発信し、ロボット2が見守り指示を受信するようにしてもよい。警備の応用例では、ロボット2に対する見回り指示が第1イベントに相当する。このイベントを、見回りイベントという。 In a security application example, the robot 2, which is instructed to patrol, moves to the vicinity of a safe and behaves to grasp the situation. The reception of the patrol instruction may be performed, for example, by recognition of a voice such as "Come and check the safe" or recognition processing such as recognition of a predetermined pose or gesture from a photographed image. The data providing device 10 may receive a monitoring instruction from an application on the user terminal 3, transfer it to the robot 2, and the robot 2 may receive the monitoring instruction. At a predetermined time, the data providing device 10 may automatically send a patrol instruction to the robot 2, and the robot 2 may receive the guard instruction. In the security application example, an instruction to the robot 2 to patrol corresponds to the first event. This event is called a patrol event.

撮影画像の認識によって金庫の近くに人の姿を捉えたときに、ロボット2は警戒アクションを実行する。つまり警備の応用例で、金庫付近における人の認識は、第2イベントに相当する。このイベントを、人認識イベントという。金庫付近にいる人は、不審者である可能性があると想定する。警戒アクションとして、通信制御部26は、ロボット2は撮影部21で撮影した映像(動画あるいは静止画)をデータ提供装置10へ送信する。この処理に関して通信制御部26は、アクション実行部230の例である。データ提供装置10は、受信した映像を証拠として記録してもよい。また、データ提供装置10は、利用者端末3のアプリケーションへ警告メッセージを送信したり、ロボット2から受信した映像を
転送したりして、利用者端末3のアプリケーションへのデータ送信を行ってもよい。警戒アクションとして、ロボット2の音声出力部232は、警報音を発してもよい。
When the robot 2 detects a person near the safe by recognizing the photographed image, the robot 2 executes a warning action. In other words, in a security application example, the recognition of a person near a safe corresponds to the second event. This event is called a person recognition event. It is assumed that the person near the safe may be a suspicious person. As a warning action, the communication control unit 26 transmits the image (moving image or still image) of the robot 2 photographed by the photographing unit 21 to the data providing device 10 . Regarding this process, the communication control unit 26 is an example of the action execution unit 230. The data providing device 10 may record the received video as evidence. Further, the data providing device 10 may transmit data to the application on the user terminal 3 by transmitting a warning message to the application on the user terminal 3 or forwarding the video received from the robot 2. . As a warning action, the audio output unit 232 of the robot 2 may emit an alarm sound.

図8に示したロボット2の見回りイベント検出部215は、上述の認識処理で見回り指示を受け付けたときやデータ提供装置10から見回り指示を受信したときに、見回りイベントを検出する。図8に示したロボット2の人認識部225は、撮影画像に含まれる人の姿を認識する。人の話し声を音声認識することによって人の存在を認識してもよい。人認識部225は、マイクに入力された音から標準的な人の声に相当する周波数を抽出した場合に、人の話し声であると判定してもよい。 The patrol event detection unit 215 of the robot 2 shown in FIG. 8 detects a patrol event when it receives a patrol instruction in the recognition process described above or when it receives a patrol instruction from the data providing device 10. The human recognition unit 225 of the robot 2 shown in FIG. 8 recognizes the human figure included in the photographed image. The presence of a person may be recognized by voice recognition of the person's speaking voice. The person recognition unit 225 may determine that the sound is a human speaking voice when a frequency corresponding to a standard human voice is extracted from the sound input to the microphone.

図10に示したイベント情報記憶部151のデータ構成における第5レコードは、警備の応用例に関して、第1イベントとして見回りイベントが検出された場合に、エリア種別が金庫タイプであるマーカが設置されている場所(つまり、金庫置き場)へロボット2が移動することを定めている。第5レコードは、さらに第2イベントとして人認識イベントが検出された場合に、ロボット2が警戒アクションを行うことを定めている。エリア種別が金庫タイプであるマーカを金庫マーカという。 The fifth record in the data structure of the event information storage unit 151 shown in FIG. 10 is related to the security application example, and when a patrol event is detected as the first event, a marker whose area type is a safe type is installed. It is determined that the robot 2 moves to the location where the robot 2 is located (that is, the safe storage area). The fifth record further specifies that the robot 2 performs a warning action when a human recognition event is detected as a second event. A marker whose area type is a safe type is called a safe marker.

図11に示したマーカ情報記憶部153のデータ構成における第5レコードには、警備の応用例に関して、エリア種別の金庫タイプに対応付けて金庫マーカの位置及び向きが設定される。 In the fifth record in the data structure of the marker information storage unit 153 shown in FIG. 11, the position and orientation of the safe marker is set in association with the safe type of the area type regarding the security application example.

図17(A)は、実施例5のマーカ登録フェーズにおける処理手順を示すフローチャートである。例えばロボット2が自律的に移動しているときにマーカ認識部22が金庫マーカを検出すると(ステップS71)、通信制御部26は、エリア種別の金庫タイプと金庫マーカの位置及び向きを含む金庫マーカ情報をデータ提供装置10へ送信する。 FIG. 17(A) is a flowchart showing the processing procedure in the marker registration phase of the fifth embodiment. For example, when the marker recognition unit 22 detects a safe marker while the robot 2 is moving autonomously (step S71), the communication control unit 26 detects the safe marker, which includes the safe type of the area type and the position and orientation of the safe marker. The information is transmitted to the data providing device 10.

データ提供装置10の第1通信制御部11が金庫マーカ情報を受信すると、マーカ登録部110は、エリア種別の金庫タイプに対応付けて金庫マーカの位置及び向きをマーカ情報記憶部153に登録する(ステップS72)。 When the first communication control unit 11 of the data providing device 10 receives the safe marker information, the marker registration unit 110 registers the position and orientation of the safe marker in the marker information storage unit 153 in association with the safe type of the area type ( Step S72).

図17(B)は、実施例5のアクションフェーズにおける処理手順を示すフローチャートである。ロボット2の見回りイベント検出部215が見回りイベントを検出すると(ステップS73)、通信制御部26は、データ提供装置10へ見回りイベントを通知する。 FIG. 17(B) is a flowchart showing the processing procedure in the action phase of the fifth embodiment. When the patrolling event detection unit 215 of the robot 2 detects a patrolling event (step S73), the communication control unit 26 notifies the data providing device 10 of the patrolling event.

データ提供装置10の第1通信制御部11が見回りイベントの通知を受信すると、アクション選択部140は、イベント情報記憶部151を参照して見回りイベントに対応付けられているエリア種別の金庫タイプを特定する。アクション選択部140は、さらにマーカ情報記憶部153を参照してエリア種別の金庫タイプに対応する金庫マーカの位置と向きを特定する。第1通信制御部11は、金庫マーカの位置と向きを含む金庫置き場への移動指示をロボット2へ送信する。 When the first communication control unit 11 of the data providing device 10 receives a notification of a patrol event, the action selection unit 140 refers to the event information storage unit 151 and specifies the safe type of the area type associated with the patrol event. do. The action selection unit 140 further refers to the marker information storage unit 153 to specify the position and orientation of the safe marker corresponding to the safe type of the area type. The first communication control unit 11 transmits to the robot 2 an instruction to move to the safe storage area, including the position and orientation of the safe marker.

ロボット2の通信制御部26が金庫マーカの位置と向きを含む金庫置き場への移動指示を受信すると、移動制御部23は移動機構29を制御して、ロボット2は金庫付近へ移動する(ステップS74)。ロボット2は、金庫マーカの位置の手前に少なくとも第5所定時間留まる。第5所定時間は、ロボット2が金庫付近に移動してから人を認識するまでに要する想定時間の上限値に相当する。第5所定時間を経過した時点で、人認識イベントが検出されていなければ、実施例5のアクションフェーズにおける処理を中断してもよい。 When the communication control unit 26 of the robot 2 receives an instruction to move to the safe storage area including the position and orientation of the safe marker, the movement control unit 23 controls the movement mechanism 29, and the robot 2 moves to the vicinity of the safe (step S74). ). The robot 2 remains in front of the position of the safe marker for at least a fifth predetermined period of time. The fifth predetermined time corresponds to the upper limit of the estimated time required for the robot 2 to recognize a person after moving near the safe. If the human recognition event is not detected after the fifth predetermined time has elapsed, the processing in the action phase of the fifth embodiment may be interrupted.

人認識部225が人認識イベントを検出すると(ステップS75)、通信制御部26は人認識イベントをデータ提供装置10へ送信する。 When the person recognition unit 225 detects a person recognition event (step S75), the communication control unit 26 transmits the person recognition event to the data providing device 10.

データ提供装置10の第1通信制御部11が人認識イベントを受信すると、アクション選択部140は、イベント情報記憶部151を参照して第2イベントの人認識イベントに対応する第1イベントの見回りイベントを特定する。アクション選択部140は、イベント情報記憶部151を参照して第1イベントの見回りイベントと第2イベントの人認識イベントの組み合わせに対応する警戒アクションを選択する。第1通信制御部11は、選択された警戒アクションの指示をロボット2へ送信する。 When the first communication control unit 11 of the data providing device 10 receives a person recognition event, the action selection unit 140 refers to the event information storage unit 151 and selects the patrol event of the first event corresponding to the person recognition event of the second event. Identify. The action selection unit 140 refers to the event information storage unit 151 and selects a vigilance action corresponding to the combination of the first event, which is a patrol event, and the second event, which is a person recognition event. The first communication control unit 11 transmits an instruction for the selected warning action to the robot 2.

ロボット2の通信制御部26が警戒アクションの指示を受信すると、ロボット2のアクション実行部230は、警戒アクションを実行する(ステップS76)。 When the communication control unit 26 of the robot 2 receives the warning action instruction, the action execution unit 230 of the robot 2 executes the warning action (step S76).

[実施例6]
自律行動型ロボット1による目覚ましの応用例について説明する。例えば、朝に寝室で寝ている利用者を、ロボット2が起こす。エリアとして寝室を識別するエリア種別のマーカを寝室に設置しておけば、自律行動型ロボット1はそのマーカの設置場所が寝室であると認識できる。寝室を識別するエリア種別を寝室タイプという。
[Example 6]
An application example of an alarm clock using the autonomous robot 1 will be explained. For example, the robot 2 wakes up a user who is sleeping in the bedroom in the morning. If an area type marker that identifies the bedroom as an area is installed in the bedroom, the autonomous robot 1 can recognize that the location where the marker is installed is the bedroom. The area type that identifies a bedroom is called a bedroom type.

目覚ましの応用例では、利用者を起床させるタイミングで、ロボット2が寝室へ移動して目覚ましアクションを行う。利用者を起床させるタイミングは、例えば予定の起床時刻によって判断される。あるいは、利用者の家族が発する「お父さん(利用者)を起こしてきてください。」のような音声の認識、撮影画像から所定のポーズやジェスチャーを認識するなどの認識処理によって、利用者を起床させるタイミングを判断してもよい。つまり、利用者を起床させるタイミングの判断が、目覚ましの応用例における第1イベントに相当する。このイベントを、起床イベントという。 In the alarm clock application example, the robot 2 moves to the bedroom and performs a wake-up action at the timing to wake up the user. The timing to wake up the user is determined, for example, based on the scheduled wake-up time. Alternatively, the user can be woken up by recognition processing such as recognizing voices such as "Please wake up dad (user)" uttered by the user's family, or recognizing predetermined poses and gestures from captured images. You can judge the timing. In other words, determining the timing to wake up the user corresponds to the first event in the alarm clock application example. This event is called a wake-up event.

寝室のベッドの上で利用者が横になっている状態(臥位)を認識したときに、ロボット2は目覚ましアクションを実行する。ベッドの上に利用者がいない場合や利用者が既に起きている場合など利用者が臥位でないときには、ロボット2は目覚ましアクションを実行しない。つまり、目覚ましの応用例でベッド上の臥位の利用者を検出することは、第2イベントに相当する。このイベントを、利用者臥位イベントという。目覚ましアクションとして、たとえば音声出力部232は、スピーカから目覚まし音や呼びかけなどの音声を出力する。目覚ましアクションとして、リモートコントロール部233がテレビを起動させたり、オーディオ装置に音楽を出力させたりなど、外部機器に音声を出力させてもよい。リモートコントロール部233は、照明機器を点灯させてもよい。あるいは、移動制御部23が移動機構29を制御して、ロボット2がベッドの周囲を激しく動き回るようにしてもよい。 When the robot 2 recognizes that the user is lying on the bed in the bedroom (supine position), the robot 2 performs a wake-up action. When the user is not in a lying position, such as when there is no user on the bed or when the user is already awake, the robot 2 does not perform the wake-up action. In other words, detecting a user in a lying position on a bed in an application example of an alarm clock corresponds to the second event. This event is called a user lying down event. As a wake-up action, for example, the audio output unit 232 outputs a voice such as a wake-up sound or a call from a speaker. As a wake-up action, the remote control unit 233 may cause an external device to output audio, such as starting a television or causing an audio device to output music. The remote control unit 233 may turn on lighting equipment. Alternatively, the movement control unit 23 may control the movement mechanism 29 so that the robot 2 moves vigorously around the bed.

図8に示したロボット2の起床イベント検出部217は、上述のように予定の起床時刻に至り、あるいは上述した認識処理などによって起床イベントを検出する。図8に示したロボット2の体位認識部227は、寝室のベッドの上で寝ている人(実際には、利用者であるとみなす)の体位を認識する。体位認識部227は、ベッドに寝ている人が臥位であれば、利用者臥位イベントを検出する。体位認識部227は、例えば予めサンプルとなる臥位の利用者の姿を撮影部21で撮影し、その撮影画像を分析して臥位の利用者の大きさ、形状及びパーツ(頭、手や足などの部位)の配置などの特徴データを抽出しておく。そして、体位認識部227は、撮影部21で撮影した画像を分析して、大きさ、形状及びパーツの配置などの特徴データがサンプルと共通又は近似する被写体が含まれると判定した場合に、撮影した画像に臥位の利用者が写っていると判定してもよい。 The wake-up event detection unit 217 of the robot 2 shown in FIG. 8 detects a wake-up event when the scheduled wake-up time arrives as described above, or by the recognition process described above. The body position recognition unit 227 of the robot 2 shown in FIG. 8 recognizes the body position of a person (actually, considered to be a user) sleeping on a bed in a bedroom. The body position recognition unit 227 detects a user supine position event if the person sleeping on the bed is in the supine position. The body position recognition unit 227, for example, photographs a sample of a user in a supine position using the photographing unit 21 in advance, analyzes the photographed image, and determines the size, shape, and parts (head, hands, etc.) of the user in a supine position. Feature data such as the location of parts such as feet are extracted in advance. Then, the body position recognition unit 227 analyzes the image photographed by the photographing unit 21, and if it is determined that the image contains a subject whose characteristic data such as size, shape, and arrangement of parts is common or similar to the sample, It may be determined that the user in the supine position is included in the image taken.

図10に示したイベント情報記憶部151のデータ構成における第6レコードは、目覚ましの応用例に関して、第1イベントとして起床イベントが検出された場合に、エリア種
別が寝室タイプであるマーカが設置されている場所(つまり、寝室)へロボット2が移動することを定めている。第6レコードは、さらに第2イベントとして利用者臥位イベントが検出された場合に、ロボット2が目覚ましアクションを行うことを定めている。寝室タイプであるマーカを寝室マーカという。
The sixth record in the data structure of the event information storage unit 151 shown in FIG. 10 indicates that when a wake-up event is detected as the first event regarding the alarm clock application example, a marker whose area type is the bedroom type is installed. It is determined that the robot 2 moves to a place where the robot 2 is present (that is, the bedroom). The sixth record further specifies that the robot 2 performs a wake-up action when a user lying event is detected as a second event. A bedroom type marker is called a bedroom marker.

図11に示したマーカ情報記憶部153のデータ構成における第6レコードには、目覚ましの応用例に関して、エリア種別の寝室タイプに対応付けて寝室マーカの位置及び向きが設定される。 In the sixth record in the data structure of the marker information storage unit 153 shown in FIG. 11, the position and orientation of the bedroom marker is set in association with the bedroom type of the area type regarding the alarm clock application example.

図18(A)は、実施例6のマーカ登録フェーズにおける処理手順を示すフローチャートである。例えばロボット2が自律的に移動しているときにマーカ認識部22が寝室マーカを検出すると(ステップS81)、通信制御部26は、エリア種別の寝室タイプと寝室マーカの位置及び向きを含む寝室マーカ情報をデータ提供装置10へ送信する。 FIG. 18(A) is a flowchart showing the processing procedure in the marker registration phase of the sixth embodiment. For example, when the marker recognition unit 22 detects a bedroom marker while the robot 2 is moving autonomously (step S81), the communication control unit 26 detects a bedroom marker that includes the bedroom type of the area type and the position and orientation of the bedroom marker. The information is transmitted to the data providing device 10.

データ提供装置10の第1通信制御部11が寝室マーカ情報を受信すると、マーカ登録部110は、エリア種別の寝室タイプに対応付けて寝室マーカの位置及び向きをマーカ情報記憶部153に登録する(ステップS82)。 When the first communication control unit 11 of the data providing device 10 receives the bedroom marker information, the marker registration unit 110 registers the position and orientation of the bedroom marker in the marker information storage unit 153 in association with the bedroom type of the area type ( Step S82).

図18(B)は、実施例6のアクションフェーズにおける処理手順を示すフローチャートである。ロボット2の起床イベント検出部217が起床イベントを検出すると(ステップS83)、通信制御部26は、データ提供装置10へ起床イベントを通知する。 FIG. 18(B) is a flowchart showing the processing procedure in the action phase of the sixth embodiment. When the wake-up event detection unit 217 of the robot 2 detects a wake-up event (step S83), the communication control unit 26 notifies the data providing device 10 of the wake-up event.

データ提供装置10の第1通信制御部11が起床イベントの通知を受信すると、アクション選択部140は、イベント情報記憶部151を参照して起床イベントに対応付けられているエリア種別の寝室タイプを特定する。アクション選択部140は、さらにマーカ情報記憶部153を参照してエリア種別の寝室タイプに対応する寝室マーカの位置と向きを特定する。第1通信制御部11は、寝室マーカの位置と向きを含む寝室への移動指示をロボット2へ送信する。 When the first communication control unit 11 of the data providing device 10 receives the notification of the wake-up event, the action selection unit 140 refers to the event information storage unit 151 and specifies the bedroom type of the area type associated with the wake-up event. do. The action selection unit 140 further refers to the marker information storage unit 153 to specify the position and orientation of the bedroom marker corresponding to the bedroom type of the area type. The first communication control unit 11 transmits to the robot 2 an instruction to move to the bedroom, including the position and orientation of the bedroom marker.

ロボット2の通信制御部26が寝室マーカの位置と向きを含む寝室への移動指示を受信すると、移動制御部23は移動機構29を制御して、ロボット2は寝室へ移動する(ステップS84)。ロボット2は、寝室マーカの位置の手前に少なくとも第6所定時間留まる。第6所定時間は、ロボット2が寝室に入ってから利用者臥位イベントを検出するまでに要する想定時間の上限値に相当する。第6所定時間を経過した時点で、利用者臥位イベントが検出されていなければ、実施例6のアクションフェーズにおける処理を中断してもよい。 When the communication control unit 26 of the robot 2 receives the instruction to move to the bedroom including the position and orientation of the bedroom marker, the movement control unit 23 controls the movement mechanism 29, and the robot 2 moves to the bedroom (step S84). The robot 2 remains in front of the bedroom marker position for at least a sixth predetermined period of time. The sixth predetermined time corresponds to the upper limit of the estimated time required from when the robot 2 enters the bedroom to when the user's prone position event is detected. When the sixth predetermined period of time has elapsed, if the user lying down event has not been detected, the processing in the action phase of the sixth embodiment may be interrupted.

体位認識部227が利用者臥位イベントを検出すると(ステップS85)、通信制御部26は利用者臥位イベントをデータ提供装置10へ送信する。 When the body position recognition unit 227 detects a user supine position event (step S85), the communication control unit 26 transmits the user supine position event to the data providing device 10.

データ提供装置10の第1通信制御部11が利用者臥位イベントを受信すると、アクション選択部140は、イベント情報記憶部151を参照して第2イベントの利用者臥位イベントに対応する第1イベントの起床イベントを特定する。アクション選択部140は、イベント情報記憶部151を参照して第1イベントの起床イベントと第2イベントの利用者臥位イベントの組み合わせに対応する目覚ましアクションを選択する。第1通信制御部11は、選択された目覚ましアクションの指示をロボット2へ送信する。 When the first communication control unit 11 of the data providing device 10 receives the user supine event, the action selection unit 140 refers to the event information storage unit 151 and selects the first communication control unit 11 corresponding to the user supine event as the second event. Identify the triggering event for the event. The action selection unit 140 refers to the event information storage unit 151 and selects a wake-up action corresponding to the combination of the first event, which is a wake-up event, and the second event, which is a user lying down event. The first communication control unit 11 transmits an instruction for the selected wake-up action to the robot 2.

ロボット2の通信制御部26が目覚ましアクションの指示を受信すると、ロボット2のアクション実行部230は、目覚ましアクションを実行する(ステップS86)。 When the communication control unit 26 of the robot 2 receives the instruction for the wake-up action, the action execution unit 230 of the robot 2 executes the wake-up action (step S86).

上述の実施例1~6において、ロボット2の第1イベント検出部210で行うと説明した処理を、データ提供装置10の第1イベント検出部120で行ってもよい。ロボット2の第2イベント検出部220で行うと説明した処理を、データ提供装置10の第2イベント検出部130で行ってもよい。データ提供装置10の第1イベント検出部120で行うと説明した処理を、ロボット2の第1イベント検出部210で行ってもよい。データ提供装置10の第2イベント検出部130で行うと説明した処理を、ロボット2の第2イベント検出部220で行ってもよい。 In the first to sixth embodiments described above, the processing described as being performed by the first event detection unit 210 of the robot 2 may be performed by the first event detection unit 120 of the data providing device 10. The processing described as being performed by the second event detection unit 220 of the robot 2 may be performed by the second event detection unit 130 of the data providing device 10. The processing described as being performed by the first event detection unit 120 of the data providing device 10 may be performed by the first event detection unit 210 of the robot 2. The processing described as being performed by the second event detection unit 130 of the data providing device 10 may be performed by the second event detection unit 220 of the robot 2.

以上述べた実施形態2では、所定のタイミングにおいてロボット2を所定の場所に移動させ、さらに所定の条件を満たす場合に所定のアクションを実行する。マーカを所定の場所に設置することにより、このような一連の動作を簡単に実現できるので便利である。 In the second embodiment described above, the robot 2 is moved to a predetermined location at a predetermined timing, and further a predetermined action is executed when a predetermined condition is satisfied. It is convenient because such a series of operations can be easily realized by installing the marker at a predetermined location.

[実施形態3]
ロボット2がマーカを認識したときにそのマーカによって指示されたアクションを、ロボット2が実行するようにしてもよい。そのために、アクションの識別子を図形化したマーカを用いる。例えば、汎用的な変換方式(バーコード方式あるいは2次元バーコード方式など)でアクションの識別子を図形化した図形コードをマーカとして用いてもよい。この場合には、マーカ認識部22は、当該変換方式によって図形コードからアクションの識別子を読み取ることができる。あるいは、独自にデザイン化した図形をマーカとして用いてもよい。この場合には、マーカ認識部22は、撮影画像に含まれる図形の形状が所定の形状である場合にその図形の種類を特定し、特定した図形の種類に対応するアクションの識別子を特定するようにしてもよい。マーカ認識部22において、図形の種類とアクションの識別子を対応付けるデータを記憶しておくものとする。つまり、実施形態3におけるマーカは、いずれかのアクションの識別子を特定し得る。
[Embodiment 3]
When the robot 2 recognizes a marker, the robot 2 may execute an action instructed by the marker. For this purpose, a marker is used that is a graphic representation of the action identifier. For example, a graphic code obtained by converting an action identifier into a graphic using a general-purpose conversion method (bar code method, two-dimensional bar code method, etc.) may be used as a marker. In this case, the marker recognition unit 22 can read the action identifier from the graphic code using the conversion method. Alternatively, a uniquely designed figure may be used as a marker. In this case, the marker recognition unit 22 specifies the type of figure included in the photographed image when the shape is a predetermined shape, and specifies the identifier of the action corresponding to the specified type of figure. You can also do this. It is assumed that the marker recognition unit 22 stores data that associates the type of figure with the identifier of the action. That is, the marker in Embodiment 3 can specify the identifier of any action.

例えば、子供部屋の入り口に、アクションとしてリビングルームへの移動を指示するマーカを設置しておけば、ロボット2が子供部屋の前でマーカを認識した段階で、子供部屋の中へ立ち入ることなく、直ぐにリビングルームへ移動する。 For example, if you set up a marker at the entrance of a child's room that instructs the robot to move to the living room as an action, when the robot 2 recognizes the marker in front of the child's room, it can move without entering the child's room. Move to the living room immediately.

マーカによって指示されるアクションは、別の所定マーカの探索であってもよい。マーカAによって指示されるアクションがマーカBの探索であれば、ロボット2は、マーカAを認識した段階でマーカBを探して移動を始める。さらに、マーカBによって指示されるアクションがマーカCの探索であれば、ロボット2は、マーカBを認識した段階でマーカCを探して移動を始める。順次マーカを探索するように指示する一連のマーカを経路上のポイントに配置すれば、ロボット2に一連のマーカを順にめぐる経路を探索させることになる。このようにすれば、オリエンテーリングを模した屋内ゲームを子供とロボット2で競わせる遊び方もできる。また、複数台のロボット2を走行させて、屋内レースを行わせることもできる。 The action indicated by the marker may be a search for another predetermined marker. If the action instructed by marker A is a search for marker B, the robot 2 searches for marker B and starts moving when it recognizes marker A. Furthermore, if the action instructed by marker B is a search for marker C, the robot 2 searches for marker C and starts moving when marker B is recognized. If a series of markers that instruct the robot to search for markers in sequence are placed at points on the route, the robot 2 will be made to search for a route that goes around the series of markers in order. In this way, it is also possible to play an indoor game simulating orienteering in which the child and the robot 2 compete. Moreover, it is also possible to run a plurality of robots 2 and perform an indoor race.

上述の屋内ゲームや屋内レースのような屋内プレイを行う場合に、利用者が利用者端末3のアプリケーションから自律行動型ロボット1に対して、ロボット2が最初にマーカAを探すように指示してもよい。ロボット2が、「始めろ」や「探せ」のような利用者の掛け声を音声認識し、利用者の掛け声を検出したイベントを契機としてマーカの探索を始めるようにしてもよい。ロボット2が、撮影画像から利用者がスタートを指示するポーズやジェスチャーを画像認識して、ポーズやジェスチャーを検出したイベントを契機としてマーカの探索を始めるようにしてもよい。あるいは、利用者が利用者端末3のアプリケーションから自律行動型ロボット1に対してスタート時刻を設定し、ロボット2は、スタート時刻に至ったことを契機として起点となるマーカの探索を始めるようにしてもよい。 When playing an indoor play such as the above-mentioned indoor game or indoor race, the user instructs the autonomous robot 1 from the application on the user terminal 3 so that the robot 2 searches for marker A first. Good too. The robot 2 may recognize a user's call such as "Start" or "Search" by voice, and start searching for a marker in response to an event in which the user's call is detected. The robot 2 may image-recognize the pose or gesture instructing the user to start from the photographed image, and start searching for the marker in response to an event in which the pose or gesture is detected. Alternatively, the user may set a start time for the autonomous robot 1 from an application on the user terminal 3, and the robot 2 may start searching for a marker as a starting point upon reaching the start time. Good too.

以上述べた実施形態3では、マーカを所定の場所に設置することにより、その場所にお
けるロボット2のアクションを簡単に指示することができる。
In the third embodiment described above, by installing a marker at a predetermined location, it is possible to easily instruct the action of the robot 2 at that location.

[実施形態4]
接近禁止を指示するマーカを用いて、接近してはならない物品をロボット2に認識させるようにしてもよい。例えば装飾品や精密機器のように壊れやすい物品に接近禁止のコードを図形化したマーカを設置する。上述したように、汎用的な変換方式(バーコード方式あるいは2次元バーコード方式など)で接近禁止のコードを図形化した図形コードをマーカとして用いてもよい。あるいは、独自にデザイン化した図形をマーカとして用いてもよい。この場合、マーカ認識部22は、接近禁止に相当する図形の種類を記憶しており、撮影画像から特定した図形の種類が接近禁止に該当すると判定する。ロボット2のマーカ認識部22は、認識したマーカとの間隔を測定する。移動制御部23は、マーカとの間隔が第1基準距離よりも短くなったと判定した場合に、マーカから遠ざかる方向へロボット2を移動させるように、移動機構29を制御する。第1基準距離は、ロボット2が方向を転換して、ロボット2の移動によってマーカの位置に到達しないように制御するために必要な距離である。このようにすれば、ロボット2が壊れやすい物品に衝突するリスクを減らせる。
[Embodiment 4]
The robot 2 may be made to recognize objects that should not be approached by using a marker that instructs the robot 2 to prohibit access. For example, a marker with a graphic prohibition code is placed on fragile items such as ornaments and precision equipment. As described above, a graphic code obtained by converting an access prohibition code into a graphic using a general-purpose conversion method (bar code method, two-dimensional bar code method, etc.) may be used as a marker. Alternatively, a uniquely designed figure may be used as a marker. In this case, the marker recognition unit 22 stores the type of figure that corresponds to the prohibition of approach, and determines that the type of figure specified from the photographed image corresponds to the prohibition of approach. The marker recognition unit 22 of the robot 2 measures the distance from the recognized marker. The movement control unit 23 controls the movement mechanism 29 to move the robot 2 in a direction away from the marker when it is determined that the distance from the marker has become shorter than the first reference distance. The first reference distance is a distance required to control the robot 2 so that it does not change direction and reach the marker position due to movement of the robot 2. In this way, the risk of the robot 2 colliding with fragile items can be reduced.

また、バランスボールや掃除機本体のように移動する可能性が高い物品に接近禁止を指示するマーカを設置して、移動する可能性が高い物品をロボット2に認識させるようにしてもよい。移動制御部23は、マーカとの間隔が第2基準距離よりも短くなったと判定した場合に、マーカから遠ざかる方向へロボット2を移動させるように、移動機構29を制御する。第2基準距離は、物品が移動してロボット2の位置に到達する前に、ロボット2が物品との距離を広げるように制御するために必要な距離である。このようにすれば、物品が移動してロボット2に衝突するリスクを減らせる。 Alternatively, a marker may be installed to instruct the robot 2 not to approach an object that is likely to move, such as a balance ball or a vacuum cleaner body, so that the robot 2 can recognize the object that is likely to move. The movement control unit 23 controls the movement mechanism 29 to move the robot 2 in a direction away from the marker when it is determined that the distance from the marker has become shorter than the second reference distance. The second reference distance is a distance necessary for controlling the robot 2 to increase the distance from the article before the article moves and reaches the position of the robot 2. In this way, the risk of objects moving and colliding with the robot 2 can be reduced.

マーカによって物品の種類を識別し、物品の種類に応じてロボット2の接近を規制してもよい。物品の種類を示すマーカを用いてもよいし、マーカIDと物品の種類を対応付ける物品管理データをデータ提供装置10で保持するようにしてもよい。物品の種類を示すマーカを用いる場合には、マーカ認識部22がマーカを認識した段階で物品の種類も検出する。マーカ認識部22は、マーカIDと物品の種類を対応付ける物品管理データを記憶している。マーカ認識部22は、マーカからマーカIDを検出し、物品管理データを参照してマーカIDに対応する物品の種類を特定する。物品管理データは、利用者が利用者端末3のアプリケーションから設定するようにしてもよい。 The type of article may be identified by the marker, and the approach of the robot 2 may be restricted depending on the type of article. A marker indicating the type of article may be used, or the data providing device 10 may hold article management data that associates the marker ID with the type of article. When using a marker that indicates the type of article, the marker recognition unit 22 also detects the type of article when it recognizes the marker. The marker recognition unit 22 stores article management data that associates marker IDs with article types. The marker recognition unit 22 detects the marker ID from the marker, and refers to the article management data to identify the type of article corresponding to the marker ID. The article management data may be set by the user using an application on the user terminal 3.

さらに、マーカ認識部22が、物品の種類毎にロボット2の接近可否が設定された接近制御データを記憶し、マーカIDによって特定した物品の種類に関する接近可否を判定するようにしてもよい。接近制御データにおいて、例えばテーブルや椅子のように壊れにくく且つ移動する可能性が低い物品に対して接近許可が設定され、装飾品や精密機器のように壊れやすい物品及びバランスボールや掃除機本体のように移動する可能性が高い物品に対して接近禁止が設定されている。掃除機本体は常に前方に移動し、後方に移動することは無いので、掃除機本体の後方への接近を許可してもよい。つまり、掃除機本体の前方への接近のみを禁止すれば足りる。マーカの向きで掃除機本体の前後を認識できるようにすれば、掃除機本体の前方への接近のみを禁止してもよい。マーカが矢印を含み、矢印の先が掃除機の前方を指すようにマーカを貼り付ければ、ロボット2はマーカを基準として接近が禁止される範囲を判断することができる。矢印が指す先を接近禁止とするというルールが設けられていれば、マーカを貼り付ける段階でマーカの向きに注意すれば運用上問題がない。矢印が指す先に限らず接近禁止の範囲を設ける場合には、接近制御データに矢印を基準とした接近禁止の範囲を設定しておいてもよいし、利用者端末3のアプリケーションから同様の接近禁止の範囲を設定してもよい。 Furthermore, the marker recognition unit 22 may store approach control data in which the approachability of the robot 2 is set for each type of article, and determine whether the robot 2 can approach the type of article specified by the marker ID. In the access control data, access permission is set for items that are hard to break and unlikely to move, such as tables and chairs, and for items that are fragile such as decorations and precision equipment, as well as balance balls and vacuum cleaners. Access prohibitions are set for items that are likely to be moved. Since the main body of the vacuum cleaner always moves forward and never moves backward, approaching the rear of the main body of the vacuum cleaner may be permitted. In other words, it is sufficient to prohibit only approaching the front of the vacuum cleaner body. If the front and back of the vacuum cleaner body can be recognized based on the orientation of the marker, only approaching the front of the vacuum cleaner body may be prohibited. If the marker includes an arrow and is pasted so that the tip of the arrow points in front of the vacuum cleaner, the robot 2 can determine the range to which access is prohibited based on the marker. If there is a rule that prohibits people from approaching the area where the arrow points, there will be no operational problems as long as the direction of the marker is taken care of when pasting the marker. If you want to set a prohibited approach range that is not limited to where the arrow points, you may set the prohibited approach range based on the arrow in the approach control data, or you can set a similar approach range from the application on the user terminal 3. A prohibited range may be set.

以上述べた実施形態4では、壊れやすい物品や移動する可能性がある物品などロボット2との衝突のリスクがある物品にマークを設置することにより、ロボット2と物品との衝突を回避しやすくする。 In the fourth embodiment described above, by placing marks on items that are at risk of collision with the robot 2, such as fragile items or items that may move, collisions between the robot 2 and the items can be easily avoided. .

[その他の変形例] [Other variations]

実施形態2に関して、マーカ認識部22は、マーカIDとエリア種別を対応付けるマーカ定義情報を記憶し、マーカからマーカIDを検出し、マーカIDに対応するエリア種別を特定するようにしてもよい。マーカIDとエリア種別の対応付けは、利用者が利用者端末3のアプリケーションから設定してもよい。 Regarding the second embodiment, the marker recognition unit 22 may store marker definition information that associates a marker ID with an area type, detect the marker ID from the marker, and specify the area type corresponding to the marker ID. The association between the marker ID and the area type may be set by the user from an application on the user terminal 3.

実施形態2に関して、第1イベントは上述した例に限らない。第1イベントは、任意である。ロボット2の第1イベント検出部210及びデータ提供装置10の第1イベント検出部120は、利用者以外の人を認識したときに第1イベントを検出してもよい。ロボット2の第1イベント検出部210及びデータ提供装置10の第1イベント検出部120は、認識したことがない未知の人を初めて認識したときに第1イベントを検出してもよい。ロボット2の第1イベント検出部210及びデータ提供装置10の第1イベント検出部120は、過去に認識したことがある既知の人を改めて認識したときに第1イベントを検出してもよい。ロボット2の第1イベント検出部210及びデータ提供装置10の第1イベント検出部120は、所定時間以内に同じ人を繰り返し認識した場合に第1イベントを検出してもよい。ロボット2の第1イベント検出部210及びデータ提供装置10の第1イベント検出部120は、所定時間以内に認識していなかった人を認識したときに第1イベントを検出してもよい。さらに、ロボット2の第1イベント検出部210及びデータ提供装置10の第1イベント検出部120は、撮影画像において認識した人とマーカとの位置関係や向きが所定の条件を満たすと判断したときに第1イベントを検出してもよい。 Regarding the second embodiment, the first event is not limited to the example described above. The first event is optional. The first event detection unit 210 of the robot 2 and the first event detection unit 120 of the data providing device 10 may detect the first event when recognizing a person other than the user. The first event detection unit 210 of the robot 2 and the first event detection unit 120 of the data providing device 10 may detect the first event when an unknown person who has never been recognized is recognized for the first time. The first event detection unit 210 of the robot 2 and the first event detection unit 120 of the data providing device 10 may detect a first event when a known person who has been recognized in the past is recognized again. The first event detection unit 210 of the robot 2 and the first event detection unit 120 of the data providing device 10 may detect the first event when the same person is repeatedly recognized within a predetermined time. The first event detection unit 210 of the robot 2 and the first event detection unit 120 of the data providing device 10 may detect the first event when they recognize a person who has not been recognized within a predetermined time. Furthermore, the first event detection unit 210 of the robot 2 and the first event detection unit 120 of the data providing device 10 determine that the positional relationship and orientation of the person and the marker recognized in the captured image satisfy predetermined conditions. A first event may be detected.

実施形態2に関して、第2イベントは上述した例に限らない。第2イベントは、任意である。ロボット2の第2イベント検出部220及びデータ提供装置10の第2イベント検出部130は、利用者以外の人を認識したときに第2イベントを検出してもよい。ロボット2の第2イベント検出部220及びデータ提供装置10の第2イベント検出部130は、認識したことがない未知の人を初めて認識したときに第2イベントを検出してもよい。ロボット2の第2イベント検出部220及びデータ提供装置10の第2イベント検出部130は、過去に認識したことがある既知の人を改めて認識したときに第2イベントを検出してもよい。ロボット2の第2イベント検出部220及びデータ提供装置10の第2イベント検出部130は、所定時間以内に同じ人を繰り返し認識した場合に第2イベントを検出してもよい。ロボット2の第2イベント検出部220及びデータ提供装置10の第2イベント検出部130は、所定時間以内に認識していなかった人を認識したときに第2イベントを検出してもよい。さらに、ロボット2の第2イベント検出部220及びデータ提供装置10の第2イベント検出部130は、撮影画像において認識した人とマーカとの位置関係や向きが所定の条件を満たすと判断したときに第2イベントを検出してもよい。 Regarding the second embodiment, the second event is not limited to the example described above. The second event is optional. The second event detection unit 220 of the robot 2 and the second event detection unit 130 of the data providing device 10 may detect the second event when recognizing a person other than the user. The second event detection unit 220 of the robot 2 and the second event detection unit 130 of the data providing device 10 may detect the second event when the robot recognizes an unknown person who has never been recognized for the first time. The second event detection unit 220 of the robot 2 and the second event detection unit 130 of the data providing device 10 may detect a second event when a known person who has been recognized in the past is recognized anew. The second event detection unit 220 of the robot 2 and the second event detection unit 130 of the data providing device 10 may detect the second event when the same person is repeatedly recognized within a predetermined time. The second event detection unit 220 of the robot 2 and the second event detection unit 130 of the data providing device 10 may detect the second event when they recognize a person who has not been recognized within a predetermined time. Further, the second event detection unit 220 of the robot 2 and the second event detection unit 130 of the data providing device 10 determine that the positional relationship and orientation of the person and the marker recognized in the captured image satisfy predetermined conditions. A second event may also be detected.

実施形態2に関して、第1イベント及び第2イベントは、複数段階のイベントの組み合わせであってもよい。例えば実施例1で説明した出迎えの応用例において、データ提供装置10の帰宅イベント検出部121は、利用者端末3の位置が自宅に近づいたときに第1段階のイベントを検出し、利用者端末3が玄関に設置されたビーコン発信器と通信を行ったときに第2段階のイベントを検出してもよい。そして、帰宅イベント検出部121は、第1段階のイベントと第2段階のイベントの両方を検出した場合に、第1イベントを検出したと判断してもよい。 Regarding the second embodiment, the first event and the second event may be a combination of events in multiple stages. For example, in the pick-up application example described in Embodiment 1, the returning home event detection unit 121 of the data providing device 10 detects the first stage event when the user terminal 3 approaches the home, and The second stage event may be detected when the mobile terminal 3 communicates with a beacon transmitter installed at the entrance. Then, the returning home event detection unit 121 may determine that the first event has been detected when both the first stage event and the second stage event are detected.

実施形態2に関して、アクション選択部140が第1イベントと第2イベントの組み合
わせに対応するアクションを選択する例を説明したが、アクション選択部140は、第2イベントに対応するアクションを選択してもよい。アクション選択部140は、エリア種別に対応するアクションを選択してもよい。アクション選択部140は、第1イベントに対応するアクションを選択してもよい。アクション選択部140は、エリア種別と第2イベントの組み合わせに対応するアクションを選択してもよい。アクション選択部140は、第1イベントとエリア種別の組み合わせに対応するアクションを選択してもよい。アクション選択部140は、第1イベントとエリア種別と第2イベントの組み合わせに対応するアクションを選択してもよい。
Regarding the second embodiment, an example has been described in which the action selection unit 140 selects an action corresponding to a combination of a first event and a second event. good. The action selection unit 140 may select an action corresponding to the area type. The action selection unit 140 may select an action corresponding to the first event. The action selection unit 140 may select an action corresponding to the combination of the area type and the second event. The action selection unit 140 may select an action corresponding to the combination of the first event and the area type. The action selection unit 140 may select an action corresponding to a combination of the first event, area type, and second event.

実施形態2に関して、アクション実行部230は、特定の人を対象としたアクションを行ってもよい。例えば実施例3で説明した接客の応用例において、アクション実行部230は、特定の客に対して空き室を案内してもよい。また、アクション実行部230が実行するアクションの内容は、利用者が利用者端末3のアプリケーションから設定してもよい。 Regarding the second embodiment, the action execution unit 230 may perform an action targeting a specific person. For example, in the customer service application example described in the third embodiment, the action execution unit 230 may guide a specific customer to a vacant room. Further, the content of the action executed by the action execution unit 230 may be set by the user from an application on the user terminal 3.

実施形態2に関して、ロボット2の第1イベント検出部210は、通信制御部26において他のロボット2と通信した場合に、第1イベントを検出してもよい。ロボット2の第2イベント検出部220は、通信制御部26において他のロボット2と通信した場合に、第2イベントを検出してもよい。ロボット2の第1イベント検出部210及びデータ提供装置10の第1イベント検出部120は、利用者端末3や他の外部装置から所定の指示やデータ受け付けたときに第1イベントを検出してもよい。ロボット2の第2イベント検出部220及びデータ提供装置10の第2イベント検出部130は、利用者端末3や他の外部装置から所定の指示やデータ受け付けたときに第2イベントを検出してもよい。例えば実施例3で説明した接客の応用例において、データ提供装置10の来客イベント検出部123は、受付用タブレット端末において来店人数や禁煙等の客室条件を受け付けたことを、受付用タブレット端末から通知されたときに第1イベントを検出してもよい。 Regarding the second embodiment, the first event detection unit 210 of the robot 2 may detect the first event when the communication control unit 26 communicates with another robot 2. The second event detection section 220 of the robot 2 may detect the second event when the communication control section 26 communicates with another robot 2 . The first event detection unit 210 of the robot 2 and the first event detection unit 120 of the data providing device 10 detect the first event when receiving a predetermined instruction or data from the user terminal 3 or other external device. good. The second event detection unit 220 of the robot 2 and the second event detection unit 130 of the data providing device 10 detect a second event when receiving a predetermined instruction or data from the user terminal 3 or other external device. good. For example, in the customer service application example described in Embodiment 3, the visitor event detection unit 123 of the data providing device 10 notifies the reception tablet terminal that the reception tablet terminal has received the number of visitors and room conditions such as non-smoking. The first event may be detected when the first event occurs.

実施形態2に関して、第1イベント及び第2イベントの検出条件は、複数のロボット2毎に異なってもよい。例えば特定のロボット2に限って、通常第1イベント又は第2イベントを検出するタイミングよりも遅らせて第1イベント又は第2イベントを検出するようにしてもよい。第1イベント又は第2イベントの検出タイミングを遅くすれば、ロボット2の消極的な性格を演出することができる。逆に特定のロボット2に限って、通常第1イベント又は第2イベントを検出するタイミングよりも早く第1イベント又は第2イベントを検出するようにしてもよい。第1イベント又は第2イベントの検出タイミングを早くすれば、ロボット2の積極的な性格を演出することができる。尚、第1イベント及び第2イベントの内容は、利用者が利用者端末3のアプリケーションから設定してもよい。 Regarding the second embodiment, the detection conditions for the first event and the second event may be different for each of the plurality of robots 2. For example, only a specific robot 2 may detect the first event or the second event later than the timing at which the first event or the second event is normally detected. By delaying the detection timing of the first event or the second event, the passive character of the robot 2 can be produced. Conversely, only a specific robot 2 may detect the first event or the second event earlier than the timing at which the first event or the second event is normally detected. If the detection timing of the first event or the second event is made earlier, the aggressive character of the robot 2 can be produced. Note that the contents of the first event and the second event may be set by the user from an application on the user terminal 3.

実施形態2に関して、イベント情報記憶部151において、ロボット2毎に異なるイベント情報を設定してもよい。つまり、特定のロボット2に限って適用されるイベント情報を設けてもよい。例えば2台のロボット2を動作させる家庭で、一方のロボットにだけ出迎えアクションを行わせ、他方のロボットにだけ子守アクションを行わせるように、イベント情報を設定してもよい。 Regarding the second embodiment, different event information may be set for each robot 2 in the event information storage section 151. In other words, event information applicable only to a specific robot 2 may be provided. For example, in a household where two robots 2 are operated, event information may be set so that only one robot performs a greeting action and only the other robot performs a babysitting action.

複数台のロボット2を動作させる場合には、一方のロボット2が認識したマーカ情報を、他方のロボット2に通知するようにしてもよい。そのようにすれば、エリア種別、マーカの位置及び向きを、早く共有できるようになる。 When operating a plurality of robots 2, the marker information recognized by one robot 2 may be notified to the other robot 2. In this way, the area type, marker position, and orientation can be quickly shared.

ロボット2は、SLAM技術において検出される特徴点や特徴形状をマーカとみなしてもよい。また、マーカとして発光するデバイスを用いてもよい。ロボット2が備える蓄電池に給電するための充電ステーションにマーカを設置して、ロボット2がマーカに基づい
て充電ステーションとの位置関係と向きを検出するようにしてもよい。ロボット2は、自動連結のために充電ステーションに近づくときに、マーカによって検出した充電ステーションの位置関係と向きを用いてもよい。
The robot 2 may regard feature points and feature shapes detected by SLAM technology as markers. Furthermore, a device that emits light may be used as a marker. A marker may be installed at a charging station for supplying power to a storage battery included in the robot 2, and the robot 2 may detect the positional relationship and orientation with respect to the charging station based on the marker. The robot 2 may use the positional relationship and orientation of the charging station detected by the marker when approaching the charging station for automatic connection.

マーカ認識部22は、同じマーカについて複数回位置を計測し、それらの位置に関する平均値を求めるようにしてもよい。マーカ認識部22がマーカの位置の平均値を用いれば、マーカの位置の計測における誤差の影響を軽減できる。同様にマーカ認識部22は、同じマーカについて複数回向きを計測し、それらの向きに関する平均値を求めるようにしてもよい。マーカ認識部22がマーカの向きの平均値を用いれば、マーカの位置の計測における誤差の影響を軽減できる。 The marker recognition unit 22 may measure the position of the same marker multiple times and calculate the average value regarding those positions. If the marker recognition unit 22 uses the average value of the marker positions, the influence of errors in measuring the marker positions can be reduced. Similarly, the marker recognition unit 22 may measure the orientation of the same marker multiple times and calculate the average value regarding those orientations. If the marker recognition unit 22 uses the average value of the orientations of the markers, it is possible to reduce the influence of errors in measuring the positions of the markers.

利用者端末3のアプリケーションは、利用者端末3の出力装置に、マーカの位置や向きを表示してもよい。利用者端末3のアプリケーションから利用者が、利用者端末3の入力装置を介して、マーカの内容(進入禁止、エリア種別、アクションの識別子又は接近禁止など)、マーカの位置や向きを設定し、あるいは修正できるようにしてもよい。 The application on the user terminal 3 may display the position and orientation of the marker on the output device of the user terminal 3. From the application on the user terminal 3, the user sets the contents of the marker (no entry, area type, action identifier, or no approach, etc.), the position and orientation of the marker, via the input device of the user terminal 3, Alternatively, it may be possible to modify it.

ロボット2は、ビーコン受信器を備え、所定の位置に設置されたビーコン発信器が発信するビーコン信号をビーコン受信器において受信し、ビーコン発信器のIDを特定してもよい。ロボット2は、さらにビーコン分析部を備え、ビーコン分析部においてビーコン信号の電波強度を分析することによってビーコン発信器の位置を特定してもよい。従って、自律行動型ロボット1は、ビーコン発信器のIDをマーカIDとみなし、ビーコン発信器の位置をマーカの位置とみなして、上述の実施形態に適用してもよい。 The robot 2 may include a beacon receiver, receive a beacon signal transmitted by a beacon transmitter installed at a predetermined position, and identify the ID of the beacon transmitter. The robot 2 may further include a beacon analysis section, and the beacon analysis section may identify the position of the beacon transmitter by analyzing the radio wave intensity of the beacon signal. Therefore, the autonomous robot 1 may regard the ID of the beacon transmitter as the marker ID, and the position of the beacon transmitter as the position of the marker, and may be applied to the above-described embodiment.

なお、本実施形態で説明した装置を構成する機能を実現するためのプログラムを、コンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、本実施形態の上述した種々の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。 Note that a program for realizing the functions of the device described in this embodiment may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read into a computer system and executed. Accordingly, the various processes described above in this embodiment may be performed. Note that the "computer system" here may include hardware such as an OS and peripheral devices. Furthermore, the term "computer system" includes the homepage providing environment (or display environment) if a WWW system is used. Furthermore, "computer-readable recording media" refers to flexible disks, magneto-optical disks, ROMs, writable non-volatile memories such as flash memories, portable media such as CD-ROMs, hard disks built into computer systems, etc. storage device.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組合せで実現するもの、いわゆる差分ファイル(差分プログラム)であっても良い。 Furthermore, "computer-readable recording medium" refers to volatile memory (for example, DRAM (Dynamic It also includes those that retain programs for a certain period of time, such as Random Access Memory). Further, the program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in a transmission medium. Here, the "transmission medium" that transmits the program refers to a medium that has a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. Moreover, the above program may be for realizing a part of the above-mentioned functions. Furthermore, it may be a so-called difference file (difference program) that realizes the above-mentioned functions in combination with a program already recorded in the computer system.

以上、本発明の実施形態について、図面を参照して説明してきたが、具体的な構成はこの実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲においての種々の変更も含まれる。

Although the embodiments of the present invention have been described above with reference to the drawings, the specific configuration is not limited to these embodiments, and various modifications may be made without departing from the spirit of the present invention. It will be done.

Claims (17)

移動機構と、
周囲の空間を撮影する撮影部と、
前記撮影部において撮影された撮影画像に含まれる所定のマーカを認識するマーカ認識部と、
認識された前記マーカに基づき前記移動機構による移動を制御する移動制御部と
を備える、ロボット。
a moving mechanism;
A photography department that photographs the surrounding space,
a marker recognition unit that recognizes a predetermined marker included in a photographed image photographed by the photographing unit;
and a movement control unit that controls movement by the movement mechanism based on the recognized marker.
前記移動制御部は、認識された前記マーカに基づき前記移動による進入を禁止する、請求項1に記載のロボット。 The robot according to claim 1, wherein the movement control unit prohibits entry by movement based on the recognized marker. 前記移動制御部は、認識された前記マーカに基づき前記移動の速度を制限する、請求項1又は2に記載のロボット。 The robot according to claim 1 or 2, wherein the movement control unit limits the speed of the movement based on the recognized marker. 前記移動制御部は、認識された前記マーカの設置位置に基づき前記移動を制御する、請求項1から3のいずれか一項に記載のロボット。 The robot according to any one of claims 1 to 3, wherein the movement control unit controls the movement based on the recognized installation position of the marker. 前記移動制御部は、前記設置位置に基づく制限範囲を設定し、前記制限範囲における前記移動を制限する、請求項4に記載のロボット。 The robot according to claim 4, wherein the movement control unit sets a restricted range based on the installation position and limits the movement within the restricted range. 前記移動制御部は、前記設置位置より奥側、又は前記設置位置の周囲における所定の範囲を前記制限範囲として設定する、請求項5に記載のロボット。 The robot according to claim 5, wherein the movement control section sets a predetermined range behind the installation position or around the installation position as the limited range. 前記移動制御部は、認識された前記マーカが複数である場合、認識された複数の前記設置位置に基づき前記移動を制限する、請求項4から6のいずれか一項に記載のロボット。 The robot according to any one of claims 4 to 6, wherein the movement control unit limits the movement based on the plurality of recognized installation positions when a plurality of the markers are recognized. 前記移動制御部は、認識された第1マーカの設置位置と認識された第2マーカの設置位置とを結ぶ線分に基づき前記移動を制限する、請求項7に記載のロボット。 The robot according to claim 7, wherein the movement control unit limits the movement based on a line segment connecting a recognized installation position of the first marker and a recognized installation position of the second marker. 前記移動制御部は、認識された前記マーカの種類に基づき前記移動を制御する、請求項1から8のいずれか一項に記載のロボット。 The robot according to any one of claims 1 to 8, wherein the movement control unit controls the movement based on the recognized type of the marker. 前記移動制御部は、記録されているマーカに基づき前記移動を制御する、請求項1から9のいずれか一項に記載のロボット。 The robot according to any one of claims 1 to 9, wherein the movement control unit controls the movement based on recorded markers. 前記移動制御部は、前記撮影画像において前記マーカが認識されない場合、前記記録されているマーカに基づき前記移動を制御する、請求項10に記載のロボット。 The robot according to claim 10, wherein the movement control unit controls the movement based on the recorded marker when the marker is not recognized in the captured image. 前記撮影部において撮影された撮影画像に基づいて、前記空間を認識した空間データを生成する空間データ生成部と、
生成された前記空間データに基づいて、前記空間に含まれる空間要素を可視化した可視化データを生成する可視化データ生成部と、
生成された前記可視化データを利用者端末に対して提供する可視化データ提供部と
をさらに備える、請求項1から11のいずれか一項に記載のロボット。
a spatial data generation unit that generates spatial data that recognizes the space based on a photographed image photographed by the photographing unit;
a visualization data generation unit that generates visualization data that visualizes spatial elements included in the space based on the generated spatial data;
The robot according to any one of claims 1 to 11, further comprising: a visualization data providing unit that provides the generated visualization data to a user terminal.
提供された前記可視化データに含まれる領域の指定を前記利用者端末から取得する指定取得部をさらに備え、
前記空間データ生成部は、取得された前記指定に係る領域において再撮影された前記撮影画像に基づいて前記空間を再認識する、請求項12に記載のロボット。
further comprising a designation acquisition unit that acquires a designation of an area included in the provided visualization data from the user terminal,
The robot according to claim 12, wherein the spatial data generation unit re-recognizes the space based on the photographed image re-photographed in the acquired area related to the designation.
前記移動における移動先の状態を示す状態情報を取得する状態情報取得部をさらに備え、
前記移動制御部は、前記状態情報にさらに基づき前記移動を制御する、請求項1から13のいずれか一項に記載のロボット。
further comprising a status information acquisition unit that acquires status information indicating the status of the destination during the movement,
The robot according to any one of claims 1 to 13, wherein the movement control unit controls the movement further based on the state information.
前記マーカの位置を記憶するマーカ情報記憶部と、
第1イベントを検出する第1イベント検出部と、
第2イベントを検出する第2イベント検出部と、
アクションを実行するアクション実行部と
をさらに備え、
前記第1イベントが検出されると、前記マーカの前記位置の付近へ移動し、前記第2イベントが検出されると、前記マーカ、前記第1イベント及び前記第2イベントのうちの少なくとも1つに対応する前記アクションを実行する、請求項1から14のいずれか一項に記載のロボット。
a marker information storage unit that stores the position of the marker;
a first event detection unit that detects a first event;
a second event detection unit that detects a second event;
further comprising an action execution unit that executes the action;
When the first event is detected, the marker is moved to the vicinity of the position, and when the second event is detected, the marker is moved to at least one of the marker, the first event, and the second event. 15. A robot according to any one of claims 1 to 14, which performs the corresponding action.
周囲の空間を撮影する撮影ステップと、
前記撮影ステップにおいて撮影された撮影画像に含まれる所定のマーカを認識するマーカ認識ステップと、
認識された前記マーカに基づき移動機構による移動を制御する移動制御ステップと
を含む、ロボット制御方法。
a photographing step of photographing the surrounding space;
a marker recognition step of recognizing a predetermined marker included in the photographed image photographed in the photographing step;
A robot control method, comprising: a movement control step of controlling movement by a movement mechanism based on the recognized marker.
コンピュータに、
周囲の空間を撮影する撮影機能と、
前記撮影機能において撮影された撮影画像に含まれる所定のマーカを認識するマーカ認識機能と、
認識された前記マーカに基づき移動機構による移動を制御する移動制御機能と
を実現させるための、ロボット制御プログラム。
to the computer,
A shooting function that takes pictures of the surrounding space,
a marker recognition function that recognizes a predetermined marker included in a photographed image photographed in the photographing function;
A robot control program for realizing a movement control function that controls movement by a movement mechanism based on the recognized marker.
JP2023202283A 2018-06-13 2023-11-29 Robots, their control methods, and programs Pending JP2024020582A (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2018113083 2018-06-13
JP2018113083 2018-06-13
JP2020525643A JPWO2019240208A1 (en) 2018-06-13 2019-06-13 Robots and their control methods, as well as programs
PCT/JP2019/023433 WO2019240208A1 (en) 2018-06-13 2019-06-13 Robot, method for controlling robot, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020525643A Division JPWO2019240208A1 (en) 2018-06-13 2019-06-13 Robots and their control methods, as well as programs

Publications (1)

Publication Number Publication Date
JP2024020582A true JP2024020582A (en) 2024-02-14

Family

ID=68842204

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020525643A Pending JPWO2019240208A1 (en) 2018-06-13 2019-06-13 Robots and their control methods, as well as programs
JP2023202283A Pending JP2024020582A (en) 2018-06-13 2023-11-29 Robots, their control methods, and programs

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020525643A Pending JPWO2019240208A1 (en) 2018-06-13 2019-06-13 Robots and their control methods, as well as programs

Country Status (2)

Country Link
JP (2) JPWO2019240208A1 (en)
WO (1) WO2019240208A1 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11493930B2 (en) * 2018-09-28 2022-11-08 Intrinsic Innovation Llc Determining changes in marker setups for robot localization
WO2022034686A1 (en) * 2020-08-14 2022-02-17 日本電気株式会社 Operating range setting device, operating range setting method, and recording medium
CN115705064A (en) * 2021-08-03 2023-02-17 北京小米移动软件有限公司 Following control method and device for foot type robot and robot
WO2023119566A1 (en) * 2021-12-23 2023-06-29 本田技研工業株式会社 Transport system
WO2023204025A1 (en) * 2022-04-20 2023-10-26 パナソニックIpマネジメント株式会社 Movement management system, movement management method, and program
WO2024004453A1 (en) * 2022-06-28 2024-01-04 ソニーグループ株式会社 Moving body control information generating method, moving body control information generating device, moving body, and moving body control system
WO2024014529A1 (en) * 2022-07-15 2024-01-18 Thk株式会社 Autonomous mobile robot and system for controlling autonomous mobile robot
CN116755464B (en) * 2023-05-17 2024-04-16 贵州师范学院 Mobile robot control method based on Internet of things

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0854927A (en) * 1994-08-10 1996-02-27 Kawasaki Heavy Ind Ltd Landmark deciding method and device
JPH1011135A (en) * 1996-06-27 1998-01-16 Ohbayashi Corp Mark recognizing horizontal conveyance system
KR101083394B1 (en) * 2009-10-30 2011-11-14 주식회사 유진로봇 Apparatus and Method for Building and Updating a Map for Mobile Robot Localization
US9014848B2 (en) * 2010-05-20 2015-04-21 Irobot Corporation Mobile robot system
JP5862344B2 (en) * 2012-02-10 2016-02-16 富士通株式会社 Image processing apparatus, prior information update method, and program
DE102012211071B3 (en) * 2012-06-27 2013-11-21 RobArt GmbH Interaction between a mobile robot and an alarm system
JPWO2016103562A1 (en) * 2014-12-25 2017-07-27 村田機械株式会社 Traveling vehicle system, driving state change method
JP6572618B2 (en) * 2015-05-08 2019-09-11 富士通株式会社 Information processing device, information processing program, information processing method, terminal device, setting method, setting program
JP6619967B2 (en) * 2015-08-21 2019-12-11 シャープ株式会社 Autonomous mobile device, autonomous mobile system, and environmental map evaluation method
DE112017001573B4 (en) * 2016-03-28 2020-01-30 Groove X, Inc. Autonomous robot that performs a greeting action
JP6850107B2 (en) * 2016-11-02 2021-03-31 東芝ライフスタイル株式会社 Autonomous electric cleaner

Also Published As

Publication number Publication date
WO2019240208A1 (en) 2019-12-19
JPWO2019240208A1 (en) 2021-06-24

Similar Documents

Publication Publication Date Title
JP2024020582A (en) Robots, their control methods, and programs
CN109998421B (en) Mobile cleaning robot assembly and durable mapping
CN109998429B (en) Mobile cleaning robot artificial intelligence for context awareness
US10024678B2 (en) Wearable clip for providing social and environmental awareness
US11341355B2 (en) Robot and method of controlling the same
JP6961076B2 (en) Position determination device and method in thermal imaging system
US10024667B2 (en) Wearable earpiece for providing social and environmental awareness
CN100407760C (en) Control system, apparatus compatible with the system, and remote controller
US10248856B2 (en) Smart necklace with stereo vision and onboard processing
CN108234918B (en) Exploration and communication architecture method and system of indoor unmanned aerial vehicle with privacy awareness
CN110914878A (en) System and method for detecting and responding to visitors of a smart home environment
US10638028B2 (en) Apparatus, method, recording medium, and system for capturing coordinated images of a target
WO2003107039A2 (en) Method and apparatus for a multisensor imaging and scene interpretation system to aid the visually impaired
CN110033783A (en) The elimination and amplification based on context of acoustic signal in acoustic enviroment
US11657085B1 (en) Optical devices and apparatuses for capturing, structuring, and using interlinked multi-directional still pictures and/or multi-directional motion pictures
US11540690B2 (en) Artificial intelligence robot cleaner
JP2016192040A (en) Self-propelled traveling device, management device, and walking obstacle place determination system
JP7375770B2 (en) Information processing device, information processing method, and program
WO2019123744A1 (en) Information processing device, information processing method, and program
WO2020022371A1 (en) Robot, method for controlling robot, and control program
CN114584733A (en) Image acquisition device of visual doorbell, information processing method and visual doorbell system
CN209514548U (en) AR searcher, the articles search system based on AR searcher
KR20200041877A (en) Information processing device, information processing method and program
JP2017016588A (en) Object person guiding system, program and object person guiding method
US20220126439A1 (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231229

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231229