WO2021044720A1 - 制御プラットフォーム、制御システム、サービス提供システム、サービス提供方法及び制御方法 - Google Patents

制御プラットフォーム、制御システム、サービス提供システム、サービス提供方法及び制御方法 Download PDF

Info

Publication number
WO2021044720A1
WO2021044720A1 PCT/JP2020/026040 JP2020026040W WO2021044720A1 WO 2021044720 A1 WO2021044720 A1 WO 2021044720A1 JP 2020026040 W JP2020026040 W JP 2020026040W WO 2021044720 A1 WO2021044720 A1 WO 2021044720A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
service
robot
control platform
task
Prior art date
Application number
PCT/JP2020/026040
Other languages
English (en)
French (fr)
Inventor
治臣 東
Original Assignee
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019159338A external-priority patent/JP7236356B2/ja
Priority claimed from JP2020024067A external-priority patent/JP7431053B2/ja
Priority claimed from JP2020068187A external-priority patent/JP7431092B2/ja
Application filed by 本田技研工業株式会社 filed Critical 本田技研工業株式会社
Priority to DE112020004141.7T priority Critical patent/DE112020004141T5/de
Priority to CN202080060172.1A priority patent/CN114365057A/zh
Priority to US17/637,222 priority patent/US20220281106A1/en
Publication of WO2021044720A1 publication Critical patent/WO2021044720A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • G05D1/0291Fleet control
    • G05D1/0297Fleet control by controlling means in a control room
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40264Human like, type robot arm

Definitions

  • the present invention relates to a control platform for controlling a plurality of operating bodies and the like.
  • control platform controls the robot as an operating body, and is composed of a cloud computing platform capable of communicating with the robot.
  • This control platform includes a plurality of brain modules corresponding to a plurality of robots and a plurality of social modules corresponding to a plurality of brain modules.
  • the brain module processes the work information and sends the processing result to the robot, and in response to the work information request, Send a control command to the corresponding robot.
  • the social module also performs communication between the plurality of brain modules, thereby controlling the plurality of robots.
  • This control platform is an information processing device applied to a service providing system, and controls a robot as an operating body in order to provide a service in a store.
  • This service providing system includes a product transfer robot, a cleaning robot, and the like as robots.
  • the image information is transmitted from the product transport robot to the information processing device.
  • the cleaning robot is controlled by the information processing device, so that the floor cleaning work is executed.
  • This control platform is for assisting shoppers in shopping in a shopping facility, and includes a plurality of electric transport units as mobile units. This electric transport unit automatically moves the shopping cart when it is attached to the shopping cart.
  • this control platform when a destination is input by a shopper's smartphone, the position of the corresponding electric transport unit among a plurality of moving objects is detected, and the electric transport unit is controlled to move to the destination. To. At that time, if an obstacle exists in the movement path of the electric transport unit, the electric transport unit is stopped until the obstacle is cleared, or the electric transport unit is used to avoid the obstacle. Is controlled to move (paragraph [0080]).
  • the first task composed of a combination of a plurality of predetermined movements is executed by controlling the plurality of robots in combination. Can be considered.
  • a plurality of robots are controlled so as to appropriately execute the first task because the execution of such a first task is not considered. There is a problem that it cannot be done. This problem also occurs when controlling an operating body other than a robot, for example, a plurality of working machines.
  • robots with various types of performance may be required even for the same service.
  • a product replenishment service when handling a heavy product, a robot having a larger load capacity or a larger maximum load is required than when handling a low weight product.
  • the user cannot select the robot having the performance required by the user, and as a result, the convenience of the user is lowered. There is a risk.
  • the above problem occurs not only when a robot is used but also when an operating body other than the robot is used.
  • the present invention has been made to solve the above problems, such as a control platform capable of controlling a plurality of operating bodies so as to appropriately execute a first task configured by combining a plurality of predetermined actions.
  • the first purpose is to provide.
  • a control platform or the like that can achieve sophistication of the provided service and improvement of convenience while suppressing an increase in cost.
  • Another object of the third object is to provide a control platform or the like capable of appropriately estimating the degree of congestion in the movement path of a plurality of moving bodies and improving the commercial value.
  • the invention according to claim 1 enables at least one group of operators including a plurality of operators performing predetermined operations different from each other to communicate with each other via a first communication network.
  • a control platform for controlling at least one operating body group in which at least one user terminal connected and operated by the user is communicably connected via a second communication network, and is at least one.
  • One for executing the first task based on the link data of the first task recognition unit that recognizes the first task by the communication between the storage unit and the user terminal and the communication with the user terminal and the storage unit.
  • the operating body group recognition unit that recognizes the operating body group and the operating body group that recognizes the first task as a plurality of second tasks and recognizes each of the plurality of second tasks in one operating body group recognized by the operating body group recognition unit.
  • a task assigning unit assigned to each of a plurality of operating bodies is provided, and the communication unit transmits a second task signal representing a second task assigned to each operating body by the task assigning unit to each operating body. It is characterized by.
  • the first task is recognized by the communication with the user terminal in the first task recognition unit, and the operating body group recognition unit is the first based on the communication with the user terminal and the link data of the storage unit.
  • One operator group for performing one task is recognized.
  • the first task is recognized as a plurality of second tasks, and each of the plurality of second tasks is each of the plurality of operating bodies in one operating body group recognized by the operating body group recognition unit. Assigned to.
  • a second task signal representing the second task assigned to each operating body by the task assigning unit is transmitted to each operating body. Therefore, when a plurality of operating bodies in one operating body group perform predetermined operations different from each other, the plurality of operating bodies can be controlled so that the plurality of operating bodies appropriately execute the first task.
  • the control system according to claim 2 includes the control platform according to claim 1, at least one operating body group, and at least one user terminal, and the operating body receives a second task signal.
  • the third task recognition unit that recognizes the second task represented by the second task signal as the third task, and the predetermined operation corresponding to the third task. It is characterized by including an operation execution unit for executing the above.
  • the third task recognition unit recognizes the second task represented by the second task signal as the third task.
  • the operation execution unit a predetermined operation corresponding to the third task is executed.
  • the actuator appropriately executes the first task.
  • the third task recognition unit recognizes the second task as a plurality of third tasks, and the operation execution unit corresponds to the plurality of third tasks. It is characterized in that a plurality of predetermined actions are executed.
  • the third task recognition unit recognizes the second task as a plurality of third tasks, and the operation execution unit executes a plurality of predetermined operations corresponding to the plurality of third tasks.
  • a single actuator can perform a plurality of third tasks.
  • a plurality of operating bodies that perform predetermined operations different from each other and a user terminal operated by the user are communicably connected and connected.
  • a control platform that controls a plurality of operating bodies in order to provide a service, and one operating body is a combination of a communication unit that executes communication between the plurality of operating bodies and a user terminal and a plurality of operating bodies. Requested by the user by communication with a user terminal and a service data storage unit that stores service data that defines the relationship between a plurality of operating body groups in the case of a group and a service that can be executed by the plurality of operating body groups.
  • the request service recognition unit that recognizes the request service, which is the service, and the request service and the service data storage unit, it is possible to determine a combination of a plurality of actuators capable of executing the request service as a possible actuator group. It is characterized by including an operating body group determining unit, and a communication unit transmitting first data representing a possible operating body group to a user terminal.
  • the request service recognition unit recognizes the request service, which is the service requested by the user, by communicating with the user terminal, and the request service group determination unit recognizes the request service and the service data storage unit. Based on the service data, a combination of a plurality of operators capable of executing the requested service is determined as a possible operator group. Then, in the communication unit, the first data representing the possible actuating group is transmitted to the user terminal, so that the user can obtain the information of the possible actuating body group capable of executing the requested service via the user terminal. , User convenience can be improved.
  • the possible operating body group which is a combination of a plurality of operating bodies
  • the service requested by the user can be provided. Therefore, as compared with the conventional case where the service is provided by one operating body, the operating body 1
  • the performance and structure per unit can be simplified, and the manufacturing cost can be reduced. As a result, it is possible to realize the sophistication of the provided service while suppressing the increase in cost.
  • the service providing system includes the control platform according to claim 4, a plurality of operating elements, and a user terminal, and the user terminal includes a terminal-side communication unit capable of receiving the first data.
  • the output interface When the communication unit on the terminal side receives the first data, the output interface outputs the possible operating elements represented by the first data in an output mode that can be recognized by the user, and the output interface can be output by the user's operation. It is characterized by having an input interface capable of selecting one of a group of operators.
  • the possible actuating elements represented by the first data are output in an output mode that can be recognized by the user. .. Furthermore, since one of the possible actuating elements output from the output interface can be selected by operating the input interface of the user, the user can request himself / herself from the possible actuating elements group by operating the input interface. One operator group suitable for performing the service can be selected. Thereby, the convenience of the user can be further improved.
  • the invention according to claim 6 is the service providing system according to claim 5, wherein the service data includes a functional specification representing the function of each operating body in a plurality of operating body groups and a characteristic specification representing the characteristics of each operating body.
  • the data of the above is included, and the output interface is characterized in that the possible operating body group represented by the first data is output in an output mode including the data of each functional specification and characteristic specification of the possible operating body group. To do.
  • the output interface outputs the possible actuator group represented by the first data in an output mode including data of each functional specification and characteristic specification of the possible operator group, so that the user can output the possible actuator group.
  • the terminal-side communication unit of the user terminal can use one possible working body group.
  • the second data to be represented is transmitted to the control platform, and when the second data is received by the communication unit, the control platform performs each operation in one possible operator group so that one possible operator group performs a service.
  • the communication unit further includes a schedule determination unit for determining the operation schedule of the body, and the communication unit transmits an operation schedule signal representing the operation schedule to each operation body in one possible operation group, and each operation body has an operation schedule signal. It is characterized by including an operating body receiving unit for receiving the above, and an operation executing unit for executing a predetermined operation according to the operation schedule when the operation schedule signal is received by the operating body receiving unit.
  • the second data representing one possible operator group is transmitted to the control platform. ..
  • the schedule determination unit of the control platform sets the operation schedule of each operator in one possible operator group so that when the second data is received by the communication unit, one possible operator group executes the service.
  • the communication unit transmits an operation schedule signal representing the operation schedule to each operator in one possible operator group.
  • the operation executing unit executes a predetermined operation according to the operation schedule.
  • the invention according to claim 8 is a combination of a plurality of actuators that perform predetermined operations different from each other when a service is requested by a user via a user terminal.
  • a service providing method that provides a service by controlling one of a plurality of operating body groups via a control platform in which a plurality of operating body groups and a user terminal are communicably connected in the case of an operating body group.
  • the user selects a first transmission step of transmitting data from the control platform to the user terminal, a first reception step of receiving the first data at the user terminal, and a group of possible operators represented by the first data when the first data is received. It is characterized in that an output step of outputting data to a user terminal in a recognizable output mode and a selection step of selecting one of possible actuating bodies by the operation of the user terminal by the user are executed.
  • the invention according to claim 9 is the service providing method according to claim 8, wherein the service data includes a functional specification representing the function of each operating body in a plurality of operating body groups and a characteristic specification representing the characteristics of each operating body.
  • the possible operator group represented by the first data is output to the user terminal in an output mode including the data of the functional specifications and characteristic specifications of each possible operator group. It is characterized by.
  • the user terminal when one possible operating body group is selected by the operation of the user terminal, the user terminal obtains the second data representing one possible operating body group.
  • a determination step in which the control platform determines the operation schedule of each operator in one possible operator group, and an operation schedule signal representing the operation schedule is transmitted from the control platform to each operator in one possible operator group.
  • the invention according to claim 11 is with each of a plurality of moving objects that are autonomously movable and whose moving speed is reduced when an obstacle is present in the moving direction. It is a control platform that controls each moving body by executing wireless communication between them via a wireless communication network, and imitates the discrete data of the moving speed of each moving body within a predetermined area and the outer shape of each moving body.
  • the data acquisition unit that acquires the discrete data of the position of the reference part of each moving body as the moving speed data and the position data at a predetermined cycle, and the movement of each moving body when the data is graphically formed and projected onto the two-dimensional coordinates.
  • a storage unit that stores speed data and position data, and when the movement speed data of each moving body stored in the storage unit is divided into a plurality of speed ranges including a predetermined low speed range, each moving body in the predetermined low speed range
  • the low-speed position data selection unit that selects the position data as the low-speed position data and the low-speed position data within a predetermined period of the low-speed position data of each moving body selected by the low-speed position data selection unit are plotted on the two-dimensional coordinates.
  • the data acquisition unit uses discrete data of the moving speed of each moving body within a predetermined area and the outer shape of each moving body is simulated and projected onto two-dimensional coordinates.
  • the discrete data of the position of the reference portion of each moving body is acquired as the moving speed data and the position data at a predetermined cycle, and the moving speed data and the position data of each moving body are stored in the storage unit.
  • the moving speed data of each moving body stored in the storage unit is divided into a plurality of speed ranges including a predetermined low speed range by the low speed position data selection unit, the position data of each moving body in the predetermined low speed range is obtained. Selected as low speed position data.
  • a congestion degree parameter representing the degree of congestion in the movement path of each moving body is calculated according to the number of low-speed position data of any of the plurality of moving bodies in which at least a part of the outer shape is located in the closed curve region.
  • This closed curve region is the two most distant low-speed position data when the low-speed position data within a predetermined period of the low-speed position data of each moving body selected by the low-speed position data selection unit is plotted on the two-dimensional coordinates. It is a region defined by a closed curve including the outer edge of the outer shape of each of the two moving bodies corresponding to. Further, since each moving body can move autonomously, it can be estimated that each moving body is in a congested state when moving in a low speed range.
  • the number of low-speed position data of any of a plurality of moving bodies whose outer shape is at least partly located in the two-dimensional figure is the congestion of the movement path of each moving body around the two-dimensional figure within a predetermined period. It can be estimated that the degree is accurately represented. Therefore, by calculating the congestion degree parameter according to such a value, the congestion degree parameter can be calculated as a value that accurately represents the congestion degree in the movement path of each moving body (note that, in the present specification). "Obstacles" in are not limited to immovable objects, but also include mobile devices, humans and animals).
  • the closed curve region has two low-speed position data having two straight lines extending outward from the two low-speed position data through the two most distant low-speed position data. It is characterized in that it is a region defined by a two-dimensional figure whose maximum length is the length between two points intersecting with the outer shape of each moving body corresponding to.
  • the closed curve region has a straight line extending outward from the two low-speed position data through the two most distant low-speed position data intersecting the outer shape of each moving body corresponding to the two low-speed position data. Since it is a region defined by a two-dimensional figure whose maximum length is the length between two points, this closed curve region can be easily created. Thereby, the calculation of the congestion degree parameter can be easily executed.
  • the outer shape of the moving body is simulated as a circle, the reference portion is set at the center point of the circle, and the two-dimensional figure is formed. , It is characterized in that it is created as a circle whose diameter is the maximum length.
  • the outer shape of the moving body is simulated as a circle
  • the reference part is set at the center point of the circle
  • the two-dimensional figure is created as a circle with the maximum length as the diameter. Therefore, the two-dimensional figure can be created more easily, and the maximum length can be calculated more easily.
  • the invention according to claim 14 is the control platform according to claim 11, wherein the congestion degree parameter calculation unit performs a low speed within a predetermined period of two or more moving bodies in which closed curve regions overlap each other among a plurality of moving bodies. It is characterized in that the position data is regarded as one data set and a closed curve region in one data set is created.
  • the congestion degree parameter can be calculated as a value that appropriately represents the congestion degree of two or more moving objects.
  • the invention according to claim 15 is a display data creation unit that creates display data in which a closed curve region is superimposed on two-dimensional map data of a predetermined region in the control platform according to claim 11, and display data including the display data. It is characterized by further including a transmission unit that transmits a signal to an external device.
  • the display data creation unit creates display data in which the closed curve area is superimposed on the two-dimensional map data of a predetermined area, and the transmission unit transmits a display data signal including the display data to an external device. Will be done. Therefore, when the external device is provided with a display device, the user of the control platform can visually recognize the display data included in the display data signal on the display device.
  • the invention according to claim 16 is characterized in that, in the control platform according to claim 11, a plurality of mobile bodies are composed of a plurality of operating bodies that cooperate with each other to provide services.
  • a plurality of moving bodies are composed of a plurality of operating bodies that cooperate with each other to provide services, it is possible to determine the moving path of the plurality of moving bodies while avoiding congestion. By being able to do so, it is possible to smoothly provide services by a plurality of operators without delay.
  • the invention according to claim 17 is with each of a plurality of moving objects that are autonomously movable and whose moving speed is reduced when an obstacle is present in the moving direction. It is a control method that controls each moving body by executing wireless communication between them via a wireless communication network, and imitates the discrete data of the moving speed of each moving body within a predetermined area and the outer shape of each moving body.
  • the low-speed position data selection step for selecting the position data as the low-speed position data and the low-speed position data within a predetermined period of the low-speed position data of each moving body selected in the low-speed position data selection step are plotted on the two-dimensional coordinates.
  • any of a plurality of moving bodies in which at least a part of the outer shape is located within a closed curve region defined by a closed curve including the outer edge of the outer shape of each of the two moving bodies corresponding to the two most distant low speed position data is characterized by including a congestion degree parameter calculation step for calculating a congestion degree parameter representing the congestion degree in the movement path of each moving body according to the number of low-speed position data of the above.
  • FIG. 24 is a diagram in which an area circle is drawn.
  • FIG. 4 is a diagram in which an area circle is drawn by regarding the movement data of the two robots in FIG. 24 as one set. It is a figure which shows the example of the calculation result of the congestion degree data in the entire predetermined area. It is a figure which shows the congestion degree map. It is a flowchart which shows the congestion degree calculation process. It is a flowchart which shows the congestion degree transmission processing.
  • control platform according to the first embodiment of the present invention will be described with reference to the drawings.
  • the control platform of this embodiment is applied to the control system 1 shown in FIG.
  • This control system 1 is for controlling a group of robots composed of a plurality of robots 2 (only four are shown), and as shown in FIG. 1, a control platform 5 as a control device, a client server 7, and a client server 7 It is equipped with a plurality of user terminals 8 (only one is shown) and the like.
  • the robot 2 is a customer service robot type that provides various services to visitors within a predetermined service area (for example, a store).
  • a plurality of robot groups are provided with one robot group composed of a plurality of robots 2.
  • Each of the plurality of robot groups is configured to execute a predetermined service by executing a predetermined operation different from each other by the plurality of robots 2.
  • each robot 2 includes a controller 2a, a communication device 2b, an operating device 2c, a sensor device 2d, and the like.
  • the controller 2a is for controlling the communication device 2b and the operating device 2c, and is composed of a computer provided with a processor, a storage, an I / O interface (none of which are shown), and the like.
  • the communication device 2b is connected to the control platform 5 in the cloud computing (hereinafter referred to as “cloud”) 4 via the communication network 3a which is a wireless communication network, thereby wirelessly communicating with the control platform 5. It is configured to be communicable.
  • cloud cloud computing
  • This communication device 2b contains one SIM card (not shown) that has been contracted with the communication company, and this SIM card is contracted with the communication company with one identification number. As a result, the communication device 2b executes wireless communication with the control platform 5 using this identification number as identification information.
  • the operating device 2c has a function for executing various operations described later, and the sensor device 2d detects the operating state of the operating device 2c and the operating environment information indicating the surrounding environment state of the robot 2. A detection signal representing this is output to the controller 2a.
  • FIG. 1 shows a humanoid robot type as the plurality of robots 2, the plurality of robots 2 of the present embodiment have a simpler structure (not shown) than the humanoid robot. It is composed of a type that executes a single predetermined operation and a type that executes a plurality of predetermined operations.
  • a greeting robot 2X for example, as a plurality of robots 2, a greeting robot 2X, a tea-picking robot 2Y, a transfer robot 2Z, and the like are provided.
  • the greeting robot 2X is provided with a speaker (not shown) or the like as an operating device 2c, and a camera, a microphone, a GPS (none of which is shown) or the like as a sensor device 2d.
  • This greeting robot 2X executes order acceptance processing and arrival notification processing by communication with the control platform 5, as will be described later.
  • the greeting robot 2X acquires its own position and the like by GPS.
  • the tea-picking robot 2Y is provided with a robot arm, an actuator, a camera (none of which are shown) and the like as an operating device 2c. As will be described later, the tea-making robot 2Y executes the tea-making process by communicating with the control platform 5.
  • the transfer robot 2Z is provided with a wheel drive device for driving the wheels, GPS (neither of them is shown), or the like as the operation device 2c. As will be described later, the transfer robot 2 executes the first movement process and the second movement process by communicating with the control platform 5. In addition to this, the transfer robot 2Z acquires its own position and the like by GPS.
  • control platform 5 controls a plurality of robot groups described above, and specifically, is composed of a server. As shown in FIG. 3, the control platform 5 includes a processor 5a, a memory 5b, a storage 5c, an I / O interface 5d, a communication device 5e, and the like.
  • This memory 5b is composed of RAM, E2PROM, ROM, and the like, and link data and the like, which will be described later, are stored inside the memory 5b.
  • the communication device 5e is connected to the robot 2 described above via the communication network 3a, and is connected to the client server 7 and the user terminal 8 in the cloud 6 via the communication networks 3b and 3c, respectively. It is connected. Both of these communication networks 3b and 3c are configured by the Internet.
  • control platform 5 is configured to be able to communicate with each other with the robot 2, the client server 7, and the user terminal 8 via the communication device 5e.
  • Various data in the control platform 5 are stored in the client server 7.
  • each of the plurality of user terminals 8 is composed of a personal computer, and includes an input device 8a, a display 8b, a communication device (not shown), and the like.
  • the input device 8a is composed of a keyboard, a mouse, and the like.
  • a service to be executed by the robot group is determined, and the service (the first). A group of robots to execute one task) is determined.
  • the user terminal 8 includes a communication module 80, and the communication module 80 is specifically composed of the above-mentioned communication device.
  • the communication module 80 has a function of executing communication with the communication module 50 of the control platform 5, which will be described later.
  • the user operates the input device 8a described above.
  • the CI brain module 51 described later of the control platform 5 can be accessed via the two communication modules 80 and 50.
  • the user can select a robot group capable of executing the service from a plurality of robot groups.
  • the control platform 5 includes a communication module 50, a CI brain module 51, a service generation module 52, and a data storage module 53.
  • the communication module 50 corresponds to the communication unit
  • the CI brain module 51 corresponds to the first task recognition unit, the operating body group recognition unit, and the task allocation unit.
  • the communication module 50 is composed of the communication device 5e described above. As will be described later, the communication module 50 has a function of executing communication between the communication module 80 of the user terminal 8 described above and the communication module 20 of the robot 2 described later when controlling the robot group. More specifically, as will be described later, it has a function of transmitting various command signals representing each job to the robot 2 and a function of receiving various end signals from the robot 2.
  • the three modules 51 to 53 are specifically composed of the processor 5a, the memory 5b and the storage 5c described above, and the CI brain module 51 has a plurality of functions as described below.
  • the CI brain module 51 recognizes the service desired by the user by communicating with the user terminal 8, accesses the service generation module 52, and refers to the link data described later, so that the robot can execute the service. It has a function of searching a group and transmitting the search result to the user terminal 8.
  • the CI brain module 51 decomposes the service into a plurality of jobs when the robot group for executing the service is selected by the user, and divides each of the plurality of jobs into each of the plurality of robots 2 in the robot group. It has a function to assign.
  • the CI brain module 51 has a function of determining a schedule for transmitting a command signal including a job to each robot 2 so that each robot 2 can appropriately execute the assigned job.
  • the above functions of the CI brain module 51 are based on the function of "recognizing the first task by communicating with the user terminal" and the “communication with the user terminal and the link data of the storage unit". It corresponds to the function of "recognizing one operating body group for executing a task”.
  • the service generation module 52 stores data of a plurality of robot groups provided in the control system 1, link data linking a service that can be executed by the plurality of robot groups, and the plurality of robot groups. It has a function to do.
  • the service generation module 52 has a function that allows the user to edit the above-mentioned link data and data of a plurality of robot groups by accessing the service generation module 52 via the user terminal 8. Further, the service generation module 52 has a function of monitoring a plurality of robot groups.
  • the data storage module 53 has a function of storing and storing data such as operation data of each robot 2, execution state (time and number of times, etc.) of each service, and maintenance state of each robot 2.
  • the robot 2 includes a communication module 20, a local brain module 21, a job decomposition module 22, a task execution module 23, and a sensor module 24.
  • the job decomposition module 22 corresponds to the third task recognition unit
  • the task execution module 23 corresponds to the operation execution unit.
  • the communication module 20 is composed of the communication device 2b described above. As will be described later, the communication module 20 has a function of executing communication with the above-mentioned communication module 50 of the control platform 5 when the robot 2 is controlled by the control platform 5.
  • the three modules 21 to 23 are specifically composed of the controller 2a described above.
  • the local brain module 21 has a function of outputting a job in the job data signal to the job decomposition module 22 when the job data signal is received from the control platform 5.
  • the job decomposition module 22 stores the link data that defines the relationship between the job and the task, decomposes the job from the local brain module 21 into a plurality of tasks and recognizes them, or converts them into a single task. It has a function to output these multiple / single tasks to the local brain module 21.
  • the local brain module 21 further has a function of outputting a plurality of / single tasks from the job decomposition module 22 to the task execution module 23.
  • the task execution module 23 has a function of controlling the operation device 2c of the robot 2 according to a plurality of / single tasks from the local brain module 21.
  • the sensor module 24 is specifically composed of the sensor device 2d, detects the task information indicating the execution state of the task by the operating device 2c and the above-mentioned operating environment information, and outputs the information to the local brain. Output to module 21.
  • the local brain module 21 has a function of transmitting task information and operating environment information from the sensor module 24 to the control platform 5 via the communication module 20.
  • the service & robot group determination process is executed (Fig. 5 / STEP1).
  • the service is determined by the communication between the control platform 5 and the user terminal 8, and the robot group that executes the service is selected / determined.
  • the user determines a service to be executed by the robot group by accessing the CI brain module 51 of the control platform 5 via the user terminal 8.
  • the CI brain module 51 searches for a robot group capable of executing the service by referring to the link data in the service generation module 52, and notifies the user terminal 8 of the search result. ..
  • any one of the plurality of robot groups is selected by the operation of the user terminal 8 by the user.
  • a "tea making service” that provides PET bottle type tea is determined by the user, and in a group of robots that can execute the "tea making service", the greeting robot 2X, the tea making robot 2Y, and the tea making robot 2Y
  • a robot group composed of three transfer robots 2Z (see FIG. 1) is selected will be described.
  • the CI brain module 51 may use the CI brain module 51.
  • the “tea making service” is decomposed into an "order receiving job”, a “first moving job”, a “tea picking job”, a “second moving job”, and a “arrival notification job” and recognized.
  • the "order acceptance job”, the "first move job”, the “tea making job”, the “second move job”, and the "arrival notification job” correspond to the second task.
  • these "order reception job” and “arrival notification job” are assigned to the greeting robot 2X, and the “tea making job” is assigned to the tea making robot 2Y. Further, the “first moving job” and the “second moving job” are assigned to the transfer robot 2Z.
  • the transmission schedule of the command signal including the above five jobs (such as the order acceptance command signal described later) to the three robots 2X to 2Z is determined.
  • the order acceptance command signal is transmitted from the control platform 5 to the greeting robot 2X (FIG. 5 / STEP2).
  • This order acceptance command signal (second task signal) is a signal including the above-mentioned "order acceptance job”.
  • the greeting robot 2X When the greeting robot 2X receives this order acceptance command signal, it executes the order acceptance process as described below (Fig. 5 / STEP3). First, in the job decomposition module 22, the "order acceptance job” included in the order acceptance command signal is converted into an "order acceptance task" and recognized.
  • the task execution module 23 controls the operation device 2c of the greeting robot 2X according to the "order acceptance task". Specifically, the visitor is visually recognized by the camera of the operating device 2c, a greeting is pronounced from the speaker of the operating device 2c, and a voice indicating the visitor's order is received by the microphone of the operating device 2c.
  • the greeting robot 2X transmits the order acceptance end signal to the control platform 5 after executing the order acceptance process as described above (Fig. 5 / STEP4).
  • This order acceptance end signal is a signal representing the above-mentioned visitor's order content (for example, black tea).
  • This first movement command signal (second task signal) is a signal including the above-mentioned "first movement job”.
  • the transfer robot 2Z When the transfer robot 2Z receives this first movement command signal, it executes the first movement process as described below (FIG. 5 / STEP6). First, in the job decomposition module 22, the "first move job” included in the first move command signal is converted into a "first move task" and recognized.
  • the task execution module 23 controls the operation device 2c of the transfer robot 2Z according to the "first movement task". Specifically, the operation device 2c is controlled so that the transfer robot 2Z moves to the vicinity of the tea-picking robot 2Y.
  • the first movement end signal is transmitted from the transfer robot 2Z to the control platform 5 (FIG. 5 / STEP7).
  • This first movement end signal is a signal indicating that the transfer robot 2Z has moved to the vicinity of the tea-picking robot 2Y.
  • the tea-making command signal is transmitted to the tea-making robot 2Y (FIG. 5 / STEP8).
  • This tea-making command signal (second task signal) is a signal including the above-mentioned "tea-making job”.
  • the tea-picking robot 2Y When the tea-picking robot 2Y receives this tea-picking command signal, it executes the tea-picking process as described below (Fig. 5 / STEP9).
  • the "tea-picking job” included in the tea-picking command signal is decomposed into a "tea-recognizing task", a "tea-grabbing task”, and a “tea-laying task” and recognized.
  • the task execution module 23 controls the operating device 2c of the tea-picking robot 2Y according to the "tea recognition task”, the "tea-grabbing task”, and the "tea-laying task” as described below.
  • the camera of the operating device 2c recognizes the PET bottle of "tea” ordered by the visitor.
  • the PET bottle of "tea” ordered by the visitor is grasped by the robot arm of the operating device 2c, and then placed on the loading place of the transport robot 2Z.
  • the tea-picking end signal is transmitted from the tea-picking robot 2Y to the control platform 5. (Fig. 5 / STEP10).
  • This tea-picking end signal is a signal indicating that the PET bottle of "tea” has been placed at the place where the transfer robot 2Z is placed.
  • This second movement command signal (second task signal) is a signal including the above-mentioned "second movement job”.
  • the transfer robot 2Z When the transfer robot 2Z receives this second movement command signal, it executes the second movement process as described below (FIG. 5 / STEP12). First, in the job decomposition module 22, the "second movement job” included in the second movement command signal is converted into a "second movement task" and recognized.
  • the task execution module 23 controls the operation device 2c of the transfer robot 2Z according to the "second movement task". Specifically, the operation device 2c is controlled so that the transfer robot 2Z moves to the vicinity of the visitor.
  • the second movement end signal is transmitted from the transfer robot 2Z to the control platform 5 (FIG. 5 / STEP 13).
  • This second movement end signal is a signal indicating that the transfer robot 2Z has moved to the vicinity of the visitor.
  • This arrival notification command signal (second task signal) is a signal including the above-mentioned "arrival notification job”.
  • the greeting robot 2X When the greeting robot 2X receives this arrival notification command signal, it executes the arrival notification process as described below (FIG. 5 / STEP15). First, the job decomposition module 22 converts the "arrival notification job" included in the arrival notification command signal into an "arrival notification task” and recognizes it.
  • the task execution module 23 controls the operation device 2c of the greeting robot 2X according to the "arrival notification task". Specifically, a voice indicating that the PET bottle of "black tea” has arrived is output to the visitor from the speaker of the operating device 2c.
  • the arrival notification end signal is transmitted from the greeting robot 2X to the control platform 5.
  • This arrival notification end signal is a signal indicating that a voice notifying that the PET bottle of "tea” has arrived is output from the greeting robot 2X to the visitor.
  • This tea-making completion signal is a signal indicating that the "tea-making service" has been completed.
  • the user terminal 8 When the user terminal 8 receives this tea making completion signal, it executes the tea making completion process (FIG. 5 / STEP 18). In this tea making completion process, the completion of the "tea making service" is displayed on the display 8b. As described above, the control operation in the control system 1 is executed.
  • the "tea making service" desired by the user is determined by the communication with the user terminal 8 in the CI brain module 51, and the "tea making service” is determined.
  • a group of robots that can execute the "tea making service” is searched from the link data. Then, based on the search result, a group of robots (robots 2X to 2Z) that execute the service is selected by the user.
  • the "tea making service” is decomposed into "order receiving job”, “first moving job”, “tea picking job”, “second moving job” and “arrival notification job” and recognized, and these jobs are recognized. Assigned to robots 2X-2Z. Further, a schedule for transmitting various command signals including the job to the robots 2X to 2Z is determined so that the robots 2X to 2Z can appropriately execute the assigned job. Therefore, when the robots 2X to 2Z execute predetermined operations different from each other, the robots 2X to 2Z can be controlled so that the robots 2X to 2Z appropriately execute the service.
  • each of the robots 2X to 2Z when various command signals are received by the communication device 2b, the job represented by the command signal is recognized as one task or decomposed into three tasks, and they are decomposed into three tasks.
  • the operating device 2c is controlled so as to execute a predetermined operation corresponding to the task. In this way, when each of the robots 2X to 2Z executes a predetermined operation corresponding to the task, the service is appropriately executed. As a result, it is possible to realize the control platform 5 and the control system 1 in which the robot group appropriately executes the service.
  • the "tea-picking job" included in the tea-picking command signal is decomposed into three, a "tea-recognizing task", a “tea-grabbing task”, and a “tea-loading task”, and these are recognized.
  • the camera and robot arm of the operating device 2c are controlled so as to perform the task of.
  • the usefulness of the control system 1 can be improved by being able to execute a plurality of tasks by one robot 2Y.
  • the first embodiment is an example in which the service is the first task, but the first task of the present invention is not limited to this, and may be configured by combining a plurality of predetermined operations. For example, assembling the structure, laying the road, disassembling the structure, and the like may be the first tasks.
  • the first embodiment is an example in which a job is used as a second task, but the second task of the present invention is not limited to this, as long as the first task is recognized as a plurality of second tasks. Good.
  • the second task may be transporting the constituent members of the structure, installing the constituent members, connecting the constituent members, and the like.
  • the first embodiment is an example in which the task is a third task, but the third task of the present invention is not limited to this, and the second task is recognized as a single or a plurality of third tasks. It should be.
  • the first task is the assembly of the structure and the second task is the transportation of the constituent members of the structure, the installation of the constituent members, the connection of the constituent members, and the like, the gripping of the constituent members and the direction change are performed. It may be a task.
  • the first embodiment is an example in which a server is used as the control platform 5, but the control platform of the present invention is not limited to this, and includes a communication unit, a storage unit, an operating body group selection unit, and a task allocation unit. Anything may be provided.
  • a control platform a distributed computing system, various resources in cloud computing, or the like may be used.
  • the first embodiment is an example in which a plurality of robots 2 are used as a plurality of operating bodies, but the plurality of operating bodies of the present invention are not limited to these, and can be used as a control platform via the first communication network. It suffices to include those that are communicably connected to each other and perform predetermined operations different from each other.
  • a combination of those that perform at least one predetermined operation accompanied by physical events such as movement, vibration, driving, ventilation, light emission, sounding, and odor may be used.
  • a locking / unlocking device that automatically locks / unlocks and a light emitting device may be used in combination.
  • the first embodiment is an example in which the greeting robot 2X, the tea-picking robot 2Y, and the transfer robot 2Z are used as the plurality of robots 2, but the plurality of robots 2 that execute operations other than these are used. You may.
  • a sounding robot that executes only sounding a light emitting robot that executes only light emission, a blower robot that executes only blowing air, and the like may be used.
  • the first embodiment is an example in which a personal computer type is used as the user terminal, but the user terminal of the present invention is not limited to this, and can communicate with the control platform via the second communication network. Anything that is connected to and operated by the user will do.
  • a smartphone, a tablet PC, or the like may be used as the user terminal.
  • the first embodiment is an example in which the communication network 3a, which is a wireless communication network, is used as the first communication network, but the first communication network of the present invention is not limited to this, and includes a control platform and an operator. Anything can be used as long as it can communicate between them.
  • a wired communication network such as a wired LAN communication network may be used as the first communication network.
  • the first embodiment is an example in which the communication network 3c which is the Internet is used as the second communication network, but the second communication network of the present invention is not limited to this, and is between the control platform and the user terminal. Anything that can be connected so that it can communicate with
  • a wireless communication network such as a wireless LAN communication network or a wired communication network such as a wired LAN communication network may be used as the second communication network.
  • the second communication network may be the same communication network as the first communication network, or may be a different communication network.
  • the service providing system of the present embodiment provides a robot service by a robot as an operating body to its users (hereinafter referred to as "users") and the like.
  • the service providing system 1A has a large number of robots 2 (only four are shown), a control platform 5, a client server 7, and a plurality of user terminals 8 as in the control system 1 of the first embodiment. (Only one is shown) and so on.
  • each robot 2 includes a controller 2a, a communication device 2b, an operating device 2c, a sensor device 2d, and the like.
  • the controller 2a is for controlling the communication device 2b and the operating device 2c, and is composed of a computer equipped with a processor, a storage, an I / O interface (none of which are shown), and the like.
  • the controller 2a has an AI learning function, and during the operation of each robot 2, the AI learning function forms the operation characteristics of each robot 2.
  • the communication device 2b is connected to the control platform 5 in the cloud computing (hereinafter referred to as “cloud”) 4 via the communication network 3a which is a wireless communication network, thereby wirelessly communicating with the control platform 5. It is configured to be communicable.
  • cloud cloud computing
  • This communication device 2b contains one SIM card (not shown) that has been contracted with the communication company, and this SIM card is contracted with the communication company with one identification number. As a result, the communication device 2b executes wireless communication with the control platform 5 using this identification number as identification information.
  • the operation device 2c is a device for executing various operations, and specifically, the robot 2 moves with at least one device such as a 6-DOF arm, a 3-finger hand, and a speaker. It is composed of moving devices and the like.
  • the sensor device 2d is for detecting operating environment information indicating the surrounding environment state of the robot 2, and specifically, a high-resolution camera, a telephoto camera, an infrared camera, a Kinzo detection sensor, a microphone, and a GPS. It is composed of at least one device (neither is shown) or the like.
  • FIG. 6 shows a large number of robots 2 of the humanoid robot type
  • the large number of robots 2 of the present embodiment have a simpler structure (not shown) than the humanoid robot. It is composed of a type that executes a single predetermined operation and a type that executes a plurality of predetermined operations. The specifications of these robots 2 will be described later.
  • a plurality of robot groups are provided with one robot group composed of a plurality of robots 2 out of a large number of robots 2.
  • Each of the plurality of robot groups is configured to execute a predetermined service by executing a predetermined operation different from each other by the plurality of robots 2.
  • control platform 5 executes the control of the above-mentioned robot group, and specifically, is composed of a server. As shown in FIG. 8, the control platform 5 includes a processor 5a, a memory 5b, a storage 5c, an I / O interface 5d, a communication device 5e, and the like.
  • This memory 5b is composed of a RAM, an E2PROM, a ROM, and the like, and a database and the like, which will be described later, are stored inside the memory 5b.
  • the communication device 5e is connected to the robot 2 described above via the communication network 3a, and is connected to the client server 7 and the user terminal 8 in the cloud 6 via the communication networks 3b and 3c, respectively. It is connected. Both of these communication networks 3b and 3c are configured by the Internet.
  • control platform 5 is configured to be able to communicate with each other with the robot 2, the client server 7, and the user terminal 8 via the communication device 5e.
  • Various data in the control platform 5 are stored in the client server 7.
  • each of the plurality of user terminals 8 is composed of a personal computer, and includes an input device 8a, a display 8b, a communication device (not shown), and the like.
  • the input device 8a is composed of a keyboard, a mouse, and the like.
  • the input device 8a corresponds to the input interface
  • the display 8b corresponds to the output interface.
  • data transmission / reception to / from the control platform 5 is executed via the communication device by the operation of the input device 8a by the robot service builder or the user.
  • a robot service builder (hereinafter referred to as “service builder”) sends / receives data to / from the control platform 5 via a user terminal 8 in order to create (build) a robot service recipe, as will be described later. To execute.
  • the user executes a data transmission / reception operation with the control platform 5 via the user terminal 8 in order to use the robot service.
  • the user can select one robot group from a plurality of robot groups capable of executing the desired service.
  • the user terminal 8 includes a communication module 80 (terminal-side communication unit), and the communication module 80 is specifically composed of the above-mentioned communication device.
  • the communication module 80 has a function of executing communication with the communication module 50 described later of the control platform 5.
  • the service builder or the user can access the control platform 5 via the two communication modules 80 and 50 by operating the input device 8a described above.
  • the control platform 5 includes a communication module 50 and a CI brain module 51.
  • the communication module 50 corresponds to the communication unit
  • the CI brain module 51 corresponds to the service data storage unit, the request service recognition unit, the possible operating body group determination unit, and the schedule determination unit.
  • the communication module 50 is composed of the communication device 5e described above, and has a function of executing communication between the communication module 80 of the user terminal 8 described above and the communication module 20 of the robot 2 described later. I have.
  • the CI brain module 51 is composed of the processor 5a, the memory 5b, and the storage 5c described above. Further, the CI brain module 51 has a search unit 52, a robot specification database (denoted as “robot specification DB” in FIG. 9) 53, a list creation unit 54, and a service recipe database (“service recipe” in FIG. 9) as functional configurations. Notated as "DB") 55 is provided.
  • the search unit 52 searches the robot specification database 53 to search for a robot that satisfies the requirement in the requirement signal. Further, in the robot specification database 53, specifications of a large number of robots 2 (see FIG. 11 described later) are stored as a database.
  • the list creation unit 54 creates a list of robot groups (see FIG. 16 to be described later) by referring to the service recipe database 55, as will be described later.
  • the service recipe database 55 stores service recipes (see FIG. 14 described later) such as security service, reception service, and transportation service.
  • the robot 2 includes a communication module 20, a local brain module 21, a job decomposition module 22, a task execution module 23, and a sensor module 24.
  • this communication module 20 (operating body receiving unit) is composed of the above-mentioned communication device 2b, and has a function of transmitting and receiving signals to and from the control platform 5.
  • the three modules 21 to 23 are specifically composed of the controller 2a described above.
  • the local brain module 21 has a function of outputting a job in the job command signal to the job decomposition module 22 when receiving a job command signal described later from the control platform 5.
  • the job decomposition module 22 stores the link data that defines the relationship between the job and the task, decomposes the job from the local brain module 21 into a plurality of tasks and recognizes them, or converts them into a single task. It has a function to output these multiple / single tasks to the local brain module 21.
  • the local brain module 21 further has a function of outputting a plurality of / single tasks from the job decomposition module 22 to the task execution module 23.
  • the task execution module 23 (operation execution unit) has a function of controlling the operation device 2c of the robot 2 according to a plurality of / single tasks from the local brain module 21.
  • the sensor module 24 is specifically composed of the sensor device 2d described above, detects task information indicating a task execution state by the operating device 2c and the operating environment information described above, and obtains such information. Output to the local brain module 21.
  • the local brain module 21 has a function of transmitting task information and operating environment information from the sensor module 24 to the control platform 5 via the communication module 20.
  • This process creates (constructs) service recipes for various robot services, and is executed by the operation of the user terminal 8 by the service builder and the accompanying communication operation between the user terminal 8 and the control platform 5. Will be done.
  • the input device 8a of the user terminal 8 is operated by the service builder to input the requirements of various robot services (FIG. 10 / STEP21).
  • the requirements in this case are determined by the service builder as described below.
  • C1 Inspect suspicious persons with a high-resolution telephoto camera.
  • C2) Lift the 3 kg lid on the trash can.
  • C3) Inspect with an infrared camera.
  • C4) Inspect with a metal detector.
  • the requirement signals representing these requirements (C1) to (C4) are output. It is transmitted from the user terminal 8 to the control platform 5 (FIG. 10 / STEP22).
  • the control platform 5 When the control platform 5 receives this requirement signal, it searches for a robot (Fig. 10 / STEP23). Specifically, the above-mentioned search unit 52 searches the robot specification database 53 according to the requirements (C1) to (C4) to search for robots satisfying these requirements (C1) to (C4).
  • the robot specification database 53 stores detailed specification data of various robots 2I, 2E, ... As shown in FIG.
  • search results for robots satisfying the requirements (C1) to (C4) for example, search results for robots 2A to 2L as shown in the list in FIG. 12 are acquired.
  • the search result signals representing these search results are transmitted from the control platform 5 to the user terminal 8 (FIG. 10). / STEP24).
  • the user terminal 8 When the user terminal 8 receives this search result signal, the user terminal 8 displays the search results of the robots 2A to 2L on the display 8b (FIG. 10 / STEP25).
  • the service builder operates a combination of robots (C1) to (C4) that satisfy the requirements (C1) to (C4) by operating the input device 8a while the search results of the robots 2A to 2L are displayed on the display 8b (hereinafter, "" "Robot group”) is selected (Fig. 10 / STEP26).
  • a group of robots that execute the security service a group of robots composed of three robots 2C, 2E, and 2I is selected as shown in FIG.
  • Information such as tasks executed by robots 2C, 2E, and 2I, service types, operations, and service provision locations is tagged.
  • the tasks executed by the robots 2C, 2E, and 2I are implemented in the robots 2C, 2E, and 2I by the service builder, respectively.
  • the selection result signal representing the selection result is transmitted from the user terminal 8 to the control platform 5 (FIG. 10 / STEP27).
  • control platform 5 When the control platform 5 receives the selection result signal, the control platform 5 stores the selection result in the selection result signal in the service recipe database 55 as a part of the service recipe (FIG. 10 / STEP28).
  • service recipes such as security service, reception service, and transportation service are created and stored in the service recipe database 55.
  • a personal computer terminal (not shown) is directly connected to the control platform 5 instead of the user terminal 8, and the service builder operates the service recipe to create the service recipe. It may be configured to do so.
  • This process is executed when the user wants to use a predetermined robot service.
  • the robot group capable of executing the robot service is selected by the user, and the operation schedule of the robot group is determined by the control platform 5.
  • the user's request is input by operating the input device 8a by the user (FIG. 15 / STEP30).
  • FIG. 15 / STEP30 a case where a user's request "I want to carry out a tea-making robot service in the office" is input to the user terminal 8 will be described as an example.
  • the request signal representing the request is transmitted from the user terminal 8 to the control platform 5 (FIG. 15 / STEP31).
  • the control platform 5 When the control platform 5 receives this request signal, it creates a list of robot groups (Fig. 15 / STEP32). Specifically, the list creation unit 54 described above realizes the service requested by the user (hereinafter referred to as “request service”) by referring to the service recipe database 55 described above based on the content of the request in the request signal. Make a list of possible robot groups. In the following description, a robot group capable of realizing the request service is appropriately referred to as a "possible robot group".
  • the list creation unit 54 has the services of the robot group (security service, reception service and transport service) stored in the service recipe database 55 and the tags of each robot (task, service type, operation and service provision location). Create a list of possible robots based on.
  • the list of possible robot groups is as shown in FIG. 16, for example.
  • the first robot group is composed of three robots 2N, 2E, and 2O
  • the second robot group is composed of three robots 2N, 2E, and 2P.
  • a plurality of robot groups (not shown) other than the first and second robot groups are created to be included.
  • each of the four robots 2N, 2E, 2O, and 2P is referred to as "each robot 2".
  • each robot 2 the functional specifications and characteristic specifications of each robot 2 are described in this list.
  • This functional specification represents the functional specification of each robot 2 (performance of microphone and arm, load capacity of the robot itself, etc.).
  • the charge rate SOC of the battery of each robot 2 is described, and when each robot 2 exists in one building, each robot 2 is located at the present time. Data such as the number of floors of the building, the time zone in which each robot 2 can be used, and whether or not each robot 2 is currently available are also described.
  • the characteristic specifications represent various characteristics of each robot 2, and specifically, various service recipes that can be executed by each robot 2, tasks of each robot 2, operation characteristics of each robot 2, and the like are described. Will be done.
  • various service recipes include a reception service, a security service, a transportation service, and the like, and tasks such as reception, opening the lid of a trash can, and transportation are described.
  • each robot 2 is fast but rough movement characteristics, slow but polite movement characteristics, frank response characteristics, polite response characteristics, and suitable for use at airports.
  • the list signal (first data) representing the list is transmitted from the control platform 5 to the user terminal 8 (FIG. 15 / STEP33).
  • the user terminal 8 When the user terminal 8 receives this list signal, it displays a list of possible robot groups on the display 8b as shown in FIG. 16 (FIG. 15 / STEP34).
  • one robot group is selected from the plurality of robot groups in the list displayed on the display 8b (FIG. 15 / STEP35). For example, in the case of a robot service for making tea, it is sufficient that the robot that transports tea has a load capacity of 5 kg, so the first robot group is selected.
  • the user When the user selects the robot group as described above and is not satisfied with the specifications of the plurality of possible robot groups in the list displayed on the display 8b, the user creates a new possible robot group as described below. However, this may be configured to be the selected robot group.
  • the user selects one robot group by operating the input device 8a of the user terminal 8, and also selects the robot 2 having unsatisfactory specifications in the robot group.
  • the user creates a new robot group by replacing the robot 2 having unsatisfactory specifications with any robot 2 in the robot specification database 53 of the control platform 5, and uses this as the selected robot group.
  • a selection result signal (second data) representing the selection result signal (second data) is transmitted from the user terminal 8 to the control platform 5 (FIG. 15 / STEP36).
  • the CI brain module 51 creates the operation schedule of the robot group in the selection result signal as described below (FIG. 15 / STEP37).
  • the "tea making service” is decomposed into "order receiving job”, “first moving job”, “tea picking job”, “second moving job” and “arrival notification job” and recognized. Will be done.
  • these "order acceptance job” and “arrival notification job” are assigned to the robot 2N, and the “tea making job” is assigned to the robot 2E. Further, the “first moving job” and the “second moving job” are assigned to the robot 2O.
  • the transmission schedule of the job command signal including the above five jobs (such as the order acceptance command signal described later) to the three robots 2N, 2E, and 2O is determined. That is, an operation schedule of a robot group consisting of three robots 2N, 2E, and 2O is created.
  • the job command signal corresponds to the operation schedule signal.
  • the order acceptance command signal is transmitted from the control platform 5 to the robot 2N (Fig. 17 / STEP40).
  • This order acceptance command signal is a signal including the above-mentioned "order acceptance job”.
  • the robot 2N When the robot 2N receives this order acceptance command signal, it executes the order acceptance process as described below (FIG. 17 / STEP41). First, in the job decomposition module 22, the "order acceptance job” included in the order acceptance command signal is converted into an "order acceptance task" and recognized.
  • the task execution module 23 controls the operating device 2c of the robot 2N according to the "order acceptance task". Specifically, the visitor is visually recognized by the camera of the operating device 2c, a greeting is pronounced from the speaker of the operating device 2c, and a voice indicating the visitor's order is received by the microphone of the operating device 2c.
  • This order acceptance end signal is a signal representing the above-mentioned visitor's order content (for example, black tea).
  • This first movement command signal is a signal including the above-mentioned "first movement job”.
  • the robot 2O When the robot 2O receives this first movement command signal, it executes the first movement process as described below (FIG. 17 / STEP44). First, in the job decomposition module 22, the "first move job” included in the first move command signal is converted into a "first move task" and recognized.
  • the task execution module 23 controls the operating device 2c of the robot 2O according to the "first moving task". Specifically, the operating device 2c is controlled so that the robot 2O moves to the vicinity of the robot 2E.
  • the first movement end signal is transmitted from the robot 2O to the control platform 5 (FIG. 17 / STEP45).
  • This first movement end signal is a signal indicating that the robot 2O has moved to the vicinity of the robot 2E.
  • the tea-making command signal is transmitted to the robot 2E (FIG. 17 / STEP46).
  • This tea-making command signal is a signal including the above-mentioned "tea-making job”.
  • the robot 2E When the robot 2E receives this tea-making command signal, it executes the tea-making process as described below (FIG. 17 / STEP47).
  • the "tea-picking job” included in the tea-picking command signal is decomposed into a "tea-recognizing task”, a “tea-grabbing task”, and a “tea-laying task” and recognized.
  • the task execution module 23 controls the operating device 2c of the robot 2E according to the "tea recognition task", the "tea grabbing task”, and the “tea loading task” as described below.
  • the camera of the operating device 2c recognizes the PET bottle of "tea” ordered by the visitor.
  • the PET bottle of "tea” is grasped by the three-finger hand of the operating device 2c, and then placed on the place where the robot 2O is placed by the six free arms.
  • the tea making end signal is transmitted from the robot 2E to the control platform 5 (FIG. 17). / STEP48).
  • This tea-picking end signal is a signal indicating that the PET bottle of "tea” has been placed at the place where the robot 2O is placed.
  • This second movement command signal is a signal including the above-mentioned "second movement job”.
  • the robot 2O When the robot 2O receives this second movement command signal, it executes the second movement process as described below (FIG. 17 / STEP50). First, in the job decomposition module 22, the "second movement job” included in the second movement command signal is converted into a "second movement task" and recognized.
  • the task execution module 23 controls the operation device 2c of the robot 2O according to the "second movement task". Specifically, the operating device 2c is controlled so that the robot 2O moves to the vicinity of the visitor.
  • the second movement end signal is transmitted from the robot 2O to the control platform 5 (FIG. 17 / STEP51).
  • This second movement end signal is a signal indicating that the robot 2O has moved to the vicinity of the visitor.
  • This arrival notification command signal is a signal including the above-mentioned "arrival notification job”.
  • the robot 2N When the robot 2N receives this arrival notification command signal, it executes the arrival notification process as described below (FIG. 17 / STEP53). First, the job decomposition module 22 converts the "arrival notification job" included in the arrival notification command signal into an "arrival notification task” and recognizes it.
  • the task execution module 23 controls the operating device 2c of the robot 2N according to the "arrival notification task". Specifically, a voice indicating that the PET bottle of "black tea” has arrived is output to the visitor from the speaker of the operating device 2c.
  • the arrival notification end signal is transmitted from the robot 2N to the control platform 5.
  • This arrival notification end signal is a signal indicating that the voice notifying that the PET bottle of "tea” has arrived is output from the robot 2N to the visitor.
  • a request signal representing the request signal is transmitted from the user terminal 8 to the control platform 5. Will be done.
  • the CI brain module 51 recognizes the user's request service, and by referring to the service recipe database 55 described above according to the request service, a list of robots that can realize the request service (see FIG. 16). Is created.
  • the user can obtain information on the robot groups capable of executing the request service via the user terminal 8.
  • the convenience of the user can be improved.
  • the list of robot groups in the list signal is displayed on the display 8b in an output mode that can be recognized by the user, and the functional specifications of each robot 2 and the functional specifications of each robot 2 are displayed. It is displayed on the display 8b so as to include the data of the characteristic specifications. Then, the user can select one robot group from the robot group displayed on the display 8b by operating the input device 8a, so that the user can execute the request service. One robot group can be selected. Thereby, the convenience of the user can be further improved.
  • the operation schedule of the robot group is determined in the CI brain module 51, and each robot 2 of the robot group is controlled according to this operation schedule, so that the user can request the request service. Can be provided appropriately.
  • the user's request service can be provided, so that the service can be provided per robot as compared with the conventional case where the service is provided by one robot.
  • Performance and structure can be simplified and manufacturing costs can be reduced. As a result, it is possible to realize the sophistication of the provided service while suppressing the increase in cost.
  • the second embodiment is an example in STEP 30 of FIG. 15 when the user inputs a request "I want to implement a robot service for making tea in the office" to the user terminal 8.
  • a request "I want to perform security” to the user terminal 8 in STEP 30
  • a list of robot groups as shown in FIG. 13 is created in STEP 32 of FIG.
  • the second embodiment is an example in which a server is used as the control platform 5, but the control platform of the present invention is not limited to this, and is not limited to this, and is a communication unit, a service data storage unit, a request service recognition unit, and a possible operator. Any one provided with a group determination unit may be used.
  • a control platform a distributed computing system, various resources in cloud computing, or the like may be used.
  • the second embodiment is an example in which a plurality of robots 2 are used as the plurality of operating bodies, but the operating bodies of the present invention are not limited to these, and are communicably connected to the control platform and are connected to each other. It suffices to include those that perform different predetermined actions.
  • a plurality of operating bodies those that perform at least one predetermined operation accompanied by physical events such as movement, vibration, driving, blowing, light emission, sounding, and odor may be used in combination.
  • a locking / unlocking device that automatically locks / unlocks and a light emitting device may be used in combination.
  • the second embodiment is an example in which a personal computer type is used as the user terminal, but the user terminal of the present invention is not limited to this, and is communicably connected to the control platform and operated by the user. Anything that can be done will do.
  • a smartphone, a tablet PC, or the like may be used as the user terminal.
  • the second embodiment is an example in which a combination of three robots as an operating body is used as an operating body group, but the operating body group of the present invention is not limited to this, and a combination of two operating bodies or 4 A combination of two or more actuators may be a actuator group.
  • control platform according to the third embodiment of the present invention will be described.
  • the control platform of the present embodiment is applied to the service providing system 1B shown in FIG. 18, and the service providing system 1B provides a robot service by a robot to its users (hereinafter referred to as "users") and the like. It is a thing.
  • the service providing system 1B like the service providing system 1A of the second embodiment, includes a large number of robots 2 (only two are shown), a control platform 5, a client server 7, and a plurality of user terminals 8. (Only one is shown) and so on.
  • Each robot 2 is configured to be autonomously movable, and includes a controller 2a, a communication device 2b, an operating device 2c, a sensor device 2d, and the like, as shown in FIG.
  • the robot 2 corresponds to a moving body and an operating body.
  • the controller 2a is for controlling the communication device 2b and the operating device 2c, and is composed of a computer equipped with a processor, a storage, an I / O interface (none of which are shown), and the like.
  • the controller 2a has an AI learning function, and during the operation of each robot 2, the AI learning function forms the operation characteristics of each robot 2.
  • the communication device 2b is connected to the control platform 5 in the cloud computing (hereinafter referred to as “cloud”) 4 via the communication network 3a which is a wireless communication network, thereby wirelessly communicating with the control platform 5. It is configured to be communicable.
  • cloud cloud computing
  • This communication device 2b contains one SIM card (not shown) that has been contracted with the communication company, and this SIM card is contracted with the communication company with one identification number. As a result, the communication device 2b executes wireless communication with the control platform 5 using this identification number as identification information.
  • the operation device 2c is a device for executing various operations. Specifically, the robot 2 autonomously moves with at least one device such as a 6-DOF arm, a 3-finger hand, and a speaker. It is composed of a moving device for the purpose.
  • the sensor device 2d is for acquiring the peripheral environment information of the robot 2 and the operating environment information such as the moving speed and the current position.
  • the camera, the gyro sensor, and the GPS all of the figures are shown in the figure). (Not shown) and so on.
  • FIG. 18 shows a humanoid robot type as a large number of robots 2, the large number of robots 2 of the present embodiment have a simpler structure (not shown) than the humanoid robot. It is composed of a type that executes a single predetermined operation and a type that executes a plurality of predetermined operations.
  • a plurality of robot groups are provided with one robot group composed of a plurality of robots 2 out of a large number of robots 2.
  • Each of the plurality of robot groups is configured to execute a predetermined service by executing a predetermined operation different from each other by the plurality of robots 2.
  • the control platform 5 executes the control of the above-mentioned robot group, and specifically, is composed of a server.
  • the control platform 5 includes a processor 5a, a memory 5b, a storage 5c, an I / O interface 5d, a communication device 5e, and the like.
  • the memory 5b is composed of a RAM, an E2PROM, a ROM, and the like, and a database and the like in which the specifications of each robot 2 are described are stored in the memory 5b.
  • the communication device 5e is connected to the robot 2 described above via the communication network 3a, and is connected to the client server 7 and the user terminal 8 in the cloud 6 via the communication networks 3b and 3c, respectively. It is connected. Both of these communication networks 3b and 3c are configured by the Internet.
  • control platform 5 is configured to be able to communicate with each other with the robot 2, the client server 7, and the user terminal 8 via the communication device 5e.
  • Various data in the control platform 5 are stored in the client server 7.
  • each of the plurality of user terminals 8 is composed of a personal computer, and includes an input device 8a, a display 8b, a communication device (not shown), and the like.
  • the input device 8a is composed of a keyboard, a mouse, and the like.
  • the user terminal 8 corresponds to an external device.
  • data transmission / reception with / from the control platform 5 is executed via the communication device by the operation of the input device 8a by the user.
  • a plurality of services capable of executing the desired service can be executed by executing a data transmission / reception operation with the control platform 5 by operating the user terminal 8. It is configured so that one robot group can be selected from the robot group.
  • the congestion degree map and the congestion degree data are displayed on the display 8b by the operation of the user terminal 8. There is.
  • the user terminal 8 includes a communication module 80, and the communication module 80 is specifically composed of the above-mentioned communication device.
  • the communication module 80 has a function of executing communication with the communication module 50 described later of the control platform 5.
  • the service builder or the user can access the control platform 5 via the two communication modules 80 and 50 by operating the input device 8a described above.
  • the control platform 5 includes a communication module 50, a CI brain module 51, a service generation module 52, a data storage module 53, and a congestion degree map creation module 54.
  • the communication module 50 corresponds to the transmission unit
  • the CI brain module 51 corresponds to the data acquisition unit
  • the data storage module 53 corresponds to the storage unit
  • the congestion degree map creation module 54 is located at a low speed. It corresponds to the data selection unit, the congestion degree parameter calculation unit, and the display data creation unit.
  • the communication module 50 is composed of the communication device 5e described above.
  • the communication module 50 has a function of executing communication between the communication module 80 of the user terminal 8 described above and the communication module 20 of the robot 2 described later when controlling the robot group.
  • a map signal including a congestion degree map and congestion degree data is transmitted to the communication module 80 of the user terminal 8 during execution of the congestion degree transmission process described later.
  • the user of the user terminal 8 can visually recognize the congestion degree map and the congestion degree data on the display 8b.
  • the communication module 50 receives the information data signal described later from the communication module 20, the communication module 50 outputs the information data signal to the CI brain module 51.
  • the three modules 51 to 54 are specifically composed of the processor 5a, the memory 5b and the storage 5c described above, and the CI brain module 51 has a plurality of functions as described below.
  • the CI brain module 51 recognizes a service desired by the user by communicating with the user terminal 8, accesses the service generation module 52, and refers to a database to search for a group of robots capable of executing the service. At the same time, it has a function of transmitting the search result to the user terminal 8.
  • the CI brain module 51 decomposes the service into a plurality of jobs when the robot group for executing the service is selected by the user, and divides each of the plurality of jobs into each of the plurality of robots 2 in the robot group. It has a function to assign.
  • the CI brain module 51 has a function of determining a schedule for transmitting a command signal including a job to each robot 2 so that each robot 2 can appropriately execute the assigned job.
  • the CI brain module 51 includes operation information of each robot 2 included in the information data signal, execution information of each service (time and number of times, etc.), and each robot 2.
  • Information data such as operating environment information (movement speed, current position, etc.) of the above is output to the data storage module 53.
  • the service generation module 52 provides data of a plurality of robot groups provided in the service providing system 1B, link data linking a service that can be executed by the plurality of robot groups, and the plurality of robot groups. It has a function to memorize.
  • the service generation module 52 has a function that allows the user to edit the above-mentioned link data and data of a plurality of robot groups by accessing the service generation module 52 via the user terminal 8. Further, the service generation module 52 has a function of monitoring a plurality of robot groups.
  • the data storage module 53 has a function of storing and storing the above-mentioned information data when the above-mentioned information data is input from the CI brain module 51, and a congestion degree map created by the congestion degree map creation module 54 (FIG. It has a function of storing and accumulating congestion degree data (see FIG. 27) and congestion degree data (see FIG. 27).
  • the congestion degree map creation module 54 has a function of creating a congestion degree map in the movement path of each robot 2 based on the information data of each robot 2 stored in the data storage module 53. The specific method of creating this congestion map will be described later.
  • the robot 2 includes a communication module 20, a local brain module 21, a job decomposition module 22, a task execution module 23, and a sensor module 24.
  • the communication module 20 is composed of the communication device 2b described above. As will be described later, the communication module 20 has a function of executing communication with the above-mentioned communication module 50 of the control platform 5 when the robot 2 is controlled by the control platform 5.
  • the three modules 21 to 23 are specifically composed of the controller 2a described above.
  • the local brain module 21 has a function of outputting a job in the job data signal to the job decomposition module 22 when the job data signal is received from the control platform 5.
  • the job decomposition module 22 stores the link data that defines the relationship between the job and the task, decomposes the job from the local brain module 21 into a plurality of tasks and recognizes them, or converts them into a single task. It has a function to output these multiple / single tasks to the local brain module 21.
  • the local brain module 21 further has a function of outputting a plurality of / single tasks from the job decomposition module 22 to the task execution module 23.
  • the task execution module 23 has a function of controlling the operation device 2c of the robot 2 according to a plurality of / single tasks from the local brain module 21.
  • the sensor module 24 is specifically composed of the sensor device 2d, and includes task information indicating the execution state of the task by the operating device 2c, surrounding environment information of the robot 2, moving speed, current position, and the like. It has a function of acquiring operating environment information and outputting the information to the local brain module 21.
  • the local brain module 21 has a function of transmitting an information data signal including task information, surrounding environment information and operating environment information from the sensor module 24 to the control platform 5 via the communication module 20.
  • each robot 2 in the one robot group is to provide the robot service.
  • the predetermined area in which each robot 2 moves is a rectangular area in a plan view as shown in FIG.
  • the rectangular element 40 shown by hatching represents a building, and the other area represents a passage through which the robot 2 can move.
  • the position of the robot 2 in the predetermined area is set as the center point (reference part) of the circle when the outer shape of the robot 2 is modeled into a circle and projected onto the predetermined area in FIG. 22, and x in the Cartesian coordinate system. It shall be represented by the coordinate value and the y coordinate value.
  • the robot 2 assumes that the moving speed V can be changed between the value 0 and the maximum speed Vmax, and sets the region of the moving speed V, that is, the speed range, into three, a low speed range, a medium speed range, and a high speed range. Divide into areas.
  • V1 and V2 are set to predetermined values of the moving speed V at which 0 ⁇ V1 ⁇ V2 ⁇ Vmax is established, the low speed range is 0 ⁇ V ⁇ V1 and the medium speed range is V1 ⁇ V ⁇ V2.
  • the high-speed region is set as a region of V2 ⁇ V ⁇ Vmax, respectively.
  • the congestion degree CD corresponds to the congestion degree degree parameter.
  • the two overlapping areas are regarded as one area, and the two robots 2R.
  • the low speed position data of 2S is regarded as one set of data. Then, in the low-speed position data of the two robots 2R and 2S, if a circle circumscribing the two most distant data circles is drawn, the area circle 43 shown in FIG. 26 can be obtained.
  • the congestion degree CD is calculated by the above calculation method.
  • FIG. 27 shows an example of congestion degree data when the congestion degree CD is calculated at all locations within a predetermined area by the above calculation method.
  • This congestion degree data indicates that congestion occurred between 9:30:30 and 33 seconds, and when this congestion degree data is plotted on the plan view of FIG. 22, as shown in FIG. 28. Congestion degree map is created.
  • the congestion degree CD is not displayed in the area circle, but in the actual congestion degree map, the congestion degree CD is displayed in the area circle. Therefore, when the congestion degree map is referred to, it is possible to easily visually recognize in which area the robot 2 is congested and the degree of congestion in that area.
  • the congestion degree map creation module 54 of the third embodiment the congestion degree map and the congestion degree data are created as described above.
  • congestion degree data is calculated by the above-mentioned method, a congestion degree map is created, and these congestion degree data and the congestion degree map are stored in the memory 5b of the control platform 5 for control. It is executed by the platform 5 at the predetermined cycle described above.
  • this information data is data including the moving speed of the robot 2 and the current position.
  • the information data is stored in the memory 5b (FIG. 29 / STEP62).
  • an area circle is created by the method described above (Fig. 29 / STEP66).
  • the plurality of robots 2 overlap each other when the area circles of the robots 2 are created (for example, in the state shown in FIG. 25)
  • the plurality of robots 2 The low-speed position data of is regarded as one set of data, and one area circle is created.
  • the congestion degree data is calculated (Fig. 29 / STEP67).
  • the congestion degree data specifically, various data shown in FIG. 27 described above are calculated.
  • the congestion degree map is created so as to display the congestion degree CD in each area circle of FIG. 28, for example, as shown in FIG. 28 described above.
  • This congestion degree transmission process reads the congestion degree map and the congestion degree data in the memory 5b of the control platform 5 and transmits them to the user terminal 8, and is executed by the control platform 5 at a predetermined control cycle.
  • This map request signal is a signal requesting a congestion degree map, and is transmitted from the user terminal 8 to the control platform 5 when the user terminal 8 is operated by the user.
  • a map signal including a congestion degree map and congestion degree data is transmitted to the user terminal 8 (FIG. 30 / STEP73). After that, this process ends.
  • the congestion degree map included in the map signal is displayed on the display 8b on the user terminal 8.
  • the user can refer to the degree of congestion of the robot 2 in the predetermined area on the display 8b.
  • the moving speed and the position of each robot 2 in the predetermined area are acquired as information data at a predetermined cycle and stored in the memory 5b. Then, when creating the congestion degree map, first, the information data within the predetermined period of each robot 2 is read from the memory 5b, and the speed range and the position are plotted on the two-dimensional coordinates. At that time, the position of each robot 2 is set to the center position of each robot 2 when the outer shape of each robot 2 is simulated as a circle and projected onto the two-dimensional coordinates.
  • the low-speed position data of the plurality of robots 2 is regarded as one data set, and the area circles in one data set are created. Then, among the low-speed position data, the number of data whose at least a part is located in the area circle is acquired as the congestion degree CD.
  • each robot 2 moves autonomously, it can be estimated that the movement route is congested when the robot 2 is moving at a low speed.
  • the area circle is between two points where a straight line extending outward from the two low-speed position data through the two most distant low-speed position data intersects the outer shape of each robot 2 corresponding to the two low-speed position data.
  • the maximum length is the length.
  • the congestion degree CD can be calculated as a value that accurately represents the degree of congestion in the movement path of each robot 2.
  • each robot 2 since the outer shape of each robot 2 is simulated as a circle, the maximum length can be calculated more easily, and an area circle can also be easily created. Thereby, the congestion degree CD can be easily calculated.
  • the congestion degree CD can be calculated as a value that appropriately represents the congestion degree of two or more robots 2.
  • a map signal including the congestion degree map and the congestion degree data is transmitted to the user terminal 8 and displayed on the user terminal 8. Since it is displayed on 8b, the user can easily visually recognize the degree of congestion of the robot 2 in the predetermined area.
  • the third embodiment is an example in which a server is used as the control platform, but the control platform of the present invention is not limited to this, and wirelessly communicates with each of a plurality of mobile objects via a wireless communication network. It suffices as long as it executes communication and controls each moving body.
  • a personal computer may be used as the control platform.
  • the third embodiment is an example in which the orthogonal coordinate system is used as the two-dimensional coordinate system, but instead of this, the polar coordinate system may be used as the two-dimensional coordinate system.
  • the third embodiment is an example in which the robot 2 is used as the moving body, but the moving body of the present invention is not limited to this, and is capable of autonomous movement and when an obstacle exists in the moving direction. Anything that slows down the movement speed may be used.
  • a humanoid robot or an autonomous vehicle type robot may be used as the moving body.
  • the third embodiment is an example in which a plurality of robots 2 are used as a plurality of operating bodies, but the plurality of operating bodies of the present invention are not limited to these, and provide services in cooperation with each other. It should be.
  • the plurality of operating bodies a plurality of humanoid robots or a plurality of autonomous driving vehicle type robots may be used.
  • the third embodiment is an example in which the outer shape of the robot 2 as a moving body is simulated in a circular shape and projected on two-dimensional coordinates.
  • the outer shape of the moving body is elliptical or regular. It may be configured to imitate a polygon and project it on two-dimensional coordinates.
  • the third embodiment is an example in which the reference part of the moving body is the center point of the circle projected on the two-dimensional coordinates, but instead, the reference part of the moving body is a part other than the center point of the circle. , For example, may be set at the end of a circle.
  • the third embodiment is an example in which a circle is used as the closed curve, but the closed curve of the present invention is not limited to this, and the outer shape of each of the two moving bodies corresponding to the two most distant low-speed position data is not limited to this. Anything that includes the outer end may be used. For example, an ellipse, a polygon, or a regular polygon may be used as the closed curve.
  • the third embodiment is an example in which a circle is used as the two-dimensional figure, but the two-dimensional figure of the present invention is not limited to this, as long as the distance between the low-speed position data is the maximum length. Good.
  • an ellipse, a polygon, or a regular polygon may be used as the two-dimensional figure.
  • the third embodiment is an example in which the congestion degree CD is used as the congestion degree parameter, but the congestion degree parameter of the present invention is not limited to this, and represents the congestion degree in the movement path of each moving body. All you need is.
  • the data in which at least a part of the data circle exists in the circumscribed circle 41 or 42 is counted as a value 1, but it exists in the circumscribed circle 41 or 42.
  • a data circle whose area is less than half may be counted as a value of 0.5.
  • the third embodiment is an example in which the congestion degree CD and the area radius are described in the congestion degree data, but in addition to this, the individual information (size, shape, etc.) of the robot 2 is added to the congestion degree data. May be good. With this configuration, it is possible to estimate the cause of congestion due to the size or shape of the robot 2.
  • the hem of the robot 2 has a wide hem, it can be estimated that congestion is occurring because other robots cannot pass by the side due to the shape. Also. If the robot's arm is long, it is possible for another robot to pass through the side, but it can be estimated that congestion is occurring because the other robot needs to slow down its movement speed.
  • the third embodiment is an example in which the low-speed position data of the two robots is regarded as one set data when the area circles overlap, but the method of clustering the low-speed position data is limited to this. Instead, any method may be used as long as the congestion degree CD can be calculated appropriately. For example, even when the area circles overlap, as shown in FIG. 25, the congestion degree CD corresponding to each area circle may be calculated and displayed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Manipulator (AREA)

Abstract

複数の所定動作を組み合わせて構成される第1タスクを適切に実行するように、複数の作動体を制御することができる制御プラットフォームを提供する。制御プラットフォーム5のCIブレインモジュール51は、ユーザ端末8との通信により、サービス(第1タスク)を認識し、サービス生成モジュール52のリンクデータに基づき、サービスを実行させるためのロボット群を認識し、サービスを複数のジョブとして認識し、これらのジョブをロボット2X~2Zに割り当てる。そして、通信モジュール50は、ジョブを表す指令信号をロボット2X~2Zに送信する。

Description

制御プラットフォーム、制御システム、サービス提供システム、サービス提供方法及び制御方法
 本発明は、複数の作動体を制御するための制御プラットフォームなどに関する。
 従来、制御プラットフォームとして、特許文献1に記載されたものが知られている。この制御プラットフォームは、作動体としてのロボットを制御するものであり、ロボットとの間で通信可能なクラウド・コンピューティング・プラットフォームで構成されている。この制御プラットフォームは、複数のロボットにそれぞれ対応した複数のブレインモジュールと、複数のブレインモジュールにそれぞれ対応した複数のソーシャルモジュールを備えている。
 この制御プラットフォームでは、ロボットからのデータ及びリクエストなどを含む作業情報が受信された場合、ブレインモジュールは、作業情報を処理してその処理結果をロボットに送信するとともに、作業情報のリクエストに応じて、対応するロボットに制御指令を送信する。それにより、これらの処理結果及び制御指令に応じて、ロボットの行動などが制御される。また、ソーシャルモジュールは、複数のブレインモジュール間の通信を実行し、それにより、複数のロボットが制御される。
 また、従来の制御プラットフォームとして特許文献2に記載されたものが知られている。この制御プラットフォームは、サービス提供システムに適用された情報処理装置であり、店舗内でのサービスを提供するために、作動体としてのロボットを制御するものである。このサービス提供システムは、ロボットとして、商品搬送ロボット及び清掃ロボットなどを備えている。
 このサービス提供システムでは、商品搬送ロボットが商品の搬送中に店舗内の床の汚れを発見した場合、その画像情報が商品搬送ロボットから情報処理装置に送信される。それに伴い、清掃ロボットが情報処理装置によって制御されることにより、床の清掃作業が実行される。
 さらに、従来の制御プラットフォームとして、特許文献3に記載されたものが知られている。この制御プラットフォームは、ショッピング施設において買い物客のショッピングを支援するためのものであり、移動体としての複数の電動輸送ユニットを備えている。この電動輸送ユニットは、ショッピングカートに装着されることにより、ショッピングカートを自動的に移動させる。
 この制御プラットフォームでは、買い物客のスマートフォンによって目的地が入力された場合、複数の移動体のうちの対応する電動輸送ユニットの位置を検出し、電動輸送ユニットが、目的地に移動するように制御される。その際、障害物が電動輸送ユニットの移動経路内に存在する場合には、その障害物がクリアになるまで電動輸送ユニットが停止されるか、又は、障害物を回避するために、電動輸送ユニットが移動するように制御される(段落[0080])。
特許第5684911号公報 国際公開第2019/171917号 米国特許出願公開第2016/0259329号明細書
 複数のロボットが互いに異なる能力を有する場合、すなわち互いに異なる所定動作を実行する場合、これらの複数のロボットを組み合わせて制御することにより、複数の所定動作を組み合わせて構成される第1タスクを実行することが考えられる。これに対して、上記特許文献1の制御プラットフォームによれば、そのような第1タスクを実行することが考慮されていない関係上、第1タスクを適切に実行するように、複数のロボットを制御することができないという問題がある。この問題は、ロボット以外の作動体、例えば複数の作業機械を制御する場合においても同様に発生する。
 一方、上記特許文献2の制御プラットフォーム及びサービス提供システムによれば、商品補充サービス及び床の清掃サービスなどの単純なサービスは提供可能であるものの、より高度なサービス、例えば、複数の動作及び機能を複雑に組みあわせて実行するようなサービスは提供できないという問題がある。このような高度なサービスを提供するために、例えば、ロボットの高機能化及び高性能化を図った場合、ロボットの製造コストの上昇を招いてしまう。
 また、ユーザによって要求されるサービスの種類によっては、同じサービスであっても、多種類の性能のロボットが必要な場合がある。例えば、商品補充サービスの場合、高重量の商品を扱うときには、低重量の商品を扱うときと比べて、耐荷重又は最大荷重の大きいロボットが必要となる。これに対して、上記特許文献2の制御プラットフォーム及びサービス提供システムによれば、ユーザは、自身が要求する性能のロボットを選択することができず、結果的に、ユーザの利便性の低下を招くおそれがある。以上の問題は、ロボットを用いる場合に限らず、ロボット以外の作動体を用いた場合にも同様に発生する。
 さらに、上記特許文献3の制御プラットフォームによれば、複数の電動輸送ユニットの目的地への移動を制御する際、移動経路の混雑度合が考慮されていない関係上、目的地に到達するまでに時間を要してしまう。その結果、買い物客の不満が高まるなどの商品性の低下を招いてしまう。この問題は、電動輸送ユニットに限らず、他の移動体においても発生する可能性がある。
 本発明は、上記課題を解決するためになされたもので、複数の所定動作を組み合わせて構成される第1タスクを適切に実行するように、複数の作動体を制御することができる制御プラットフォームなどを提供することを第1の目的とする。また、サービスを提供するために、複数の作動体を制御する場合において、コストの上昇を抑制しながら、提供サービスの高度化及び利便性の向上を達成することができる制御プラットフォームなどを提供することを第2の目的とする。さらに、複数の移動体の移動経路における混雑度合を適切に推定することができ、商品性を向上させることができる制御プラットフォームなどを提供することを第3の目的とする。
 上記第1の目的を達成するために、請求項1に係る発明は、互いに異なる所定動作を実行する複数の作動体を含む少なくとも1つの作動体群が、第1通信網を介して通信可能に接続され、ユーザによって操作される少なくとも1つのユーザ端末が、第2通信網を介して通信可能に接続されるとともに、少なくとも1つの作動体群を制御するための制御プラットフォームであって、少なくとも1つの作動体群及び少なくとも1つのユーザ端末との間で通信を実行する通信部と、少なくとも1つの作動体群と、少なくとも1つの作動体群が実行可能な第1タスクとをリンク付けたリンクデータを記憶する記憶部と、ユーザ端末との通信により、第1タスクを認識する第1タスク認識部と、ユーザ端末との通信及び記憶部のリンクデータに基づき、第1タスクを実行させるための1つの作動体群を認識する作動体群認識部と、第1タスクを複数の第2タスクとして認識し、複数の第2タスクの各々を、作動体群認識部によって認識された1つの作動体群における複数の作動体の各々に割り当てるタスク割当部と、を備え、通信部は、タスク割当部によって各作動体に割り当てられた第2タスクを表す第2タスク信号を各作動体に対して送信することを特徴とする。
 この制御プラットフォームによれば、第1タスク認識部において、ユーザ端末との通信により、第1タスクが認識され、作動体群認識部において、ユーザ端末との通信及び記憶部のリンクデータに基づき、第1タスクを実行させるための1つの作動体群が認識される。さらに、タスク割当部において、第1タスクが複数の第2タスクとして認識され、複数の第2タスクの各々が、作動体群認識部によって認識された1つの作動体群における複数の作動体の各々に割り当てられる。そして、通信部では、タスク割当部によって各作動体に割り当てられた第2タスクを表す第2タスク信号が各作動体に対して送信される。したがって、1つの作動体群における複数の作動体が互いに異なる所定動作を実行する場合において、複数の作動体が第1タスクを適切に実行するように、複数の作動体を制御することができる。
 請求項2に係る制御システムは、請求項1に記載の制御プラットフォームと、少なくとも1つの作動体群と、少なくとも1つのユーザ端末と、を備え、作動体は、第2タスク信号を受信する作動体受信部と、第2タスク信号が作動体受信部で受信された場合、第2タスク信号が表す第2タスクを第3タスクとして認識する第3タスク認識部と、第3タスクに対応する所定動作を実行する動作実行部と、を備えることを特徴とする。
 この制御システムによれば、作動体の作動体受信部において、第2タスク信号が受信された場合、第3タスク認識部では、第2タスク信号が表す第2タスクが第3タスクとして認識され、動作実行部では、第3タスクに対応する所定動作が実行される。このように、複数の作動体の各々が第3タスクに対応する所定動作を実行することによって、第2タスク及び第1タスクが適切に実行されることになる。その結果、作動体が第1タスクを適切に実行するような、制御システムを実現することができる。
 請求項3に係る発明は、請求項2に記載の制御システムにおいて、第3タスク認識部は、第2タスクを複数の第3タスクとして認識し、動作実行部は、複数の第3タスクに対応する複数の所定動作を実行することを特徴とする。
 この制御システムによれば、第3タスク認識部では、第2タスクが複数の第3タスクとして認識され、動作実行部では、複数の第3タスクに対応する複数の所定動作が実行されるので、1つの作動体により、複数の第3タスクを実行することができる。それにより、制御システムの有用性を向上させることができる。
 前述した第2の目的を達成するために、請求項4に係る発明は、互いに異なる所定動作を実行する複数の作動体と、ユーザによって操作されるユーザ端末とが通信可能に接続されるとともに、サービスを提供するために、複数の作動体を制御する制御プラットフォームであって、複数の作動体及びユーザ端末との間で通信を実行する通信部と、複数の作動体の組合せを1つの作動体群とした場合の複数の作動体群と、複数の作動体群が実行可能なサービスとの関係を定義したサービスデータを記憶するサービスデータ記憶部と、ユーザ端末との通信により、ユーザによって要求されたサービスである要求サービスを認識する要求サービス認識部と、要求サービス及びサービスデータ記憶部のサービスデータに基づき、要求サービスを実行可能な複数の作動体の組合せを、可能作動体群として決定する可能作動体群決定部と、を備え、通信部は、可能作動体群を表す第1データをユーザ端末に送信することを特徴とする。
 この制御プラットフォームによれば、要求サービス認識部において、ユーザ端末との通信により、ユーザによって要求されたサービスである要求サービスが認識され、可能作動体群決定部において、要求サービス及びサービスデータ記憶部のサービスデータに基づき、要求サービスを実行可能な複数の作動体の組合せが、可能作動体群として決定される。そして、通信部において、可能作動体群を表す第1データがユーザ端末に送信されるので、ユーザは、ユーザ端末を介して、要求サービスを実行可能な可能作動体群の情報を得ることができ、ユーザの利便性を向上させることができる。
 また、複数の作動体の組合せである可能作動体群を制御することによって、ユーザの要求サービスが提供可能になるので、1つの作動体でサービスを提供する従来の場合と比べて、作動体1個当たりの性能及び構造を単純化でき、製造コストを削減することができる。それにより、コストの上昇を抑制しながら、提供サービスの高度化を実現することができる。
 請求項5に係るサービス提供システムは、請求項4に記載の制御プラットフォームと、複数の作動体群と、ユーザ端末と、を備え、ユーザ端末は、第1データを受信可能な端末側通信部と、端末側通信部が第1データを受信した際、第1データが表す可能作動体群をユーザが認識可能な出力態様で出力する出力インターフェースと、ユーザの操作によって、出力インターフェースから出力された可能作動体群の1つを選択可能な入力インターフェースと、を備えることを特徴とする。
 このサービス提供システムによれば、ユーザ端末の出力インターフェースでは、端末側通信部が第1データを受信した際、第1データが表す可能作動体群が、ユーザが認識可能な出力態様で出力される。さらに、ユーザの入力インターフェースの操作によって、出力インターフェースから出力された可能作動体群の1つが選択可能であるので、ユーザは、入力インターフェースを操作することにより、可能作動体群の中から自身の要求サービスを実行させるのに適した1つの作動体群を選択することができる。それにより、ユーザの利便性をさらに向上させることができる。
 請求項6に係る発明は、請求項5に記載のサービス提供システムにおいて、サービスデータには、複数の作動体群における各々の作動体の機能を表す機能仕様及び各作動体の特性を表す特性仕様のデータが含まれており、出力インターフェースは、第1データが表す可能作動体群を、可能作動体群の各々の機能仕様及び特性仕様のデータを含むような出力態様で出力することを特徴とする。
 このサービス提供システムによれば、出力インターフェースは、第1データが表す可能作動体群を、可能作動体群の各々の機能仕様及び特性仕様のデータを含むような出力態様で出力するので、ユーザは、入力インターフェースを操作することにより、可能作動体群の中から自身の要求サービスを実行させるのに最適な機能仕様及び特性仕様の作動体群を選択することができる。それにより、ユーザの利便性をより一層、向上させることができる。
 請求項7に係る発明は、請求項5に記載のサービス提供システムにおいて、ユーザ端末の端末側通信部は、入力インターフェースによって1つの可能作動体群が選択された場合、1つの可能作動体群を表す第2データを制御プラットフォームに送信し、制御プラットフォームは、第2データを通信部で受信した際、1つの可能作動体群がサービスを実行するように、1つの可能作動体群における各々の作動体の動作スケジュールを決定するスケジュール決定部をさらに備え、通信部は、動作スケジュールを表す動作スケジュール信号を1つの可能作動体群における各作動体に対して送信し、各作動体は、動作スケジュール信号を受信する作動体受信部と、動作スケジュール信号が作動体受信部で受信された場合、動作スケジュールに応じて、所定動作を実行する動作実行部と、を備えることを特徴とする。
 このサービス提供システムによれば、ユーザ端末の端末側通信部により、入力インターフェースによって1つの可能作動体群が選択された場合、1つの可能作動体群を表す第2データが制御プラットフォームに送信される。さらに、制御プラットフォームのスケジュール決定部により、第2データを通信部で受信した際、1つの可能作動体群がサービスを実行するように、1つの可能作動体群における各々の作動体の動作スケジュールが決定され、通信部により、動作スケジュールを表す動作スケジュール信号が1つの可能作動体群における各作動体に対して送信される。そして、各作動体では、動作スケジュール信号が作動体受信部で受信された場合、動作実行部により、動作スケジュールに応じて、所定動作が実行される。それにより、ユーザによって選択された1つの可能作動体群における各作動体の所定動作の実行によって、ユーザによって選択されたサービスをユーザに適切に提供することができる。
 前述した第2の目的を達成するために、請求項8に係る発明は、ユーザによってユーザ端末を介してサービスが要求された場合、互いに異なる所定動作を実行する複数の作動体の組合せを1つの作動体群とした場合の複数の作動体群及びユーザ端末が通信可能に接続された制御プラットフォームを介して、複数の作動体群のいずれかを制御することにより、サービスを提供するサービス提供方法であって、複数の作動体群の各々と、各作動体群が実行可能な複数のサービスのいずれかとの関係を定義したサービスデータを制御プラットフォームに記憶する記憶ステップと、ユーザによってサービスが要求された際、サービスに応じて、サービスデータを参照することにより、サービスを実行可能な複数の作動体の組合せを、可能作動体群として制御プラットフォームで決定する決定ステップと、可能作動体群を表す第1データを制御プラットフォームからユーザ端末に送信する第1送信ステップと、第1データをユーザ端末で受信する第1受信ステップと、第1データを受信した際、第1データが表す可能作動体群をユーザが認識可能な出力態様でユーザ端末に出力する出力ステップと、ユーザによるユーザ端末の操作により、可能作動体群の1つを選択する選択ステップと、を実行することを特徴とする。
 請求項9に係る発明は、請求項8に記載のサービス提供方法において、サービスデータには、複数の作動体群における各々の作動体の機能を表す機能仕様及び各作動体の特性を表す特性仕様のデータが含まれており、出力ステップでは、第1データが表す可能作動体群を、可能作動体群の各々の機能仕様及び特性仕様のデータを含むような出力態様でユーザ端末に出力することを特徴とする。
 請求項10に係る発明は、請求項8に記載のサービス提供方法において、ユーザ端末の操作によって1つの可能作動体群が選択された場合、1つの可能作動体群を表す第2データをユーザ端末から制御プラットフォームに送信する第2送信ステップと、第2データを制御プラットフォームで受信する第2受信ステップと、第2データを受信した際、1つの可能作動体群がサービスを実行するように、1つの可能作動体群における各々の作動体の動作スケジュールを制御プラットフォームで決定する決定ステップと、動作スケジュールを表す動作スケジュール信号を制御プラットフォームから1つの可能作動体群における各作動体に対して送信する第3送信ステップと、動作スケジュール信号を各作動体で受信する第3受信ステップと、動作スケジュール信号が受信された場合、動作スケジュールに応じて、所定動作を各作動体で実行する動作実行ステップと、を実行することを特徴とする。
 前述した第3の目的を達成するために、請求項11に係る発明は、自律移動可能であるとともに障害物が移動方向に存在する際には移動速度が低下する複数の移動体の各々との間で無線通信網を介して無線通信を実行し、各移動体を制御する制御プラットフォームであって、各移動体の所定領域内での移動速度の離散データと、各移動体の外形を摸擬的に図形化して2次元座標上に投影したときの各移動体の基準部位の位置の離散データとをそれぞれ移動速度データ及び位置データとして所定周期で取得するデータ取得部と、各移動体の移動速度データ及び位置データを記憶する記憶部と、記憶部に記憶された各移動体の移動速度データを所定低速域を含む複数の速度域に区分した際の、所定低速域にある各移動体の位置データを低速位置データとして選択する低速位置データ選択部と、低速位置データ選択部によって選択された各移動体の低速位置データのうちの所定期間内における低速位置データを2次元座標上にプロットした場合において、最も離間した2つの低速位置データに対応する2つの各移動体の外形の外端を含む閉曲線で定義された閉曲線領域内に外形の少なくとも一部が位置する複数の移動体のいずれかの低速位置データの数に応じて、各移動体の移動経路における混雑度合を表す混雑度合パラメータを算出する混雑度合パラメータ算出部と、を備えることを特徴とする。
 この制御プラットフォームによれば、データ取得部によって、各移動体の所定領域内での移動速度の離散データと、各移動体の外形を摸擬的に図形化して2次元座標上に投影したときの各移動体の基準部位の位置の離散データとがそれぞれ移動速度データ及び位置データとして所定周期で取得され、各移動体の移動速度データ及び位置データが記憶部に記憶される。さらに、低速位置データ選択部によって、記憶部に記憶された各移動体の移動速度データを所定低速域を含む複数の速度域に区分した際の、所定低速域にある各移動体の位置データが低速位置データとして選択される。
 そして、閉曲線領域内に外形の少なくとも一部が位置する複数の移動体のいずれかの低速位置データの数に応じて、各移動体の移動経路における混雑度合を表す混雑度合パラメータが算出される。この閉曲線領域は、低速位置データ選択部によって選択された各移動体の低速位置データのうちの所定期間内における低速位置データを2次元座標上にプロットした場合において、最も離間した2つの低速位置データに対応する2つの各移動体の外形の外端を含む閉曲線で定義された領域である。また、各移動体は、自律移動可能である関係上、低速度域で移動している場合、混雑状態にあると推定できる。
 以上の理由により、外形の少なくとも一部が2次元図形内に位置する複数の移動体のいずれかの低速位置データの数は、所定期間内の2次元図形周辺における各移動体の移動経路の混雑度合を精度よく表すものと推定できる。したがって、そのような値に応じて、混雑度合パラメータを算出することにより、混雑度合パラメータを、各移動体の移動経路における混雑度合を精度よく表す値として算出することができる(なお、本明細書における「障害物」は、不動の物体に限らず、移動可能な機器、人間及び動物なども含む)。
 請求項12に係る発明は、請求項11に記載の制御プラットフォームにおいて、閉曲線領域は、最も離間した2つの低速位置データを通って2つの低速位置データから外方に延びる直線が2つの低速位置データに対応する各移動体の外形とそれぞれ交差する2点間の長さを最大長さとする2次元図形で定義される領域であることを特徴とする。
 この制御プラットフォームによれば、閉曲線領域は、最も離間した2つの低速位置データを通って2つの低速位置データから外方に延びる直線が2つの低速位置データに対応する各移動体の外形とそれぞれ交差する2点間の長さを最大長さとする2次元図形で定義される領域であるので、この閉曲線領域を容易に作成することができる。それにより、混雑度合パラメータの算出を容易に実行することができる。
 請求項13に係る発明は、請求項12に記載の制御プラットフォームにおいて、移動体の外形は、円として摸擬的に図形化され、基準部位は、円の中心点に設定され、2次元図形は、最大長さを直径とする円として作成されることを特徴とする。
 この制御プラットフォームによれば、移動体の外形が円として摸擬的に図形化され、基準部位が円の中心点に設定されるとともに、2次元図形は、最大長さを直径とする円として作成されるので、2次元図形をより容易に作成でき、それにより、最大長さをより容易に算出することができる。
 請求項14に係る発明は、請求項11に記載の制御プラットフォームにおいて、混雑度合パラメータ算出部は、複数の移動体のうちの、閉曲線領域が互いに重なり合う2つ以上の移動体の所定期間内における低速位置データを1つのデータ集合と見なして、1つのデータ集合における閉曲線領域を作成することを特徴とする。
 この制御プラットフォームによれば、複数の移動体のうちの、閉曲線領域が互いに重なり合う2つ以上の移動体の所定期間内における低速位置データを1つのデータ集合と見なして、1つのデータ集合における閉曲線領域が作成されるので、混雑度合パラメータを2つ以上の移動体の混雑度合を適切に表す値として算出することができる。
 請求項15に係る発明は、請求項11に記載の制御プラットフォームにおいて、閉曲線領域を所定領域の2次元地図データに重ねて表示した表示データを作成する表示データ作成部と、表示データを含む表示データ信号を外部機器に送信する送信部と、をさらに備えることを特徴とする。
 この制御プラットフォームによれば、表示データ作成部によって、閉曲線領域を所定領域の2次元地図データに重ねて表示した表示データが作成され、送信部によって、表示データを含む表示データ信号が外部機器に送信される。したがって、外部機器が表示装置を備えている場合には、制御プラットフォームの利用者は、表示データ信号に含まれる表示データをその表示装置で視認することができる。
 請求項16に係る発明は、請求項11に記載の制御プラットフォームにおいて、複数の移動体は、互いに協働してサービスを提供する複数の作動体で構成されていることを特徴とする。
 この制御プラットフォームによれば、複数の移動体が、互いに協働してサービスを提供する複数の作動体で構成されているので、複数の作動体の移動経路を混雑を回避しながら決定することができることによって、複数の作動体によるサービスの提供を遅滞なく、円滑に実行することができる。
 前述した第3の目的を達成するために、請求項17に係る発明は、自律移動可能であるとともに障害物が移動方向に存在する際には移動速度が低下する複数の移動体の各々との間で無線通信網を介して無線通信を実行し、各移動体を制御する制御方法であって、各移動体の所定領域内での移動速度の離散データと、各移動体の外形を摸擬的に図形化して2次元座標上に投影したときの各移動体の基準部位の位置の離散データとをそれぞれ移動速度データ及び位置データとして所定周期で取得するデータ取得ステップと、各移動体の移動速度データ及び位置データを記憶する記憶ステップと、記憶ステップで記憶された各移動体の移動速度データを所定低速域を含む複数の速度域に区分した際の、所定低速域にある各移動体の位置データを低速位置データとして選択する低速位置データ選択ステップと、低速位置データ選択ステップで選択された各移動体の低速位置データのうちの所定期間内における低速位置データを2次元座標上にプロットした場合において、最も離間した2つの低速位置データに対応する2つの各移動体の外形の外端を含む閉曲線で定義された閉曲線領域内に外形の少なくとも一部が位置する複数の移動体のいずれかの低速位置データの数に応じて、各移動体の移動経路における混雑度合を表す混雑度合パラメータを算出する混雑度合パラメータ算出ステップと、を備えることを特徴とする。
本発明の第1実施形態に係る制御プラットフォーム及びこれを備えた制御システムの構成を示す図である。 ロボットの構成を示すブロック図である。 制御プラットフォームの構成を示すブロック図である。 制御システムにおけるロボット、制御プラットフォーム及びユーザ端末の機能的な構成を示すブロック図である。 制御システムにおけるロボット群の制御動作の一例を示す図である。 本発明の第2実施形態に係るサービス提供システムの構成を模式的に示す図である。 ロボットの電気的な構成を示すブロック図である。 制御プラットフォームの電気的な構成を示すブロック図である。 第2実施形態の制御システムにおけるロボット、制御プラットフォーム及びユーザ端末の機能的な構成を示すブロック図である。 サービスレシピの作成処理を示すシーケンス図である。 ロボット仕様データベースにおけるロボットの仕様の一例を示す図である。 要件を満たすロボットの検索結果の一例を示す図である。 警備サービスを実行するロボット群の選択結果の一例を示す図である。 サービスレシピデータベースにおけるサービスレシピの一例を示す図である。 ロボットサービス利用処理を示すシーケンス図である。 ロボット群のリストの一例を示す図である。 ロボット群の制御処理を示すシーケンス図である。 本発明の第3実施形態に係る制御プラットフォーム及びサービス提供システムの構成を模式的に示す図である。 ロボットの電気的な構成を示すブロック図である。 制御プラットフォームの電気的な構成を示すブロック図である。 第3実施形態のサービス提供システムにおけるロボット、制御プラットフォーム及びユーザ端末の機能的な構成を示すブロック図である。 ロボットサービスを提供する所定領域を示す平面図である。 2基のロボットの移動状態の取得結果の一例を示す図である。 2基のロボットの移動の推移をプロットした平面図である。 図24上にエリア円を描いた図である。 図24の2基のロボットの移動データを1つの集合と見なしてエリア円を描いた図である。 所定領域全体での混雑度データの算出結果例を示す図である。 混雑度マップを示す図である。 混雑度算出処理を示すフローチャートである。 混雑度送信処理を示すフローチャートである。
 以下、図面を参照しながら、本発明の第1実施形態に係る制御プラットフォームについて説明する。本実施形態の制御プラットフォームは、図1に示す制御システム1に適用されたものである。
 この制御システム1は、複数のロボット2(4つのみ図示)で構成されるロボット群を制御するためのものであり、図1に示すように、制御装置としての制御プラットフォーム5、クライアントサーバ7及び複数のユーザ端末8(1つのみ図示)などを備えている。
 まず、ロボット2(作動体)について説明する。ロボット2は、所定のサービスエリア(例えば店舗)内において、来客に対して各種のサービスを提供する接客ロボットタイプのものである。
 また、本実施形態の場合、複数のロボット2で構成されるロボット群を1つとして、複数のロボット群が設けられている。複数のロボット群の各々は、複数のロボット2が互いに異なる所定動作を実行することによって、所定のサービスを実行するように構成されている。
 各ロボット2は、図2に示すように、コントローラ2a、通信装置2b、動作装置2c及びセンサ装置2dなどを備えている。コントローラ2aは、通信装置2b及び動作装置2cを制御するためのものであり、プロセッサ、ストレージ及びI/Oインターフェース(いずれも図示せず)などを備えたコンピュータで構成されている。
 通信装置2bは、無線通信網である通信網3aを介して、クラウドコンピューティング(以下「クラウド」という)4内の制御プラットフォーム5に接続されており、それにより、制御プラットフォーム5との間で無線通信可能に構成されている。
 この通信装置2bには、通信業者と契約済みの1つのSIMカード(図示せず)が内蔵されており、このSIMカードは、1つの識別番号で通信業者と契約されている。それにより、通信装置2bは、この識別番号を識別情報として、制御プラットフォーム5との間で無線通信を実行する。
 また、動作装置2cは、後述する各種動作を実行するための機能を備えており、センサ装置2dは、動作装置2cの動作状態及びロボット2の周辺環境状態を表す動作環境情報を検出して、それを表す検出信号をコントローラ2aに出力する。
 なお、図1には、複数のロボット2として人型ロボットタイプのものが示されているが、本実施形態の複数のロボット2は、人型ロボットよりも単純な構造(図示せず)を有しており、単一の所定動作を実行するタイプのものと、複数の所定動作を実行するタイプのものとで構成されている。
 本実施形態の場合、例えば、複数のロボット2として、挨拶ロボット2X、お茶取りロボット2Y及び搬送ロボット2Zなどが設けられている。この挨拶ロボット2Xは、動作装置2cとして、スピーカ(図示せず)などを備えており、センサ装置2dとして、カメラ、マイクロフォン及びGPS(いずれも図示せず)などを備えている。
 この挨拶ロボット2Xは、後述するように、制御プラットフォーム5との間の通信により、注文受付処理及び到着報知処理を実行する。これに加えて、挨拶ロボット2Xは、自身の位置などをGPSにより取得する。
 また、お茶取りロボット2Yは、動作装置2cとして、ロボットアーム、アクチュエータ及びカメラ(いずれも図示せず)などを備えている。このお茶取りロボット2Yは、後述するように、制御プラットフォーム5との間の通信により、お茶取り処理を実行する。
 さらに、搬送ロボット2Zは、動作装置2cとして、車輪を駆動する車輪駆動装置と、GPS(いずれも図示せず)などを備えている。この搬送ロボット2は、後述するように、制御プラットフォーム5との間の通信により、第1移動処理及び第2移動処理を実行する。これに加えて、搬送ロボット2Zは、自身の位置などをGPSにより取得する。
 一方、制御プラットフォーム5は、前述した複数のロボット群を制御するものであり、具体的には、サーバで構成されている。制御プラットフォーム5は、図3に示すように、プロセッサ5a、メモリ5b、ストレージ5c、I/Oインターフェース5d及び通信装置5eなどを備えている。
 このメモリ5bは、RAM、E2PROM及びROMなどで構成されており、その内部には、後述するリンクデータなどが記憶されている。
 また、通信装置5eは、前述したように、通信網3aを介して前述したロボット2に接続されているとともに、通信網3b,3cを介してクラウド6内のクライアントサーバ7及びユーザ端末8にそれぞれ接続されている。これらの通信網3b,3cはいずれもインターネットで構成されている。
 以上の構成により、制御プラットフォーム5は、通信装置5eを介して、ロボット2、クライアントサーバ7及びユーザ端末8との間で相互に通信可能に構成されている。このクライアントサーバ7には、制御プラットフォーム5内の各種データが保存される。
 さらに、複数のユーザ端末8の各々は、パーソナルコンピュータで構成されており、入力装置8a、ディスプレイ8b及び通信装置(図示せず)などを備えている。入力装置8aは、キーボード及びマウスなどで構成されている。
 このユーザ端末8では、後述するように、ユーザ(図示せず)が入力装置8aを操作し、制御プラットフォーム5にアクセスすることによって、ロボット群に実行させるサービスが決定されるとともに、そのサービス(第1タスク)を実行させるロボット群が決定される。
 次に、図4を参照しながら、本実施形態の制御システム1におけるロボット2及び制御プラットフォーム5などの機能的な構成について説明する。まず、ユーザ端末8の機能的な構成について説明する。ユーザ端末8は、通信モジュール80を備えており、この通信モジュール80は、具体的には、前述した通信装置によって構成されている。
 この通信モジュール80は、制御プラットフォーム5の後述する通信モジュール50との間で通信を実行する機能を備えており、このユーザ端末8の場合、ユーザは、前述した入力装置8aを操作することにより、2つの通信モジュール80,50を介して、制御プラットフォーム5の後述するCIブレインモジュール51にアクセスすることができる。それにより、ユーザは、希望するサービスを決定した場合、そのサービスを実行可能なロボット群を複数のロボット群から選択することができる。
 次に、制御プラットフォーム5の機能的な構成について説明する。制御プラットフォーム5は、図4に示すように、通信モジュール50、CIブレインモジュール51、サービス生成モジュール52及びデータ蓄積モジュール53を備えている。
 なお、本実施形態では、通信モジュール50が通信部に相当し、CIブレインモジュール51が第1タスク認識部、作動体群認識部及びタスク割当部に相当する。
 この通信モジュール50は、具体的には、前述した通信装置5eによって構成されている。この通信モジュール50は、後述するように、ロボット群を制御する際、上述したユーザ端末8の通信モジュール80及びロボット2の後述する通信モジュール20との間で通信を実行する機能を備えている。より具体的には、後述するように、各ジョブを表す各種の指令信号をロボット2に送信する機能と、ロボット2からの各種の終了信号を受信する機能を備えている。
 また、3つのモジュール51~53は、具体的には、前述したプロセッサ5a、メモリ5b及びストレージ5cで構成されており、CIブレインモジュール51は、以下に述べるような複数の機能を備えている。
 まず、CIブレインモジュール51は、ユーザ端末8との通信により、ユーザが希望するサービスを認識し、サービス生成モジュール52にアクセスして後述するリンクデータを参照することにより、そのサービスを実行可能なロボット群を検索するとともに、その検索結果をユーザ端末8に送信する機能を備えている。
 さらに、CIブレインモジュール51は、サービスを実行するロボット群がユーザによって選択された場合、サービスを複数のジョブに分解して、それら複数のジョブの各々を、ロボット群における複数のロボット2の各々に割り当てる機能を備えている。
 また、CIブレインモジュール51は、そのように割り当てたジョブを各ロボット2が適切に実行できるように、ジョブを含む指令信号を各ロボット2に送信するスケジュールを決定する機能を備えている。
 この場合、CIブレインモジュール51の以上の機能が、「ユーザ端末との通信により、第1タスクを認識する」機能、及び、「ユーザ端末との通信及び記憶部のリンクデータに基づき、当該第1タスクを実行させるための1つ作動体群を認識する」機能に相当する。
 一方、サービス生成モジュール52は、制御システム1に設けられている複数のロボット群のデータと、これらの複数のロボット群が実行可能なサービスと複数のロボット群とをリンク付けたリンクデータなどを記憶する機能を備えている。
 また、このサービス生成モジュール52は、ユーザがユーザ端末8を介してサービス生成モジュール52にアクセスすることにより、上述したリンクデータ及び複数のロボット群のデータなどを編集できる機能を備えている。さらに、サービス生成モジュール52は、複数のロボット群をモニタリングする機能を備えている。
 一方、データ蓄積モジュール53は、各ロボット2の稼働データ、各サービスの実行状態(時間及び回数など)及び各ロボット2のメンテナンス状態などのデータを記憶して蓄積する機能を備えている。
  次に、ロボット2の機能的な構成について説明する。図4に示すように、ロボット2は、通信モジュール20、ローカルブレインモジュール21、ジョブ分解モジュール22、タスク実行モジュール23及びセンサモジュール24を備えている。
 なお、本実施形態では、ジョブ分解モジュール22が第3タスク認識部に相当し、タスク実行モジュール23が動作実行部に相当する。
 この通信モジュール20は、具体的には、前述した通信装置2bによって構成されている。この通信モジュール20は、後述するように、ロボット2が制御プラットフォーム5によって制御される際、制御プラットフォーム5の前述した通信モジュール50との間で通信を実行する機能を備えている。
 また、3つのモジュール21~23は、具体的には、前述したコントローラ2aで構成されている。ローカルブレインモジュール21は、制御プラットフォーム5からジョブデータ信号を受信したときに、このジョブデータ信号におけるジョブをジョブ分解モジュール22に出力する機能を備えている。
 一方、ジョブ分解モジュール22は、ジョブとタスクの関係を定義したリンクデータを記憶しており、ローカルブレインモジュール21からのジョブを、複数のタスクに分解して認識したり、単一のタスクに変換して認識したりするとともに、これらの複数/単一のタスクをローカルブレインモジュール21に出力する機能を備えている。
 また、ローカルブレインモジュール21は、ジョブ分解モジュール22からの複数/単一のタスクをタスク実行モジュール23に出力する機能をさらに備えている。
 一方、タスク実行モジュール23は、ローカルブレインモジュール21からの複数/単一のタスクに応じて、ロボット2の動作装置2cを制御する機能を備えている。
 さらに、センサモジュール24は、具体的には、センサ装置2dで構成されており、動作装置2cによるタスクの実行状態を表すタスク情報及び前述した動作環境情報を検出して、それらの情報をローカルブレインモジュール21に出力する。
 また、ローカルブレインモジュール21は、センサモジュール24からのタスク情報及び動作環境情報を、通信モジュール20を介して、制御プラットフォーム5に送信する機能を備えている。
 次に、図5を参照しながら、以上のように構成された制御システム1におけるロボット群の制御動作について説明する。なお、この制御動作の実行中、後述する3つのロボット2X~2Zの動作状態などは、ユーザ端末8側で常時モニタリングできるように構成されている。
 同図に示すように、まず、サービス&ロボット群決定処理が実行される(図5/STEP1)。このサービス&ロボット群決定処理では、以下に述べるように、制御プラットフォーム5とユーザ端末8との間の通信により、サービスが決定されるとともに、そのサービスを実行するロボット群が選択/決定される。
 まず、来客が所定のサービスエリア内で認識された場合、ユーザは、ユーザ端末8を介して、制御プラットフォーム5のCIブレインモジュール51にアクセスすることにより、ロボット群に実行させるサービスを決定する。
 そして、サービスが決定された際、CIブレインモジュール51は、サービス生成モジュール52内のリンクデータを参照することにより、サービスを実行可能なロボット群を検索し、その検索結果をユーザ端末8に報知する。それにより、サービスを実行可能なロボット群が複数存在するときには、ユーザによるユーザ端末8の操作によって、複数のロボット群のいずれか1つが選択される。
 なお、以下の説明では、サービスとして、ペットボトルタイプのお茶を提供する「お茶出しサービス」がユーザによって決定され、「お茶出しサービス」を実行可能なロボット群において、挨拶ロボット2X、お茶取りロボット2Y及び搬送ロボット2Z(図1参照)の3つにより構成されるロボット群が選択された場合の例について説明する。
 上記のように、「お茶出しサービス」がユーザによって決定された後、「お茶出しサービス」を実行するロボット群(3つのロボット2X~2Z)がユーザによって選択された場合、CIブレインモジュール51では、「お茶出しサービス」が「注文受付ジョブ」、「第1移動ジョブ」、「お茶取りジョブ」、「第2移動ジョブ」及び「到達報知ジョブ」に分解して認識される。なお、本実施形態では、「注文受付ジョブ」、「第1移動ジョブ」、「お茶取りジョブ」、「第2移動ジョブ」及び「到達報知ジョブ」が第2タスクに相当する。
 次いで、CIブレインモジュール51では、これらの「注文受付ジョブ」及び「到達報知ジョブ」が挨拶ロボット2Xに割り当てられ、「お茶取りジョブ」がお茶取りロボット2Yに割り当てられる。さらに、「第1移動ジョブ」及び「第2移動ジョブ」が搬送ロボット2Zに割り当てられる。
 さらに、CIブレインモジュール51では、以上の5つのジョブを含む指令信号(後述する注文受付指令信号など)の、3つのロボット2X~2Zへの送信スケジュールが決定される。
 図5に戻り、以上のようにサービス&ロボット群決定処理が実行された後、注文受付指令信号が制御プラットフォーム5から挨拶ロボット2Xに送信される(図5/STEP2)。この注文受付指令信号(第2タスク信号)は、上述した「注文受付ジョブ」を含む信号である。
 挨拶ロボット2Xは、この注文受付指令信号を受信した場合、以下に述べるように、注文受付処理を実行する(図5/STEP3)。まず、ジョブ分解モジュール22において、注文受付指令信号に含まれる「注文受付ジョブ」が「注文受付タスク」に変換されて認識される。
 次いで、タスク実行モジュール23により、挨拶ロボット2Xの動作装置2cが「注文受付タスク」に応じて制御される。具体的には、動作装置2cのカメラによって、来客が視認され、動作装置2cのスピーカから挨拶が発音されるとともに、来客の注文を表す音声が動作装置2cのマイクロフォンで受信される。
 挨拶ロボット2Xは、以上のように、注文受付処理を実行した後、注文受付終了信号を制御プラットフォーム5に送信する(図5/STEP4)。この注文受付終了信号は、上述した来客の注文内容(例えば紅茶)を表す信号である。
 制御プラットフォーム5は、この注文受付終了信号を受信した場合、第1移動指令信号を搬送ロボット2Zに送信する(図5/STEP5)。この第1移動指令信号(第2タスク信号)は、前述した「第1移動ジョブ」を含む信号である。
 搬送ロボット2Zは、この第1移動指令信号を受信した場合、以下に述べるように、第1移動処理を実行する(図5/STEP6)。まず、ジョブ分解モジュール22において、第1移動指令信号に含まれる「第1移動ジョブ」が「第1移動タスク」に変換されて認識される。
 次いで、タスク実行モジュール23によって、搬送ロボット2Zの動作装置2cが「第1移動タスク」に応じて制御される。具体的には、搬送ロボット2Zがお茶取りロボット2Yの近傍まで移動するように、動作装置2cが制御される。
 以上のように、第1移動処理が実行され、搬送ロボット2Zがお茶取りロボット2Yの近傍まで移動した場合、第1移動終了信号が搬送ロボット2Zから制御プラットフォーム5に送信される(図5/STEP7)。この第1移動終了信号は、搬送ロボット2Zがお茶取りロボット2Yの近傍まで移動したことを表す信号である。
 制御プラットフォーム5では、この第1移動終了信号を受信した場合、お茶取り指令信号がお茶取りロボット2Yに送信される(図5/STEP8)。このお茶取り指令信号(第2タスク信号)は、前述した「お茶取りジョブ」を含む信号である。
 お茶取りロボット2Yは、このお茶取り指令信号を受信した場合、以下に述べるように、お茶取り処理を実行する(図5/STEP9)。まず、ジョブ分解モジュール22において、お茶取り指令信号に含まれる「お茶取りジョブ」が、「お茶認識タスク」、「お茶つかみタスク」及び「お茶載せタスク」に分解されて認識される。
 次いで、タスク実行モジュール23により、「お茶認識タスク」、「お茶つかみタスク」及び「お茶載せタスク」に応じて、お茶取りロボット2Yの動作装置2cが以下に述べるように制御される。
 まず、動作装置2cのカメラによって、来客によって注文された「紅茶」のペットボトルが認識される。次いで、動作装置2cのロボットアームによって、来客によって注文された「紅茶」のペットボトルが把持された後、搬送ロボット2Zの載置場所に載置される。
 以上のように、お茶取り処理が実行され、「紅茶」のペットボトルが搬送ロボット2Zの載置場所に載置された場合、お茶取り終了信号がお茶取りロボット2Yから制御プラットフォーム5に送信される(図5/STEP10)。このお茶取り終了信号は、「紅茶」のペットボトルが搬送ロボット2Zの載置場所に載置されたことを表す信号である。
 制御プラットフォーム5は、このお茶取り終了信号を受信した場合、第2移動指令信号を搬送ロボット2Zに送信する(図5/STEP11)。この第2移動指令信号(第2タスク信号)は、前述した「第2移動ジョブ」を含む信号である。
 搬送ロボット2Zは、この第2移動指令信号を受信した場合、以下に述べるように、第2移動処理を実行する(図5/STEP12)。まず、ジョブ分解モジュール22において、第2移動指令信号に含まれる「第2移動ジョブ」が「第2移動タスク」に変換して認識される。
 次いで、タスク実行モジュール23によって、搬送ロボット2Zの動作装置2cが「第2移動タスク」に応じて制御される。具体的には、搬送ロボット2Zが来客の近傍まで移動するように、動作装置2cが制御される。
 以上のように、第2移動処理が実行され、搬送ロボット2Zが来客の近傍まで移動した場合、第2移動終了信号が搬送ロボット2Zから制御プラットフォーム5に送信される(図5/STEP13)。この第2移動終了信号は、搬送ロボット2Zが来客の近傍まで移動したことを表す信号である。
 制御プラットフォーム5は、この第2移動終了信号を受信した場合、到着報知指令信号を挨拶ロボット2Xに送信する(図5/STEP14)。この到着報知指令信号(第2タスク信号)は、前述した「到着報知ジョブ」を含む信号である。
 挨拶ロボット2Xは、この到着報知指令信号を受信した場合、以下に述べるように、到着報知処理を実行する(図5/STEP15)。まず、ジョブ分解モジュール22によって、到着報知指令信号に含まれる「到着報知ジョブ」が、「到着報知タスク」に変換して認識される。
 次いで、タスク実行モジュール23により、「到着報知タスク」に応じて、挨拶ロボット2Xの動作装置2cが制御される。具体的には、「紅茶」のペットボトルが到着したことを表す音声が、動作装置2cのスピーカから来客に対して出力される。
 以上のように、到着報知処理が実行され、「紅茶」のペットボトルが到着したことを表す音声が来客に対して出力された場合、到着報知終了信号が挨拶ロボット2Xから制御プラットフォーム5に送信される(図5/STEP16)。この到着報知終了信号は、「紅茶」のペットボトルが到着したことを報知する音声が、挨拶ロボット2Xから来客に対して出力されたことを表す信号である。
 制御プラットフォーム5は、この到着報知終了信号を受信した場合、お茶出し完了信号をユーザ端末8に送信する(図5/STEP17)。このお茶出し完了信号は、「お茶出しサービス」が完了したことを表す信号である。
 ユーザ端末8では、このお茶出し完了信号を受信した場合、お茶出し完了処理を実行する(図5/STEP18)。このお茶出し完了処理では、「お茶出しサービス」の完了がディスプレイ8bに表示される。以上のように、制御システム1における制御動作が実行される。
 以上のように、第1実施形態の制御システム1の制御プラットフォーム5によれば、CIブレインモジュール51において、ユーザ端末8との通信により、ユーザが希望する「お茶出しサービス」が決定され、その「お茶出しサービス」を実行可能なロボット群がリンクデータから検索される。そして、その検索結果に基づき、サービスを実行するロボット群(ロボット2X~2Z)がユーザによって選択される。
 次いで、「お茶出しサービス」が「注文受付ジョブ」、「第1移動ジョブ」、「お茶取りジョブ」、「第2移動ジョブ」及び「到達報知ジョブ」に分解されて認識され、これらのジョブがロボット2X~2Zに割り当てられる。さらに、そのように割り当てたジョブをロボット2X~2Zが適切に実行できるように、ジョブを含む各種の指令信号をロボット2X~2Zに送信するスケジュールが決定される。したがって、ロボット2X~2Zが互いに異なる所定動作を実行する場合において、ロボット2X~2Zがサービスを適切に実行するように、ロボット2X~2Zを制御することができる。
 また、ロボット2X~2Zの各々では、各種の指令信号が通信装置2bで受信された場合、指令信号が表すジョブが1つのタスクとして認識されたり、3つのタスクとして分解されたりするとともに、それらのタスクに対応する所定動作を実行するように、動作装置2cが制御される。このように、ロボット2X~2Zの各々がタスクに対応する所定動作を実行することによって、サービスが適切に実行されることになる。その結果、ロボット群がサービスを適切に実行するような、制御プラットフォーム5及び制御システム1を実現することができる。
 さらに、お茶取りロボット2Yでは、お茶取り指令信号に含まれる「お茶取りジョブ」が、「お茶認識タスク」、「お茶つかみタスク」及び「お茶載せタスク」の3つに分解されて認識され、これらのタスクを実行するように、動作装置2cのカメラ及びロボットアームが制御される。それにより、1つのロボット2Yにより、複数のタスクを実行することができることで、制御システム1の有用性を向上させることができる。
 なお、第1実施形態は、サービスを第1タスクとした例であるが、本発明の第1タスクは、これに限らず、複数の所定動作を組みあわせて構成されるものであればよい。例えば、構造物の組み立て、道路の敷設及び構造物の分解などを第1タスクとしてもよい。
 また、第1実施形態は、ジョブを第2タスクとした例であるが、本発明の第2タスクは、これに限らず、第1タスクが複数の第2タスクとして認識されるものであればよい。例えば、第1タスクが構造物の組み立ての場合、構造物の構成部材の運搬、構成部材の設置及び構成部材の連結などを第2タスクとしてもよい。
 さらに、第1実施形態は、タスクを第3タスクとした例であるが、本発明の第3タスクは、これに限らず、第2タスクが単一又は複数の第3タスクとして認識されるものであればよい。例えば、第1タスクが構造物の組み立てであり、第2タスクが、構造物の構成部材の運搬、構成部材の設置及び構成部材の連結などの場合、構成部材の把持及び方向変換などを第3タスクとしてもよい。
 一方、第1実施形態は、制御プラットフォーム5として、サーバを用いた例であるが、本発明の制御プラットフォームは、これに限らず、通信部、記憶部、作動体群選択部及びタスク割当部を備えたものであればよい。例えば、制御プラットフォームとして、分散コンピューティングシステム、又は、クラウドコンピューティングにおける各種のリソースなどを用いてもよい。
 また、第1実施形態は、複数の作動体として、複数のロボット2を用いた例であるが、本発明の複数の作動体は、これらに限らず、第1通信網を介して制御プラットフォームに対して通信可能に接続され、互いに異なる所定動作を実行するものを含んでいればよい。
 例えば、複数の作動体として、移動、加振、駆動、送風、発光、発音及び発臭などの物理的な事象を伴う所定動作を少なくとも1つを実行するものを組み合わせて用いてもよい。また、複数の作動体として、施解錠を自動的に行う施解錠装置と発光装置などを組み合わせて用いてもよい。
 さらに、第1実施形態は、複数のロボット2として、挨拶ロボット2X、お茶取りロボット2Y及び搬送ロボット2Zを用いた例であるが、複数のロボット2として、これら以外の動作を実行するものを用いてもよい。例えば、複数のロボットとして、発音のみを実行する発音ロボットと、発光のみを実行する発光ロボットと、送風のみを実行する送風ロボットなどを用いてもよい。
 一方、第1実施形態は、ユーザ端末として、パソコンタイプのものを用いた例であるが、本発明のユーザ端末は、これに限らず、第2通信網を介して制御プラットフォームに対して通信可能に接続され、ユーザによって操作されるものであればよい。例えば、ユーザ端末として、スマートフォン及びタブレットPCなどを用いてもよい。
 また、第1実施形態は、第1通信網として、無線通信網である通信網3aを用いた例であるが、本発明の第1通信網は、これに限らず、制御プラットフォームと作動体との間を通信可能に接続するものであればよい。例えば、第1通信網として、有線LAN通信網などの有線通信網を用いてもよい。
 さらに、第1実施形態は、第2通信網として、インターネットである通信網3cを用いた例であるが、本発明の第2通信網は、これに限らず、制御プラットフォームとユーザ端末との間を通信可能に接続するものであればよい。例えば、第2通信網として、無線LAN通信網などの無線通信網、又は有線LAN通信網などの有線通信網を用いてもよい。また、第2通信網は、第1通信網と同一の通信網としてもよく、異なる通信網としてもよい。
 次に、本発明の第2実施形態に係るサービス提供システムについて説明する。本実施形態のサービス提供システムは、以下に述べるように、作動体としてのロボットによるロボットサービスをその利用者(以下「ユーザ」という)などに提供するものである。
 図6に示すように、このサービス提供システム1Aは、第1実施形態の制御システム1と同様に、多数のロボット2(4つのみ図示)、制御プラットフォーム5、クライアントサーバ7及び複数のユーザ端末8(1つのみ図示)などを備えている。
 まず、多数のロボット2の各々について説明する。各ロボット2は、図7に示すように、コントローラ2a、通信装置2b、動作装置2c及びセンサ装置2dなどを備えている。                                                  
 コントローラ2aは、通信装置2b及び動作装置2cを制御するためのものであり、プロセッサ、ストレージ及びI/Oインターフェース(いずれも図示せず)などを備えたコンピュータで構成されている。コントローラ2aは、AI学習機能を備えており、各ロボット2の動作中、このAI学習機能により、各ロボット2の動作特性が形成される。
 通信装置2bは、無線通信網である通信網3aを介して、クラウドコンピューティング(以下「クラウド」という)4内の制御プラットフォーム5に接続されており、それにより、制御プラットフォーム5との間で無線通信可能に構成されている。
 この通信装置2bには、通信業者と契約済みの1つのSIMカード(図示せず)が内蔵されており、このSIMカードは、1つの識別番号で通信業者と契約されている。それにより、通信装置2bは、この識別番号を識別情報として、制御プラットフォーム5との間で無線通信を実行する。
 また、動作装置2cは、各種動作を実行するための装置であり、具体的には、6自由度アーム、3本指ハンド及びスピーカなどのうちの少なくとも1つの装置と、ロボット2が移動するための移動装置などで構成されている。
 さらに、センサ装置2dは、ロボット2の周辺環境状態を表す動作環境情報などを検出するためのものであり、具体的には、高解像度カメラ、望遠カメラ、赤外線カメラ、金蔵探知センサ、マイクロフォン及びGPS(いずれも図示せず)などのうちの少なくとも1つの装置で構成されている。
 なお、図6には、多数のロボット2として人型ロボットタイプのものが示されているが、本実施形態の多数のロボット2は、人型ロボットよりも単純な構造(図示せず)を有しており、単一の所定動作を実行するタイプのものと、複数の所定動作を実行するタイプのものとで構成されている。これらのロボット2の仕様などについては後述する。
 また、本実施形態の場合、多数のロボット2のうちの、複数のロボット2で構成されるロボット群を1つとして、複数のロボット群が設けられている。複数のロボット群の各々は、複数のロボット2が互いに異なる所定動作を実行することによって、所定のサービスを実行するように構成されている。これらのロボット群については後述する。
 一方、制御プラットフォーム5は、上記のロボット群の制御などを実行するものであり、具体的には、サーバで構成されている。制御プラットフォーム5は、図8に示すように、プロセッサ5a、メモリ5b、ストレージ5c、I/Oインターフェース5d及び通信装置5eなどを備えている。
 このメモリ5bは、RAM、E2PROM及びROMなどで構成されており、その内部には、後述するデータベースなどが記憶されている。
 また、通信装置5eは、前述したように、通信網3aを介して前述したロボット2に接続されているとともに、通信網3b,3cを介してクラウド6内のクライアントサーバ7及びユーザ端末8にそれぞれ接続されている。これらの通信網3b,3cはいずれもインターネットで構成されている。
 以上の構成により、制御プラットフォーム5は、通信装置5eを介して、ロボット2、クライアントサーバ7及びユーザ端末8との間で相互に通信可能に構成されている。このクライアントサーバ7には、制御プラットフォーム5内の各種データが保存される。
 さらに、複数のユーザ端末8の各々は、パーソナルコンピュータで構成されており、入力装置8a、ディスプレイ8b及び通信装置(図示せず)などを備えている。入力装置8aは、キーボード及びマウスなどで構成されている。なお、本実施形態では、入力装置8aが入力インターフェースに相当し、ディスプレイ8bが出力インターフェースに相当する。
 このユーザ端末8では、ロボットサービスの構築者又はユーザによる入力装置8aの操作により、通信装置を介して、制御プラットフォーム5との間でのデータ送受信が実行される。
 ロボットサービスの構築者(以下「サービス構築者」という)は、後述するように、ロボットサービスレシピを作成(構築)するために、ユーザ端末8を介して制御プラットフォーム5との間でデータの送受信動作を実行する。
 一方、ユーザは、後述するように、ロボットサービスを利用するために、ユーザ端末8を介して制御プラットフォーム5との間でデータの送受信動作を実行する。それにより、ユーザは、希望するサービスを実行可能な複数のロボット群の中から、1つのロボット群を選択することができる。
 次に、図9を参照しながら、本実施形態のサービス提供システム1Aにおけるロボット2、制御プラットフォーム5及びユーザ端末8の機能的な構成について説明する。まず、ユーザ端末8の機能的な構成について説明する。ユーザ端末8は、通信モジュール80(端末側通信部)を備えており、この通信モジュール80は、具体的には、前述した通信装置によって構成されている。
 この通信モジュール80は、制御プラットフォーム5の後述する通信モジュール50との間で通信を実行する機能を備えている。ユーザ端末8の場合、サービス構築者又はユーザは、前述した入力装置8aを操作することにより、2つの通信モジュール80,50を介して、制御プラットフォーム5にアクセスすることができる。
 次に、制御プラットフォーム5の機能的な構成について説明する。制御プラットフォーム5は、図9に示すように、通信モジュール50及びCIブレインモジュール51を備えている。なお、本実施形態では、通信モジュール50が通信部に相当し、CIブレインモジュール51がサービスデータ記憶部、要求サービス認識部、可能作動体群決定部及びスケジュール決定部に相当する。
 この通信モジュール50は、具体的には、前述した通信装置5eによって構成されており、上述したユーザ端末8の通信モジュール80及び後述するロボット2の通信モジュール20との間で通信を実行する機能を備えている。
 また、CIブレインモジュール51は、具体的には、前述したプロセッサ5a、メモリ5b及びストレージ5cで構成されている。さらに、CIブレインモジュール51は、機能的な構成として、検索部52、ロボット仕様データベース(図9では「ロボット仕様DB」と表記)53、リスト作成部54及びサービスレシピデータベース(図9では「サービスレシピDB」と表記)55を備えている。
 この検索部52は、後述するように、要件信号をユーザ端末8から受信した際、ロボット仕様データベース53を検索することにより、要件信号における要件を満たすロボットを検索するものである。また、ロボット仕様データベース53には、多数のロボット2の仕様(後述する図11参照)がデータベースとして記憶されている。
 さらに、リスト作成部54は、後述するように、サービスレシピデータベース55を参照することにより、ロボット群のリスト(後述する図16参照)を作成するものである。一方、サービスレシピデータベース55には、警備サービス、受付サービス及び搬送サービスなどのサービスレシピ(後述する図14参照)が記憶されている。
  次に、ロボット2の機能的な構成について説明する。図9に示すように、ロボット2は、通信モジュール20、ローカルブレインモジュール21、ジョブ分解モジュール22、タスク実行モジュール23及びセンサモジュール24を備えている。
 この通信モジュール20(作動体受信部)は、具体的には、前述した通信装置2bによって構成されており、制御プラットフォーム5との間で信号を送受信する機能などを備えている。
 また、3つのモジュール21~23は、具体的には、前述したコントローラ2aで構成されている。ローカルブレインモジュール21は、制御プラットフォーム5から後述するジョブ指令信号を受信したときに、このジョブ指令信号におけるジョブをジョブ分解モジュール22に出力する機能を備えている。
 一方、ジョブ分解モジュール22は、ジョブとタスクの関係を定義したリンクデータを記憶しており、ローカルブレインモジュール21からのジョブを、複数のタスクに分解して認識したり、単一のタスクに変換して認識したりするとともに、これらの複数/単一のタスクをローカルブレインモジュール21に出力する機能を備えている。
 また、ローカルブレインモジュール21は、ジョブ分解モジュール22からの複数/単一のタスクをタスク実行モジュール23に出力する機能をさらに備えている。
 一方、タスク実行モジュール23(動作実行部)は、ローカルブレインモジュール21からの複数/単一のタスクに応じて、ロボット2の動作装置2cを制御する機能を備えている。
 さらに、センサモジュール24は、具体的には、前述したセンサ装置2dで構成されており、動作装置2cによるタスクの実行状態を表すタスク情報及び前述した動作環境情報を検出して、それらの情報をローカルブレインモジュール21に出力する。
 また、ローカルブレインモジュール21は、センサモジュール24からのタスク情報及び動作環境情報を、通信モジュール20を介して、制御プラットフォーム5に送信する機能を備えている。
 次に、図10を参照しながら、サービスレシピ(サービスデータ)の作成処理について説明する。この処理は、各種ロボットサービスのサービスレシピを作成(構築)するものであり、サービス構築者によるユーザ端末8の操作と、これに伴うユーザ端末8と制御プラットフォーム5との間の通信動作とによって実行される。
 同図10に示すように、まず、ユーザ端末8の入力装置8aがサービス構築者によって操作されることにより、各種ロボットサービスの要件が入力される(図10/STEP21)。この場合の要件は、以下に述べるようにサービス構築者によって決定される。
 一例として、ロボットサービスが警備ロボットサービスである場合の要件の決定手法について説明する。まず、サービス構築者によって、警備ロボットサービスにおける「巡回する動作」及び「ごみ箱の中身を確認する動作」のシナリオとして、例えば、下記のサービスシナリオ(A1)~(A7)及びサービスシナリオ(B1)~(B5)がそれぞれ作成される。
[巡回する動作(例えば、巡回ロボット)]
(A1)巡回ルートを決定する。
(A2)不審者情報を入力する。
(A3)不審者を見つける。
(A4)不審者を通報する。
(A5)巡回検査対象物を入力する。
(A6)巡回検査対象物(ごみ箱)を見つける。
(A7)巡回検査対象物(ごみ箱)の中身確認を依頼する。
[ごみ箱の中身を確認する動作(例えば、検査ロボット、検査支援ロボット)]
(B1)ごみ箱まで移動する。
(B2)ごみ箱の蓋(3kg)を開ける。
(B3)ごみ箱の中をカメラで確認する。
(B4)ごみ箱の中をセンサで確認する。
(B5)ごみ箱の蓋を閉める。
 次いで、以上のサービスシナリオ(A1)~(A7),(B1)~(B5)を実行するのに必要な要件として、下記の要件(C1)~(C4)がサービス構築者によって決定される。
(C1)高解像度・望遠カメラで不審者などを検査する。
(C2)ごみ箱における3kgの蓋を持ち上げる。
(C3)赤外線カメラで検査する。
(C4)金属探知センサで検査する。
 以上のように決定された要件(C1)~(C4)がサービス構築者による入力装置8aの操作によってユーザ端末8に入力されると、これらの要件(C1)~(C4)を表す要件信号がユーザ端末8から制御プラットフォーム5に送信される(図10/STEP22)。
 制御プラットフォーム5は、この要件信号を受信すると、ロボットを検索する(図10/STEP23)。具体的には、前述した検索部52が、要件(C1)~(C4)に応じてロボット仕様データベース53を検索することにより、これらの要件(C1)~(C4)を満たすロボットを検索する。このロボット仕様データベース53には、図11に示すような各種のロボット2I,2E,…の詳細な仕様データが記憶されている。
 このロボット仕様データベース53を検索することにより、要件(C1)~(C4)を満たすロボットの検索結果として、例えば、図12に一覧で示すようなロボット2A~2Lの検索結果が取得される。
 このように要件(C1)~(C4)を満たすロボット2A~2Lの検索結果が取得されると、これらの検索結果を表す検索結果信号が制御プラットフォーム5からユーザ端末8に送信される(図10/STEP24)。
 ユーザ端末8は、この検索結果信号を受信すると、ロボット2A~2Lの検索結果をディスプレイ8bに表示する(図10/STEP25)。
 次いで、サービス構築者は、ロボット2A~2Lの検索結果がディスプレイ8bに表示されている状態で、入力装置8aを操作することにより、要件(C1)~(C4)を満たすロボットの組合せ(以下「ロボット群」という)を選定する(図10/STEP26)。
 この場合、例えば、警備サービスを実行するロボット群として、図13に示すように、3つのロボット2C,2E,2Iで構成されたロボット群が選定されるとともに、その選定結果に対して、これらのロボット2C,2E,2Iによって実行されるタスク、サービスの種類、動作及びサービス提供場所などの情報がタグ付けされる。また、図示しないが、ロボット2C,2E,2Iによって実行されるタスクは、サービス構築者によってロボット2C,2E,2Iにそれぞれ実装される。
 以上のように、ロボット群が選定されると、その選定結果を表す選定結果信号がユーザ端末8から制御プラットフォーム5に送信される(図10/STEP27)。
 制御プラットフォーム5は、この選定結果信号を受信すると、この選定結果信号における選定結果を、サービスレシピの一部として、サービスレシピデータベース55に記憶する(図10/STEP28)。
 以上のSTEP21~28を繰り返し実行することにより、多数のサービスレシピが作成され、これらがサービスレシピデータベース55内に記憶される。例えば、図14に示すように、警備サービス、受付サービス及び搬送サービスなどのサービスレシピが作成され、サービスレシピデータベース55内に記憶される。
 なお、以上のように、サービスレシピを作成する際、ユーザ端末8に代えて、図示しないパソコン端末を制御プラットフォーム5に直接、接続し、これをサービス構築者が操作することによって、サービスレシピを作成するように構成してもよい。
 次に、図15を参照しながら、ロボットサービス利用処理について説明する。この処理は、ユーザが所定のロボットサービスを利用したいときに実行されるものである。この処理では、以下に述べるように、ロボットサービスを実行可能なロボット群がユーザによって選択されるとともに、そのロボット群の動作スケジュールが制御プラットフォーム5によって決定される。
 同図15に示すように、まず、ユーザ端末8では、その入力装置8aがユーザによって操作されることにより、ユーザのリクエストが入力される(図15/STEP30)。以下、「オフィスで、お茶出しのロボットサービスを実施したい」というユーザのリクエストがユーザ端末8に入力された場合を例にとって説明する。
 このようにリクエストがユーザ端末8に入力されると、それを表すリクエスト信号がユーザ端末8から制御プラットフォーム5に送信される(図15/STEP31)。
 制御プラットフォーム5は、このリクエスト信号を受信すると、ロボット群のリストを作成する(図15/STEP32)。具体的には、前述したリスト作成部54が、リクエスト信号におけるリクエストの内容に基づき、前述したサービスレシピデータベース55を参照することにより、ユーザによってリクエストされたサービス(以下「リクエストサービス」という)を実現可能なロボット群のリストを作成する。なお、以下の説明では、をリクエストサービスを実現可能なロボット群を適宜、「可能ロボット群」という。
 すなわち、リスト作成部54は、サービスレシピデータベース55内に記憶されたロボット群のサービス(警備サービス、受付サービス及び搬送サービス)と、各ロボットのタグ(タスク、サービスの種類、動作及びサービス提供場所)とに基づいて、可能ロボット群のリストを作成する。
 この可能ロボット群のリストは、例えば図16に示すようなものとなる。同図に示すリストでは、3つのロボット2N,2E,2Oによって第1のロボット群が構成され、3つのロボット2N,2E,2Pによって第2のロボット群が構成されている。また、このリストの場合、第1及び第2のロボット群以外の複数のロボット群(図示せず)を含むように作成される。なお、以下の説明では、4つのロボット2N,2E,2O,2Pの各々を「各ロボット2」という。
 さらに、同図16に示すように、このリストには、各ロボット2における機能仕様及び特性仕様が記載される。この機能仕様は、各ロボット2の機能的な仕様(マイク及びアームの性能、ロボット自体の耐荷重など)を表すものである。なお、図示しないが、機能仕様としては、各ロボット2のバッテリの充電率SOCが記載されるとともに、各ロボット2が1つのビル内に存在している場合には各ロボット2が現時点で位置するビルの階数、各ロボット2の使用可能な時間帯、各ロボット2が現在使用可能であるかどうかなどのデータなども記載される。
 さらに、特性仕様は、各ロボット2の各種の特性を表すものであり、具体的には、各ロボット2が実行可能な各種サービスレシピ、各ロボット2のタスク、各ロボット2の動作特性などが記載される。例えば、各種サービスレシピとしては、受付サービス、警備サービス及び搬送サービスなどが表示され、タスクとしては、受付を行う、ごみ箱の蓋を開ける、及び搬送を行うなどが記載される。
 さらに、各ロボット2の動作特性としては、速いが雑な動きをする特性、遅いが丁寧な動きをする特性、フランクな応答をする特性、丁寧な応答をする特性、空港での使用に適している特性、カフェでの使用に適している特性などの、人間が見て判断できるようなロボットの動作特性が記載される。これらの動作特性は、前述したように、各ロボット2の動作中、コントローラ2aのAI学習機能によって形成される。
 以上のように、ロボット群のリストが作成されると、これを表すリスト信号(第1データ)が制御プラットフォーム5からユーザ端末8に送信される(図15/STEP33)。
 ユーザ端末8は、このリスト信号を受信すると、図16に示すような、可能ロボット群のリストをディスプレイ8bに表示する(図15/STEP34)。
 次いで、ユーザによる入力装置8aの操作により、ディスプレイ8bに表示されたリストにおける複数のロボット群の中から、1つのロボット群が選択される(図15/STEP35)。例えば、お茶出しのロボットサービスの場合、お茶の搬送を実施するロボットは、耐荷重5kgの性能を備えていれば十分であるので、第1ロボット群が選択される。
 なお、ユーザが上記のようにロボット群を選択する際、ディスプレイ8bに表示されたリストにおける複数の可能ロボット群の仕様に満足できないときには、以下に述べるように、ユーザが新たな可能ロボット群を作成し、これを選択したロボット群とするように構成してもよい。
 すなわち、ユーザは、ユーザ端末8の入力装置8aを操作することにより、1つのロボット群を選択するとともに、そのロボット群における満足できない仕様のロボット2を選択する。次いで、ユーザは、満足できない仕様のロボット2を制御プラットフォーム5のロボット仕様データベース53内のいずれかのロボット2と置き換えることにより、新たなロボット群を作成し、これを選択したロボット群とする。
 以上のように、1つのロボット群がユーザによって選択されると、それを表す選択結果信号(第2データ)がユーザ端末8から制御プラットフォーム5に送信される(図15/STEP36)。
 制御プラットフォーム5は、この選択結果信号を受信すると、CIブレインモジュール51において、この選択結果信号におけるロボット群の動作スケジュールを以下に述べるように作成する(図15/STEP37)。
 まず、CIブレインモジュール51では、「お茶出しサービス」が「注文受付ジョブ」、「第1移動ジョブ」、「お茶取りジョブ」、「第2移動ジョブ」及び「到達報知ジョブ」に分解して認識される。
 次いで、CIブレインモジュール51では、これらの「注文受付ジョブ」及び「到達報知ジョブ」がロボット2Nに割り当てられ、「お茶取りジョブ」がロボット2Eに割り当てられる。さらに、「第1移動ジョブ」及び「第2移動ジョブ」がロボット2Oに割り当てられる。
 そして、CIブレインモジュール51では、以上の5つのジョブを含むジョブ指令信号(後述する注文受付指令信号など)の、3つのロボット2N,2E,2Oへの送信スケジュールが決定される。すなわち、3つのロボット2N,2E,2Oからなるロボット群の動作スケジュールが作成される。なお、本実施形態では、ジョブ指令信号が動作スケジュール信号に相当する。
 このサービス提供システム1Aでは、以上のように、動作スケジュールがCIブレインモジュール51で作成された場合、3つのロボット2N,2E,2Oの制御処理が図17に示すように実行される。
 同図に示すように、まず、注文受付指令信号が制御プラットフォーム5からロボット2Nに送信される(図17/STEP40)。この注文受付指令信号は、上述した「注文受付ジョブ」を含む信号である。
 ロボット2Nは、この注文受付指令信号を受信した場合、以下に述べるように、注文受付処理を実行する(図17/STEP41)。まず、ジョブ分解モジュール22において、注文受付指令信号に含まれる「注文受付ジョブ」が「注文受付タスク」に変換して認識される。
 次いで、タスク実行モジュール23により、ロボット2Nの動作装置2cが「注文受付タスク」に応じて制御される。具体的には、動作装置2cのカメラによって、来客が視認され、動作装置2cのスピーカから挨拶が発音されるとともに、来客の注文を表す音声が動作装置2cのマイクロフォンで受信される。
 ロボット2Nは、以上のように、注文受付処理を実行した後、注文受付終了信号を制御プラットフォーム5に送信する(図17/STEP42)。この注文受付終了信号は、上述した来客の注文内容(例えば紅茶)を表す信号である。
 制御プラットフォーム5は、この注文受付終了信号を受信した場合、第1移動指令信号をロボット2Oに送信する(図17/STEP43)。この第1移動指令信号は、前述した「第1移動ジョブ」を含む信号である。
 ロボット2Oは、この第1移動指令信号を受信した場合、以下に述べるように、第1移動処理を実行する(図17/STEP44)。まず、ジョブ分解モジュール22において、第1移動指令信号に含まれる「第1移動ジョブ」が「第1移動タスク」に変換して認識される。
 次いで、タスク実行モジュール23によって、ロボット2Oの動作装置2cが「第1移動タスク」に応じて制御される。具体的には、ロボット2Oがロボット2Eの近傍まで移動するように、動作装置2cが制御される。
 以上のように、第1移動処理が実行され、ロボット2Oがロボット2Eの近傍まで移動した場合、第1移動終了信号がロボット2Oから制御プラットフォーム5に送信される(図17/STEP45)。この第1移動終了信号は、ロボット2Oがロボット2Eの近傍まで移動したことを表す信号である。
 制御プラットフォーム5では、この第1移動終了信号を受信した場合、お茶取り指令信号がロボット2Eに送信される(図17/STEP46)。このお茶取り指令信号は、前述した「お茶取りジョブ」を含む信号である。
 ロボット2Eは、このお茶取り指令信号を受信した場合、以下に述べるように、お茶取り処理を実行する(図17/STEP47)。まず、ジョブ分解モジュール22において、お茶取り指令信号に含まれる「お茶取りジョブ」が、「お茶認識タスク」、「お茶つかみタスク」及び「お茶載せタスク」に分解して認識される。
 次いで、タスク実行モジュール23により、「お茶認識タスク」、「お茶つかみタスク」及び「お茶載せタスク」に応じて、ロボット2Eの動作装置2cが以下に述べるように制御される。
 まず、動作装置2cのカメラによって、来客によって注文された「紅茶」のペットボトルが認識される。次いで、「紅茶」のペットボトルが、動作装置2cの3本指ハンドによって把持された後、6自由アームによって、ロボット2Oの載置場所に載置される。
 以上のように、お茶取り処理が実行され、「紅茶」のペットボトルがロボット2Oの載置場所に載置された場合、お茶取り終了信号がロボット2Eから制御プラットフォーム5に送信される(図17/STEP48)。このお茶取り終了信号は、「紅茶」のペットボトルがロボット2Oの載置場所に載置されたことを表す信号である。
 制御プラットフォーム5は、このお茶取り終了信号を受信した場合、第2移動指令信号をロボット2Oに送信する(図17/STEP49)。この第2移動指令信号は、前述した「第2移動ジョブ」を含む信号である。
 ロボット2Oは、この第2移動指令信号を受信した場合、以下に述べるように、第2移動処理を実行する(図17/STEP50)。まず、ジョブ分解モジュール22において、第2移動指令信号に含まれる「第2移動ジョブ」が「第2移動タスク」に変換して認識される。
 次いで、タスク実行モジュール23によって、ロボット2Oの動作装置2cが「第2移動タスク」に応じて制御される。具体的には、ロボット2Oが来客の近傍まで移動するように、動作装置2cが制御される。
 以上のように、第2移動処理が実行され、ロボット2Oが来客の近傍まで移動した場合、第2移動終了信号がロボット2Oから制御プラットフォーム5に送信される(図17/STEP51)。この第2移動終了信号は、ロボット2Oが来客の近傍まで移動したことを表す信号である。
 制御プラットフォーム5は、この第2移動終了信号を受信した場合、到着報知指令信号をロボット2Nに送信する(図17/STEP52)。この到着報知指令信号は、前述した「到着報知ジョブ」を含む信号である。
 ロボット2Nは、この到着報知指令信号を受信した場合、以下に述べるように、到着報知処理を実行する(図17/STEP53)。まず、ジョブ分解モジュール22によって、到着報知指令信号に含まれる「到着報知ジョブ」が、「到着報知タスク」に変換して認識される。
 次いで、タスク実行モジュール23により、「到着報知タスク」に応じて、ロボット2Nの動作装置2cが制御される。具体的には、「紅茶」のペットボトルが到着したことを表す音声が、動作装置2cのスピーカから来客に対して出力される。
 以上のように、到着報知処理が実行され、「紅茶」のペットボトルが到着したことを表す音声が来客に対して出力された場合、到着報知終了信号がロボット2Nから制御プラットフォーム5に送信される(図17/STEP54)。この到着報知終了信号は、「紅茶」のペットボトルが到着したことを報知する音声が、ロボット2Nから来客に対して出力されたことを表す信号である。以上のように、3つのロボット2N,2E,2Oを制御することにより、お茶出しサービスがユーザに提供される。
 以上のように、第2実施形態の制御プラットフォーム5及びサービス提供システム1Aによれば、ユーザのリクエストがユーザ端末8に入力されると、それを表すリクエスト信号がユーザ端末8から制御プラットフォーム5に送信される。それにより、CIブレインモジュール51において、ユーザのリクエストサービスが認識され、リクエストサービスに応じて、前述したサービスレシピデータベース55を参照することにより、リクエストサービスを実現可能なロボット群のリスト(図16参照)が作成される。
 そして、ロボット群のリストを表すリスト信号が制御プラットフォーム5からユーザ端末8に送信されるので、ユーザは、ユーザ端末8を介して、リクエストサービスを実行可能なロボット群の情報を得ることができ、ユーザの利便性を向上させることができる。
 また、ユーザ端末8では、通信モジュール80がリスト信号を受信した際、リスト信号におけるロボット群のリストが、ユーザが認識可能な出力態様でディスプレイ8bに表示されるとともに、各ロボット2の機能仕様及び特性仕様のデータを含むような状態でディスプレイ8bに表示される。そして、ユーザは、入力装置8aを操作することによって、ディスプレイ8bに表示されたロボット群の中から1つのロボット群を選択することができるので、ユーザは、リクエストサービスを実行させるのに最適な1つのロボット群を選択することができる。それにより、ユーザの利便性をより一層、向上させることができる。
 さらに、1つのロボット群が選択された場合、CIブレインモジュール51において、ロボット群の動作スケジュールが決定され、この動作スケジュールに応じて、ロボット群の各ロボット2が制御されるので、リクエストサービスをユーザに適切に提供することができる。
 また、1つのロボット群すなわち複数のロボット2の組合せを制御することによって、ユーザのリクエストサービスが提供可能になるので、1つのロボットでサービスを提供する従来の場合と比べて、ロボット1個当たりの性能及び構造を単純化でき、製造コストを削減することができる。それにより、コストの上昇を抑制しながら、提供サービスの高度化を実現することができる。
 なお、第2実施形態は、図15のSTEP30で、ユーザが「オフィスで、お茶出しのロボットサービスを実施したい」というリクエストをユーザ端末8に入力した場合の例であるが、例えば、図15のSTEP30で、ユーザが「警備を実施したい」というリクエストをユーザ端末8に入力した場合には、図15のSTEP32で、図13に示すようなロボット群のリストが作成される。
 また、第2実施形態は、制御プラットフォーム5として、サーバを用いた例であるが、本発明の制御プラットフォームは、これに限らず、通信部、サービスデータ記憶部、要求サービス認識部及び可能作動体群決定部を備えたものであればよい。例えば、制御プラットフォームとして、分散コンピューティングシステム、又は、クラウドコンピューティングにおける各種のリソースなどを用いてもよい。
 さらに、第2実施形態は、複数の作動体として、複数のロボット2を用いた例であるが、本発明の作動体は、これらに限らず、制御プラットフォームに対して通信可能に接続され、互いに異なる所定動作を実行するものを含んでいればよい。
 例えば、複数の作動体として、移動、加振、駆動、送風、発光、発音及び発臭などの物理的な事象を伴う少なくとも1つの所定動作を実行するものを組み合わせて用いてもよい。また、複数の作動体として、施解錠を自動的に行う施解錠装置と発光装置などを組み合わせて用いてもよい。
 一方、第2実施形態は、ユーザ端末として、パソコンタイプのものを用いた例であるが、本発明のユーザ端末は、これに限らず、制御プラットフォームに対して通信可能に接続され、ユーザによって操作されるものであればよい。例えば、ユーザ端末として、スマートフォン及びタブレットPCなどを用いてもよい。
 さらに、第2実施形態は、作動体である3つのロボットの組合せを作動体群とした例であるが、本発明の作動体群は、これに限らず、2つの作動体の組合せ、又は4つ以上の作動体の組合せを作動体群としてもよい。
 以下、本発明の第3実施形態に係る制御プラットフォームについて説明する。本実施形態の制御プラットフォームは、図18に示すサービス提供システム1Bに適用されたものであり、このサービス提供システム1Bは、ロボットによるロボットサービスをその利用者(以下「ユーザ」という)などに提供するものである。
 図18に示すように、サービス提供システム1Bは、第2実施形態のサービス提供システム1Aと同様に、多数のロボット2(2つのみ図示)、制御プラットフォーム5、クライアントサーバ7及び複数のユーザ端末8(1つのみ図示)などを備えている。
 まず、多数のロボット2の各々について説明する。各ロボット2は、自律移動可能に構成されており、図19に示すように、コントローラ2a、通信装置2b、動作装置2c及びセンサ装置2dなどを備えている。なお、本実施形態では、ロボット2が移動体及び作動体に相当する。
 コントローラ2aは、通信装置2b及び動作装置2cを制御するためのものであり、プロセッサ、ストレージ及びI/Oインターフェース(いずれも図示せず)などを備えたコンピュータで構成されている。コントローラ2aは、AI学習機能を備えており、各ロボット2の動作中、このAI学習機能により、各ロボット2の動作特性が形成される。
 通信装置2bは、無線通信網である通信網3aを介して、クラウドコンピューティング(以下「クラウド」という)4内の制御プラットフォーム5に接続されており、それにより、制御プラットフォーム5との間で無線通信可能に構成されている。
 この通信装置2bには、通信業者と契約済みの1つのSIMカード(図示せず)が内蔵されており、このSIMカードは、1つの識別番号で通信業者と契約されている。それにより、通信装置2bは、この識別番号を識別情報として、制御プラットフォーム5との間で無線通信を実行する。
 また、動作装置2cは、各種動作を実行するための装置であり、具体的には、6自由度アーム、3本指ハンド及びスピーカなどのうちの少なくとも1つの装置と、ロボット2が自律移動するための移動装置などで構成されている。
 さらに、センサ装置2dは、ロボット2の周辺環境情報と、移動速度及び現在位置などの動作環境情報とを取得するためのものであり、具体的には、カメラ、ジャイロセンサ及びGPS(いずれも図示せず)など構成されている。
 なお、図18には、多数のロボット2として人型ロボットタイプのものが示されているが、本実施形態の多数のロボット2は、人型ロボットよりも単純な構造(図示せず)を有しており、単一の所定動作を実行するタイプのものと、複数の所定動作を実行するタイプのものとで構成されている。
 また、本実施形態の場合、多数のロボット2のうちの、複数のロボット2で構成されるロボット群を1つとして、複数のロボット群が設けられている。複数のロボット群の各々は、複数のロボット2が互いに異なる所定動作を実行することによって、所定のサービスを実行するように構成されている。
 一方、制御プラットフォーム5は、上記のロボット群の制御などを実行するものであり、具体的には、サーバで構成されている。図20に示すように、制御プラットフォーム5は、プロセッサ5a、メモリ5b、ストレージ5c、I/Oインターフェース5d及び通信装置5eなどを備えている。このメモリ5bは、RAM、E2PROM及びROMなどで構成されており、その内部には、各ロボット2の仕様が記載されたデータベースなどが記憶されている。
 また、通信装置5eは、前述したように、通信網3aを介して前述したロボット2に接続されているとともに、通信網3b,3cを介してクラウド6内のクライアントサーバ7及びユーザ端末8にそれぞれ接続されている。これらの通信網3b,3cはいずれもインターネットで構成されている。
 以上の構成により、制御プラットフォーム5は、通信装置5eを介して、ロボット2、クライアントサーバ7及びユーザ端末8との間で相互に通信可能に構成されている。このクライアントサーバ7には、制御プラットフォーム5内の各種データが保存される。
 さらに、複数のユーザ端末8の各々は、パーソナルコンピュータで構成されており、入力装置8a、ディスプレイ8b及び通信装置(図示せず)などを備えている。入力装置8aは、キーボード及びマウスなどで構成されている。なお、本実施形態では、ユーザ端末8が外部機器に相当する。
 このユーザ端末8では、ユーザによる入力装置8aの操作により、通信装置を介して、制御プラットフォーム5との間でのデータ送受信が実行される。このユーザ端末8の場合、ユーザがロボットサービスの利用を希望するときには、ユーザ端末8の操作により制御プラットフォーム5との間でデータの送受信動作を実行することによって、希望するサービスを実行可能な複数のロボット群の中から、1つのロボット群を選択できるように構成されている。
 また、ユーザは、後述する混雑度マップ及び混雑度データの参照を希望する場合には、ユーザ端末8の操作により、混雑度マップ及び混雑度データがディスプレイ8b上に表示されるように構成されている。
 次に、図21を参照しながら、第3実施形態のサービス提供システム1Bにおけるロボット2、制御プラットフォーム5及びユーザ端末8の機能的な構成について説明する。まず、ユーザ端末8の機能的な構成について説明する。ユーザ端末8は、通信モジュール80を備えており、この通信モジュール80は、具体的には、前述した通信装置によって構成されている。
 この通信モジュール80は、制御プラットフォーム5の後述する通信モジュール50との間で通信を実行する機能を備えている。ユーザ端末8では、サービス構築者又はユーザは、前述した入力装置8aを操作することにより、2つの通信モジュール80,50を介して、制御プラットフォーム5にアクセスすることができる。
 次に、制御プラットフォーム5の機能的な構成について説明する。制御プラットフォーム5は、図21に示すように、通信モジュール50、CIブレインモジュール51、サービス生成モジュール52、データ蓄積モジュール53及び混雑度マップ作成モジュール54を備えている。
 なお、本実施形態では、通信モジュール50が送信部に相当し、CIブレインモジュール51がデータ取得部に相当し、データ蓄積モジュール53が記憶部に相当し、混雑度マップ作成モジュール54が、低速位置データ選択部、混雑度合パラメータ算出部及び表示データ作成部に相当する。
 この通信モジュール50は、具体的には、前述した通信装置5eによって構成されている。この通信モジュール50は、ロボット群を制御する際、上述したユーザ端末8の通信モジュール80及びロボット2の後述する通信モジュール20との間で通信を実行する機能を備えている。
 通信モジュール50では、後述する混雑度送信処理の実行中、混雑度マップ及び混雑度データを含むマップ信号がユーザ端末8の通信モジュール80に送信される。それにより、ユーザ端末8の利用者は、この混雑度マップ及び混雑度データをディスプレイ8b上で視認することができる。さらに、通信モジュール50は、後述する情報データ信号を通信モジュール20から受信した場合、これをCIブレインモジュール51に出力する。
 また、3つのモジュール51~54は、具体的には、前述したプロセッサ5a、メモリ5b及びストレージ5cで構成されており、CIブレインモジュール51は、以下に述べるような複数の機能を備えている。
 まず、CIブレインモジュール51は、ユーザ端末8との通信により、ユーザが希望するサービスを認識し、サービス生成モジュール52にアクセスしてデータベースを参照することにより、そのサービスを実行可能なロボット群を検索するとともに、その検索結果をユーザ端末8に送信する機能を備えている。
 さらに、CIブレインモジュール51は、サービスを実行するロボット群がユーザによって選択された場合、サービスを複数のジョブに分解して、それら複数のジョブの各々を、ロボット群における複数のロボット2の各々に割り当てる機能を備えている。
 また、CIブレインモジュール51は、そのように割り当てたジョブを各ロボット2が適切に実行できるように、ジョブを含む指令信号を各ロボット2に送信するスケジュールを決定する機能を備えている。
 さらに、CIブレインモジュール51は、情報データ信号が通信モジュール50から入力された場合、情報データ信号に含まれる各ロボット2の稼働情報、各サービスの実行情報(時間及び回数など)、及び各ロボット2の動作環境情報(移動速度及び現在位置など)などの情報データをデータ蓄積モジュール53に出力する。
 一方、サービス生成モジュール52は、サービス提供システム1Bに設けられている複数のロボット群のデータと、これらの複数のロボット群が実行可能なサービスと複数のロボット群とをリンク付けたリンクデータなどを記憶する機能を備えている。
 また、このサービス生成モジュール52は、ユーザがユーザ端末8を介してサービス生成モジュール52にアクセスすることにより、上述したリンクデータ及び複数のロボット群のデータなどを編集できる機能を備えている。さらに、サービス生成モジュール52は、複数のロボット群をモニタリングする機能を備えている。
 さらに、データ蓄積モジュール53は、CIブレインモジュール51から上述した情報データが入力された場合、この情報データを記憶して蓄積する機能と、混雑度マップ作成モジュール54で作成された混雑度マップ(図28参照)及び混雑度データ(図27参照)を記憶して蓄積する機能と、を備えている。
 一方、混雑度マップ作成モジュール54は、データ蓄積モジュール53に記憶された各ロボット2の情報データに基づき、各ロボット2の移動経路における混雑度マップを作成する機能を備えている。この混雑度マップの具体的な作成方法については後述する。
 次に、ロボット2の機能的な構成について説明する。図21に示すように、ロボット2は、通信モジュール20、ローカルブレインモジュール21、ジョブ分解モジュール22、タスク実行モジュール23及びセンサモジュール24を備えている。
 この通信モジュール20は、具体的には、前述した通信装置2bによって構成されている。この通信モジュール20は、後述するように、ロボット2が制御プラットフォーム5によって制御される際、制御プラットフォーム5の前述した通信モジュール50との間で通信を実行する機能を備えている。
 また、3つのモジュール21~23は、具体的には、前述したコントローラ2aで構成されている。ローカルブレインモジュール21は、制御プラットフォーム5からジョブデータ信号を受信したときに、このジョブデータ信号におけるジョブをジョブ分解モジュール22に出力する機能を備えている。
 一方、ジョブ分解モジュール22は、ジョブとタスクの関係を定義したリンクデータを記憶しており、ローカルブレインモジュール21からのジョブを、複数のタスクに分解して認識したり、単一のタスクに変換して認識したりするとともに、これらの複数/単一のタスクをローカルブレインモジュール21に出力する機能を備えている。
 また、ローカルブレインモジュール21は、ジョブ分解モジュール22からの複数/単一のタスクをタスク実行モジュール23に出力する機能をさらに備えている。
 一方、タスク実行モジュール23は、ローカルブレインモジュール21からの複数/単一のタスクに応じて、ロボット2の動作装置2cを制御する機能を備えている。
 さらに、センサモジュール24は、具体的には、センサ装置2dで構成されており、動作装置2cによるタスクの実行状態を表すタスク情報と、ロボット2の周辺環境情報と、移動速度及び現在位置などの動作環境情報とを取得して、それらの情報をローカルブレインモジュール21に出力する機能を備えている。
 また、ローカルブレインモジュール21は、センサモジュール24からのタスク情報、周辺環境情報及び動作環境情報を含む情報データ信号を、通信モジュール20を介して、制御プラットフォーム5に送信する機能を備えている。
 次に、制御プラットフォーム5の混雑度マップ作成モジュール54における、前述した混雑度マップの具体的な作成方法及びその原理について説明する。以上のように構成されたサービス提供システム1Bでは、ユーザが希望するロボットサービスを実行可能な1つのロボット群が選択された場合、1つのロボット群における各ロボット2は、ロボットサービスを提供するために、サービスを提供する所定領域内で個別に移動することになる。
 以下の説明では、各ロボット2が移動する所定領域を図22に示すような平面視矩形の領域であると想定する。この所定領域の平面図22において、ハッチングで示す矩形の要素40は、建物を表しており、それ以外の領域は、ロボット2が移動可能な通路を表している。
 この所定領域内におけるロボット2の位置を、ロボット2の外形を円形に摸擬化して図22の所定領域に投影したときの円の中心点(基準部位)に設定するとともに、直交座標系のx座標値及びy座標値で表すものとする。
 さらに、ロボット2は、その移動速度Vが値0と最大速度Vmaxの間で変更可能であると想定し、移動速度Vの領域すなわち速度域を、低速域、中速域及び高速域の3つの領域に区分する。この場合、V1,V2を0<V1<V2<Vamxが成立する移動速度Vの所定値としたときに、低速域は0≦V<V1の領域として、中速域はV1≦V<V2の領域として、高速域はV2≦V≦Vmaxの領域としてそれぞれ設定される。
 そして、ロボット2の移動速度V、位置及びタイムスタンプを所定周期(本実施形態では1sec)で取得した際、例えば、2基のロボット2R及び2Sにおいて図23に示すデータが得られたと想定する。
 これらの2基のロボット2R,2Sの外形を上述したように円形に摸擬化するとともに、ロボット2R,2Sの位置及び速度域の推移を平面図上にプロットすると、図24に示す結果が得られる。図24に示すロボット2R,2Sの円形でプロットされたデータにおいて、データの円内の「低」及び「中」の文字は、低速域及び中速域の位置データであることをそれぞれ表している。以下、低速域の位置データを「低速位置データ」といい、低速位置データの外形の円を「データ円」という。
 この図24におけるロボット2Rの低速位置データにおいて、最も離間した2つのデータ円に外接する円を描くと、図25に示すような円41が得られる。この円41は、エリアを示すものであるので、以下、「エリア円41」という。この点は、以下のエリア円42においても同様である。さらに、この図24におけるロボット2Sの低速位置データにおいて、最も離間した2つのデータ円に外接する円を描くと、図25に示すようなエリア円42が得られる。
 そして、ロボット2R,2Sの低速位置データにおいて、データ円の少なくとも一部がこのエリア円41内に存在するデータ数を計数した場合、このデータ数がエリア円41内のエリアにおける混雑度CDとして算出される。すなわち、図25の例では、エリア円41内のエリアにおける混雑度CDは、CD=4となる。
 さらに、ロボット2R,2Sの低速位置データにおいて、データ円の少なくとも一部が上記のエリア円42内に存在するデータ数を計数した場合、このデータ数がエリア円42内のエリアにおける混雑度CDとして算出される。すなわち、図25の例では、エリア円42内のエリアにおける混雑度CDは、CD=3となる。なお、本実施形態では、混雑度CDが混雑度合パラメータに相当する。
 また、図25に示すように、エリア円41とエリア円42は両者の一部が互いに重なっているので、このように重なっている2つのエリアを1つのエリアとして見なすとともに、2つのロボット2R,2Sの低速位置データを1つのデータの集合として見なす。そして、2つのロボット2R,2Sの低速位置データにおいて、最も離間した2つのデータ円に外接する円を描くと、図26に示すエリア円43が得られる。
 図26に示すように、このエリア円43内には、ロボット2Rの低速位置データが3個存在し、ロボット2Sの低速位置データが2個存在するので、エリア円43内の混雑度CDは、CD=5となる。第3実施形態では、以上の算出手法によって、混雑度CDが算出される。
 図27は、以上の算出手法によって、所定領域内での全ての箇所での混雑度CDを算出した場合の混雑度データの一例を示している。この混雑度データでは、混雑が9時30分30秒~33秒の間において発生したことを表しており、この混雑度データを、図22の平面図上にプロットした場合、図28に示すような混雑度マップが作成される。
 この図28に示す混雑度マップでは、混雑度CDがエリア円内に表示されていないが、実際の混雑度マップでは、混雑度CDがエリア円内に表示される。したがって、この混雑度マップを参照した場合、ロボット2の混雑がどのエリアで発生しているかと、そのエリアでの混雑度合を容易に目視できることになる。第3実施形態の混雑度マップ作成モジュール54では、以上のように混雑度マップ及び混雑度データが作成される。
 次に、図29を参照しながら、混雑度算出処理について説明する。この混雑度算出処理は、前述した手法によって混雑度データを算出し、混雑度マップを作成するとともに、これら混雑度データ及び混雑度マップを制御プラットフォーム5のメモリ5b内に記憶するものであり、制御プラットフォーム5によって前述した所定周期で実行される。
 同図に示すように、まず、稼働中の全ロボット2から受信した情報データ信号に含まれる情報データを読み込む(図29/STEP61)。この情報データは、前述したように、ロボット2の移動速度及び現在位置などを含むデータである。
 次いで、情報データをメモリ5b内に記憶する(図29/STEP62)。
 次に、混雑度マップの作成タイミングであるか否かを判定する(図29/STEP63)。この場合、前回の混雑度マップを作成した制御タイミングから所定時間が経過しているときには、混雑度マップの作成タイミングであると判定され、それ以外のときには、混雑度マップの作成タイミングでないと判定される。
 この判定が否定(図29/STEP63…NO)で、混雑度マップの作成タイミングでないときには、そのまま本処理を終了する。
 一方、この判定が肯定(図29/STEP63…YES)で、混雑度マップの作成タイミングであるときには、メモリ5b内の情報データに基づき、各ロボット2の速度域及び位置などを算出する(図29/STEP64)。すなわち、前述した図23のようなデータ(タイムスタンプ、位置及び速度域)をロボット2毎に算出する。
 次いで、各ロボット2の速度域及び位置の算出結果を、前述した図24のように2次元座標系にプロットする(図29/STEP65)。
 次に、前述した手法により、エリア円を作成する(図29/STEP66)。この場合、前述したように、各ロボット2のエリア円を作成した際に複数のロボット2のエリア円が互いに重なっているとき(例えば、図25に示す状態のとき)には、複数のロボット2の低速位置データを1つのデータの集合と見なして、1つのエリア円が作成される。
 以上のように、エリア円を作成した後、混雑度データを算出する(図29/STEP67)。この場合、混雑度データとしては、具体的には、前述した図27に示す各種のデータが算出される。
 次いで、混雑度マップを作成する(図29/STEP68)。この場合、混雑度マップは、例えば、前述した図28のように作成されるとともに、図28の各エリア円の中に混雑度CDを表示するように作成される。
 次に、以上のように作成した混雑度マップ及び混雑度データをメモリ5b内に記憶する(図29/STEP69)。その後、本処理を終了する。
 次に、図30を参照しながら、混雑度送信処理について説明する。この混雑度送信処理は、制御プラットフォーム5のメモリ5b内の混雑度マップ及び混雑度データを読み出して、ユーザ端末8に送信するものであり、制御プラットフォーム5によって所定の制御周期で実行される。
 同図に示すように、まず、マップ要求信号をユーザ端末8から受信したか否かを判定する(図30/STEP71)。このマップ要求信号は、混雑度マップを要求する信号であり、ユーザによってユーザ端末8が操作されたときに、ユーザ端末8から制御プラットフォーム5に対して送信されるものである。
 この判定が否定(図30/STEP71…NO)のときには、そのまま本処理を終了する。一方、この判定が肯定(図30/STEP71…YES)で、マップ要求信号をユーザ端末8から受信したときには、混雑度マップ及び混雑度データを、メモリ5b内から読み出す(図30/STEP72)。
 次いで、混雑度マップ及び混雑度データを含むマップ信号をユーザ端末8に送信する(図30/STEP73)。その後、本処理を終了する。
 このように制御プラットフォーム5から送信されたマップ信号がユーザ端末8で受信された場合、ユーザ端末8では、マップ信号に含まれる混雑度マップがディスプレイ8b上に表示されることになる。それにより、ユーザは、所定領域におけるロボット2の混雑度をディスプレイ8b上で参照することができる。
 以上のように、第3実施形態の制御プラットフォーム5によれば、各ロボット2の所定領域内での移動速度及び位置が情報データとして所定周期で取得され、メモリ5b内に記憶される。そして、混雑度マップを作成する際には、まず、各ロボット2の所定期間内における情報データがメモリ5bから読み出され、速度域及び位置が2次元座標上にプロットされる。その際、各ロボット2の位置は、各ロボット2の外形を円として摸擬的に図形化して2次元座標上に投影したときの各ロボット2の中心位置に設定される。
 次いで、低速位置データのうち、最も離間した2つの低速位置データを通って2つの低速位置データから外方に延びる直線が2つの低速位置データに対応する各ロボット2の外形とそれぞれ交差する2点間の長さを最大長さとするエリア円が作成される。
 その際、複数のロボット2のエリア円が重なっている場合には、複数のロボット2の低速位置データを1つのデータ集合と見なして、1つのデータ集合におけるエリア円が作成される。そして、低速位置データのうち、少なくとも一部がエリア円内に位置するデータの数が混雑度CDとして取得される。
 この場合、各ロボット2は、自律移動するので、低速度で移動している場合には、移動経路が混雑していると推定できる。さらに、エリア円は、最も離間した2つの低速位置データを通って2つの低速位置データから外方に延びる直線が2つの低速位置データに対応する各ロボット2の外形とそれぞれ交差する2点間の長さを最大長さとするものである。
 したがって、少なくとも一部がエリア円内に位置する低速位置データの数は、所定期間内のエリア円周辺における各ロボット2の移動経路の混雑度合を精度よく表すものと推定できる。すなわち、混雑度CDを、各ロボット2の移動経路における混雑度合を精度よく表す値として算出することができる。
 また、各ロボット2の外形が円として摸擬的に図形化されるので、最大長さをより容易に算出することができるとともに、エリア円も容易に作成することができる。それにより、混雑度CDを容易に算出することができる。
 さらに、各ロボット2のエリア円を作成した際に複数のロボット2のエリア円が互いに重なっているときには、複数のロボット2の低速位置データを1つのデータの集合と見なして、1つのエリア円が作成されるので、混雑度CDを2つ以上のロボット2の混雑度合を適切に表す値として算出することができる。
 また、ユーザ端末8を介して、ユーザから混雑度マップ及び混雑度データの参照要求があった場合、混雑度マップ及び混雑度データを含むマップ信号がユーザ端末8に送信され、ユーザ端末8のディスプレイ8bに表示されるので、ユーザは、所定領域におけるロボット2の混雑度を容易に視認することができる。
 なお、第3実施形態は、制御プラットフォームとして、サーバを用いた例であるが、本発明の制御プラットフォームは、これに限らず、複数の移動体の各々との間で無線通信網を介して無線通信を実行し、各移動体を制御するものであればよい。例えば、制御プラットフォームとして、パーソナルコンピュータを用いてもよい。
 また、第3実施形態は、2次元座標系として直交座標系を用いた例であるが、これに代えて、2次元座標系として極座標系を用いてもよい。
 さらに、第3実施形態は、移動体として、ロボット2を用いた例であるが、本発明の移動体は、これに限らず、自律移動可能であるとともに障害物が移動方向に存在する際には移動速度が低下するものであればよい。例えば、移動体として、人型ロボット、又は自動運転車両タイプのロボットを用いてもよい。
 一方、第3実施形態は、複数の作動体として、複数のロボット2を用いた例であるが、本発明の複数の作動体は、これらに限らず、互いに協働してサービスを提供するものであればよい。例えば、複数の作動体として、複数の人型ロボット、又は複数の自動運転車両タイプのロボットを用いてもよい。
 また、第3実施形態は、移動体としてのロボット2の外形を円形に摸擬化して2次元座標上に投影した例であるが、これに代えて、移動体の外形を楕円形又は正多角形に摸擬化して2次元座標上に投影するように構成してもよい。
 さらに、第3実施形態は、移動体の基準部位を2次元座標上に投影した円の中心点とした例であるが、これに代えて、移動体の基準部位を円の中心点以外の部位、例えば円の端部に設定してもよい。
 一方、第3実施形態は、閉曲線として、円を用いた例であるが、本発明の閉曲線は、これに限らず、最も離間した2つの低速位置データに対応する2つの各移動体の外形の外端を含むものであればよい。例えば、閉曲線として、楕円形、多角形又は正多角形を用いてもよい。
 また、第3実施形態は、2次元図形として、円を用いた例であるが、本発明の2次元図形は、これに限らず、低速位置データ間の距離を最大長さとするものであればよい。例えば、2次元図形として、楕円形、多角形又は正多角形を用いてもよい。
 さらに、第3実施形態は、混雑度合パラメータとして、混雑度CDを用いた例であるが、本発明の混雑度合パラメータは、これに限らず、各移動体の移動経路における混雑度合を表すものであればよい。例えば、実施形態では、ロボット2R,2Sの低速位置データにおいて、データ円の少なくとも一部が外接円41又は42内に存在するデータを値1として計数したが、外接円41又は42内に存在するデータ円の面積が半分以下のものを値0.5として計数するように構成してもよい。
 一方、第3実施形態は、混雑度CD及びエリア半径などを混雑度データに記載した例であるが、これに加えて、ロボット2の個体情報(サイズ、形状など)を混雑度データに加えてもよい。このように構成した場合、ロボット2のサイズ又は形状に起因する混雑の発生要因を推定することが可能になる。
 例えば、ロボット2の裾が広い形状である場合、それに起因して、他のロボットが脇を通り抜けられないことで、混雑が発生していると推定することができる。また。ロボットの腕が長い場合、他のロボットが横をすり抜けられることが可能であるものの、他のロボットが移動速度を低下させる必要があることで、混雑が発生していると推定することができる。
 また、第3実施形態は、エリア円が重なっている場合には、2つのロボットの低速位置データを1つの集合データと見なした例であるが、低速位置データのクラスタリングの手法はこれに限らず、混雑度CDが適切に算出できるような手法であればよい。例えば、エリア円が重なっている場合でも、図25に示すように、各々のエリア円に対応する混雑度CDを算出し、これらを表示するように構成してもよい。
  1 制御システム
 1A サービス提供システム
 1B サービス提供システム
  2 ロボット(作動体、移動体)
 2X 挨拶ロボット(作動体)
 2Y お茶取りロボット(作動体)
 2Z 搬送ロボット(作動体)
 20 通信モジュール(作動体受信部)
 22 ジョブ分解モジュール(第3タスク認識部)
 23 タスク実行モジュール(動作実行部)
 3a 通信網(第1通信網)
 3c 通信網(第2通信網)
  5 制御プラットフォーム
 50 通信モジュール(通信部、送信部)
 51 CIブレインモジュール(第1タスク認識部、作動体群認識部、タスク割当部、    サービスデータ記憶部、要求サービス認識部、可能作動体群決定部、スケジュー    ル決定部、データ取得部)
 52 サービス生成モジュール(記憶部)
 53 データ蓄積モジュール(記憶部)
 54 混雑度マップ作成モジュール(低速位置データ選択部、混雑度合パラメータ算出    部、表示データ作成部)
  8 ユーザ端末(外部機器)
 8a 入力装置(入力インターフェース)
 8b ディスプレイ(出力インターフェース)
 80 通信モジュール(端末側通信部)
 CD 混雑度(混雑度合パラメータ)

Claims (17)

  1.  互いに異なる所定動作を実行する複数の作動体を含む少なくとも1つの作動体群が、第1通信網を介して通信可能に接続され、ユーザによって操作される少なくとも1つのユーザ端末が、第2通信網を介して通信可能に接続されるとともに、前記少なくとも1つの作動体群を制御するための制御プラットフォームであって、
     前記少なくとも1つの作動体群及び前記少なくとも1つのユーザ端末との間で通信を実行する通信部と、
     前記少なくとも1つの作動体群と、当該少なくとも1つの作動体群が実行可能な第1タスクとをリンク付けたリンクデータを記憶する記憶部と、
     前記ユーザ端末との通信により、第1タスクを認識する第1タスク認識部と、
     前記ユーザ端末との通信及び前記記憶部の前記リンクデータに基づき、当該第1タスクを実行させるための1つの前記作動体群を認識する作動体群認識部と、
     前記第1タスクを複数の第2タスクとして認識し、当該複数の第2タスクの各々を、前記作動体群認識部によって認識された前記1つの作動体群における前記複数の前記作動体の各々に割り当てるタスク割当部と、
     を備え、
     前記通信部は、前記タスク割当部によって前記各作動体に割り当てられた第2タスクを表す第2タスク信号を前記各作動体に対して送信することを特徴とする制御プラットフォーム。
  2.  請求項1に記載の制御プラットフォームと、
     前記少なくとも1つの作動体群と、
     前記少なくとも1つのユーザ端末と、を備え、
     前記作動体は、
     前記第2タスク信号を受信する作動体受信部と、
     当該第2タスク信号が当該作動体受信部で受信された場合、当該第2タスク信号が表す前記第2タスクを第3タスクとして認識する第3タスク認識部と、
     当該第3タスクに対応する前記所定動作を実行する動作実行部と、
     を備えることを特徴とする制御システム。
  3.  請求項2に記載の制御システムにおいて、
     前記第3タスク認識部は、前記第2タスクを複数の前記第3タスクとして認識し、
     前記動作実行部は、前記複数の前記第3タスクに対応する複数の前記所定動作を実行することを特徴とする制御システム。
  4.  互いに異なる所定動作を実行する複数の作動体と、ユーザによって操作されるユーザ端末とが通信可能に接続されるとともに、サービスを提供するために、前記複数の作動体を制御する制御プラットフォームであって、
     前記複数の作動体及び前記ユーザ端末との間で通信を実行する通信部と、
     前記複数の作動体の組合せを1つの作動体群とした場合の複数の作動体群と、当該複数の作動体群が実行可能なサービスとの関係を定義したサービスデータを記憶するサービスデータ記憶部と、
     前記ユーザ端末との通信により、前記ユーザによって要求されたサービスである要求サービスを認識する要求サービス認識部と、
     前記要求サービス及び前記サービスデータ記憶部の前記サービスデータに基づき、前記要求サービスを実行可能な前記複数の作動体の組合せを、可能作動体群として決定する可能作動体群決定部と、
     を備え、
     前記通信部は、当該可能作動体群を表す第1データを前記ユーザ端末に送信することを特徴とする制御プラットフォーム。
  5.  請求項4に記載の制御プラットフォームと、
     前記複数の作動体群と、
     前記ユーザ端末と、を備え、
     前記ユーザ端末は、
     前記第1データを受信可能な端末側通信部と、
     当該端末側通信部が前記第1データを受信した際、当該第1データが表す前記可能作動体群を前記ユーザが認識可能な出力態様で出力する出力インターフェースと、
     前記ユーザの操作によって、前記出力インターフェースから出力された前記可能作動体群の1つを選択可能な入力インターフェースと、
     を備えることを特徴とするサービス提供システム。
  6.  請求項5に記載のサービス提供システムにおいて、
     前記サービスデータには、前記複数の作動体群における各々の前記作動体の機能を表す機能仕様及び当該各作動体の特性を表す特性仕様のデータが含まれており、
     前記出力インターフェースは、前記第1データが表す前記可能作動体群を、当該可能作動体群の各々の前記機能仕様及び前記特性仕様のデータを含むような前記出力態様で出力することを特徴とするサービス提供システム。
  7.  請求項5に記載のサービス提供システムにおいて、
     前記ユーザ端末の前記端末側通信部は、前記入力インターフェースによって前記1つの可能作動体群が選択された場合、当該1つの可能作動体群を表す第2データを前記制御プラットフォームに送信し、
     前記制御プラットフォームは、
     前記第2データを前記通信部で受信した際、前記1つの可能作動体群が前記サービスを実行するように、当該1つの可能作動体群における各々の前記作動体の動作スケジュールを決定するスケジュール決定部をさらに備え、
     前記通信部は、前記動作スケジュールを表す動作スケジュール信号を前記1つの可能作動体群における前記各作動体に対して送信し、
     前記各作動体は、
     前記動作スケジュール信号を受信する作動体受信部と、
     当該動作スケジュール信号が当該作動体受信部で受信された場合、当該動作スケジュールに応じて、前記所定動作を実行する動作実行部と、
     を備えることを特徴とするサービス提供システム。
  8.  ユーザによってユーザ端末を介してサービスが要求された場合、互いに異なる所定動作を実行する複数の作動体の組合せを1つの作動体群とした場合の複数の作動体群及びユーザ端末が通信可能に接続された制御プラットフォームを介して、前記複数の作動体群のいずれかを制御することにより、前記サービスを提供するサービス提供方法であって、
     前記複数の作動体群の各々と、当該各作動体群が実行可能な前記複数のサービスのいずれかとの関係を定義したサービスデータを前記制御プラットフォームに記憶する記憶ステップと、
     前記ユーザによって前記サービスが要求された際、当該サービスに応じて、前記サービスデータを参照することにより、当該サービスを実行可能な前記複数の作動体の組合せを、可能作動体群として前記制御プラットフォームで決定する決定ステップと、
     当該可能作動体群を表す第1データを前記制御プラットフォームから前記ユーザ端末に送信する第1送信ステップと、
     前記第1データを前記ユーザ端末で受信する第1受信ステップと、
     前記第1データを受信した際、当該第1データが表す前記可能作動体群を前記ユーザが認識可能な出力態様で前記ユーザ端末に出力する出力ステップと、
     前記ユーザによる前記ユーザ端末の操作により、前記可能作動体群の1つを選択する選択ステップと、
     を実行することを特徴とするサービス提供方法。
  9.  請求項8に記載のサービス提供方法において、
     前記サービスデータには、前記複数の作動体群における各々の前記作動体の機能を表す機能仕様及び当該各作動体の特性を表す特性仕様のデータが含まれており、
     前記出力ステップでは、前記第1データが表す前記可能作動体群を、当該可能作動体群の各々の前記機能仕様及び前記特性仕様のデータを含むような前記出力態様で前記ユーザ端末に出力することを特徴とするサービス提供方法。
  10.  請求項8に記載のサービス提供方法において、
     前記ユーザ端末の操作によって前記1つの可能作動体群が選択された場合、当該1つの可能作動体群を表す第2データを前記ユーザ端末から前記制御プラットフォームに送信する第2送信ステップと、
     前記第2データを前記制御プラットフォームで受信する第2受信ステップと、
     前記第2データを受信した際、前記1つの可能作動体群が前記サービスを実行するように、当該1つの可能作動体群における各々の前記作動体の動作スケジュールを前記制御プラットフォームで決定する決定ステップと、
     前記動作スケジュールを表す動作スケジュール信号を前記制御プラットフォームから前記1つの可能作動体群における前記各作動体に対して送信する第3送信ステップと、
     前記動作スケジュール信号を前記各作動体で受信する第3受信ステップと、
     当該動作スケジュール信号が受信された場合、前記動作スケジュールに応じて、前記所定動作を前記各作動体で実行する動作実行ステップと、
     を実行することを特徴とするサービス提供方法。
  11.  自律移動可能であるとともに障害物が移動方向に存在する際には移動速度が低下する複数の移動体の各々との間で無線通信網を介して無線通信を実行し、当該各移動体を制御する制御プラットフォームであって、
     前記各移動体の所定領域内での移動速度の離散データと、前記各移動体の外形を摸擬的に図形化して2次元座標上に投影したときの当該各移動体の基準部位の位置の離散データとをそれぞれ移動速度データ及び位置データとして所定周期で取得するデータ取得部と、
     前記各移動体の前記移動速度データ及び前記位置データを記憶する記憶部と、
     当該記憶部に記憶された前記各移動体の前記移動速度データを所定低速域を含む複数の速度域に区分した際の、当該所定低速域にある前記各移動体の前記位置データを低速位置データとして選択する低速位置データ選択部と、
     当該低速位置データ選択部によって選択された前記各移動体の前記低速位置データのうちの所定期間内における前記低速位置データを前記2次元座標上にプロットした場合において、最も離間した2つの前記低速位置データに対応する2つの各移動体の前記外形の外端を含む閉曲線で定義された閉曲線領域内に前記外形の少なくとも一部が位置する前記複数の移動体のいずれかの前記低速位置データの数に応じて、前記各移動体の移動経路における混雑度合を表す混雑度合パラメータを算出する混雑度合パラメータ算出部と、
     を備えることを特徴とする制御プラットフォーム。
  12.  請求項11に記載の制御プラットフォームにおいて、
     前記閉曲線領域は、前記最も離間した2つの前記低速位置データを通って当該2つの前記低速位置データから外方に延びる直線が当該2つの前記低速位置データに対応する前記各移動体の前記外形とそれぞれ交差する2点間の長さを最大長さとする2次元図形で定義される領域であることを特徴とする制御プラットフォーム。
  13.  請求項12に記載の制御プラットフォームにおいて、
     前記移動体の前記外形は、円として摸擬的に図形化され、
     前記基準部位は、前記円の中心点に設定され、
     前記2次元図形は、前記最大長さを直径とする円として作成されることを特徴とする制御プラットフォーム。
  14.  請求項11に記載の制御プラットフォームにおいて、
     前記混雑度合パラメータ算出部は、前記複数の前記移動体のうちの、前記閉曲線領域が互いに重なり合う2つ以上の前記移動体の前記所定期間内における前記低速位置データを1つのデータ集合と見なして、当該1つのデータ集合における前記閉曲線領域を作成することを特徴とする制御プラットフォーム。
  15.  請求項11に記載の制御プラットフォームにおいて、
     前記閉曲線領域を前記所定領域の2次元地図データに重ねて表示した表示データを作成する表示データ作成部と、
     当該表示データを含む表示データ信号を外部機器に送信する送信部と、
     をさらに備えることを特徴とする制御プラットフォーム。
  16.  請求項11に記載の制御プラットフォームにおいて、
     前記複数の移動体は、互いに協働してサービスを提供する複数の作動体で構成されていることを特徴とする制御プラットフォーム。
  17.  自律移動可能であるとともに障害物が移動方向に存在する際には移動速度が低下する複数の移動体の各々との間で無線通信網を介して無線通信を実行し、当該各移動体を制御する制御方法であって、
     前記各移動体の所定領域内での移動速度の離散データと、前記各移動体の外形を摸擬的に図形化して2次元座標上に投影したときの当該各移動体の基準部位の位置の離散データとをそれぞれ移動速度データ及び位置データとして所定周期で取得するデータ取得ステップと、
     前記各移動体の前記移動速度データ及び前記位置データを記憶する記憶ステップと、
     当該記憶ステップで記憶された前記各移動体の前記移動速度データを所定低速域を含む複数の速度域に区分した際の、当該所定低速域にある前記各移動体の前記位置データを低速位置データとして選択する低速位置データ選択ステップと、
     当該低速位置データ選択ステップで選択された前記各移動体の前記低速位置データのうちの所定期間内における前記低速位置データを前記2次元座標上にプロットした場合において、最も離間した2つの前記低速位置データに対応する2つの各移動体の前記外形の外端を含む閉曲線で定義された閉曲線領域内に前記外形の少なくとも一部が位置する前記複数の移動体のいずれかの前記低速位置データの数に応じて、前記各移動体の移動経路における混雑度合を表す混雑度合パラメータを算出する混雑度合パラメータ算出ステップと、
     を備えることを特徴とする制御方法。
PCT/JP2020/026040 2019-09-02 2020-07-02 制御プラットフォーム、制御システム、サービス提供システム、サービス提供方法及び制御方法 WO2021044720A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE112020004141.7T DE112020004141T5 (de) 2019-09-02 2020-07-02 Steuerungsplattform, steuersystem, dienstbereitstellungssystem, dienstbereitstellungsverfahren und steuerverfahren
CN202080060172.1A CN114365057A (zh) 2019-09-02 2020-07-02 控制平台、控制系统、服务提供系统、服务提供方法和控制方法
US17/637,222 US20220281106A1 (en) 2019-09-02 2020-07-02 Control platform, control system, service providing system, service providing method, and control method

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2019159338A JP7236356B2 (ja) 2019-09-02 2019-09-02 制御プラットフォーム及び制御システム
JP2019-159338 2019-09-02
JP2020-024067 2020-02-17
JP2020024067A JP7431053B2 (ja) 2020-02-17 2020-02-17 制御プラットフォーム、サービス提供システム及びサービス提供方法
JP2020068187A JP7431092B2 (ja) 2020-04-06 2020-04-06 制御プラットフォーム及び制御方法
JP2020-068187 2020-04-06

Publications (1)

Publication Number Publication Date
WO2021044720A1 true WO2021044720A1 (ja) 2021-03-11

Family

ID=74852638

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/026040 WO2021044720A1 (ja) 2019-09-02 2020-07-02 制御プラットフォーム、制御システム、サービス提供システム、サービス提供方法及び制御方法

Country Status (4)

Country Link
US (1) US20220281106A1 (ja)
CN (1) CN114365057A (ja)
DE (1) DE112020004141T5 (ja)
WO (1) WO2021044720A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022224670A1 (ja) * 2021-04-19 2022-10-27 パナソニックIpマネジメント株式会社 情報出力方法、及び、情報出力装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190134554A (ko) * 2019-11-15 2019-12-04 엘지전자 주식회사 동적 장애물을 식별하는 방법 및 이를 구현한 로봇
JP7327225B2 (ja) * 2020-03-13 2023-08-16 オムロン株式会社 ロボット制御システムおよび制御方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005324278A (ja) * 2004-05-13 2005-11-24 Honda Motor Co Ltd ロボット制御装置
JP2007249801A (ja) * 2006-03-17 2007-09-27 Nippon Telegr & Teleph Corp <Ntt> ロボット連携システム
JP2013536095A (ja) * 2010-08-24 2013-09-19 中国科学院深▲しん▼先進技術研究院 クラウドロボットシステムおよびその実現方法
US20160259329A1 (en) * 2015-03-06 2016-09-08 Wal-Mart Stores, Inc. Shopping facility assistance systems, devices and methods

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100073771A (ko) * 2008-12-23 2010-07-01 한국전자통신연구원 네트워크 기반 협업 로봇 시스템에서의 로봇 선택 방법 및 로봇 선택 장치
CN102970193A (zh) * 2011-09-02 2013-03-13 海尔集团公司 智能软件服务平台系统及方法、包含该系统的装置和系统
US10022867B2 (en) * 2014-11-11 2018-07-17 X Development Llc Dynamically maintaining a map of a fleet of robotic devices in an environment to facilitate robotic action
CN105729491B (zh) * 2016-04-01 2018-09-04 纳恩博(北京)科技有限公司 机器人任务的执行方法、装置及系统
US20180130007A1 (en) * 2016-11-06 2018-05-10 Microsoft Technology Licensing, Llc Efficiency enhancements in task management applications
CN108227654A (zh) * 2017-12-28 2018-06-29 顺丰科技有限公司 一种调度服务端、调度装置、机器人系统及调度方法
WO2019171917A1 (ja) 2018-03-05 2019-09-12 日本電気株式会社 情報処理装置、情報処理方法および情報処理プログラム
CN109676611B (zh) * 2019-01-25 2021-05-25 北京猎户星空科技有限公司 多机器人协同服务方法、装置、控制设备及系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005324278A (ja) * 2004-05-13 2005-11-24 Honda Motor Co Ltd ロボット制御装置
JP2007249801A (ja) * 2006-03-17 2007-09-27 Nippon Telegr & Teleph Corp <Ntt> ロボット連携システム
JP2013536095A (ja) * 2010-08-24 2013-09-19 中国科学院深▲しん▼先進技術研究院 クラウドロボットシステムおよびその実現方法
US20160259329A1 (en) * 2015-03-06 2016-09-08 Wal-Mart Stores, Inc. Shopping facility assistance systems, devices and methods

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022224670A1 (ja) * 2021-04-19 2022-10-27 パナソニックIpマネジメント株式会社 情報出力方法、及び、情報出力装置

Also Published As

Publication number Publication date
DE112020004141T5 (de) 2022-07-14
CN114365057A (zh) 2022-04-15
US20220281106A1 (en) 2022-09-08

Similar Documents

Publication Publication Date Title
WO2021044720A1 (ja) 制御プラットフォーム、制御システム、サービス提供システム、サービス提供方法及び制御方法
US9688472B1 (en) Mobile robot manipulator
US11016493B2 (en) Planning robot stopping points to avoid collisions
EP3662338B1 (en) System and method for determining path confidence for unmanned vehicles
EP3525992B1 (en) Mobile robot and robotic system comprising a server and the robot
US9714139B1 (en) Managing inventory items via overhead drive units
ES2827192T3 (es) Sistema de gestión de tareas para una flota de robots móviles autónomos
US10328836B2 (en) Actively balanced mobile drive unit
JP6956192B2 (ja) ロボットアドホックネットワーク
KR20180123725A (ko) 차량용 센서 궤적 플래닝
JP2018520967A (ja) 安定性制御のための傾斜プラットフォーム
US9881277B2 (en) Wrist band haptic feedback system
US11256270B2 (en) Communication systems for self-driving vehicles, and methods of providing thereof
US9604358B1 (en) Secondary robotic catch apparatus and method
CN114174946A (zh) 由监控器管理自主停车机械手队列的方法
JP7431053B2 (ja) 制御プラットフォーム、サービス提供システム及びサービス提供方法
JP2021165875A (ja) 制御プラットフォーム及び制御方法
US20220291696A1 (en) Transport system, control apparatus, transport method, and program
JP7236356B2 (ja) 制御プラットフォーム及び制御システム
Bandyopadhyay Intelligent Vehicles and Materials Transportation in the Manufacturing Sector: Emerging Research and Opportunities: Emerging Research and Opportunities
KR102387778B1 (ko) 매장 픽업 서비스를 제공하기 위한 로봇 시스템 및 그 방법
US20240111585A1 (en) Shared resource management system and method
WO2024090321A1 (ja) 制御方法、制御装置及びプログラム
US20230069625A1 (en) Delivery system
WO2017172347A1 (en) Wrist band haptic feedback system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20860429

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 20860429

Country of ref document: EP

Kind code of ref document: A1