WO2022131335A1 - 制御装置、ロボットシステム及び学習装置 - Google Patents

制御装置、ロボットシステム及び学習装置 Download PDF

Info

Publication number
WO2022131335A1
WO2022131335A1 PCT/JP2021/046542 JP2021046542W WO2022131335A1 WO 2022131335 A1 WO2022131335 A1 WO 2022131335A1 JP 2021046542 W JP2021046542 W JP 2021046542W WO 2022131335 A1 WO2022131335 A1 WO 2022131335A1
Authority
WO
WIPO (PCT)
Prior art keywords
work
information
robot
data
control device
Prior art date
Application number
PCT/JP2021/046542
Other languages
English (en)
French (fr)
Inventor
仁志 蓮沼
雅幸 掃部
武司 山本
Original Assignee
川崎重工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 川崎重工業株式会社 filed Critical 川崎重工業株式会社
Priority to JP2022570057A priority Critical patent/JP7473685B2/ja
Priority to US18/267,309 priority patent/US20240051134A1/en
Priority to CN202180084729.XA priority patent/CN116600952A/zh
Publication of WO2022131335A1 publication Critical patent/WO2022131335A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Definitions

  • This disclosure relates to control devices, robot systems and learning devices.
  • Japanese Patent Application Laid-Open No. 62-199376 discloses a remote manipulation device using a master and a slave. This device creates a procedure plan in which a manual operation part and an automatic operation part are mixed from data indicating the degree of skill of the operator and a work goal, and controls the operation of the slave according to the procedure plan.
  • the operation of the slave which requires the judgment of the operator, may correspond to the manual operation portion disclosed in Japanese Patent Application Laid-Open No. 62-199376.
  • the operator of the manual operation part is required to have operation skills.
  • the control device is a control device that controls a robot to execute a predetermined work by automatic operation, and includes a first processor, wherein the first processor works while the predetermined work is being executed. Acquiring state information including the state of the target work, determining a candidate for a work position related to the work based on the state information, and selecting the work position from the candidates for the work position.
  • the selection request for requesting is transmitted to the operation terminal connected to the operation terminal via the communication network and the information of the selected position which is the selected work position is received from the operation terminal, the selection is performed.
  • the robot is automatically operated according to the position.
  • FIG. 1 is a schematic diagram showing an example of a configuration of a robot system according to an embodiment.
  • FIG. 2 is a diagram showing an example of the configuration of the robot area according to the embodiment.
  • FIG. 3 is a block diagram showing an example of the hardware configuration of the control device according to the embodiment.
  • FIG. 4 is a block diagram showing an example of the functional configuration of the control device according to the embodiment.
  • FIG. 5 is a diagram showing an example of work work information included in the first attribute information according to the embodiment.
  • FIG. 6 is a diagram showing an example of work work information included in the first attribute information according to the embodiment.
  • FIG. 7 is a diagram showing an example of surrounding environment work information included in the second attribute information according to the embodiment.
  • FIG. 1 is a schematic diagram showing an example of a configuration of a robot system according to an embodiment.
  • FIG. 2 is a diagram showing an example of the configuration of the robot area according to the embodiment.
  • FIG. 3 is a block diagram showing an example of the hardware configuration of the control
  • FIG. 8 is a diagram showing an example of a candidate for a gripping position of a presentation target determined for the work to be gripped.
  • FIG. 9 is a diagram showing an example of candidates for the arrangement position of the presentation target determined for the transport vehicle to which the work is transferred.
  • FIG. 10 is a diagram showing a display example of the planned operation of the robot according to the embodiment.
  • FIG. 11A is a flowchart showing an example of the operation of the robot system according to the embodiment.
  • FIG. 11B is a flowchart showing an example of the operation of the robot system according to the embodiment.
  • FIG. 11C is a flowchart showing an example of the operation of the robot system according to the embodiment.
  • FIG. 12 is a block diagram showing an example of the functional configuration of the control device and the learning device according to the modified example.
  • FIG. 1 is a schematic diagram showing an example of the configuration of the robot system 1 according to the embodiment.
  • the robot system 1 is a system that enables a user P, who is an operator at a position away from the robot 110, to operate the robot 110 in a remote access environment.
  • the robot system 1 includes components arranged in one or more robot areas AR and components arranged in one or more user area AUs. Although not limited, in the present embodiment, one robot area AR and a plurality of user area AUs exist as targets of the robot system 1.
  • Robot area AR is an area where one or more robots 110 are arranged.
  • the robot 110 is an industrial robot and performs work.
  • the robot 110 may be a service robot, a construction machine, a tunnel excavator, a crane, a cargo handling vehicle, a humanoid, or the like, instead of the industrial robot.
  • Service robots are robots used in various service industries such as nursing care, medical care, cleaning, security, guidance, rescue, cooking, and product provision.
  • components forming the surrounding environment for the robot 110 to perform work are also arranged.
  • the user area AU is an area where the user P who operates the robot 110 stays.
  • the user area AU is arranged at a position away from the robot area AR, and in the robot system 1, a large number of users P of a large number of user area AUs operate the robot 110 of the robot area AR. be able to.
  • a large number of user area AUs can be located in various locations within the factory premises, including the robot area AR, in various facilities of the company that operates the factory, in various locations throughout Japan, or in various locations around the world. And so on.
  • FIG. 2 is a diagram showing an example of the configuration of the robot area AR according to the embodiment.
  • the robot system 1 has one or more robots 110, peripheral devices 120 of the robot 110, image pickup devices 131 to 134, control devices 140, and robot communication. Includes device 150.
  • the control device 140 is connected to the robot 110, peripheral devices 120, image pickup devices 131 to 134, and the robot communication device 150 via wired communication, wireless communication, or a combination thereof. Any wired or wireless communication may be used.
  • the robot communication device 150 is connected to the communication network N so as to be capable of data communication.
  • the robot system 1 in each user area AU, includes an operation terminal 210, a user communication device 220, and a presentation device 230.
  • the user communication device 220 is connected to the operation terminal 210 and the presentation device 230 via wired communication, wireless communication, or a combination thereof. Any wired or wireless communication may be used.
  • the user communication device 220 is connected to the communication network N so as to be capable of data communication. For example, when a plurality of users P exist in one user area AU, one or more operation terminals 210, one or more presentation devices 230, and one or more user communication devices 220 are arranged in the user area AU. May be done.
  • the robot system 1 includes a server 310 that is connected to the communication network N so as to be capable of data communication.
  • the server 310 manages communication via the communication network N.
  • the server 310 includes a computer device.
  • the server 310 manages authentication, connection, disconnection, and the like of communication between the robot communication device 150 and the user communication device 220.
  • the server 310 stores identification information, security information, and the like of the robot communication device 150 and the user communication device 220 registered in the robot system 1, and uses the information to connect each device to the robot system 1. Authenticate your qualifications.
  • the server 310 manages the transmission and reception of data between the robot communication device 150 and the user communication device 220, and the data may pass through the server 310.
  • the server 310 may be configured to convert the data transmitted from the source into a data format available to the destination.
  • the server 310 may be configured to store and store information, commands, data, and the like transmitted and received between the operation terminal 210 and the control device 140 in the process of operating the robot 110.
  • the server 310 is an example of an intermediary device.
  • the communication network N is not particularly limited, and may include, for example, a local area network (LAN), a wide area network (WAN), the Internet, or a combination of two or more of these.
  • Communication network N includes short-range wireless communication such as Bluetooth (registered trademark) and ZigBee (registered trademark), dedicated network line, dedicated line of telecommunications carrier, public switched telephone network (PSTN), It may be configured to use a mobile communication network, an internet network, satellite communication, or a combination of two or more of these.
  • the mobile communication network may use a 4th generation mobile communication system, a 5th generation mobile communication system, or the like.
  • the communication network N can include one or more networks. In this embodiment, the communication network N is the Internet.
  • the robot 110 includes a robot arm 111 and an end effector 112 attached to the tip of the robot arm 111.
  • the robot arm 111 has a plurality of joints and can operate with multiple degrees of freedom.
  • the robot arm 111 can move the end effector 112 to various positions and postures.
  • the end effector 112 can act on the work W, which is the object of processing.
  • the action of the end effector 112 is not particularly limited, but in the present embodiment, it is an action of gripping the work W.
  • the robot arm 111 includes, but is not limited to, six joints JT1 to JT6 and servomotors RM1 to RM6 as drive devices for driving each of the joints JT1 to JT6.
  • the number of joints of the robot arm 111 is not limited to six, and may be any number of five or less or seven or more.
  • the end effector 112 includes a grip portion 112a capable of gripping operation, and a servomotor EM1 as a drive device for driving the grip portion 112a.
  • the grip portion 112a may include two or more finger-shaped members that perform gripping operation and gripping release operation by driving the servomotor EM1.
  • the drive device of the end effector 112 does not require the servomotor EM1 and may have a configuration according to the configuration of the end effector 112. For example, when the end effector 112 has a configuration in which the work W is attracted by a negative pressure, the end effector 112 is connected to a negative pressure generating device as a driving device thereof.
  • the peripheral device 120 is arranged around the robot 110.
  • the peripheral device 120 may be operated in cooperation with the operation of the robot 110.
  • the operation of the peripheral device 120 may be an operation that gives an action to the work W, or may be an operation that does not give the action.
  • the peripheral device 120 includes a belt conveyor 121 capable of transporting the work W and an automatic guided vehicle capable of autonomously transporting the work W (hereinafter, simply referred to as “transport vehicle”). ) 122A and 122B are included.
  • the automatic guided vehicle may be an AGV (Automatic Guided Vehicle).
  • Peripheral device 120 is not essential. In the following, the names of "belt conveyor 121" and “conveyor vehicles 122A and 122B" may be used when they are individually expressed, and the names of "peripheral equipment 120" may be used when they are collectively expressed. ..
  • the image pickup devices 131 to 134 include a camera that captures a digital image, and are configured to send data of the image captured by the camera to the control device 140.
  • the control device 140 processes the image data captured by the image pickup devices 131 to 134 into network transmittable data, and sends the image data to the operation terminal 210, the presentation device 230, or both of the user area AU via the communication network N. It may be configured as follows.
  • the camera may be a camera capable of capturing an image for detecting a three-dimensional position of the subject with respect to the camera such as a distance to the subject.
  • the three-dimensional position is a position in the three-dimensional space.
  • the camera may have a configuration such as a stereo camera, a monocular camera, a TOF camera (Time-of-Flight-Camera), a pattern light projection camera such as fringe projection, or a camera using a light cutting method. good.
  • a stereo camera is used.
  • the image pickup device 131 is arranged near the tip of the robot arm 111 and is oriented toward the end effector 112.
  • the image pickup apparatus 131 can image the work W on which the end effector 112 acts.
  • the image pickup apparatus 131 may be arranged at any position of the robot 110 as long as the work W can be imaged.
  • the image pickup device 132 is fixedly arranged in the robot area AR, and images the robot 110 and the belt conveyor 121, for example, from above.
  • the image pickup devices 133 and 134 are fixedly arranged in the robot area AR, respectively, and take images of the transport vehicles 122A and 122B waiting at the standby place near the robot 110, for example, from above.
  • the image pickup devices 131 to 134 may be provided with a pan head that supports each camera and can operate so as to freely change the direction of the camera.
  • the operation of the image pickup devices 131 to 134, that is, the operation of the camera and the pan head is controlled by the control device 140.
  • the control device 140 includes an information processing device 141 and a robot controller 142.
  • the robot controller 142 is configured to control the operation of the robot 110 and the peripheral device 120.
  • the information processing device 141 is configured to process various information, commands, data, and the like transmitted and received between the robot communication device 150 and the user communication device 220.
  • the information processing device 141 is configured to process commands, information, data, and the like received from the robot controller 142 and the image pickup device 131 and send them to the operation terminal 210, the presentation device 230, or both.
  • the information processing apparatus 141 is configured to process commands, information, data, and the like received from the operation terminal 210 and send them to the robot controller 142.
  • the information processing device 141 and the robot controller 142 include a computer device.
  • the configuration of the information processing device 141 is not particularly limited, and the information processing device 141 is, for example, an electronic circuit board, an electronic control unit, a microcomputer, a personal computer, a workstation, a smart device such as a smartphone and a tablet, and other electronic devices. And so on.
  • the robot controller 142 may include an electric circuit for controlling the electric power supplied to the robot 110 and the peripheral device 120.
  • the robot communication device 150 includes a communication interface that can be connected to the communication network N.
  • the robot communication device 150 is connected to the control device 140, specifically, the information processing device 141, and connects the information processing device 141 and the communication network N so as to be capable of data communication.
  • the robot communication device 150 may include, for example, a communication device such as a modem, an ONU (Optical Network Unit), a router, and a mobile data communication device.
  • the robot communication device 150 may include a computer device having a calculation function or the like.
  • the robot communication device 150 may be included in the control device 140.
  • the operation terminal 210 is configured to receive an input of a command, information, data, etc. by the user P, and output the received command, information, data, etc. to another device.
  • the operation terminal 210 includes an operation input device 211 that accepts an input by the user P, and a terminal computer 212.
  • the terminal computer 212 processes the commands, information, data, etc. received via the operation input device 211 and outputs them to another device, and receives the input of the commands, information, data, etc. from the other device, and said that. It is configured to perform processing of commands, information, data, etc.
  • the operation terminal 210 converts the image data of the image pickup device 131 to 134 sent from the control device 140 into data that can be displayed on the presentation device 230, and outputs and displays the image data on the presentation device 230. ..
  • the operation terminal 210 may include the operation input device 211 and the terminal computer 212 as an integrated device or may be included as separate devices.
  • the configuration of the operation terminal 210 is not particularly limited, and for example, the operation terminal 210 is a teach pendant used for teaching work to a computer such as a personal computer, a smart device such as a smartphone and a tablet, a personal information terminal, a game terminal, and a robot. It may be a known teaching device such as, a known operating device of a robot, another operating device, another terminal device, a device using these, and an improved device thereof.
  • the operation terminal 210 may be a dedicated device devised for the robot system 1, but may be a general-purpose device available in the general market. In this embodiment, a known general-purpose device is used for the operation terminal 210.
  • the device may be configured to realize the function of the operation terminal 210 of the present disclosure by installing dedicated software.
  • the configuration of the operation input device 211 is not particularly limited, and for example, the operation input device 211 is a device that is input via the operation of the user P such as a button, a lever, a dial, a joystick, a mouse, a key, a touch panel, and a motion capture. It may be included.
  • the operation input device 211 includes a general-purpose device known as the above device.
  • the operation terminal 210 is a personal computer, a smartphone or a tablet.
  • the user communication device 220 and the presentation device 230 are not included, but one or more of these may be included.
  • the operation terminal 210 is a smartphone or a tablet, the operation terminal 210 includes a user communication device 220 and a presentation device 230.
  • the presentation device 230 includes a display that displays an image on the user P.
  • the presentation device 230 displays an image of image data received from the control device 140 via the operation terminal 210. Examples of the image data are image data captured by the image pickup apparatus 131 to 134 and screen data related to the operation of the robot 110.
  • the presenting device 230 may include a speaker that emits voice to the user P.
  • the presentation device 230 outputs the sound of the voice data received from the control device 140 via the operation terminal 210.
  • the presentation device 230 may be included in the operation terminal 210.
  • the user communication device 220 includes a communication interface that can be connected to the communication network N.
  • the user communication device 220 is connected to the operation terminal 210, and connects the operation terminal 210 and the communication network N so as to be capable of data communication.
  • the user communication device 220 may include communication devices such as modems, ONUs, routers and mobile data communication devices, for example.
  • the user communication device 220 may include a computer device having a calculation function or the like.
  • the user communication device 220 may be included in the operation terminal 210.
  • FIG. 3 is a block diagram showing an example of the hardware configuration of the control device 140 according to the embodiment.
  • the information processing apparatus 141 includes a processor 1411, a memory 1412, a storage 1413, and input / output I / F (Interface: Interface) 1414 to 1416 as components.
  • the components of the information processing apparatus 141 are connected to each other by the bus 1417, but may be connected by any wired communication or wireless communication.
  • the robot controller 142 includes a processor 1421, a memory 1422, an input / output I / F 1423, communication I / F 1424 and 1425, and a drive I / F 1426 as components.
  • the robot controller 142 may include storage.
  • the components of the robot controller 142 are interconnected by bus 1427, but may be connected by any wired or wireless communication. Not all of the components included in the information processing apparatus 141 and the robot controller 142 are indispensable.
  • the information processing apparatus 141 includes a circuit, and the circuit includes a processor 1411 and a memory 1412.
  • the robot controller 142 includes a circuit, which includes a processor 1421 and a memory 1422. These circuits may include processing circuits.
  • the circuit, processor 1411 and memory 1412 of the information processing apparatus 141 may be separate or integrated with respect to the circuit, processor 1421 and memory 1422 of the robot controller 142, respectively.
  • the circuit sends and receives commands, information, data, etc. to and from other devices.
  • the circuit inputs signals from various devices and outputs control signals to each controlled object.
  • Processors 1411 and 1421 are examples of the first processor.
  • the memories 1412 and 1422 store programs executed by the processors 1411 and 1421, various data, and the like, respectively.
  • the memories 1412 and 1422 may include, for example, a storage device such as a volatile memory and a semiconductor memory which is a non-volatile memory.
  • the memory 1412 and 1422 include, but are not limited to, a RAM (RandomAccessMemory) which is a volatile memory and a ROM (Read-OnlyMemory) which is a non-volatile memory.
  • the memories 1412 and 1422 are examples of the first storage device.
  • Storage 1413 stores various data.
  • the storage 1413 may include a storage device such as a hard disk drive (HDD: Hard Disk Drive) and a solid state drive (SSD: Solid State Drive).
  • the storage 1413 is an example of the first storage device.
  • Both processors 1411 and 1421 form a computer system together with RAM and ROM.
  • the computer system of the information processing apparatus 141 may realize the function of the information processing apparatus 141 by the processor 1411 using the RAM as a work area to execute a program recorded in the ROM.
  • the computer system of the robot controller 142 may realize the function of the robot controller 142 by the processor 1421 using the RAM as a work area to execute a program recorded in the ROM.
  • Some or all of the functions of the information processing apparatus 141 and the robot controller 142 may be realized by the computer system, or may be realized by a dedicated hardware circuit such as an electronic circuit or an integrated circuit, and the computer system and the robot controller 142 may be realized. It may be realized by a combination of hardware circuits.
  • the information processing device 141 and the robot controller 142 may be configured to execute each process by centralized control by a single device, or may be configured to execute each process by distributed control by cooperation of a plurality of devices. May be done.
  • the processors 1411 and 1421 are CPU (Central Processing Unit), MPU (MicroProcessingUnit), GPU (GraphicsProcessingUnit), microprocessor (microprocessor), processor core (processorcore), and the like.
  • CPU Central Processing Unit
  • MPU MicroProcessingUnit
  • GPU GraphicsProcessingUnit
  • microprocessor microprocessor
  • processor core processor core
  • multiprocessor ASIC (Application-Specific Integrated Circuit), FPGA (Field Programmable Gate Array), etc., by a logic circuit or dedicated circuit formed in an IC (integrated circuit) chip, LSI (Large Scale Integration), etc.
  • Each process may be realized.
  • the plurality of processes may be realized by one or a plurality of integrated circuits, or may be realized by one integrated circuit.
  • the information processing device 141 and the robot controller 142 may be configured to include at least a part of each other's functions, or may be integrated.
  • the first input / output I / F 1414 of the information processing device 141 connects the information processing device 141 and the robot controller 142, and enables input / output of information, commands, data, etc. between them.
  • the second input / output I / F 1415 connects the information processing device 141 and the robot communication device 150, and enables input / output of information, commands, data, and the like between them.
  • the third input / output I / F 1416 connects the information processing device 141 and the image pickup devices 131 to 134, and enables input / output of information, commands, data, and the like between them.
  • the input / output I / F 1423 of the robot controller 142 connects the robot controller 142 and the first input / output I / O 1414 of the information processing device 141, and enables input / output of information, commands, data, etc. between them. ..
  • the first communication I / F 1424 connects the robot controller 142 and the belt conveyor 121 via wired communication, wireless communication, or a combination thereof, and enables transmission / reception of signals and the like between them.
  • the first communication I / F 1424 may include a communication circuit.
  • the robot controller 142 may be configured to receive a signal indicating an operating state of the belt conveyor 121 such as operation execution, operation stop, and operation speed, and control the operation of the robot 110 according to the operation state. ..
  • the robot controller 142 may be configured to control the operation of the belt conveyor 121 by transmitting a signal instructing the operation state to the belt conveyor 121 according to the processing status of the work W such as the transfer status.
  • the second communication I / F 1425 connects the robot controller 142 and the transport vehicles 122A and 122B via wired communication, wireless communication, or a combination thereof, and enables transmission / reception of signals and the like between them.
  • the second communication I / F 1425 may include a communication circuit.
  • the robot controller 142 receives signals indicating the operating states of the transport vehicles 122A and 122B such as the position with respect to the robot 110, the arrival at the standby position, and the departure from the standby position, and the robot 110 operates according to the operating state. May be configured to control.
  • the robot controller 142 may be configured to transmit a signal instructing an operating state to the transport vehicles 122A and 122B according to a processing status of the work W such as a loading status to control the operation of the transport vehicles 122A and 122B. ..
  • the drive I / F 1426 connects the robot controller 142 and the drive circuit 113 of the robot 110, and enables transmission / reception of signals and the like between them.
  • the drive circuit 113 is configured to control the power supplied from the servomotor RM1 of the robot arm 111 to the RM6 and the servomotor EM1 of the end effector 112 according to the command value included in the signal received from the robot controller 142.
  • the drive circuit 113 can be driven from the servomotors RM1 to RM6 and EM1 in cooperation with each other.
  • the robot controller 142 may be configured to servo control the RM6 and EM1 from the servomotors RM1.
  • the robot controller 142 receives from the drive circuit 113 the detection values of the rotation sensors included in the servomotors RM1 to RM6 and EM1 and the command values of the currents from the servomotors RM1 to RM6 and EM1 from the drive circuit 113 as feedback information. do.
  • the robot controller 142 determines the drive command values of the servomotors RM1 to RM6 and EM1 using the feedback information, and transmits the command values to the drive circuit 113.
  • the robot controller 142 may be configured to cooperate with each other in the axis control of a plurality of servomotors.
  • the robot controller 142 controls the servomotors RM1 to RM6 as robot axis control which is a part of the plurality of axis controls, and controls the servomotor EM1 as an external axis control which is a part of the plurality of axis controls. It may be configured as follows.
  • the terminal computer 212 of the operation terminal 210 includes a processor and a memory like the information processing device 141 and the like.
  • the terminal computer 212 is an input / output for establishing a connection between the terminal computer 212 and the operation input device 211, a connection between the terminal computer 212 and the user communication device 220, and a connection between the terminal computer 212 and the presentation device 230.
  • I / F may also be included.
  • FIG. 4 is a block diagram showing an example of the functional configuration of the control device 140 according to the embodiment.
  • the information processing apparatus 141 includes a reception information processing unit 141a, a transmission information processing unit 141b, an image pickup control unit 141c, an image processing unit 141d1 to 141d3, a model generation unit 141e, a candidate determination unit 141f, and a scheduled operation detection unit.
  • 141 g, an operation command unit 141h, attribute information processing units 141i1 and 141i2, and storage units 141s1 to 141s5 are included as functional components.
  • the functions of the functional components other than the storage units 141s1 to 141s5 are realized by the processor 1411 and the like, and the functions of the storage units 140s1 to 140s5 are realized by the memory 1412, the storage 1413 or a combination thereof and the like. Not all of the above functional components are required.
  • the robot controller 142 includes a drive command unit 142a, an motion information processing unit 142b, and a storage unit 142c as functional components.
  • the functions of the drive command unit 142a and the operation information processing unit 142b are realized by the processor 1421 and the like, and the functions of the storage unit 142c are realized by the memory 1422 and the like. Not all of the above functional components are required.
  • the storage units 141s1 to 141s5 and 142c store various information and data, and enable the stored information and data to be read out.
  • the first storage unit 141s1 stores a control program for causing the robot 110 to automatically execute a predetermined work.
  • the control program includes a calculation program, a calculation formula, or a combination thereof for calculating the operation amount, operation direction, operation speed, acceleration, etc. of each part of the robot 110 in the process of causing the robot 110 to perform a desired operation. obtain.
  • the control program automatically transfers the work W, which is a beverage bottle conveyed by the belt conveyor 121, to the transfer vehicle 122A or 122B to the robot 110. It is a program to be executed by.
  • the work W includes two types of work WA and WB, the work WA is transferred to the transport vehicle 122A, and the work WB is transferred to the transport vehicle 122B.
  • the first storage unit 141s1 may store the information of the robot 110.
  • the information of the robot 110 may include, for example, the type, identification information and characteristics of the robot arm 111 and the end effector 112.
  • the characteristics of the robot arm 111 may include the position, model, shape, dimensions, operating direction and operating range of the robot arm 111, and the position, type, operating direction and operating range of the joint, and the like.
  • the characteristics of the end effector 112 may include the shape and dimensions of the end effector 112, the position of the operating portion of the end effector 112, the operating direction, the operating range, and the like.
  • the properties of the robot arm 111 and the end effector 112 may include their elasticity, plasticity, toughness, brittleness, malleability and the like.
  • the information of the robot 110 may include a virtual model such as a two-dimensional model and a three-dimensional model of the robot arm 111 and the end effector 112.
  • the second storage unit 141s2 stores information about the work W.
  • the second storage unit 141s2 stores the first attribute information of the work W.
  • the first attribute information includes the characteristics of the work W and the work work information which is information related to the predetermined work set in the work W.
  • the characteristics of the work W may include, for example, the type, designation, identification information, characteristics, and the like of the work W.
  • the characteristics of the work W may include the shape, dimensions, weight, elasticity, plasticity, toughness, brittleness, ductility, hollowness, solidity, center of gravity position, opening position and the like of the work W.
  • the characteristics of the work W may include the presence / absence, type and amount of contents, and the presence / absence of closure of the opening.
  • the first attribute information may include a virtual model of the work W such as a two-dimensional model and a three-dimensional model of the work W as a feature of the work W.
  • the work work information is the order in which the work W receives processing, the speed and acceleration that can be given to the work W, the position on the work W that can give the action by the end effector 112, and when the action by the end effector 112 is given. It may include the state of the work W of.
  • the work work information may include a position where the work W can be gripped by the end effector 112, and may include, for example, a candidate for a gripping position.
  • the work work information may include candidates for the posture of the work W during transfer by the robot 110.
  • the work work information may include a gripping force that can be applied to the work W during gripping by the end effector 112, and may include, for example, a candidate for gripping force.
  • the characteristics of the work W and the work work information can be set according to the work W and the predetermined work.
  • FIG. 5 is a diagram showing an example of work work information included in the first attribute information according to the embodiment.
  • a gripping position GP1 at the upper end which is an open end
  • a gripping position GP2 at the bottom end and a plurality of gripping positions GP3 to GP8 on the side portion between the upper end and the bottom end.
  • the work work information of the work WA includes the information of the gripping positions GP1 to GP8.
  • the work work information of the work WB may also include information on the gripping position similar to the work work information of the work WA.
  • FIG. 6 is a diagram showing another example of work work information included in the first attribute information according to the embodiment.
  • the postures Pa, Pb, Pc and Pd of the work WA are preset as candidates for the posture of the work WA during transfer from the belt conveyor 121 to the conveyors 122A and 122B.
  • the work work information of the work WA includes information on postures Pa, Pb, Pc and Pd.
  • the work work information of the work WB may also include information of the same posture as the work work information of the work WA.
  • the third storage unit 141s3 includes information about components other than the robot 110 in the robot area AR.
  • the third storage unit 141s3 stores the second attribute information and the third attribute information.
  • the second attribute information includes the characteristics of the surrounding environment of the work W and the surrounding environment work information which is information about the predetermined work set in the surrounding environment.
  • the characteristics of the surrounding environment of the work W include, for example, the characteristics of work handling elements such as devices, equipment, and equipment that handle the work W other than the robot 110.
  • the characteristics of the surrounding environment of the work W include the characteristics of the peripheral device 120, specifically, the characteristics of the belt conveyor 121 and the transport vehicles 122A and 122B.
  • the third attribute information includes the characteristics of the components in the robot area AR other than the surrounding environment included in the second attribute information.
  • the third attribute information includes the features of the image pickup devices 131 to 134.
  • the feature may include, for example, identification information and characteristics of the image pickup devices 131 to 134.
  • the characteristics of the image pickup devices 131 to 134 may include the position, posture, shape, dimensions, installation method, and required separation distance from the image pickup devices 131 to 134.
  • the characteristics of the belt conveyor 121 may include, for example, the type, name, identification information, characteristics, and the like of the belt conveyor 121.
  • the characteristics of the belt conveyor 121 include the position, posture, shape and dimensions of the belt conveyor 121, the position, posture, shape and dimensions of the work area of the robot 110 in the belt conveyor 121, and the presence or absence of an object that obstructs the space around the work area.
  • the position, posture, shape, dimensions, etc. of the object may be included.
  • the characteristics of the transport vehicles 122A and 122B may include, for example, the types, names, identification information, characteristics, and the like of the transport vehicles 122A and 122B.
  • the characteristics of the transport vehicles 122A and 122B may include the standby position, standby posture, shape and dimensions of the transport vehicles 122A and 122B, and the characteristics of the mounting portions 122Aa and 122Ba of the work WA and WB in the transport vehicles 122A and 122B. ..
  • the standby position and the standby posture are the positions and orientations of the transport vehicles 122A and 122B when the work WA and WB are processed by the robot 110.
  • the properties of the mounting portions 122Aa and 122Ba may include the position, shape, dimensions, tilt amount, elasticity, plasticity, toughness, brittleness and ductility of the surfaces of the mounting portions 122Aa and 122Ba.
  • the shape of the surface may include a planar shape in a plan view, a concave-convex shape in the vertical direction, and the like.
  • the characteristics of the transport vehicles 122A and 122B may include the presence or absence of an object that blocks the space around the mounting portions 122Aa and 122Ba, and the position, shape, and dimensions of the object.
  • the second attribute information may include a virtual model such as a two-dimensional model and a three-dimensional model of the belt conveyor 121 and the conveyors 122A and 122B as features of the belt conveyor 121 and the conveyors 122A and 122B.
  • the third storage unit 141s3 may include a virtual model of the constituent elements as information of the constituent elements other than the belt conveyor 121 and the transport vehicles 122A and 122B in the robot area AR.
  • the surrounding environment work information includes, for example, information on predetermined work for a work handling element that handles a work W other than the robot 110.
  • the surrounding environment work information may include the position, state, processing method, etc. of the work W when the work W is processed in the work handling element.
  • the surrounding environment work information of the transport vehicles 122A and 122B is a candidate for the placement position of the work WA and WB on the surface of the mounting portions 122Aa and 122Ba, a candidate for the placement posture, a candidate for the placement order, and a placement direction.
  • the placement direction may indicate the transfer direction of the work WA and WB to the mounting portions 122Aa and 122Ba.
  • the arrangement method may indicate the degree of impact that the work WA and WB give to the mounting portions 122Aa and 122Ba at the time of mounting, the acceleration of the work WA and WB, and the like.
  • FIG. 7 is a diagram showing an example of surrounding environment work information included in the second attribute information according to the embodiment.
  • FIG. 7 shows a plan view of the mounting portion 122Aa of the transport vehicle 122A.
  • the transport vehicle 122A includes a wall 122Ab that surrounds the mounting portion 122Aa and extends upward from the mounting portion 122Aa.
  • the wall 122Ab forms a U-shape in a plan view from above, and a part of the mounting portion 122Aa is laterally opened between the open ends 122Aba and 122Abb.
  • the wall 122Ab opens the mounting portion 122Aa upward.
  • On the surface of the mounting portion 122Aa a plurality of placement positions P1 to P20 at the bottom of the work WA are preset as candidates for placement positions.
  • the arrangement positions P1 to P20 are arranged in 4 rows ⁇ 5 columns.
  • the surrounding environment work information of the transport vehicle 122A includes the posture of the work WA at the arrangement positions P1 to P20, the arrangement positions P1 to P20, the arrangement direction of the work WA from the arrangement positions P1 to P20, and the arrangement position P1 of the work WA. It includes a method of placing the P20 on the P20 with a low impact, that is, with a low acceleration.
  • the peripheral environment work information of the transport vehicle 122B may include the same information as the peripheral environment work information of the transport vehicle 122A.
  • the fourth storage unit 141s4 stores route-related data.
  • the route-related data includes information for determining the movement route of the end effector 112 when performing a predetermined work.
  • the route-related data includes information for determining the movement route of the end effector 112 when performing the operation when at least a part of the operation included in the predetermined work is specified.
  • the route-related data may include an arithmetic expression, an arithmetic program, or a combination thereof of the movement path of the end effector 112.
  • the fifth storage unit 141s5 stores and stores the log information of the robot 110.
  • the fifth storage unit 141s5 uses as log information information about the operation result of the robot arm 111 and the end effector 112 of the robot 110 that executes a predetermined work, a command for the operation result, or an operation result including both of them.
  • the stored log information may include information about all the operation results of the robot arm 111 and the end effector 112.
  • the stored log information may include at least information on the operation result in the work area of the end effector 112 on the belt conveyor 121 and its vicinity and information on the operation result in the conveyors 122A and 122B and their vicinity. ..
  • the storage unit 142c stores information for generating a drive command using the operation command received from the operation command unit 141h by the drive command unit 142a.
  • the reception information processing unit 141a receives commands, information, data, etc. from the operation terminal 210 via the communication network N and the robot communication device 150, and sends them to the corresponding functional components in the information processing device 141.
  • the reception information processing unit 141a may have a function of converting received commands, information, data, and the like into a data type that can be processed in the information processing apparatus 141.
  • the transmission information processing unit 141b transmits commands, information, data, etc. output by each functional component of the information processing device 141 to the operation terminal 210 via the robot communication device 150 and the communication network N.
  • the transmission information processing unit 141b may have a function of converting commands, information, data, and the like to a transmission target into a data type capable of network communication.
  • the image pickup control unit 141c controls the operation of the image pickup devices 131 to 134 and outputs the image data captured by the image pickup device 131 to 134.
  • the image pickup control unit 141c controls the operation of the camera and the pan head of the image pickup devices 131 to 134 according to the command received from the operation terminal 210.
  • the image pickup control unit 141c receives image data from the image pickup device 131 and outputs the image data to the first image processing unit 141d1 and the transmission information processing unit 141b.
  • the image pickup control unit 141c transmits the image data of the image pickup apparatus 131 to 134 designated by the command from the operation terminal 210 to the operation terminal 210.
  • the operation terminal 210 outputs the image data to the presentation device 230 and displays it.
  • the first image processing unit 141d1 processes the image data captured by the image pickup device 131, the image pickup device 132, or both of them.
  • the first image processing unit 141d1 performs image processing for extracting the work W and surrounding components from the image indicated by the image data. Further, the first image processing unit 141d1 may detect the three-dimensional position of the subject projected on the pixel for displaying the work W and surrounding components.
  • the first image processing unit 141d1 may extract edges from each of the two image data captured at the same time by the stereo camera of the image pickup apparatus 131 or 132. Further, the first image processing unit 141d1 compares the extracted edge with the shape of the work W included in the first attribute information stored in the second storage unit 141s2 by a pattern matching method or the like, and the edge of the work W. May be specified. The first image processing unit 141d1 obtains the extracted edge, the shape of the belt conveyor 121 included in the second attribute information stored in the third storage unit 141s3, and the shape of an object that blocks the space around the work area. The edges of the belt conveyor 121 and the above-mentioned object may be specified as the edges of surrounding components by comparing with a pattern matching method or the like.
  • the first image processing unit 141d1 processes the pixels that project the work W and the surrounding components between the two image data by a stereo matching method or the like, and detects the distance between the subject and the camera projected on each pixel. You may. Further, the first image processing unit 141d1 may detect a three-dimensional position in the three-dimensional space in which the robot system 1 exists for the subject projected on each pixel.
  • the model generation unit 141e generates a virtual model of the work W and surrounding components extracted from the image data by the first image processing unit 141d1. For example, the model generation unit 141e uses the information about the work W stored in the second storage unit 141s2 and the information about the surrounding components stored in the third storage unit 141s3, and the work is projected by the image data. Generate a virtual model that represents W and its surrounding components. For example, the model generation unit 141e may generate a three-dimensional CAD (Computer-Aided Design) model of the work W and surrounding components. The model generation unit 141e and the first image processing unit 141d1 can detect the state information including the state of the work W by generating the above-mentioned virtual model. The virtual model representing the work W and its surrounding components is an example of state information regarding the work W.
  • CAD Computer-Aided Design
  • the state information may include, for example, various information indicating the state of the work W and surrounding components.
  • the state information includes the position, posture, position and movement direction and position of the work W and surrounding components in addition to or instead of the virtual model of the work W and surrounding components. And the movement speed of the posture may be included.
  • the state information may include various information indicating the state of the surrounding environment of the work W.
  • the state information may include the arrangement state of the work W in the transport vehicle 122A or 122B to which the work W is transferred.
  • the candidate determination unit 141f determines a candidate for a work position related to the work W based on the state information, and outputs the candidate to the second image processing unit 141d2.
  • Candidates for the work position regarding the work W include candidates for the gripping position of the presentation target in the work W to be gripped by the robot 110, and candidates for the placement position of the presentation target in the transport vehicle 122A or 122B to which the work W is transferred.
  • the candidate determination unit 141f searches for the fifth storage unit 141s5, and outputs information on the gripping position and the arrangement position previously determined for the work in the same state as the work W to the second image processing unit 141d2. You may.
  • the candidate determination unit 141f uses the model of the work W generated by the model generation unit 141e and the surrounding constituent elements as the state information, and from among the candidates for the gripping position of the work W included in the first attribute information. , Determines a candidate for the gripping position to be presented to the user P. For example, when the model of the work WA is in an upright state as in the posture Pa in FIG. 6, the candidate determination unit 141f determines the grippable gripping positions GP1 and GP3 to GP8 as presentation targets, as shown in FIG. do.
  • FIG. 8 is a diagram showing an example of a candidate for a gripping position of a presentation target determined by the work WA of the gripping target.
  • the candidate determination unit 141f may determine the gripping positions GP3 to GP8 as the presentation target when the work WA is lying down. For example, when another work is stacked on the lying work WA, the candidate determination unit 141f may determine the grippable gripping position among the gripping positions GP1 to GP8 as the presentation target.
  • the candidate determination unit 141f determines a candidate for the arrangement position to be presented to the user P from the arrangement positions of the transfer destination transport vehicles 122A or 122B included in the second attribute information.
  • the candidate determination unit 141f may determine the arrangement position on which the work W can be placed as the presentation target by using the information of the arrangement position where the work W is already arranged as the state information. ..
  • the information on the arrangement position may be stored in the third storage unit 141s3, the fifth storage unit 141s5, or the like.
  • the candidate determination unit 141f determines the remaining arrangement positions P8 to P20 from which the arrangement positions where the work WA is already arranged are excluded as the presentation target.
  • FIG. 9 is a diagram showing an example of candidates for the arrangement position of the presentation target determined on the transport vehicle 122A to which the work WA is transferred.
  • the second image processing unit 141d2 images the candidates determined by the candidate determination unit 141f and transmits them to the operation terminal 210.
  • the candidate may include a candidate for the gripping position of the presentation target in the work W and a candidate for the placement position of the presentation target in the carrier vehicle 122A or 122B.
  • the second image processing unit 141d2 performs information on the gripping position and the placement position previously determined for the work in the same state as the work W together with the candidate for the gripping position to be presented and the candidate for the placement position to be presented. , May be clearly shown in the image. Thereby, the user of the operation terminal 210 can determine the gripping position and the arrangement position with reference to the past information indicating the similar state.
  • the second image processing unit 141d2 uses the information of the candidate of the gripping position of the presentation target of the work WA and the model of the work WA generated by the model generation unit 141e to obtain the image IA as shown in FIG. Data may be generated.
  • the image IA clearly shows the gripping positions GP1 and GP3 to GP8, which are candidates for presentation, on the image of the model of the work WA.
  • the second image processing unit 141d2 transmits the image IA data and the request for selecting the gripping position to the operation terminal 210.
  • the second image processing unit 141d2 may transmit the information of the gripping positions GP1 and GP3 to the GP8 to the operation terminal 210 instead of the data of the image IA.
  • the second image processing unit 141d2 may synthesize the image IA data with the image data captured by the image pickup device 131, the image pickup device 132, or both of them. As a result, the gripping positions GP1 and GP3 to GP8 are clearly indicated in the image of the work WA projected on the image captured by the image pickup device 131, the image pickup device 132, or both of them.
  • the user P of the operation terminal 210 selects one from the gripping positions GP1 and GP3 to GP8 presented by the operation terminal 210 to the presentation device 230, inputs the selection result as the selection work position to the operation terminal 210, and inputs the information processing device to the operation terminal 210. Send to 141.
  • the selected working position is an example of the selected position.
  • the second image processing unit 141d2 shows in FIG. 9 using the information of the candidate of the arrangement position of the presentation target of the transport vehicle 122A or 122B and the information of the transport vehicle 122A or 122B included in the second attribute information.
  • the data of the image IB may be generated.
  • the image IB clearly indicates the placement positions P8 to P20, which are candidates for presentation, on the image of the mounting portion 122Aa or 122Ba.
  • the second image processing unit 141d2 transmits the data of the image IB and the request for selecting the arrangement position to the operation terminal 210.
  • the second image processing unit 141d2 may transmit the information of the arrangement positions P8 to P20 to the operation terminal 210 instead of the data of the image IB.
  • the second image processing unit 141d2 may synthesize the image IB data with the image data captured by the image pickup apparatus 133 or 134. As a result, the placement positions P8 to P20 are clearly indicated in the image of the mounting portion 122Aa or 122Ba projected on the image captured by the image pickup apparatus 133 or 134.
  • the user P of the operation terminal 210 selects one from the arrangement positions P8 to P20 presented by the operation terminal 210 to the presentation device 230, inputs the selection result as the selection work position to the operation terminal 210, and inputs the selection result to the information processing device 141. Send it.
  • the scheduled motion detection unit 141g receives information on the selected work position selected from the work position candidates related to the work W from the operation terminal 210.
  • the scheduled motion detection unit 141g detects the scheduled motion of the robot 110 according to the selected work position by using the information of the selected work position and the route-related data stored in the fourth storage unit 141s4.
  • the scheduled motion detection unit 141g determines the gripping position of the work W included in the selected work position as the start point, determines the arrangement position of the work W included in the selected work position as the end point, and reaches the end point from the start point.
  • the movement path of the end effector 112 is calculated by using an arithmetic expression, an arithmetic program, or both of the route-related data.
  • the scheduled motion detection unit 141g calculates the posture of the end effector 112 at each position on the movement path of the end effector 112.
  • the scheduled motion detection unit 141g detects the moving path of the end effector 112 and the posture in the moving path as the scheduled motion of the robot 110 according to the selected work position.
  • the scheduled motion detection unit 141g transmits the detected scheduled motion to the operation terminal 210 via the third image processing unit 141d3.
  • the operation terminal 210 presents the received scheduled operation to the user P via the presentation device 230.
  • the operation terminal 210 receives an input for approving the scheduled operation, an input for modifying the scheduled operation, an input for changing the selected gripping position and the arrangement position, and the first attribute information and the second attribute information. It can accept input to change.
  • the operation terminal 210 When the operation terminal 210 receives the approval of the scheduled operation, the operation terminal 210 transmits the approval result to the information processing apparatus 141.
  • the scheduled motion detection unit 141g sends the approved scheduled motion to the motion command unit 141h.
  • the operation terminal 210 When the operation terminal 210 receives the correction of the scheduled operation, the operation terminal 210 transmits the received correction content to the information processing apparatus 141.
  • the scheduled motion detection unit 141g modifies the scheduled motion so as to reflect the modified content of the scheduled motion, and generates the modified scheduled motion as a new scheduled motion.
  • the scheduled motion detection unit 141g transmits a new scheduled motion to the operation terminal 210.
  • the operation terminal 210 When the operation terminal 210 receives the change of the gripping position, the arrangement position, or both of them, the operation terminal 210 transmits the received change content to the information processing apparatus 141.
  • the scheduled motion detection unit 141g generates a new scheduled motion according to the changes in the gripping position, the placement position, or both of them.
  • the scheduled motion detection unit 141g transmits a new scheduled motion to the operation terminal 210.
  • the operation terminal 210 When the operation terminal 210 receives the change of the first attribute information, the second attribute information, or both of them, the operation terminal 210 transmits the received change contents to the information processing apparatus 141.
  • the first attribute information processing unit 141i1 and the second attribute information processing unit 141i2 have the first attribute information stored in the second storage unit 141s2 and the second attribute information stored in the third storage unit 141s3 according to the received changes. , Or both of these.
  • the first attribute information processing unit 141i1 and the second attribute information processing unit 141i2 use the changed first attribute information and second attribute information as new first attribute information and second attribute information in the second storage unit 141s2, second. 3 Storage unit 141s3 or both of these are stored.
  • the scheduled motion detection unit 141g generates a new scheduled motion using the new first attribute information and the second attribute information, and transmits the new scheduled motion to the operation terminal 210.
  • the scheduled motion detection unit 141g uses information about components other than the robot 110 in the robot area AR stored in the third storage unit 141s3 to determine the presence or absence of interference between the robot 110 and the above components in the process of scheduled motion. It is detected and the detection result is transmitted to the operation terminal 210.
  • the scheduled motion detection unit 141g may detect the occurrence of interference when the movement path of the end effector 112 passes through a region within a distance from the image pickup device 131 to 134 based on the third attribute information.
  • the scheduled motion detection unit 141g detects the occurrence of interference, the movement path of the end effector 112 may be recalculated based on the separation distance of the interference target or the like so as to avoid the interference.
  • the third image processing unit 141d3 visualizes the scheduled motion generated by the scheduled motion detecting unit 141g and transmits it to the operation terminal 210.
  • the third image processing unit 141d3 has information about components other than the robot 110 in the robot area AR stored in the third storage unit 141s3, information about the robot 110 stored in the first storage unit 141s1, and a schedule.
  • Image data that clearly indicates the movement path of the end effector 112 may be generated by using the scheduled motion detected by the motion detection unit 141g.
  • the third image processing unit 141d3 may generate image IC data as shown in FIG.
  • the image IC includes a movement path TP of the end effector 112 displayed in a broken line, a model of the robot arm 111, a model of the end effector 112, a model of the belt conveyor 121, and a model of the transport vehicle 122A to which the work W is transferred. , And models of image pickup devices 132 and 133, which are other components in the robot area AR.
  • an image ID indicating the interference is displayed.
  • the scheduled motion detection unit 141g When the scheduled motion is changed by the operation terminal 210 in order to avoid interference, the scheduled motion detection unit 141g generates a new scheduled motion according to the changed content, and the third image processing unit 141d3 displays a new alternate-dashed line.
  • the movement path TP1 of the scheduled operation is clearly shown on the image IC.
  • the user P of the operation terminal 210 can visually confirm the movement route and determine the approval of the scheduled operation.
  • the first attribute information processing unit 141i1 changes the first attribute information stored in the second storage unit 141s2 according to the command received from the operation terminal 210, and uses the changed first attribute information as the new first attribute information. It is stored in the second storage unit 141s2. That is, the first attribute information processing unit 141i1 updates the first attribute information.
  • the first attribute information processing unit 141i1 may transmit the first attribute information to the operation terminal 210.
  • the first attribute information processing unit 141i1 may transmit the first attribute information corresponding to the selected work position to the operation terminal 210.
  • the first attribute information processing unit 141i1 may output the first attribute information to the second image processing unit 141d2 and the third image processing unit 141d3, and make the first attribute information clearly appear on the generated image.
  • the second attribute information processing unit 141i2 changes the second attribute information stored in the third storage unit 141s3 according to the command received from the operation terminal 210, and uses the changed second attribute information as new second attribute information. It is stored in the third storage unit 141s3. That is, the second attribute information processing unit 141i2 updates the second attribute information.
  • the second attribute information processing unit 141i2 may transmit the second attribute information to the operation terminal 210.
  • the second attribute information processing unit 141i2 may transmit the second attribute information corresponding to the selected work position to the operation terminal 210.
  • the second attribute information processing unit 141i2 may output the second attribute information to the second image processing unit 141d2 and the third image processing unit 141d3 so that the second attribute information is clearly shown on the generated image.
  • the operation command unit 141h generates an operation command for moving and operating the end effector 112 according to the control program stored in the first storage unit 141s1.
  • the operation command unit 141h generates an operation command for moving and operating the end effector 112 according to the approved scheduled operation generated by the scheduled operation detection unit 141g. That is, the operation command unit 141h generates an operation command according to the selected work position, the first attribute information, and the second attribute information.
  • the operation command unit 141h transmits an operation command to the robot controller 142.
  • the operation command includes at least the position command of the end effector 112 and the force command, and in the present embodiment, both are included. Further, the operation command includes a command of the gripping force of the end effector 112 with respect to the work W.
  • the operation command unit 141h uses the operation command, the approved scheduled operation, the gripping position and the arrangement position included in the scheduled operation, the drive command acquired from the drive command unit 142a, or a combination of two or more thereof as log information. It may be stored in the fifth storage unit 141s5.
  • the position command may include commands such as the target position of the end effector 112 in the three-dimensional space, the moving speed of the target position, the target posture, and the moving speed of the target posture.
  • the force command may include commands such as the magnitude and direction of the force applied by the end effector 112 to the work W in three-dimensional space.
  • the force command may include the acceleration that the end effector 112 applies to the work W.
  • the drive command unit 142a generates a drive command for operating the robot arm 111 and the end effector 112 by using the information stored in the storage unit 142c so that the end effector 112 moves and grips according to the operation command. do.
  • the drive command includes the command values of the currents of the servomotors RM1 to RM6 of the robot arm 111 and the servomotors EM1 of the end effector 112.
  • the drive command unit 142a generates a drive command using the feedback information received from the operation information processing unit 142b.
  • the operation information processing unit 142b acquires information on the rotation amount and current value from the servomotors RM1 to RM6 and EM1, and outputs the information to the drive command unit 142a as feedback information.
  • the motion information processing unit 142b acquires the rotation amount of each servomotor from the rotation sensor included in the servomotor.
  • the operation information processing unit 142b acquires the current value of each servomotor from the command value of the current of the drive circuit of the servomotor.
  • the operation information processing unit 142b may acquire a current value from the current sensor.
  • FIGS. 11A to 11C are flowcharts showing an example of the operation of the robot system 1 according to the embodiment.
  • the user P inputs a request in charge of operating the robot that transfers the work to the operation terminal 210, and the operation terminal 210 transmits the request to the server 310 (step S101).
  • the server 310 searches for a robot 110 capable of performing the work, and connects the information processing device 141 of the searched robot 110 and the operation terminal 210 via the communication network N (step S102).
  • the user P When the user P receives the notification of the connection completion from the server 310, the user P inputs the transfer work execution command to the operation terminal 210.
  • the operation terminal 210 transmits the command to the information processing device 141 (step S103).
  • the information processing apparatus 141 starts controlling the transfer work and automatically causes the robot 110 to operate according to the control program stored in the first storage unit 141s1 (step S104).
  • the information processing device 141 processes the image data captured by the image pickup device 131, and the work W to be transferred and its surrounding configuration are projected on the image data.
  • the element is extracted (step S105).
  • the information processing device 141 may process the image data captured by the image pickup device 132 to extract the work W or the like to be transferred.
  • the information processing apparatus 141 further processes the image data and detects the three-dimensional positions of the extracted work W and its surrounding components (step S106).
  • the information processing apparatus 141 generates a virtual model of the work W extracted in step S105 and its surrounding components (step S107), and grips the work W based on the virtual model and the first attribute information.
  • the candidate position is determined (step S108).
  • the information processing device 141 generates image data indicating a candidate for the gripping position of the work W and transmits it to the operation terminal 210 (step S109). The information processing device 141 also transmits the first attribute information to the operation terminal 210.
  • the operation terminal 210 displays the received image data and the first attribute information on the presentation device 230.
  • the user P can visually recognize the candidate for the gripping position of the work W displayed on the presentation device 230 and select the gripping position.
  • the operation terminal 210 receives a command from the user P to specify a selective grip position, which is one of the candidates for the grip position of the work W, the operation terminal 210 transmits information on the selective grip position to the information processing apparatus 141 (step S110). ).
  • the information processing apparatus 141 determines a candidate for the arrangement position of the work W on the transport vehicle 122A or 122B based on the second attribute information (step S111).
  • the information processing apparatus 141 generates image data indicating a candidate for the arrangement position of the work W on the transport vehicle 122A or 122B, and transmits the image data to the operation terminal 210 (step S112).
  • the information processing device 141 also transmits the second attribute information to the operation terminal 210.
  • the operation terminal 210 displays the received image data and the second attribute information on the presentation device 230.
  • the user P can visually recognize the candidate for the arrangement position of the work W displayed on the presentation device 230 and select the arrangement position.
  • the operation terminal 210 receives a command from the user P to specify the selected arrangement position, which is one of the candidates for the arrangement position of the work W, the operation terminal 210 transmits the information of the selected arrangement position to the information processing apparatus 141 (step S113). ).
  • the information processing apparatus 141 detects the scheduled operation of the robot 110 by using the information on the gripping position and the arrangement position of the selected work W and the route-related data (step S114).
  • the information processing device 141 generates image data indicating the scheduled operation of the robot 110, that is, the movement path of the end effector 112, and transmits it to the operation terminal 210 (step S115).
  • the information processing device 141 also transmits the first attribute information and the second attribute information to the operation terminal 210.
  • the information processing apparatus 141 determines whether or not there is interference between the robot 110 and surrounding components when the end effector 112 is moved along the movement path (step S116).
  • the information processing apparatus 141 transmits the interference information to the operation terminal 210 when there is interference (Yes in step S116), and proceeds to step S118 when there is no interference (No in step S116).
  • step S118 the operation terminal 210 causes the presentation device 230 to present image data indicating the movement path of the end effector 112.
  • the interference portion is displayed on the image displayed by the presenting device 230.
  • step S119 when the operation terminal 210 has an input for approving the scheduled operation of the robot 110 (Yes in step S119), the operation terminal 210 transmits the approval information to the information processing apparatus 141 (step S122), and proceeds to step S123.
  • the operation terminal 210 proceeds to step S120 when there is an unapproved input (No in step S119).
  • step S120 the user P inputs a command for changing the scheduled operation of the robot 110 to the operation terminal 210, and the operation terminal 210 transmits the command to the information processing device 141.
  • the above-mentioned command is a command to change the scheduled operation itself, a command to change the gripping position, arrangement, or both of the work W, a command to change the first attribute information, the second attribute information, or both of them, or these. Includes two or more combinations.
  • step S121 the information processing apparatus 141 detects a new scheduled operation according to a command for changing the scheduled operation of the robot 110.
  • the information processing apparatus 141 repeats the processing after step S115 by using the new scheduled operation.
  • step S123 the information processing apparatus 141 generates an operation command of the robot 110 and transmits it to the robot controller 142 using the approved scheduled operation and the three-dimensional position of the work W detected in step S106.
  • the robot controller 142 generates a drive command according to the operation command, and causes the robot arm 111 and the end effector 112 to operate according to the drive command (step S124). That is, the robot controller 142 causes the robot arm 111 and the end effector 112 to grip the work W on the belt conveyor 121 and transfer it to the transport vehicle 122A or 122B in accordance with the operation command.
  • step S125 When the information processing apparatus 141 receives a command to complete the transfer work from the operation terminal 210 (Yes in step S125), the information processing apparatus 141 ends a series of processes, and if it does not receive the above command (No in step S125), proceeds to step S126. ..
  • step S126 the information processing apparatus 141 automatically moves the end effector 112 to the vicinity of the belt conveyor 121 to the robot arm 111 after transferring the work W to the transport vehicle 122A or 122B, and repeats the processes after step S105. ..
  • the information processing apparatus 141 selects the gripping position of the work W and the arrangement position of the transfer destination at each timing when the new work W is gripped by the end effector 112. Is requested, and the robot 110 is operated according to the selection result of the user P.
  • the user P does not need to directly manually operate the robot 110 for the operation of the robot 110 that requires the judgment of the user P as described above, and is appropriate from the candidate elements for determining the operation. All you have to do is select the element. Therefore, various users can participate in the operation of the robot 110 from various places regardless of the robot operation skill of the user.
  • This modification differs from the embodiment in that the robot system includes the learning device 400.
  • this modification will be described mainly on the points different from those of the embodiment, and the description of the same points as those of the embodiment will be omitted as appropriate.
  • FIG. 12 is a block diagram showing an example of the functional configuration of the control device 140 and the learning device 400 according to the modified example.
  • the information processing device 141A of the control device 140 further includes the log information output unit 141j as a functional component.
  • the log information output unit 141j outputs the log information stored in the fifth storage unit 141s5 to the request source in response to a request from the outside of the information processing apparatus 141A.
  • the log information output unit 141j may output log information to a predetermined output destination at a predetermined timing according to a preset program.
  • the function of the log information output unit 141j is realized by the processor 1411 or the like.
  • the learning device 400 includes a computer device as well as the information processing device 141A.
  • the learning device 400 includes a circuit, which includes a processor and memory as described above.
  • the learning device may include storage as described above.
  • the processor of the learning device 400 is an example of the second processor, and the memory and storage of the learning device 400 is an example of the second storage device.
  • the learning device 400 is a device different from the information processing device 141A and the robot controller 142, and can perform data communication with the information processing device 141A via wired communication, wireless communication, or a combination thereof. Connected to. Any wired or wireless communication may be used.
  • the learning device 400 may be incorporated in the information processing device 141A or the robot controller 142.
  • the learning device 400 may be connected to the information processing device 141A via the communication network N.
  • the learning device 400 may be connected to a plurality of information processing devices 141A.
  • the learning device 400 may be configured to input / output data to / from the information processing device 141A via a storage medium.
  • the storage medium is a semiconductor-based or other integrated circuit (IC: Integrated Circuit), hard disk drive (HDD), hybrid hard drive (HHD: Hybrid Hard Disk Drive), optical disk, optical disk drive (ODD: Optical Disk Drive), optical. Magnetic disks, optical magnetic drives, floppy disk drives (FDDs), magnetic tapes, solid drive (SSD), RAM drives, secure digital cards or drives, any other suitable storage medium, or two of these. The above combinations can be included.
  • the learning device 400 is arranged in the robot area AR, but is not limited to this.
  • the learning device 400 may be arranged in the user area AU, or may be arranged in a place different from the robot area AR and the user area AU.
  • the learning device 400 may be arranged at the location of the server 310 and may be configured to communicate data with the information processing device 141A via the server 310.
  • the learning device 400 may be incorporated in the server 310.
  • the learning device 400 includes a learning data processing unit 401, a learning data storage unit 402, a learning unit 403, an input data processing unit 404, and an output data processing unit 405 as functional components.
  • the function of the learning data storage unit 402 is realized by the memory, storage, or a combination thereof that can be included in the learning device 400, and the function of the functional component other than the learning data storage unit 402 is realized by the processor or the like included in the learning device 400. It will be realized.
  • the learning data storage unit 402 stores various information and data, and makes it possible to read the stored information and data.
  • the learning data storage unit 402 stores learning data.
  • the learning data processing unit 401 receives log information from the log information output unit 141j of the information processing device 141A, and stores the log information as learning data in the learning data storage unit 402.
  • the learning data processing unit 401 may request the log information from the log information output unit 141j and acquire the log information from the log information output unit 141j, and acquire the log information sent from the log information output unit 141j at a predetermined timing. You may.
  • the learning data processing unit 401 actually executed the state information related to the work, the first attribute information and the second attribute information corresponding to the state indicated by the state information, and the work among the log information.
  • Information on the selected working position such as the selected gripping position and the selected arrangement position may be acquired.
  • the selected work position is a work position selected from the candidates for the work position based on the state information, and is a work position actually used.
  • the learning unit 403 includes a learning model, and in this modification, it includes a learning model that performs machine learning.
  • the learning unit 403 trains the learning model using the learning data, and causes the learning model to improve the accuracy of the output data with respect to the input data.
  • the training model may include a neural network (NeuralNetwork), RandomForest, GeneticProgramming, regression model, tree model, Bayesian model, time series model, clustering model, ensemble learning model, etc. including.
  • the neural network includes a plurality of node layers including an input layer and an output layer.
  • the node layer contains one or more nodes.
  • the neural network When the neural network includes an input layer, an intermediate layer, and an output layer, the neural network performs output processing from the input layer to the intermediate layer and output processing from the intermediate layer to the output layer for the information input to the nodes of the input layer. Are sequentially performed, and the output result matching the input information is output.
  • Each node in one layer is connected to each node in the next layer, and the connections between the nodes are weighted.
  • the information of the node of one layer is weighted for the connection between the nodes and output to the node of the next layer.
  • the state information related to the work is used as input data, and the reliability of each candidate for the work position related to the work corresponding to the state indicated by the state information is used as output data.
  • the state information related to the work and the first attribute information and the second attribute information corresponding to the state indicated by the state information may be input data.
  • the reliability may be a probability of being a correct answer, and may be expressed by, for example, a score or the like.
  • the state information about the work included in the learning data is used as the input data for learning, and the information of the selected work position actually executed for the work is used as the teacher data.
  • the learning model may use the state information related to the work included in the learning data and the first attribute information and the second attribute information corresponding to the state indicated by the state information as input data.
  • the learning unit 403 matches or minimizes the reliability of each candidate work position output by the learning model when input data is input and the selection work position of the teacher data. Adjust the weighting of the connection between the nodes in the neural network so that it becomes the same.
  • the learning model after such weighting adjustment can output the reliability of each candidate of the work position corresponding to the state indicated by the state information with high accuracy.
  • the input data processing unit 404 receives information to be input to the learning model of the learning unit 403 from the outside, converts the information into state information that can be input to the learning model, and outputs the information to the learning unit 403.
  • the input data processing unit 404 may accept information about the work, first attribute information, and second attribute information.
  • the information about the work includes information such as a virtual model generated by the model generation unit 141e of the information processing device 141A, information such as data after image processing by the first image processing unit 141d1, the image pickup device 131, and the image pickup device 131.
  • the input data processing unit 404 may convert information about such a work into information indicating the state of the work and the components of the surrounding environment such as the positions and postures of the components of the work and the surrounding environment.
  • the input data processing unit 404 may receive the information from any device capable of outputting information about the work.
  • the output data processing unit 405 determines the optimum work position using the reliability of each of the work position candidates related to the work output by the learning unit 403, and outputs the information on the optimum work position.
  • the output data processing unit 405 may output the information to a device related to the control of the robot.
  • the output data processing unit 405 may output the information to a device having a function such as a scheduled operation detection unit 141g of the information processing device 141A, an operation command unit 141h, or a combination thereof, and the robot controller 142 may output the information. It may be output to such a device.
  • the output data processing unit 405 may be configured to determine the most reliable work position among the work position candidates related to the work as the optimum work position.
  • the most reliable working position is one of the working position candidates.
  • the most reliable working position is one of the gripping positions GP1 to GP8 shown in FIG.
  • the output data processing unit 405 may be configured to determine the optimum working position from an arbitrary position with respect to the work.
  • the output data processing unit 405 functions the relationship between the work position and its reliability by using the work position candidate and the information of each reliability, and uses the function to determine the most reliable work position. You may calculate.
  • the most reliable working position is not limited to the candidate working position.
  • the most reliable work position is determined to be an arbitrary position on the work WA, and from the grip position GP1 to the position on the work WA other than GP8 shown in FIG. 5, for example, from the grip position GP1. It may be a position between GP8.
  • the learning device 400 learns the judgment result of the user P for the operation of the robot 110 that requires the judgment of the user P, and outputs the optimum judgment result for the operation of the robot 110 instead of the user P. be able to.
  • the learning device 400 can learn various judgment results of the user P even from the log information of one information processing device 141A in one robot area AR.
  • the learning device 400 can learn various judgment results from the log information of various information processing devices 141A in various robot areas AR.
  • the learning device 400 can learn various determination results from the log information of the server 310. Such a learning device 400 can improve the output data with high accuracy.
  • the learning model of the learning unit 403 includes the function of the output data processing unit 405, and may be configured to output the same output data as the output data processing unit 405.
  • the work of the robot 110 targeted by the robot system 1 is the work of gripping and transferring the work W, but is not limited thereto.
  • the robot system 1 may target any work.
  • the robot system 1 may be targeted for operations such as assembling a work to an assembly target, assembling the work, welding, grinding, painting, and sealing.
  • the first attribute information may be the first attribute information such as the work, the welding target portion, the grinding target portion, the painting target portion, and the sealing target portion.
  • the working position related to the work may be, for example, a position on the work, a welding target portion, a grinding target portion, a painting target portion, a sealing target portion, or the like.
  • the second attribute information may be the second attribute information such as an assembly target of the work, other parts assembled together with the work, a welding target, a grinding target, a painting target, and a sealing target.
  • the working positions related to the work are, for example, the position of the work with respect to the assembly target, the position of the work with respect to other parts, the position of the welding target part on the welding target, the position of the grinding target part on the grinding target, and the painting target. It may be the position of the portion to be painted above, the position of the portion to be sealed on the object to be sealed, and the like.
  • the control device 140 transmits the candidate of the gripping position of the work W and the candidate of the arrangement position of the work W in the transport vehicle 122A or 122B to the operation terminal 210, and requests the user P to select. It is composed.
  • the elements requested by the control device 140 to be selected are not limited to these, and may be any elements that can be selected at the discretion of the user P.
  • the control device 140 may be configured to send candidates such as the posture of the work W and the gripping force to the work W in each operation of the robot 110 to the operation terminal 210 and request the user P to select. ..
  • control device 140 is configured not to directly control the drive of the motor of the belt conveyor 121, but may be configured to be directly controlled as an external axis control. As a result, the control device 140 can control the operation of the robot 110 and the operation of the belt conveyor 121 in a highly accurate manner.
  • the control device 140 extracts the work W and the like and the three-dimensional position of the work W and the like by using the image data captured by the image pickup device 131 in order to detect the state information about the work W. It is configured to perform image processing for detection and the like, but is not limited to this.
  • the image data used for the image processing may be any image data of an image pickup device capable of capturing the work W.
  • image data captured by the image pickup device 132 that captures the work W from above may be used.
  • the control device 140 can perform image processing on the image data of the image pickup device 132 before the robot arm 111 returns the end effector 112 to the vicinity of the belt conveyor 121 after the work W is transferred. Therefore, quick work becomes possible.
  • the control device 140 is configured to use the image data captured by the work W for acquiring the state information regarding the work W, but the present invention is not limited to this.
  • the control device 140 relates to the work W by using the detection result of the external sensor which is a sensor arranged separately from the work W, the detection result of the mounted sensor which is the sensor arranged in the work W, or a combination thereof. It may be configured to acquire state information.
  • the external sensor may be configured to detect the position and posture of the work W from the outside of the work W.
  • an external sensor detects a work W using a light wave, a laser, a magnetism, a radio wave, an electromagnetic wave, an ultrasonic wave, or a combination of two or more thereof, and a photoelectric sensor, a laser sensor, a radio wave sensor, an electromagnetic wave sensor, etc. It may be an ultrasonic sensor, various lidars (LiDAR), or a combination of two or more thereof.
  • the on-board sensor may be configured to move together with the work W and detect the position, posture, and the like of the work W.
  • the on-board sensor may be an acceleration sensor, an angular velocity sensor, a magnetic sensor, a GPS (Global Positioning System) receiver, or a combination of two or more thereof.
  • the information processing apparatus 141 may be configured to use AI (Artificial Intelligence) for processing.
  • AI is an image process of image data captured by image pickup devices 131 and 132, a process of generating a virtual model using information such as a work W extracted from the image data, and attribute information and virtual. It can be used for processing and the like to determine a candidate for a work position related to the work W by using a model or the like.
  • AI may include a learning model that performs machine learning.
  • the training model may include a neural network.
  • the learning model that performs image processing may use image data as input data and output information such as the edge of a subject projected on the image data, a three-dimensional position, or a combination thereof.
  • the learning model that generates a virtual model may use the information of the edge of the subject extracted from the image data, the three-dimensional position, or a combination thereof as input data, and the information of the virtual model of the subject as output data. ..
  • the learning model for determining the work position candidate for the work W may use the information of the virtual model of the work W and its surrounding elements as input data, and the work position candidate such as the grip position of the work W as output data. ..
  • the learning model may be a model for machine learning using the learning data corresponding to the input data and the teacher data corresponding to the output data.
  • the server 310 is configured to connect a selected one of the plurality of operating terminals 210 to a robot group that is a combination of the robot 110 and its control device 140. However, it is not limited to this.
  • the server 310 may be configured to connect a selected one of the plurality of operating terminals 210 to a selected one of the plurality of robot groups.
  • the control device is a control device that controls a robot to execute a predetermined work by automatic operation, and includes a first processor, wherein the first processor works while the predetermined work is being executed. Acquiring state information including the state of the target work, determining a candidate for a work position related to the work based on the state information, and selecting the work position from the candidates for the work position.
  • the selection request for requesting is transmitted to the operation terminal connected to the operation terminal via the communication network and the information of the selected position which is the selected work position is received from the operation terminal, the selection is performed.
  • the robot is automatically operated according to the position.
  • the user of the operation terminal does not directly operate the robot for manual operation by using the operation terminal, but performs an indirect operation for automatic operation according to the command of the selected position. ..
  • the user is not required to have operation skills for direct operation, and can make the robot perform the intended operation by a simple operation.
  • the control device can cause the robot to perform the appropriate movement without being affected by the user's skill level by following the selection position determined by the user. .. Since the user is not required to have direct operation skills, various users can participate in the operation of the robot.
  • the operation terminal may be capable of selecting the selected position by the user and transmitting information on the selected position to the control device.
  • the operation terminal is not limited to the operation terminal dedicated to the robot, and various terminals can be applied. Further, since the amount of communication data between the operation terminal and the control device is suppressed to a low level, quick and reliable communication using various communication networks is possible. Therefore, the control device can be connected to various operation terminals of various users in various places by using communication via a communication network, and can be operated by the robot according to the operation of the user. Therefore, the operation of the robot operation, which requires the judgment of the operator, is automated, which makes it possible to diversify the operators who can operate the robot.
  • the first processor acquires the first image data which is the data of the image captured by the work, and the first image data.
  • the state information may be detected by image processing.
  • the control device can perform the process from the detection of the state information about the work to the determination of the candidate work position by itself.
  • the first processor acquires the first image data which is the data of the image captured by the work, and said.
  • the second image data which is the data of the image representing the candidate of the working position on the image of the first image data is generated, and the selection using the second image data.
  • the request may be sent to the operating terminal.
  • the control device can request the selection of the selected position by using the image showing the candidate of the working position on the image in which the work is captured.
  • the first processor when the first processor receives the information of the selected position from the operation terminal, the first processor detects the scheduled operation of the robot according to the selected position and the scheduled operation.
  • the information of the above may be further transmitted to the operation terminal and presented.
  • the control device can present to the user the scheduled motion of the robot according to the selected position. For example, the control device may cause the robot to execute the scheduled operation after the user permits the scheduled operation.
  • the first processor may accept a change of the scheduled operation by the operation terminal and cause the robot to operate by automatic operation according to the changed scheduled operation.
  • the user can change the scheduled motion presented to the operation terminal and cause the robot to execute the scheduled motion after the change. For example, when the user confirms that the robot interferes with a surrounding object in the scheduled motion, the user can change the scheduled motion so as to avoid the interference by using the operation terminal. In this case, the user may change the selected position, for example, or may change the operation path of the robot in the scheduled operation. Reliable and safe robot operation is possible.
  • the control device further includes a first storage device, and the first storage device contains first attribute information including information on the characteristics of the work and the predetermined work set in the work.
  • the first processor may be stored and the robot may be automatically operated according to the first attribute information and the selected working position.
  • the control device can cause the robot to perform an operation suitable for the work.
  • the control device is based on the first attribute information and the gripping force in the operation of the robot gripping the work. Can be determined.
  • the control device determines the posture and moving speed of the work in the motion of the robot moving the work based on the first attribute information. can do.
  • the first processor further executes to transmit and present the first attribute information corresponding to the selected position to the operation terminal, and the first processor is said to be said. Even if the operation terminal accepts the change of the first attribute information, the first attribute information is changed according to the received change content, and the robot is automatically operated according to the changed first attribute information and the selected position. good.
  • the control device can determine the operation of the robot according to the first attribute information according to the judgment of the user of the operation terminal. The control device can reflect the judgment result of the user other than the selected position in the operation control of the robot.
  • the first attribute information includes information on a position where the robot can apply an action to the work, and in the process of determining a candidate for the work position, the first attribute information.
  • the circuit may use the first attribute information to determine a candidate for a position where the robot acts on the work as a candidate for the working position.
  • the control device stores the information of the candidate of the action position set in the work as the first attribute information. Therefore, the control device can keep the amount of processing for determining the candidate of the working position low.
  • the control device further comprises a first storage device, wherein the first storage device includes information on the characteristics of the surrounding environment of the work and the predetermined work set in the peripheral environment. Two attribute information may be stored, and the first processor may cause the robot to operate by automatic operation according to the second attribute information and the selected position.
  • the control device can cause the robot to perform an operation suitable for the surrounding environment.
  • the control device shall be included in the second attribute information. Based on this, it is possible to determine the speed and acceleration of the work in the motion of the robot placing the work on the placement surface.
  • the control device operates the robot to arrange the work based on the second attribute information. It is possible to determine the arrangement order and arrangement direction of the work.
  • the first processor further executes to transmit and present the second attribute information corresponding to the selected position to the operation terminal, and the first processor is said to be said. Even if the operation terminal accepts the change of the second attribute information, the second attribute information is changed according to the received change content, and the robot is automatically operated according to the changed second attribute information and the selected position. good.
  • the control device can determine the operation of the robot according to the second attribute information according to the judgment of the user of the operation terminal. The control device can reflect the judgment result of the user other than the selected position in the operation control of the robot.
  • the second attribute information includes information on the position of the work with respect to the surrounding environment, and in the process of determining a candidate for the work position, the first processor is the first.
  • the two attribute information may be used to determine a candidate for the position of the work with respect to the surrounding environment as a candidate for the position of the work.
  • the control device stores the information of the candidate position of the work with respect to the surrounding environment set in the surrounding environment as the second attribute information. Therefore, the control device can keep the amount of processing for determining the candidate of the working position low.
  • the robot system according to one aspect of the present disclosure includes a control device according to one aspect of the present disclosure and the robot controlled by the control device. According to the above aspect, the same effect as that of the control device according to one aspect of the present disclosure can be obtained.
  • the robot system includes a plurality of robot groups including a plurality of combinations of the control device and the robot controlled by the control device, and an intermediary device connected to the communication network so as to be capable of data communication. It is further provided with an intermediary device that mediates the connection between the selected operation terminal among the plurality of the operation terminals and the control device of the selected robot group among the plurality of robot groups. May be good.
  • any user among the users of the plurality of operation terminals can make the robot of any robot group among the plurality of robot groups operate according to the selected position. For example, it is possible for a plurality of users to take turns to indirectly operate a robot in one robot group. This enables continuous work of the robot while reducing the operational load of each user. For example, it is possible to indirectly operate the robot by a robot among a plurality of users and a user suitable for a predetermined work.
  • the learning device comprises a second processor and a second storage device, wherein the second storage device is the state acquired in one or more control devices according to one aspect of the present disclosure.
  • the information and the selected position corresponding to the state information are stored as learning data, and the selected position corresponding to the state information is the selected position selected from the candidates for the working position based on the state information.
  • the second processor learns by using the state information of the learning data as learning input data and the information of the selected position of the learning data corresponding to the state information as teacher data.
  • the input state information which is the state information including the work state, is accepted as input data, and the optimum work position information among the work position candidates related to the work corresponding to the input state information is output as output data. To execute.
  • the learning device can learn the selection result of the work position by the user of the operation terminal, that is, the judgment result of the user.
  • the learning device after learning can determine and output the optimum work position among the candidate work positions on behalf of the user of the operation terminal. Therefore, the learning device can further automate the operation of the robot operation that requires the judgment of the user.
  • the second processor and the second storage device may be separate from or integrated with the first processor and the first storage device, respectively.
  • the learning device comprises a second processor and a second storage device, wherein the second storage device is the state acquired in one or more control devices according to one aspect of the present disclosure.
  • the information and the selected position corresponding to the state information are stored as learning data, and the selected position corresponding to the state information is the selected position selected from the candidates for the working position based on the state information.
  • the second processor learns by using the state information of the learning data as input data for learning and the information of the selected position of the learning data corresponding to the state information as teacher data. Based on the fact that input state information, which is state information including the state of the work, is accepted as input data, and the reliability of work position candidates related to the work corresponding to the input state information is output as output data.
  • the optimum work position is determined from an arbitrary position with respect to the work, and the information of the optimum work position is output.
  • the learning device can learn the selection result of the work position by the user of the operation terminal, that is, the judgment result of the user.
  • the learning device after learning can determine and output the optimum position for the working position among arbitrary positions on behalf of the user of the operation terminal. Therefore, the learning device can further automate the operation of the robot operation that requires the judgment of the user.
  • the second processor and the second storage device may be separate from or integrated with the first processor and the first storage device, respectively.
  • circuits including general purpose processors, dedicated processors, integrated circuits, ASICs, conventional circuits, and / or combinations thereof, configured or programmed to perform the disclosed functions. Alternatively, it can be executed using a processing circuit.
  • a processor is considered a processing circuit or circuit because it includes transistors and other circuits.
  • a circuit, unit, or means is hardware that performs the listed functions or is programmed to perform the listed functions.
  • the hardware may be the hardware disclosed herein, or it may be other known hardware that is programmed or configured to perform the listed functions. If the hardware is a processor considered to be a type of circuit, the circuit, means, or unit is a combination of hardware and software, and the software is used to configure the hardware and / or processor.
  • the division of blocks in the functional block diagram is an example, and multiple blocks are realized as one block, one block is divided into multiple blocks, some functions are transferred to other blocks, or two or more of these are combined. It may be combined. A single piece of hardware or software may process the functions of multiple blocks with similar functions in parallel or in a time division manner.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

ロボット(110)に自動運転で所定作業を実行させる制御を行う制御装置(140)は、第1プロセッサを備え、前記第1プロセッサは、前記所定作業の実行中、作業対象であるワーク(W)の状態を含む状態情報を取得することと、前記状態情報に基づき、前記ワークに関する作業位置の候補を決定することと、前記作業位置の候補の中から前記作業位置を選択することを要求する選択要求を、通信ネットワークを介してデータ通信可能に接続される操作端末(210)に送信することと、前記操作端末から、選択された前記作業位置である選択位置の情報を受信すると、前記選択位置に従って前記ロボットに自動運転で動作させることとを実行する。

Description

制御装置、ロボットシステム及び学習装置 関連出願への相互参照
 本件出願は、2020年12月18日に日本特許庁に出願された特願2020-210012号の優先権及びその利益を主張するものであり、その全体を参照することにより本件出願の一部をなすものとして引用する。
 本開示は、制御装置、ロボットシステム及び学習装置に関する。
 従来、手動操縦と自動操縦とを組み合わせた制御により、ロボットに所定の作業を実行させる技術がある。例えば、特開昭62-199376号公報は、マスタ及びスレーブを用いた遠隔マニピュレーション装置を開示する。この装置は、操作者の技能の程度を示すデータ及び作業目標から、手動操作部分と自動操作部分とを混ぜた手順プランを作成し、手順プランに沿ってスレーブの動作を制御する。
 例えば、一連の作業の中で、操作者の判断が必要であるスレーブの動作は、特開昭62-199376号公報に開示される手動操作部分に該当し得る。手動操作部分の操作者には、操作技能が要求される。近年、ロボット操作の熟練者の高齢化及び後継者不足により、熟練者の減少が懸念される。
 本開示は、操作者の判断が必要であるロボットの動作の操作を自動化し、操作可能な操作者の多様化を可能にする制御装置、ロボットシステム及び学習装置を提供することを目的とする。
 本開示の一態様に係る制御装置は、ロボットに自動運転で所定作業を実行させる制御を行う制御装置であって、第1プロセッサを備え、前記第1プロセッサは、前記所定作業の実行中、作業対象であるワークの状態を含む状態情報を取得することと、前記状態情報に基づき、前記ワークに関する作業位置の候補を決定することと、前記作業位置の候補の中から前記作業位置を選択することを要求する選択要求を、通信ネットワークを介してデータ通信可能に接続される操作端末に送信することと、前記操作端末から、選択された前記作業位置である選択位置の情報を受信すると、前記選択位置に従って前記ロボットに自動運転で動作させることとを実行する。
図1は、実施の形態に係るロボットシステムの構成の一例を示す概略図である。 図2は、実施の形態に係るロボットエリアの構成の一例を示す図である。 図3は、実施の形態に係る制御装置のハードウェア構成の一例を示すブロック図である。 図4は、実施の形態に係る制御装置の機能的構成の一例を示すブロック図である。 図5は、実施の形態に係る第1属性情報に含まれるワーク作業情報の一例を示す図である。 図6は、実施の形態に係る第1属性情報に含まれるワーク作業情報の一例を示す図である。 図7は、実施の形態に係る第2属性情報に含まれる周辺環境作業情報の一例を示す図である。 図8は、把持対象のワークに決定される提示対象の把持位置の候補の一例を示す図である。 図9は、ワークの移送先の搬送車に決定される提示対象の配置位置の候補の一例を示す図である。 図10は、実施の形態に係るロボットの予定動作の表示例を示す図である。 図11Aは、実施の形態に係るロボットシステムの動作の一例を示すフローチャートである。 図11Bは、実施の形態に係るロボットシステムの動作の一例を示すフローチャートである。 図11Cは、実施の形態に係るロボットシステムの動作の一例を示すフローチャートである。 図12は、変形例に係る制御装置及び学習装置の機能的構成の一例を示すブロック図である。
 以下において、本開示の例示的な実施の形態を、図面を参照しつつ説明する。以下で説明する実施の形態は、いずれも包括的又は具体的な例を示すものである。以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。添付の図面における各図は、模式的な図であり、必ずしも厳密に図示されたものでない。各図において、実質的に同一の構成要素に対しては同一の符号を付しており、重複する説明は省略又は簡略化される場合がある。本明細書及び請求項では、「装置」とは、1つの装置を意味し得るだけでなく、複数の装置からなるシステムも意味し得る。
 [ロボットシステムの構成]
 例示的な実施の形態に係るロボットシステム1の構成を説明する。図1は、実施の形態に係るロボットシステム1の構成の一例を示す概略図である。図1に示すように、ロボットシステム1は、ロボット110から離れた位置にいる操作者であるユーザPがリモートアクセス環境でロボット110を操作することを可能にするシステムである。ロボットシステム1は、1つ以上のロボットエリアARに配置される構成要素と、1つ以上のユーザエリアAUに配置される構成要素とを含む。限定されないが、本実施の形態では、1つのロボットエリアARと、複数のユーザエリアAUとが、ロボットシステム1の対象として存在する。
 ロボットエリアARは、1つ以上のロボット110が配置されるエリアである。限定されないが、本実施の形態では、ロボット110は産業用ロボットであり、作業を実施する。ロボット110は、産業用ロボットに代えて、サービスロボット、建設機械、トンネル掘削機、クレーン、荷役搬送車、及びヒューマノイド等であってもよい。サービスロボットは、介護、医療、清掃、警備、案内、救助、調理、商品提供等の様々なサービス業で使用されるロボットである。ロボットエリアARには、ロボット110が作業を行うための周辺環境を形成する構成要素も配置される。
 ユーザエリアAUは、ロボット110を操作するユーザPが滞在するエリアである。限定されないが、本実施の形態では、ユーザエリアAUはロボットエリアARから離れた位置に配置され、ロボットシステム1では、多数のユーザエリアAUの多数のユーザPがロボットエリアARのロボット110を操作することができる。例えば、多数のユーザエリアAUは、ロボットエリアARを含む工場の敷地内の様々な位置、工場を運営する企業の様々な施設内の位置、日本中の様々な位置、又は世界中の様々な位置等に存在してもよい。
 図2は、実施の形態に係るロボットエリアARの構成の一例を示す図である。図1及び図2に示すように、ロボットエリアARにおいて、ロボットシステム1は、1つ以上のロボット110と、ロボット110の周辺機器120と、撮像装置131から134と、制御装置140と、ロボット通信装置150とを含む。制御装置140は、ロボット110、周辺機器120、撮像装置131から134並びにロボット通信装置150と、有線通信、無線通信又はこれらの組み合わせを介して接続される。いかなる有線通信及び無線通信が用いられてもよい。ロボット通信装置150は、通信ネットワークNとデータ通信可能に接続される。
 図1に示すように、各ユーザエリアAUにおいて、ロボットシステム1は、操作端末210と、ユーザ通信装置220と、提示装置230とを含む。ユーザ通信装置220は、操作端末210及び提示装置230と、有線通信、無線通信又はこれらの組み合わせを介して接続される。いかなる有線通信及び無線通信が用いられてもよい。ユーザ通信装置220は、通信ネットワークNとデータ通信可能に接続される。例えば、1つのユーザエリアAUに複数のユーザPが存在する場合、当該ユーザエリアAUに、1つ以上の操作端末210と1つ以上の提示装置230と1つ以上のユーザ通信装置220とが配置されてもよい。
 さらに、ロボットシステム1は、通信ネットワークNとデータ通信可能に接続されるサーバ310を含む。サーバ310は、通信ネットワークNを介した通信を管理する。サーバ310は、コンピュータ装置を含む。サーバ310は、ロボット通信装置150とユーザ通信装置220との間の通信の認証、接続及び接続解除等を管理する。例えば、サーバ310は、ロボットシステム1に登録されているロボット通信装置150及びユーザ通信装置220の識別情報及びセキュリティ情報等を記憶し、当該情報を用いて、各装置のロボットシステム1への接続の資格を認証する。サーバ310は、ロボット通信装置150とユーザ通信装置220との間のデータの送受信を管理し、当該データはサーバ310を経由してもよい。サーバ310は、送信元から送信されるデータを、送信先が利用可能なデータ型式に変換するように構成されてもよい。サーバ310は、ロボット110の操作の過程で操作端末210と制御装置140との間で送受信された情報、指令及びデータ等を記憶し蓄積するように構成されてもよい。サーバ310は仲介装置の一例である。
 通信ネットワークNは特に限定されず、例えば、ローカルエリアネットワーク(Local Area Network:LAN)、広域ネットワーク(Wide Area Network:WAN)、インターネット、又はこれらの2つ以上の組み合わせを含むことができる。通信ネットワークNは、ブルートゥース(Bluetooth)(登録商標)及びZigBee(登録商標)などの近距離無線通信、ネットワーク専用回線、通信事業者の専用回線、公衆交換電話網(Public Switched Telephone Network:PSTN)、モバイル通信網、インターネット網、衛星通信、又は、これらの2つ以上の組み合わせを用いるように構成され得る。モバイル通信網は、第4世代移動通信システム及び第5世代移動通信システム等を用いるものであってもよい。通信ネットワークNは、1つ又は複数のネットワークを含むことができる。本実施の形態では、通信ネットワークNはインターネットである。
 [ロボットエリアの構成要素]
 ロボットエリアARの構成要素の一例を説明する。図1及び図2に示すように、本実施の形態では、ロボット110は、ロボットアーム111と、ロボットアーム111の先端に取り付けられるエンドエフェクタ112とを備える。ロボットアーム111は複数の関節を有し、多自由度に動作することができる。ロボットアーム111は、エンドエフェクタ112を様々な位置及び姿勢に移動させることができる。エンドエフェクタ112は、処理の対象物であるワークWに作用を加えることができる。エンドエフェクタ112の作用は特に限定されないが、本実施の形態ではワークWを把持する作用である。
 限定されないが、本実施の形態では、ロボットアーム111は、6つの関節JT1からJT6と、関節JT1からJT6のそれぞれを駆動する駆動装置としてのサーボモータRM1からRM6とを含む。ロボットアーム111の関節の数量は、6つに限定されず、5つ以下又は7つ以上のいかなる数量であってもよい。エンドエフェクタ112は、把持動作を可能である把持部分112aと、把持部分112aを駆動する駆動装置としてのサーボモータEM1とを含む。例えば、把持部分112aは、サーボモータEM1の駆動によって把持動作及び把持解除動作をする2つ以上の指状部材を含んでもよい。エンドエフェクタ112の駆動装置は、サーボモータEM1を必須とせず、エンドエフェクタ112の構成に応じた構成を有すればよい。例えば、エンドエフェクタ112が負圧によりワークWを吸着する構成を有する場合、エンドエフェクタ112は、その駆動装置としての負圧発生装置と接続される。
 周辺機器120は、ロボット110の周辺に配置される。例えば、周辺機器120は、ロボット110の動作と連携して動作させられてもよい。周辺機器120の動作は、ワークWに作用を与える動作であってもよく、当該作用を与えない動作であってもよい。限定されないが、本実施の形態では、周辺機器120は、ワークWを搬送可能なベルトコンベヤ121と、ワークWを自律的に搬送可能である無人搬送車(以下、単に「搬送車」と表記する)122A及び122Bとを含む。例えば、無人搬送車は、AGV(Automatic Guided Vehicle)であってもよい。周辺機器120は必須ではない。以下において、「ベルトコンベヤ121」及び「搬送車122A及び122B」について、個別に表現される場合にそれぞれの呼称が用いられ、まとめて表現される場合に「周辺機器120」という呼称が用いられ得る。
 撮像装置131から134は、デジタル画像を撮像するカメラを備え、カメラによって撮像された画像のデータを制御装置140に送るように構成される。制御装置140は、撮像装置131から134によって撮像された画像データをネットワーク送信可能なデータに処理し、通信ネットワークNを介して、ユーザエリアAUの操作端末210、提示装置230又はこれらの両方に送るように構成されてもよい。カメラは、被写体までの距離等のカメラに対する被写体の3次元位置を検出するための画像を撮像できるカメラであってもよい。3次元位置は、3次元空間内での位置である。例えば、カメラは、ステレオカメラ、単眼カメラ、TOFカメラ(トフカメラ:Time-of-Flight-Camera)、縞投影等のパターン光投影カメラ、又は光切断法を用いたカメラ等の構成を有してもよい。本実施の形態では、ステレオカメラが用いられる。
 撮像装置131は、ロボットアーム111の先端付近に配置され、エンドエフェクタ112に向けて方向付けられている。撮像装置131は、エンドエフェクタ112の作用対象のワークWを撮像することができる。撮像装置131は、上記ワークWを撮像できれば、ロボット110のいかなる位置に配置されてもよい。撮像装置132は、ロボットエリアAR内で固定して配置され、ロボット110及びベルトコンベヤ121を、例えば上方から撮像する。撮像装置133及び134はそれぞれ、ロボットエリアAR内で固定して配置され、ロボット110の近傍の待機場所に待機する搬送車122A及び122Bを、例えば上方から撮像する。撮像装置131から134は、それぞれのカメラを支持し、当該カメラの向きを自在に変えるように動作することができる雲台を備えてもよい。撮像装置131から134の動作、つまりカメラ及び雲台の動作は、制御装置140によって制御される。
 制御装置140は、情報処理装置141とロボットコントローラ142とを含む。ロボットコントローラ142は、ロボット110及び周辺機器120の動作を制御するように構成される。情報処理装置141は、ロボット通信装置150とユーザ通信装置220との間で送受信される様々な情報、指令及びデータ等を処理するように構成される。例えば、情報処理装置141は、ロボットコントローラ142及び撮像装置131から134から受け取る指令、情報及びデータ等を処理し、操作端末210、提示装置230又はこれらの両方に送るように構成される。例えば、情報処理装置141は、操作端末210から受け取る指令、情報及びデータ等を処理し、ロボットコントローラ142に送るように構成される。
 情報処理装置141及びロボットコントローラ142はコンピュータ装置を含む。情報処理装置141の構成は特に限定されないが、例えば、情報処理装置141は、電子回路基板、電子制御ユニット、マイクロコンピュータ、パーソナルコンピュータ、ワークステーション、スマートフォン及びタブレットなどのスマートデバイス、並びにその他の電子機器等であってもよい。ロボットコントローラ142は、ロボット110及び周辺機器120に供給する電力を制御するための電気回路を含んでもよい。
 ロボット通信装置150は、通信ネットワークNと接続可能である通信インタフェースを備える。ロボット通信装置150は、制御装置140と、具体的には情報処理装置141と接続され、情報処理装置141と通信ネットワークNとをデータ通信可能に接続する。ロボット通信装置150は、例えば、モデム、ONU(Optical Network Unit:光回線の終端装置)、ルータ及びモバイルデータ通信機器等の通信機器を含んでもよい。ロボット通信装置150は、演算機能等を有するコンピュータ装置を含んでもよい。ロボット通信装置150は、制御装置140に含まれてもよい。
 [ユーザエリアの構成要素]
 ユーザエリアAUの構成要素の一例を説明する。図1に示すように、操作端末210は、ユーザPによる指令、情報及びデータ等の入力を受け付け、受け付けた指令、情報及びデータ等を他の装置に出力するように構成される。操作端末210は、ユーザPによる入力を受け付ける操作入力装置211と、端末コンピュータ212とを含む。端末コンピュータ212は、操作入力装置211を介して受け付けた指令、情報及びデータ等を処理し他の装置に出力すること、及び、他の装置からの指令、情報及びデータ等の入力を受け付け、当該指令、情報及びデータ等を処理することを実行するように構成される。限定されないが、本実施の形態では、操作端末210は、制御装置140から送られる撮像装置131から134の画像データを提示装置230に表示可能なデータに変換し、提示装置230に出力し表示させる。操作端末210は、操作入力装置211及び端末コンピュータ212を、一体の装置として含んでもよく、別々の装置として含んでもよい。
 操作端末210の構成は特に限定されず、例えば、操作端末210は、パーソナルコンピュータなどのコンピュータ、スマートフォン及びタブレットなどのスマートデバイス、個人情報端末、ゲーム端末、ロボットへの教示作業に使用されるティーチペンダントなどの既知の教示装置、ロボットの既知の操作装置、その他の操作装置、その他の端末装置、これらを利用する装置、並びに、これらを改良した装置等であってもよい。操作端末210は、ロボットシステム1のために考案される専用の装置であってもよいが、一般市場において入手可能な汎用的な装置であってもよい。本実施の形態では、操作端末210には既知の汎用的な装置が用いられる。当該装置は、専用のソフトウェアがインストールされることによって、本開示の操作端末210の機能を実現するように構成されてもよい。
 操作入力装置211の構成は特に限定されず、例えば、操作入力装置211は、ボタン、レバー、ダイヤル、ジョイスティック、マウス、キー、タッチパネル及びモーションキャプチャ等のユーザPの操作を介して入力される装置を含んでもよい。本実施の形態では、操作入力装置211は、上記装置として、既知の汎用的な装置を含む。
 本実施の形態では、操作端末210は、パーソナルコンピュータ、スマートフォン又はタブレットである。操作端末210は、パーソナルコンピュータである場合、ユーザ通信装置220及び提示装置230を含まないが、これらのうちの1つ以上を含んでもよい。操作端末210は、スマートフォン又はタブレットである場合、ユーザ通信装置220及び提示装置230を含む。
 提示装置230は、画像をユーザPに表示するディスプレイを含む。提示装置230は、操作端末210を介して制御装置140から受け取る画像データの画像を表示する。上記画像データの例は、撮像装置131から134によって撮像された画像データ、及び、ロボット110の操作に関連する画面のデータである。提示装置230は、音声をユーザPに発するスピーカを含んでもよい。提示装置230は、操作端末210を介して制御装置140から受け取る音声データの音声を出力する。提示装置230は、操作端末210に含まれてもよい。
 ユーザ通信装置220は、通信ネットワークNと接続可能である通信インタフェースを備える。ユーザ通信装置220は、操作端末210と接続され、操作端末210と通信ネットワークNとをデータ通信可能に接続する。ユーザ通信装置220は、例えば、モデム、ONU、ルータ及びモバイルデータ通信機器等の通信機器を含んでもよい。ユーザ通信装置220は、演算機能等を有するコンピュータ装置を含んでもよい。ユーザ通信装置220は、操作端末210に含まれてもよい。
 [制御装置のハードウェア構成]
 実施の形態に係る制御装置140のハードウェア構成の一例を説明する。図3は、実施の形態に係る制御装置140のハードウェア構成の一例を示すブロック図である。図3に示すように、情報処理装置141は、プロセッサ1411と、メモリ1412と、ストレージ1413と、入出力I/F(インタフェース:Interface)1414から1416とを構成要素として含む。情報処理装置141の各構成要素は、バス1417によって相互に接続されるが、いかなる有線通信又は無線通信で接続されてもよい。ロボットコントローラ142は、プロセッサ1421と、メモリ1422と、入出力I/F1423と、通信I/F1424及び1425と、駆動I/F1426とを構成要素として含む。ロボットコントローラ142は、ストレージを含んでもよい。ロボットコントローラ142の各構成要素は、バス1427によって相互に接続されるが、いかなる有線通信又は無線通信で接続されてもよい。情報処理装置141及びロボットコントローラ142それぞれに含まれる構成要素の全てが必須ではない。
 例えば、情報処理装置141は回路を含み、当該回路はプロセッサ1411及びメモリ1412を含む。ロボットコントローラ142は回路を含み、当該回路はプロセッサ1421及びメモリ1422を含む。これらの回路は、処理回路を含み得る。情報処理装置141の回路、プロセッサ1411及びメモリ1412はそれぞれ、ロボットコントローラ142の回路、プロセッサ1421及びメモリ1422に対して、別々であってもよく、一体化されてもよい。回路は、他の装置との指令、情報及びデータ等の送受信を行う。回路は、各種機器からの信号の入力及び各制御対象への制御信号の出力を行う。プロセッサ1411及び1421は、第1プロセッサの一例である。
 メモリ1412及び1422はそれぞれ、プロセッサ1411及び1421が実行するプログラム、及び各種データ等を記憶する。メモリ1412及び1422は、例えば、揮発性メモリ及び不揮発性メモリである半導体メモリ等の記憶装置を含んでもよい。限定されないが、本実施の形態では、メモリ1412及び1422は、揮発性メモリであるRAM(Random Access Memory)と不揮発性メモリであるROM(Read-Only Memory)とを含む。メモリ1412及び1422は、第1記憶装置の一例である。
 ストレージ1413は、各種データを記憶する。ストレージ1413は、ハードディスクドライブ(HDD:Hard Disk Drive)及び固体ドライブ(SSD:Solid State Drive)等の記憶装置を含んでもよい。ストレージ1413は、第1記憶装置の一例である。
 プロセッサ1411及び1421はいずれも、RAM及びROMと一緒にコンピュータシステムを形成する。情報処理装置141のコンピュータシステムは、プロセッサ1411がRAMをワークエリアとして用いてROMに記録されたプログラムを実行することによって、情報処理装置141の機能を実現してもよい。ロボットコントローラ142のコンピュータシステムは、プロセッサ1421がRAMをワークエリアとして用いてROMに記録されたプログラムを実行することによって、ロボットコントローラ142の機能を実現してもよい。
 情報処理装置141及びロボットコントローラ142の機能の一部又は全部は、上記コンピュータシステムにより実現されてもよく、電子回路又は集積回路等の専用のハードウェア回路により実現されてもよく、上記コンピュータシステム及びハードウェア回路の組み合わせにより実現されてもよい。情報処理装置141及びロボットコントローラ142はそれぞれ、単一の装置による集中制御により各処理を実行するように構成されてもよく、複数の装置の協働による分散制御により各処理を実行するように構成されてもよい。
 限定されないが、例えば、プロセッサ1411及び1421は、CPU(中央処理装置:Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、マイクロプロセッサ(microprocessor)、プロセッサコア(processor core)、マルチプロセッサ(multiprocessor)、ASIC(Application-Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等を含み、IC(集積回路)チップ、LSI(Large Scale Integration)等に形成された論理回路又は専用回路によって各処理を実現してもよい。複数の処理は、1つ又は複数の集積回路により実現されてもよく、1つの集積回路により実現されてもよい。
 情報処理装置141及びロボットコントローラ142は、互いの機能の少なくとも一部を含むように構成されてもよく、一体化されてもよい。
 情報処理装置141の第1入出力I/F1414は、情報処理装置141とロボットコントローラ142とを接続し、これらの間での情報、指令及びデータ等の入出力を可能にする。第2入出力I/F1415は、情報処理装置141とロボット通信装置150とを接続し、これらの間での情報、指令及びデータ等の入出力を可能にする。第3入出力I/F1416は、情報処理装置141と撮像装置131から134とを接続し、これらの間での情報、指令及びデータ等の入出力を可能にする。
 ロボットコントローラ142の入出力I/F1423は、ロボットコントローラ142と情報処理装置141の第1入出力I/F1414とを接続し、これらの間での情報、指令及びデータ等の入出力を可能にする。
 第1通信I/F1424は、ロボットコントローラ142とベルトコンベヤ121とを有線通信、無線通信又はこれらの組み合わせを介して接続し、これらの間での信号等の送受信を可能にする。第1通信I/F1424は通信回路を含んでもよい。例えば、ロボットコントローラ142は、稼働実行、稼働停止及び動作速度等のベルトコンベヤ121の動作状態を示す信号を受信し、当該動作状態に応じてロボット110の動作を制御するように構成されてもよい。ロボットコントローラ142は、移送状況等のワークWの処理状況に応じて動作状態を指令する信号をベルトコンベヤ121に送信し、ベルトコンベヤ121の動作を制御するように構成されてもよい。
 第2通信I/F1425は、ロボットコントローラ142と搬送車122A及び122Bとを有線通信、無線通信又はこれらの組み合わせを介して接続し、これらの間での信号等の送受信を可能にする。第2通信I/F1425は通信回路を含んでもよい。例えば、ロボットコントローラ142は、ロボット110に対する位置、待機位置への到着及び待機位置からの離脱等の搬送車122A及び122Bの動作状態を示す信号を受信し、当該動作状態に応じてロボット110の動作を制御するように構成されてもよい。ロボットコントローラ142は、積み込み状況等のワークWの処理状況に応じて動作状態を指令する信号を搬送車122A及び122Bに送信し、搬送車122A及び122Bの動作を制御するように構成されてもよい。
 駆動I/F1426は、ロボットコントローラ142とロボット110の駆動回路113とを接続し、これらの間での信号等の送受信を可能にする。駆動回路113は、ロボットコントローラ142から受信する信号に含まれる指令値に従って、ロボットアーム111のサーボモータRM1からRM6及びエンドエフェクタ112のサーボモータEM1に供給する電力を制御するように構成される。例えば、駆動回路113は、サーボモータRM1からRM6及びEM1に互いに連携させて駆動させることができる。
 ロボットコントローラ142は、サーボモータRM1からRM6及びEM1をサーボ制御するように構成されてもよい。ロボットコントローラ142は、サーボモータRM1からRM6及びEM1それぞれが備える回転センサの検出値と、駆動回路113からサーボモータRM1からRM6及びEM1への電流の指令値とを、フィードバック情報として駆動回路113から受信する。ロボットコントローラ142は、フィードバック情報を用いてサーボモータRM1からRM6及びEM1の駆動の指令値を決定し、駆動回路113に送信する。
 ロボットコントローラ142は、複数のサーボモータの軸制御を互いに連携するように構成されてもよい。ロボットコントローラ142は、複数の軸制御のうちの一部であるロボット軸制御としてサーボモータRM1からRM6を制御し、複数の軸制御のうちの一部である外部軸制御としてサーボモータEM1を制御するように構成されてもよい。
 操作端末210のハードウェア構成について、操作端末210には汎用的な装置が利用可能であるため、当該ハードウェア構成の詳細な説明を省略する。操作端末210の端末コンピュータ212は、情報処理装置141等と同様にプロセッサ及びメモリを含む。端末コンピュータ212は、端末コンピュータ212と操作入力装置211との接続、端末コンピュータ212とユーザ通信装置220との接続、及び、端末コンピュータ212と提示装置230との接続のそれぞれを確立するための入出力I/Fも含み得る。
 [制御装置の機能的構成]
 図4を参照しつつ、実施の形態に係る制御装置140の機能的構成の一例を説明する。図4は、実施の形態に係る制御装置140の機能的構成の一例を示すブロック図である。情報処理装置141は、受信情報処理部141aと、送信情報処理部141bと、撮像制御部141cと、画像処理部141d1から141d3と、モデル生成部141eと、候補決定部141fと、予定動作検出部141gと、動作指令部141hと、属性情報処理部141i1及び141i2と、記憶部141s1から141s5とを機能的構成要素として含む。記憶部141s1から141s5を除く機能的構成要素の機能は、プロセッサ1411等によって実現され、記憶部140s1から140s5の機能は、メモリ1412、ストレージ1413又はこれらの組み合わせ等によって実現される。上記の機能的構成要素の全てが必須ではない。
 ロボットコントローラ142は、駆動指令部142aと、動作情報処理部142bと、記憶部142cとを機能的構成要素として含む。駆動指令部142a及び動作情報処理部142bの機能は、プロセッサ1421等によって実現され、記憶部142cの機能は、メモリ1422等によって実現される。上記の機能的構成要素の全てが必須ではない。
 記憶部141s1から141s5及び142cは、様々な情報及びデータ等を記憶し、記憶している情報及びデータ等の読み出しを可能にする。
 第1記憶部141s1は、ロボット110に自動で所定作業を実行させるための制御プログラムを記憶する。例えば、制御プロラムは、ロボット110に目的の動作をさせる過程における、ロボット110の各部の動作量、動作方向、動作速度及び加速度等を演算するための演算プログラム、演算式又はこれらの組み合わせ等を含み得る。例えば、図2に示すように、本実施の形態では、制御プログラムは、ベルトコンベヤ121によって搬送される飲料瓶であるワークWを搬送車122A又は122Bに移載する所定作業を、ロボット110に自動で実行させるためのプログラムである。当該所定作業では、ワークWは、2種類のワークWA及びWBを含み、ワークWAは搬送車122Aに移載され、ワークWBは搬送車122Bに移載される。
 第1記憶部141s1は、ロボット110の情報を記憶してもよい。ロボット110の情報は、例えば、ロボットアーム111及びエンドエフェクタ112の種類、識別情報及び特性等を含み得る。ロボットアーム111の特性は、ロボットアーム111の位置、型式、形状、寸法、動作方向及び動作範囲等、並びに、関節の位置、種類、動作方向及び動作範囲等を含み得る。エンドエフェクタ112の特性は、エンドエフェクタ112の形状及び寸法、並びに、エンドエフェクタ112の動作部分の位置、動作方向及び動作範囲等を含み得る。ロボットアーム111及びエンドエフェクタ112の特性は、これらの弾性、塑性、靭性、脆性及び展延性等を含んでもよい。ロボット110の情報は、ロボットアーム111及びエンドエフェクタ112の2次元モデル及び3次元モデル等の仮想的なモデルを含んでもよい。
 第2記憶部141s2は、ワークWに関する情報を記憶する。例えば、第2記憶部141s2は、ワークWの第1属性情報を記憶する。第1属性情報は、ワークWの特徴と、ワークWに設定されている所定作業に関する情報であるワーク作業情報とを含む。ワークWの特徴は、例えば、ワークWの種類、呼称、識別情報及び特性等を含み得る。ワークWの特性は、ワークWの形状、寸法、重量、弾性、塑性、靭性、脆性、展延性、中空、中実、重心位置及び開口位置等を含み得る。飲料瓶としてのワークWA及びWBの場合、ワークWの特徴は、内容物の有無、種類及び量、並びに、開口の閉鎖の有無等も含み得る。第1属性情報は、ワークWの特徴として、ワークWの2次元モデル及び3次元モデル等のワークWの仮想的なモデルを含んでもよい。
 ワーク作業情報は、ワークWが処理を受ける順番、ワークWに与えることができる速度及び加速度、エンドエフェクタ112による作用を与えることができるワークW上の位置、エンドエフェクタ112による作用を与えているときのワークWの状態等を含み得る。本実施の形態では、ワーク作業情報は、ワークWにおけるエンドエフェクタ112による把持が可能な位置を含み得、例えば、把持位置の候補を含み得る。ワーク作業情報は、ロボット110による移送中におけるワークWの姿勢の候補を含み得る。ワーク作業情報は、エンドエフェクタ112による把持の際にワークWに加えることができる把持力を含み得、例えば、把持力の候補を含み得る。ワークWの特徴及びワーク作業情報は、ワークW及び所定作業に応じて設定され得る。
 図5は、実施の形態に係る第1属性情報に含まれるワーク作業情報の一例を示す図である。図5に示すように、例えば、ワークWAにおいて、開口端である上端の把持位置GP1と、底端の把持位置GP2と、上端及び底端の間の側部の複数の把持位置GP3からGP8とが、把持位置の候補として予め設定される。ワークWAのワーク作業情報は、把持位置GP1からGP8の情報を含む。ワークWBのワーク作業情報も、ワークWAのワーク作業情報と同様の把持位置の情報を含み得る。
 図6は、実施の形態に係る第1属性情報に含まれるワーク作業情報の別の一例を示す図である。図6に示すように、例えば、ワークWAの姿勢Pa、Pb、Pc及びPdが、ベルトコンベヤ121から搬送車122A及び122Bへの移送中のワークWAの姿勢の候補として予め設定される。ワークWAのワーク作業情報は、姿勢Pa、Pb、Pc及びPdの情報を含む。ワークWBのワーク作業情報も、ワークWAのワーク作業情報と同様の姿勢の情報を含み得る。
 第3記憶部141s3は、ロボットエリアAR内のロボット110以外の構成要素に関する情報を含む。例えば、第3記憶部141s3は、第2属性情報及び第3属性情報を記憶する。第2属性情報は、ワークWの周辺環境の特徴と、当該周辺環境に設定されている所定作業に関する情報である周辺環境作業情報とを含む。ワークWの周辺環境の特徴は、例えば、ロボット110以外のワークWを取り扱う装置、設備及び機器等のワーク取扱要素の特徴を含む。本実施の形態では、ワークWの周辺環境の特徴は、周辺機器120の特徴、具体的には、ベルトコンベヤ121並びに搬送車122A及び122Bの特徴を含む。
 例えば、第3属性情報は、第2属性情報に含まれる周辺環境以外のロボットエリアAR内の構成要素の特徴を含む。本実施の形態では、第3属性情報は、撮像装置131から134の特徴を含む。当該特徴は、例えば、撮像装置131から134の識別情報及び特性等を含み得る。撮像装置131から134の特性は、撮像装置131から134の位置、姿勢、形状、寸法、設置方法、及び、他の構成要素との必要な離隔距離等を含み得る。
 ベルトコンベヤ121の特徴は、例えば、ベルトコンベヤ121の種類、呼称、識別情報及び特性等を含み得る。ベルトコンベヤ121の特性は、ベルトコンベヤ121の位置、姿勢、形状及び寸法、ベルトコンベヤ121におけるロボット110の作業領域の位置、姿勢、形状及び寸法、上記作業領域の周囲の空間を遮る物体の有無、並びに、当該物体の位置、姿勢、形状及び寸法等を含み得る。
 搬送車122A及び122Bの特徴は、例えば、搬送車122A及び122Bの種類、呼称、識別情報及び特性等を含み得る。搬送車122A及び122Bの特性は、搬送車122A及び122Bの待機位置、待機姿勢、形状及び寸法、並びに、搬送車122A及び122BにおけるワークWA及びWBの載置部分122Aa及び122Baの特性等を含み得る。待機位置及び待機姿勢は、ロボット110によるワークWA及びWBの処理を受けるときの搬送車122A及び122Bの位置及び向きである。載置部分122Aa及び122Baの特性は、載置部分122Aa及び122Baの表面の位置、形状、寸法、傾斜量、弾性、塑性、靭性、脆性及び展延性等を含み得る。表面の形状は、平面視での平面形状及び鉛直方向への凹凸形状等を含み得る。さらに、搬送車122A及び122Bの特性は、載置部分122Aa及び122Baの周囲の空間を遮る物体の有無、並びに、当該物体の位置、形状及び寸法等を含み得る。
 第2属性情報は、ベルトコンベヤ121並びに搬送車122A及び122Bの特徴として、ベルトコンベヤ121並びに搬送車122A及び122Bの2次元モデル及び3次元モデル等の仮想的なモデルを含んでもよい。第3記憶部141s3は、ロボットエリアAR内のベルトコンベヤ121並びに搬送車122A及び122B以外の構成要素の情報として、当該構成要素の仮想的なモデルを含んでもよい。
 周辺環境作業情報は、例えば、ロボット110以外のワークWを取り扱うワーク取扱要素に対する所定作業に関する情報を含む。周辺環境作業情報は、ワーク取扱要素においてワークWが処理されるときのワークWの位置、状態及び処理方法等を含み得る。本実施の形態では、搬送車122A及び122Bの周辺環境作業情報は、載置部分122Aa及び122Baの表面上におけるワークWA及びWBの配置位置の候補、配置姿勢の候補、配置順序の候補、配置方向の候補及び配置方法の候補等を含み得る。例えば、配置方向は、載置部分122Aa及び122BaへのワークWA及びWBの移送方向を示してもよい。配置方法は、載置の際にワークWA及びWBが載置部分122Aa及び122Baに与える衝撃の程度、及びワークWA及びWBの加速度等を示してもよい。
 図7は、実施の形態に係る第2属性情報に含まれる周辺環境作業情報の一例を示す図である。図7は、搬送車122Aの載置部分122Aaの平面図を示す。搬送車122Aは、載置部分122Aaの周囲を囲み且つ載置部分122Aaから上方に延びる壁122Abを含む。壁122Abは、上方からの平面視でU字状の形状を形成し、その開放端122Aba及び122Abbの間で載置部分122Aaの一部を側方へ開放する。壁122Abは、載置部分122Aaを上方へ開放する。載置部分122Aaの表面上において、ワークWAの底部の複数の配置位置P1からP20が、配置位置の候補として予め設定される。配置位置P1からP20は、4行×5列に配列される。
 搬送車122Aの周辺環境作業情報は、配置位置P1からP20と、配置位置P1からP20でのワークWAの姿勢と、配置位置P1からP20へのワークWAの配置方向と、ワークWAを配置位置P1からP20に低衝撃、つまり低加速度で載置する配置方法とを含む。搬送車122Bの周辺環境作業情報も、搬送車122Aの周辺環境作業情報と同様の情報を含み得る。
 第4記憶部141s4は、経路関連データを記憶する。経路関連データは、所定作業を行うときのエンドエフェクタ112の移動経路を決定するための情報を含む。経路関連データは、所定作業に含まれる動作の少なくとも一部が特定された場合に、当該動作を行うときのエンドエフェクタ112の移動経路を決定するための情報を含む。例えば、経路関連データは、エンドエフェクタ112の移動経路の演算式、演算プログラム又はこれらの組み合わせを含んでもよい。
 第5記憶部141s5は、ロボット110のログ情報を記憶し蓄積する。第5記憶部141s5は、所定作業を実行するロボット110のロボットアーム111及びエンドエフェクタ112の動作結果、当該動作結果のための指令、又はこれらの両方等を含む動作結果に関する情報を、ログ情報として記憶する。記憶されるログ情報は、ロボットアーム111及びエンドエフェクタ112の全ての動作結果に関する情報を含んでもよい。記憶されるログ情報は、ベルトコンベヤ121上のエンドエフェクタ112の作業領域及びその近傍での動作結果に関する情報と、搬送車122A及び122B及びその近傍での動作結果に関する情報とを、少なくとも含んでもよい。
 記憶部142cは、駆動指令部142aが動作指令部141hから受け取る動作指令を用いて駆動指令を生成するための情報を記憶する。
 受信情報処理部141aは、通信ネットワークN及びロボット通信装置150を介して操作端末210から指令、情報及びデータ等を受信し、情報処理装置141内の対応する機能的構成要素に送る。受信情報処理部141aは、受信した指令、情報及びデータ等を、情報処理装置141内で処理可能なデータ型式に変換する機能を有してもよい。
 送信情報処理部141bは、情報処理装置141の各機能的構成要素によって出力される指令、情報及びデータ等を、ロボット通信装置150及び通信ネットワークNを介して操作端末210に送信する。送信情報処理部141bは、送信対象への指令、情報及びデータ等を、ネットワーク通信可能なデータ型式に変換する機能を有してもよい。
 撮像制御部141cは、撮像装置131から134の動作の制御、及び、撮像装置131から134によって撮像された画像データの出力を行う。例えば、撮像制御部141cは、操作端末210から受信する指令に従って、撮像装置131から134のカメラ及び雲台の動作を制御する。撮像制御部141cは、撮像装置131から134から画像データを受け取り、第1画像処理部141d1及び送信情報処理部141b等に出力する。例えば、撮像制御部141cは、操作端末210からの指令において指定される撮像装置131から134の画像データを操作端末210に送信する。操作端末210は、当該画像データを提示装置230に出力し表示させる。
 第1画像処理部141d1は、撮像装置131、撮像装置132又はこれらの両方によって撮像された画像データを処理する。第1画像処理部141d1は、当該画像データが示す画像の中からワークW及び周囲の構成要素を抽出する画像処理を行う。さらに、第1画像処理部141d1は、ワークW及び周囲の構成要素を写し出す画素について、当該画素に写し出される被写体の3次元位置を検出してもよい。
 例えば、第1画像処理部141d1は、撮像装置131又は132のステレオカメラによって同時刻に撮像された2つの画像データそれぞれにおいてエッジを抽出してもよい。さらに、第1画像処理部141d1は、抽出されたエッジと、第2記憶部141s2に記憶される第1属性情報に含まれるワークWの形状とをパターンマッチング手法等で比較し、ワークWのエッジを特定してもよい。第1画像処理部141d1は、抽出されたエッジと、第3記憶部141s3に記憶される第2属性情報に含まれるベルトコンベヤ121の形状及びその作業領域の周囲の空間を遮る物体の形状とをパターンマッチング手法等で比較し、ベルトコンベヤ121及び上記物体のエッジを、周囲の構成要素のエッジとして特定してもよい。
 さらに、第1画像処理部141d1は、2つの画像データの間でワークW及び周囲の構成要素を写し出す画素をステレオマッチング手法等で処理し、各画素に写し出される被写体とカメラとの距離を検出してもよい。さらに、第1画像処理部141d1は、各画素に写し出される被写体について、ロボットシステム1が存在する3次元空間内での3次元位置を検出してもよい。
 モデル生成部141eは、第1画像処理部141d1によって画像データから抽出されたワークW及び周囲の構成要素の仮想的なモデルを生成する。例えば、モデル生成部141eは、第2記憶部141s2に記憶されるワークWに関する情報と、第3記憶部141s3に記憶される周囲の構成要素に関する情報とを用いて、上記画像データによって写し出されるワークW及び周囲の構成要素を表す仮想的なモデルを生成する。例えば、モデル生成部141eは、ワークW及び周囲の構成要素の3次元CAD(Computer-Aided Design)モデルを生成してもよい。モデル生成部141e及び第1画像処理部141d1は、上記の仮想的なモデルを生成することによって、ワークWの状態を含む状態情報を検出することができる。ワークW及び周囲の構成要素を表す仮想的なモデルは、ワークWに関する状態情報の一例である。
 状態情報は、例えば、ワークW及び周囲の構成要素の状態を示す様々な情報を含んでもよい。例えば、状態情報は、ワークW及び周囲の構成要素の仮想的なモデルに加えて又は仮想的なモデルの代わりに、ワークW及び周囲の構成要素の位置、姿勢、位置及び姿勢の移動方向、位置及び姿勢の移動速度等を含んでもよい。状態情報は、ワークWの周辺環境の状態を示す様々な情報を含んでもよい。例えば、状態情報は、ワークWの移送先の搬送車122A又は122BにおけるワークWの配置状態等を含んでもよい。
 候補決定部141fは、状態情報に基づき、ワークWに関する作業位置の候補を決定し、第2画像処理部141d2に出力する。ワークWに関する作業位置の候補は、ロボット110の把持対象のワークWにおける提示対象の把持位置の候補と、ワークWの移送先の搬送車122A又は122Bにおける提示対象の配置位置の候補とを含む。さらに、候補決定部141fは、第5記憶部141s5を探索し、上記ワークWと同様の状態のワークに対して過去に決定された把持位置及び配置位置の情報を第2画像処理部141d2に出力してもよい。
 例えば、候補決定部141fは、状態情報として、モデル生成部141eによって生成されたワークW及び周囲の構成要素のモデルを用いて、第1属性情報に含まれるワークWの把持位置の候補の中から、ユーザPへの提示対象の把持位置の候補を決定する。例えば、ワークWAのモデルが、図6の姿勢Paのような直立状態である場合、候補決定部141fは、図8に示すように、把持可能な把持位置GP1及びGP3からGP8を提示対象に決定する。図8は、把持対象のワークWAに決定される提示対象の把持位置の候補の一例を示す図である。例えば、候補決定部141fは、ワークWAが横たわっている場合に把持位置GP3からGP8を提示対象に決定し得る。例えば、横たわっているワークWAに他のワークが積み重なっている場合、候補決定部141fは、把持位置GP1からGP8のうちの把持可能な把持位置を提示対象に決定し得る。
 さらに、候補決定部141fは、第2属性情報に含まれる移送先の搬送車122A又は122Bの配置位置の中から、ユーザPへの提示対象の配置位置の候補を決定する。例えば、候補決定部141fは、状態情報として、ワークWが既に配置されている配置位置の情報を用いて、ワークWを載置することが可能である配置位置を提示対象に決定してもよい。上記配置位置の情報は、第3記憶部141s3又は第5記憶部141s5等に記憶されてもよい。例えば、候補決定部141fは、図9に示すように、既にワークWAが配置されている配置位置が除外された残りの配置位置P8からP20を提示対象に決定する。図9は、ワークWAの移送先の搬送車122Aに決定される提示対象の配置位置の候補の一例を示す図である。
 第2画像処理部141d2は、候補決定部141fによって決定された候補を画像化し操作端末210に送信する。当該候補は、ワークWにおける提示対象の把持位置の候補と、搬送車122A又は122Bにおける提示対象の配置位置の候補とを含み得る。第2画像処理部141d2は、上記ワークWと同様の状態のワークに対して過去に決定された把持位置及び配置位置の情報を、提示対象の把持位置の候補及び提示対象の配置位置の候補と共に、画像に明示してもよい。これにより、操作端末210のユーザは、類似状態を示す過去の情報を参考にして、把持位置及び配置位置を決定することができる。
 例えば、第2画像処理部141d2は、ワークWAの提示対象の把持位置の候補の情報と、モデル生成部141eによって生成されたワークWAのモデルとを用いて、図8に示すような画像IAのデータを生成してもよい。画像IAは、ワークWAのモデルの像に、提示対象の候補である把持位置GP1及びGP3からGP8を明示する。第2画像処理部141d2は、画像IAのデータと把持位置の選択の要求とを操作端末210に送信する。第2画像処理部141d2は、画像IAのデータの代わりに、把持位置GP1及びGP3からGP8の情報を操作端末210に送信してもよい。
 第2画像処理部141d2は、撮像装置131、撮像装置132又はこれらの両方によって撮像された画像データに画像IAのデータを合成してもよい。これにより、撮像装置131、撮像装置132又はこれらの両方によって撮像された画像に写し出されるワークWAの像に把持位置GP1及びGP3からGP8が明示される。
 操作端末210のユーザPは、操作端末210が提示装置230に提示する把持位置GP1及びGP3からGP8の中から1つを選択し、選択結果を選択作業位置として操作端末210に入力し情報処理装置141へ送信させる。選択作業位置は、選択位置の一例である。
 例えば、第2画像処理部141d2は、搬送車122A又は122Bの提示対象の配置位置の候補の情報と、第2属性情報に含まれる搬送車122A又は122Bの情報とを用いて、図9に示すような画像IBのデータを生成してもよい。画像IBは、載置部分122Aa又は122Baの像に、提示対象の候補である配置位置P8からP20を明示する。第2画像処理部141d2は、画像IBのデータと配置位置の選択の要求とを操作端末210に送信する。第2画像処理部141d2は、画像IBのデータの代わりに、配置位置P8からP20の情報を操作端末210に送信してもよい。
 第2画像処理部141d2は、撮像装置133又は134によって撮像された画像データに画像IBのデータを合成してもよい。これにより、撮像装置133又は134によって撮像された画像に写し出される載置部分122Aa又は122Baの像に配置位置P8からP20が明示される。
 操作端末210のユーザPは、操作端末210が提示装置230に提示する配置位置P8からP20の中から1つを選択し、選択結果を選択作業位置として操作端末210に入力し情報処理装置141へ送信させる。
 予定動作検出部141gは、ワークWに関する作業位置の候補の中から選択された選択作業位置の情報を、操作端末210から受信する。予定動作検出部141gは、選択作業位置の情報と、第4記憶部141s4に記憶される経路関連データとを用いて、選択作業位置に従ったロボット110の予定動作を検出する。
 例えば、予定動作検出部141gは、選択作業位置に含まれるワークWの把持位置を始点に決定し、選択作業位置に含まれるワークWの配置位置を終点に決定し、当該始点から当該終点に至るエンドエフェクタ112の移動経路を、経路関連データの演算式、演算プログラム又はこれの両方を用いて演算する。さらに、予定動作検出部141gは、エンドエフェクタ112の移動経路上の各位置でのエンドエフェクタ112の姿勢を演算する。予定動作検出部141gは、エンドエフェクタ112の移動経路及び当該移動経路での姿勢を、選択作業位置に従ったロボット110の予定動作として検出する。
 予定動作検出部141gは、検出した予定動作を、第3画像処理部141d3を介して操作端末210に送信する。操作端末210は、受信した予定動作を、提示装置230を介してユーザPに提示する。操作端末210は、予定動作を承認するための入力、予定動作を修正するための入力、選択された把持位置及び配置位置を変更するための入力、並びに、第1属性情報及び第2属性情報を変更するための入力を受け付けることができる。
 操作端末210は、予定動作の承認を受け付けると、承認結果を情報処理装置141に送信する。予定動作検出部141gは承認された予定動作を動作指令部141hに送る。
 操作端末210は、予定動作の修正を受け付けると、受け付けた修正内容を情報処理装置141に送信する。予定動作検出部141gは、予定動作の修正内容を反映するように予定動作を修正し、修正後の予定動作を新たな予定動作として生成する。予定動作検出部141gは、新たな予定動作を操作端末210に送信する。
 操作端末210は、把持位置、配置位置又はこれらの両方の変更を受け付けると、受け付けた変更内容を情報処理装置141に送信する。予定動作検出部141gは、把持位置、配置位置又はこれらの両方の変更内容に従って新たな予定動作を生成する。予定動作検出部141gは、新たな予定動作を操作端末210に送信する。
 操作端末210は、第1属性情報、第2属性情報又はこれらの両方の変更を受け付けると、受け付けた変更内容を情報処理装置141に送信する。第1属性情報処理部141i1及び第2属性情報処理部141i2は、受信した変更内容に従って、第2記憶部141s2に記憶される第1属性情報、第3記憶部141s3に記憶される第2属性情報、又はこれらの両方を変更する。第1属性情報処理部141i1及び第2属性情報処理部141i2は、変更後の第1属性情報及び第2属性情報を、新たな第1属性情報及び第2属性情報として第2記憶部141s2、第3記憶部141s3又はこれらの両方に記憶する。予定動作検出部141gは、新たな第1属性情報及び第2属性情報を用いて新たな予定動作を生成し操作端末210に送信する。
 予定動作検出部141gは、第3記憶部141s3に記憶されるロボットエリアAR内のロボット110以外の構成要素に関する情報を用いて、予定動作の過程におけるロボット110と上記構成要素との干渉の有無を検出し、検出結果を操作端末210に送信する。例えば、予定動作検出部141gは、第3属性情報に基づき、エンドエフェクタ112の移動経路が撮像装置131から134からの離隔距離以内の領域を通る場合、干渉の発生を検出してもよい。予定動作検出部141gは、干渉の発生を検出した場合、干渉対象の離隔距離等に基づき、当該干渉を回避するようにエンドエフェクタ112の移動経路を再演算してもよい。
 第3画像処理部141d3は、予定動作検出部141gによって生成された予定動作を画像化し、操作端末210に送信する。例えば、第3画像処理部141d3は、第3記憶部141s3に記憶されるロボットエリアAR内のロボット110以外の構成要素に関する情報と、第1記憶部141s1に記憶されるロボット110の情報と、予定動作検出部141gによって検出された予定動作とを用いて、エンドエフェクタ112の移動経路を明示する画像データを生成してもよい。
 例えば、第3画像処理部141d3は、図10に示すような画像ICのデータを生成してもよい。画像ICは、破線表示されるエンドエフェクタ112の移動経路TPと、ロボットアーム111のモデルと、エンドエフェクタ112のモデルと、ベルトコンベヤ121のモデルと、ワークWの移送先の搬送車122Aのモデルと、ロボットエリアAR内の他の構成要素である撮像装置132及び133のモデルとを示す。画像ICでは、移動経路TPが撮像装置133と干渉するため、干渉を示す像IDが表示される。干渉を回避するために操作端末210によって予定動作が変更されると、予定動作検出部141gは、変更内容に従って新たな予定動作を生成し、第3画像処理部141d3は、一点鎖線表示される新たな予定動作の移動経路TP1を画像ICに明示する。これにより、操作端末210のユーザPは、移動経路を視覚的に確認し予定動作の承認を判断することができる。
 第1属性情報処理部141i1は、操作端末210から受信する指令に従って、第2記憶部141s2に記憶される第1属性情報を変更し、変更後の第1属性情報を新たな第1属性情報として第2記憶部141s2に記憶する。つまり、第1属性情報処理部141i1は、第1属性情報を更新する。第1属性情報処理部141i1は、第1属性情報を操作端末210に送信してもよい。例えば、第1属性情報処理部141i1は、選択作業位置に対応する第1属性情報を操作端末210に送信してもよい。第1属性情報処理部141i1は、第2画像処理部141d2及び第3画像処理部141d3に第1属性情報を出力し、第1属性情報を生成画像上で明示させてもよい。
 第2属性情報処理部141i2は、操作端末210から受信する指令に従って、第3記憶部141s3に記憶される第2属性情報を変更し、変更後の第2属性情報を新たな第2属性情報として第3記憶部141s3に記憶する。つまり、第2属性情報処理部141i2は、第2属性情報を更新する。第2属性情報処理部141i2は、第2属性情報を操作端末210に送信してもよい。例えば、第2属性情報処理部141i2は、選択作業位置に対応する第2属性情報を操作端末210に送信してもよい。第2属性情報処理部141i2は、第2画像処理部141d2及び第3画像処理部141d3に第2属性情報を出力し、第2属性情報を生成画像上で明示させてもよい。
 動作指令部141hは、第1記憶部141s1に記憶される制御プログラムに従ってエンドエフェクタ112に移動及び動作させるための動作指令を生成する。動作指令部141hは、予定動作検出部141gによって生成される承認済みの予定動作に従ってエンドエフェクタ112に移動及び動作させるための動作指令を生成する。つまり、動作指令部141hは、選択作業位置、第1属性情報及び第2属性情報に従った動作指令を生成する。動作指令部141hは、動作指令をロボットコントローラ142に送信する。動作指令は、エンドエフェクタ112の位置指令及び力指令の少なくとも位置指令を含み、本実施の形態では、両方を含む。さらに、動作指令は、ワークWに対するエンドエフェクタ112の把持力の指令を含む。動作指令部141hは、動作指令、承認済みの予定動作、当該予定動作に含まれる把持位置及び配置位置、駆動指令部142aから取得する駆動指令、又はこれらの2つ以上の組み合わせを、ログ情報として第5記憶部141s5に記憶させてもよい。
 位置指令は、3次元空間内でのエンドエフェクタ112の目標の位置、目標の位置の移動速度、目標の姿勢、及び、目標の姿勢の移動速度等の指令を含み得る。力指令は、エンドエフェクタ112がワークWに加える力の、3次元空間内での大きさ及び方向等の指令を含み得る。力指令は、エンドエフェクタ112がワークWに加える加速度を含んでもよい。
 駆動指令部142aは、動作指令に従ってエンドエフェクタ112が移動し把持動作をするように、ロボットアーム111及びエンドエフェクタ112を動作させるための駆動指令を、記憶部142cに記憶される情報を用いて生成する。駆動指令は、ロボットアーム111のサーボモータRM1からRM6及びエンドエフェクタ112のサーボモータEM1の電流の指令値を含む。駆動指令部142aは、動作情報処理部142bから受け取るフィードバック情報を用いて駆動指令を生成する。
 動作情報処理部142bは、サーボモータRM1からRM6及びEM1から回転量及び電流値の情報を取得し、当該情報をフィードバック情報として駆動指令部142aに出力する。動作情報処理部142bは、各サーボモータの回転量を、当該サーボモータが備える回転センサから取得する。動作情報処理部142bは、各サーボモータの電流値を、当該サーボモータの駆動回路の電流の指令値から取得する。各サーボモータに電流センサが設けられる場合、動作情報処理部142bは当該電流センサから電流値を取得してもよい。
 [ロボットシステムの動作]
 図11Aから図11Cを参照しつつ、実施の形態に係るロボットシステム1の動作の一例を説明する。図11Aから図11Cは、実施の形態に係るロボットシステム1の動作の一例を示すフローチャートである。まず、ユーザPは、ワークの移送作業をするロボットの操作を担当する要求を操作端末210に入力し、操作端末210は、当該要求をサーバ310に送信する(ステップS101)。サーバ310は、当該作業を行うことができるロボット110を探索し、探索されたロボット110の情報処理装置141と上記操作端末210とを通信ネットワークNを介して接続する(ステップS102)。
 ユーザPは、接続完了の通知をサーバ310から受け取ると、移送作業の実行指令を操作端末210に入力する。操作端末210は、当該指令を情報処理装置141に送信する(ステップS103)。
 情報処理装置141は、移送作業の制御を開始し、第1記憶部141s1に記憶される制御プログラムに従ってロボット110に自動で動作させる(ステップS104)。
 情報処理装置141は、ロボット110のエンドエフェクタ112がベルトコンベヤ121に近づくと、撮像装置131によって撮像される画像データを処理し、当該画像データに写し出される、移送対象のワークW及びその周囲の構成要素を抽出する(ステップS105)。情報処理装置141は、撮像装置132によって撮像される画像データを処理して、移送対象のワークW等を抽出してもよい。
 情報処理装置141は、画像データをさらに処理し、抽出されたワークW及びその周囲の構成要素の3次元位置を検出する(ステップS106)。
 情報処理装置141は、ステップS105で抽出されたワークW及びその周囲の構成要素の仮想的なモデルを生成し(ステップS107)、上記仮想的なモデル及び第1属性情報に基づき、ワークWの把持位置の候補を決定する(ステップS108)。
 情報処理装置141は、ワークWの把持位置の候補を示す画像データを生成し、操作端末210に送信する(ステップS109)。情報処理装置141は、第1属性情報も操作端末210に送信する。
 操作端末210は、受信した画像データと第1属性情報とを提示装置230に表示する。ユーザPは、提示装置230に表示されるワークWの把持位置の候補を視認し、把持位置を選択することができる。操作端末210は、ユーザPから、ワークWの把持位置の候補のうちの1つである選択把持位置を指定する指令を受け付けると、選択把持位置の情報を情報処理装置141に送信する(ステップS110)。
 情報処理装置141は、第2属性情報に基づき、搬送車122A又は122BにおけるワークWの配置位置の候補を決定する(ステップS111)。
 情報処理装置141は、搬送車122A又は122BにおけるワークWの配置位置の候補を示す画像データを生成し、操作端末210に送信する(ステップS112)。情報処理装置141は、第2属性情報も操作端末210に送信する。
 操作端末210は、受信した画像データと第2属性情報とを提示装置230に表示する。ユーザPは、提示装置230に表示されるワークWの配置位置の候補を視認し、配置位置を選択することができる。操作端末210は、ユーザPから、ワークWの配置位置の候補のうちの1つである選択配置位置の指定する指令を受け付けると、選択配置位置の情報を情報処理装置141に送信する(ステップS113)。
 情報処理装置141は、選択されたワークWの把持位置及び配置位置の情報と、経路関連データとを用いて、ロボット110の予定動作を検出する(ステップS114)。
 情報処理装置141は、ロボット110の予定動作、つまり、エンドエフェクタ112の移動経路を示す画像データを生成し、操作端末210に送信する(ステップS115)。情報処理装置141は、第1属性情報及び第2属性情報も操作端末210に送信する。
 情報処理装置141は、移動経路に沿ってエンドエフェクタ112を移動させる場合に、ロボット110と周囲の構成要素との干渉があるか否かを判定する(ステップS116)。情報処理装置141は、干渉がある場合(ステップS116でYes)に干渉の情報を操作端末210に送信し(ステップS117)、干渉がない場合(ステップS116でNo)にステップS118へ進む。
 ステップS118において、操作端末210は、エンドエフェクタ112の移動経路を示す画像データを提示装置230に提示させる。上記干渉がある場合、提示装置230によって表示される画像上に、干渉箇所が表示される。
 次いで、操作端末210は、ロボット110の予定動作を承認する入力がある場合(ステップS119でYes)に、当該承認の情報を情報処理装置141に送信し(ステップS122)、ステップS123に進む。操作端末210は、非承認の入力がある場合(ステップS119でNo)にステップS120に進む。
 ステップS120において、ユーザPは、操作端末210に、ロボット110の予定動作を変更するための指令を入力し、操作端末210は、当該指令を情報処理装置141に送信する。上記指令は、予定動作自体を変更する指令、ワークWの把持位置、配置若しくはこれらの両方を変更する指令、第1属性情報、第2属性情報又は若しくはこれらの両方を変更する指令、又はこれらの2つ以上の組み合わせを含む。
 ステップS121において、情報処理装置141は、ロボット110の予定動作を変更するための指令に従って、新たな予定動作を検出する。情報処理装置141は、新たな予定動作を用いてステップS115以降の処理を繰り返す。
 ステップS123において、情報処理装置141は、承認された予定動作と、ステップS106で検出されたワークWの3次元位置とを用いて、ロボット110の動作指令を生成しロボットコントローラ142に送信する。
 ロボットコントローラ142は、動作指令に従った駆動指令を生成し、当該駆動指令に従ってロボットアーム111及びエンドエフェクタ112に動作させる(ステップS124)。つまり、ロボットコントローラ142は、動作指令に従って、ロボットアーム111及びエンドエフェクタ112に、ベルトコンベヤ121上のワークWを把持させ、搬送車122A又は122Bに移送させる。
 情報処理装置141は、移送作業の完了の指令を操作端末210から受け取ると(ステップS125でYes)、一連の処理を終了し、上記指令を受け取らない場合(ステップS125でNo)にステップS126に進む。
 ステップS126において、情報処理装置141は、搬送車122A又は122BへのワークWの移送後のロボットアーム111に、エンドエフェクタ112をベルトコンベヤ121の近傍へ自動で移動させ、ステップS105以降の処理を繰り返す。
 ステップS101からS126の処理において、情報処理装置141は、エンドエフェクタ112により新たなワークWを把持するタイミング毎に、当該ワークWの把持位置及び移送先の配置位置の選択を操作端末210のユーザPに要求し、ユーザPの選択結果に従ってロボット110に動作させる。ユーザPは、上記のようなユーザPの判断が要求されるロボット110の動作について、ロボット110を直接的に手動操作する必要がなく、当該動作を決定するための要素の候補の中から適切な要素を選択するだけでよい。よって、ユーザが有するロボット操作の技能に関係なく、様々なユーザが、様々な場所からロボット110の操作に参加することができる。
 (変形例)
 本変形例は、ロボットシステムが学習装置400を備える点で、実施の形態と異なる。以下、本変形例について、実施の形態と異なる点を中心に説明し、実施の形態と同様の点の説明を適宜省略する。
 図12は、変形例に係る制御装置140及び学習装置400の機能的構成の一例を示すブロック図である。図12に示すように、制御装置140の情報処理装置141Aは、ログ情報出力部141jを機能的構成要素としてさらに含む。ログ情報出力部141jは、情報処理装置141Aの外部からの要求に対応して、第5記憶部141s5に記憶されるログ情報を要求元に出力する。ログ情報出力部141jは、予め設定されたプログラムに従って、所定のタイミングで所定の出力先にログ情報を出力してもよい。ログ情報出力部141jの機能は、プロセッサ1411等によって実現される。
 学習装置400は、情報処理装置141Aと同様に、コンピュータ装置を含む。例えば、学習装置400は回路を含み、当該回路は、上述で説明したようなプロセッサ及びメモリを含む。学習装置は、メモリに加えて、上述で説明したようなストレージを含んでもよい。学習装置400のプロセッサは、第2プロセッサの一例であり、学習装置400のメモリ及びストレージは、第2記憶装置の一例である。
 限定されないが、本変形例では、学習装置400は、情報処理装置141A及びロボットコントローラ142とは別の装置であり、有線通信、無線通信又はこれらの組み合わせを介して情報処理装置141Aとデータ通信可能に接続される。いかなる有線通信及び無線通信が用いられてもよい。学習装置400は、情報処理装置141A又はロボットコントローラ142に組み込まれてもよい。学習装置400は、通信ネットワークNを介して情報処理装置141Aと接続されてもよい。学習装置400は、複数の情報処理装置141Aと接続されてもよい。
 学習装置400は、記憶媒体を介して、情報処理装置141Aとデータを入出力するように構成されてもよい。記憶媒体は、半導体ベースの若しくは他の集積回路(IC:Integrated Circuit)、ハードディスクドライブ(HDD)、ハイブリッドハードドライブ(HHD:Hybrid Hard Disk Drive)、光ディスク、光ディスクドライブ(ODD:Optical Disk Drive)、光磁気ディスク、光磁気ドライブ、フロッピィディスクドライブ(FDD:Floppy Disk Drive)、磁気テープ、固体ドライブ(SSD)、RAMドライブ、セキュアデジタルカード若しくはドライブ、任意の他の適切な記憶媒体、又はこれらの2つ以上の組合せを含むことができる。
 本変形例では、学習装置400は、ロボットエリアARに配置されるが、これに限定されない。例えば、学習装置400は、ユーザエリアAUに配置されてもよく、ロボットエリアAR及びユーザエリアAUとは別の場所に配置されてもよい。例えば、学習装置400は、サーバ310の配置場所に配置され、サーバ310経由で情報処理装置141Aとデータ通信するように構成されてもよい。学習装置400は、サーバ310に組み込まれてもよい。
 学習装置400は、学習データ処理部401と、学習データ記憶部402と、学習部403と、入力データ処理部404と、出力データ処理部405とを機能的構成要素として含む。学習データ記憶部402の機能は、学習装置400が含み得るメモリ、ストレージ又はこれらの組み合わせ等によって実現され、学習データ記憶部402以外の機能的構成要素の機能は、学習装置400が含むプロセッサ等によって実現される。
 学習データ記憶部402は、様々な情報及びデータ等を記憶し、記憶している情報及びデータ等の読み出しを可能にする。例えば、学習データ記憶部402は、学習用データを記憶する。
 学習データ処理部401は、情報処理装置141Aのログ情報出力部141jからログ情報を受け取り、当該ログ情報を学習用データとして、学習データ記憶部402に記憶させる。学習データ処理部401は、ログ情報出力部141jにログ情報を要求してログ情報出力部141jからログ情報を取得してもよく、ログ情報出力部141jから所定のタイミングで送られるログ情報を取得してもよい。例えば、学習データ処理部401は、ログ情報のうち、ワークに関する状態情報と、当該状態情報が示す状態に対応する第1属性情報及び第2属性情報と、当該ワークに対して実際に実行された選択把持位置及び選択配置位置等の選択作業位置の情報とを取得してもよい。上記選択作業位置は、状態情報に基づく作業位置の候補の中から選択された作業位置であり、実際に用いられた作業位置である。
 学習部403は、学習モデルを含み、本変形例では、機械学習を行う学習モデルを含む。学習部403は、学習用データを用いて学習モデルに学習させ、学習モデルに入力データに対する出力データの精度を向上させる。学習モデルは、ニューラルネットワーク(Neural Network)、Random Forest、Genetic Programming、回帰モデル、木モデル、ベイズモデル、時系列モデル、クラスタリングモデル、アンサンブル学習モデル等を含んでもよいが、本変形例では、ニューラルネットワークを含む。ニューラルネットワークは、入力層及び出力層を含む複数のノード層を含む。ノード層には、1つ以上のノードが含まれる。ニューラルネットワークが、入力層、中間層及び出力層を含む場合、ニューラルネットワークは、入力層のノードに入力された情報について、入力層から中間層への出力処理、中間層から出力層への出力処理を順次行い、入力情報に適合する出力結果を出力する。1つの層の各ノードは、次の層の各ノードと接続されており、ノード間の接続には、重み付けがされている。1つの層のノードの情報は、ノード間の接続の重み付けが付与されて、次の層のノードに出力される。
 学習モデルは、ワークに関する状態情報を入力データとし、当該状態情報が示す状態に対応する当該ワークに関する作業位置の候補それぞれの信頼度を出力データとする。例えば、学習モデルは、ワークに関する状態情報と、当該状態情報が示す状態に対応する第1属性情報及び第2属性情報とを入力データとしてもよい。信頼度は、正解である確率であってもよく、例えば、点数等で表されてもよい。
 さらに、学習モデルは、学習用データに含まれるワークに関する状態情報を学習用の入力データとし、当該ワークに対して実際に実行された選択作業位置の情報を教師データとする。例えば、学習モデルは、学習用データに含まれる、ワークに関する状態情報、並びに、当該状態情報が示す状態に対応する第1属性情報及び第2属性情報を入力データとしてもよい。例えば、機械学習では、学習部403は、入力データが入力された場合に学習モデルが出力する作業位置の候補それぞれの信頼度と教師データの選択作業位置との間でこれらを一致又は誤差を最小化等するように、ニューラルネットワーク内のノード間の接続の重み付けを調整する。このような重み付け調整後の学習モデルは、ワークに関する状態情報が入力されると、当該状態情報が示す状態に対応する作業位置の候補それぞれの信頼度を高い精度で出力することができる。
 入力データ処理部404は、外部から、学習部403の学習モデルに入力するための情報を受け付け、当該情報を、学習モデルに入力可能な状態情報に変換して学習部403に出力する。例えば、入力データ処理部404は、ワークに関する情報と、第1属性情報と、第2属性情報とを受け付けてもよい。例えば、ワークに関する情報は、情報処理装置141Aのモデル生成部141eによって生成される仮想的なモデルのような情報、第1画像処理部141d1による画像処理後のデータのような情報、撮像装置131及び132の撮像画像データのような画像データ、ワークの状態を外部又は内部から検出するセンサの検出結果、又は、これらの2つ以上の組み合わせ等を含んでもよい。入力データ処理部404は、このようなワークに関する情報を、ワーク及び周辺環境の構成要素の位置及び姿勢等のワーク及び周辺環境の構成要素の状態を示す情報に変換してもよい。入力データ処理部404は、ワークに関する情報を出力可能であるいかなる装置から、当該情報を受け付けてもよい。
 出力データ処理部405は、学習部403によって出力される、ワークに関する作業位置の候補それぞれの信頼度を用いて、最適な作業位置を決定し、最適な作業位置の情報を出力する。例えば、出力データ処理部405は、当該情報を、ロボットの制御に関連する装置に出力してもよい。例えば、出力データ処理部405は、当該情報を、情報処理装置141Aの予定動作検出部141g、動作指令部141h又はこれらの組み合わせのような機能を有する装置に出力してもよく、ロボットコントローラ142のような装置に出力してもよい。
 出力データ処理部405は、ワークに関する作業位置の候補の中で最も信頼度が高い作業位置を、最適な作業位置に決定するように構成されてもよい。この場合、最も信頼度が高い作業位置は、作業位置の候補のうちのいずれかである。例えば、ワークWAの場合、最も信頼度が高い作業位置は、図5に示す把持位置GP1からGP8のいずれかである。
 又は、出力データ処理部405は、ワークに関する任意の位置から最適な作業位置を決定するように構成されてもよい。例えば、出力データ処理部405は、作業位置の候補及びそれぞれの信頼度の情報を用いて、作業位置とその信頼度との関係を関数化し、当該関数を用いて最も信頼度が高い作業位置を演算してもよい。この場合、最も信頼度が高い作業位置は、作業位置の候補に限定されない。例えば、ワークWAの場合、最も信頼度が高い作業位置は、ワークWA上の任意の位置に決定され、図5に示す把持位置GP1からGP8以外のワークWA上の位置、例えば、把持位置GP1からGP8の間の位置等になる場合がある。
 上記のような学習装置400は、ユーザPの判断が要求されるロボット110の動作について、ユーザPの判断結果を学習し、ユーザPの代わりに、ロボット110の動作に対する最適な判断結果を出力することができる。学習装置400は、1つのロボットエリアARの1つの情報処理装置141Aのログ情報からでも、様々なユーザPの判断結果を学習することができる。学習装置400は、様々なロボットエリアARの様々な情報処理装置141Aのログ情報から、様々な判断結果を学習することができる。ログ情報がサーバ310に蓄積される場合、学習装置400は、サーバ310のログ情報から様々な判断結果を学習することができる。このような学習装置400は、出力データを高い精度に向上させることができる。
 本変形例において、学習部403の学習モデルは、出力データ処理部405の機能を含み、出力データ処理部405と同様の出力データを出力するように構成されてもよい。
 (その他の実施の形態)
 以上、本開示の実施の形態の例について説明したが、本開示は、上記実施の形態及び変形例に限定されない。すなわち、本開示の範囲内で種々の変形及び改良が可能である。例えば、各種変形を実施の形態及び変形例に施したもの、及び、異なる実施の形態及び変形例における構成要素を組み合わせて構築される形態も、本開示の範囲内に含まれる。
 例えば、実施の形態及び変形例において、ロボットシステム1が対象とするロボット110の作業は、ワークWを把持し移送する作業であるが、これに限定されない。ロボットシステム1は、いかなる作業を対象としてもよい。例えば、ロボットシステム1は、組み付け対象へのワークの組み付け、ワークの組み立て、溶接、研削、塗装、シーリング等の作業を対象としてもよい。上記のような作業の場合、例えば、第1属性情報は、ワーク、溶接対象部分、研削対象部分、塗装対象部分及びシーリング対象部分等の第1属性情報であってもよい。ワークに関する作業位置は、例えば、ワーク、溶接対象部分、研削対象部分、塗装対象部分及びシーリング対象部分上の位置等であってもよい。例えば、第2属性情報は、ワークの組み付け対象、ワークと共に組み立てられる他の部品、溶接対象物、研削対象物、塗装対象物及びシーリング対象物等の第2属性情報であってもよい。ワークに関する作業位置は、例えば、組み付け対象に対するワークの位置、他の部品に対するワークの位置、溶接対象物上での溶接対象部分の位置、研削対象物上での研削対象部分の位置、塗装対象物上での塗装対象部分の位置、及びシーリング対象物上でのシーリング対象部分の位置等であってもよい。
 実施の形態において、制御装置140は、ワークWの把持位置の候補、及び、搬送車122A又は122BにおけるワークWの配置位置の候補を操作端末210に送信し、ユーザPの選択を要求するように構成される。制御装置140が選択を要求する要素は、これらに限定されず、ユーザPの判断により選択可能な要素であればよい。例えば、制御装置140は、ロボット110の各動作でのワークWの姿勢及びワークWへの把持力等の候補を操作端末210に送信し、ユーザPの選択を要求するように構成されてもよい。
 実施の形態及び変形例において、制御装置140は、ベルトコンベヤ121のモータの駆動を直接的に制御しないように構成されるが、外部軸制御として直接的に制御するように構成されてもよい。これにより、制御装置140は、ロボット110の動作とベルトコンベヤ121の動作とを高精度に連携させて制御することができる。
 実施の形態及び変形例において、制御装置140は、ワークWに関する状態情報を検出するために、撮像装置131によって撮像される画像データを用いて、ワークW等の抽出及びワークW等の3次元位置の検出等のための画像処理を行うように構成されるが、これに限定されない。上記画像処理に用いられる画像データは、ワークWを撮像可能な撮像装置の画像データであればよい。例えば、ワークWを上方から撮像する撮像装置132によって撮像される画像データが用いられてもよい。この場合、ロボットアーム111がワークWの移送後にエンドエフェクタ112をベルトコンベヤ121の近傍に戻す前に、制御装置140は、撮像装置132の画像データを画像処理することができる。よって、迅速な作業が可能になる。
 実施の形態及び変形例において、制御装置140は、ワークWに関する状態情報の取得のために、ワークWが撮像された画像データを用いるように構成されるが、これに限定されない。例えば、制御装置140は、ワークWとは別に配置されるセンサである外部センサの検出結果、ワークWに配置されるセンサである搭載センサの検出結果、又はこれらの組み合わせを用いて、ワークWに関する状態情報の取得するように構成されてもよい。外部センサは、ワークWの外部からワークWの位置及び姿勢等を検出するように構成されてもよい。例えば、外部センサは、光波、レーザ、磁気、電波、電磁波、超音波又はこれらの2つ以上の組み合わせ等を用いてワークWを検出し、光電センサ、レーザセンサ、電波式センサ、電磁波式センサ、超音波センサ、各種ライダ(LiDAR)又はこれらの2つ以上の組み合わせ等であってもよい。搭載センサは、ワークWと共に移動し、ワークWの位置及び姿勢等を検出するように構成されてもよい。例えば、搭載センサは、加速度センサ、角速度センサ、磁気センサ、GPS(全地球測位システム:Global Positioning System)受信機又はこれらの2つ以上の組み合わせ等であってもよい。
 実施の形態に係る情報処理装置141は、処理にAI(人工知能:Artificial Intelligence)を用いるように構成されてもよい。例えば、AIは、撮像装置131及び132によって撮像される画像データの画像処理、画像データから抽出されるワークW等の情報を用いて仮想的なモデルを生成する処理、及び、属性情報及び仮想的なモデル等を用いてワークWに関する作業位置の候補を決定する処理等に用いることができる。
 例えば、AIは、機械学習を行う学習モデルを含んでもよい。例えば、学習モデルは、ニューラルネットワークを含んでもよい。例えば、画像処理を行う学習モデルは、画像データを入力データとし、画像データに写し出される被写体のエッジ、3次元位置又はこれらの組み合わせ等の情報を出力データとしてもよい。仮想的なモデルを生成する学習モデルは、画像データから抽出される被写体のエッジ、3次元位置又はこれらの組み合わせの情報を入力データとし、当該被写体の仮想的なモデルの情報を出力データとしてもよい。ワークWに関する作業位置の候補を決定する学習モデルは、ワークW及びその周囲の要素の仮想的なモデルの情報を入力データとし、ワークWの把持位置等の作業位置の候補を出力データとしてもよい。学習モデルは、入力データに対応する学習データと、出力データに対応する教師データとを用いて機械学習するモデルであってもよい。
 実施の形態及び変形例において、サーバ310は、複数の操作端末210のうちの選択された1つと、ロボット110及びその制御装置140の組み合わせである1つのロボットグループとを接続するように構成されるが、これに限定されない。サーバ310は、複数の操作端末210のうちの選択された1つと、複数のロボットグループのうちの選択された1つとを接続するように構成されてもよい。
 本開示の技術の各態様例は、以下のように挙げられる。本開示の一態様に係る制御装置は、ロボットに自動運転で所定作業を実行させる制御を行う制御装置であって、第1プロセッサを備え、前記第1プロセッサは、前記所定作業の実行中、作業対象であるワークの状態を含む状態情報を取得することと、前記状態情報に基づき、前記ワークに関する作業位置の候補を決定することと、前記作業位置の候補の中から前記作業位置を選択することを要求する選択要求を、通信ネットワークを介してデータ通信可能に接続される操作端末に送信することと、前記操作端末から、選択された前記作業位置である選択位置の情報を受信すると、前記選択位置に従って前記ロボットに自動運転で動作させることとを実行する。
 上記態様によると、操作端末のユーザは、操作端末を用いてロボットに対して、手動運転のための直接操作をするのではなく、選択位置の指令に従った自動運転のための間接操作をする。ユーザは、直接操作のための操作技能を要求されず、簡易な操作によりロボットに意図する動作をさせることができる。例えば、人による判断が有用なロボットの動作がある場合、制御装置は、ユーザによって決定される選択位置に従うことによって、ユーザの熟練度の影響を受けずに適切な動作をロボットにさせることができる。ユーザに直接操作の技能が要求されないため、様々なユーザがロボットの操作に参加することができる。操作端末は、ユーザによる選択位置の選択と、制御装置への選択位置の情報の送信とを可能であればよい。このため、操作端末は、ロボット専用の操作端末に限定されず、様々な端末の適用が可能である。さらに、操作端末と制御装置との間の通信データ量が低く抑えられるため、様々な通信ネットワークを用いた迅速且つ確実な通信が可能である。よって、制御装置は、通信ネットワークを介した通信を用いて、多様な場所の多様なユーザの多様な操作端末と接続し、当該ユーザの操作に従ってロボットに動作させることができる。従って、操作者の判断が必要であるロボットの動作の操作が自動化され、それにより、操作可能な操作者の多様化が可能になる。
 本開示の一態様に係る制御装置では、前記状態情報を取得する処理において、前記第1プロセッサは、前記ワークが撮像された画像のデータである第1画像データを取得し、前記第1画像データを画像処理することによって前記状態情報を検出してもよい。上記態様によると、制御装置は、ワークに関する状態情報の検出から作業位置の候補の決定までの処理を自身で行うことができる。
 本開示の一態様に係る制御装置では、前記選択要求を前記操作端末に送信する処理において、前記第1プロセッサは、前記ワークが撮像された画像のデータである第1画像データを取得し、前記第1画像データを画像処理することによって、前記第1画像データの画像上で前記作業位置の候補を表す画像のデータである第2画像データを生成し、前記第2画像データを用いた前記選択要求を前記操作端末に送信してもよい。上記態様によると、制御装置は、ワークが撮像された画像上で作業位置の候補を示す画像を用いて選択位置の選択を要求することができる。
 本開示の一態様に係る制御装置において、前記第1プロセッサは、前記操作端末から前記選択位置の情報を受信すると、前記選択位置に従った前記ロボットの予定動作を検出することと、前記予定動作の情報を前記操作端末に送信し提示させることとをさらに実行してもよい。上記態様によると、制御装置は、選択位置に従ったロボットの予定動作をユーザに提示することができる。例えば、制御装置は、ユーザによる予定動作の許可後に当該予定動作をロボットに実行させてもよい。
 本開示の一態様に係る制御装置において、前記第1プロセッサは、前記操作端末による前記予定動作の変更を受け付け、変更された前記予定動作に従って前記ロボットに自動運転で動作させてもよい。上記態様によると、ユーザは、操作端末に提示される予定動作に変更を加え、変更後の予定動作をロボットに実行させることができる。例えば、ユーザは、予定動作においてロボットが周囲の物体と干渉することを確認すると、操作端末を用いて干渉を回避するように予定動作を変更することができる。この場合、ユーザは、例えば、選択位置を変更してもよく、予定動作でのロボットの動作経路を変更してもよい。確実で安全なロボットの動作が可能になる。
 本開示の一態様に係る制御装置は、第1記憶装置をさらに備え、前記第1記憶装置は、前記ワークの特徴及び前記ワークに設定されている前記所定作業に関する情報を含む第1属性情報を記憶し、前記第1プロセッサは、前記第1属性情報及び前記選択作業位置に従って前記ロボットに自動運転で動作させてもよい。
 上記態様によると、制御装置は、ワークに適した動作をロボットに実行させることができる。例えば、第1属性情報がワークの弾性、塑性、靭性、脆性及び展延性等のワークの特徴を含む場合、制御装置は、第1属性情報に基づき、ロボットがワークを把持する動作での把持力を決定することができる。第1属性情報がワークの移動姿勢及び移動速度等の所定作業に関する情報を含む場合、制御装置は、第1属性情報に基づき、ロボットがワークを移動する動作でのワークの姿勢及び移動速度を決定することができる。
 本開示の一態様に係る制御装置において、前記第1プロセッサは、前記選択位置に対応する前記第1属性情報を前記操作端末に送信し提示させることをさらに実行し、前記第1プロセッサは、前記操作端末による前記第1属性情報の変更を受け付け、受け付けた変更内容に従って前記第1属性情報を変更し、変更された前記第1属性情報及び前記選択位置に従って前記ロボットに自動運転で動作させてもよい。上記態様によると、制御装置は、操作端末のユーザの判断に従った第1属性情報に従ってロボットの動作を決定することができる。制御装置は、ロボットの動作制御に、選択位置以外のユーザの判断結果を反映することができる。
 本開示の一態様に係る制御装置において、前記第1属性情報は、前記ロボットが前記ワークに作用を加えることができる位置の情報を含み、前記作業位置の候補を決定する処理において、前記第1回路は、前記第1属性情報を用いて、前記作業位置の候補として、前記ロボットが前記ワークに作用を加える位置の候補を決定してもよい。上記態様によると、制御装置は、ワークに設定されている作用位置の候補の情報を第1属性情報として記憶する。よって、制御装置は、作業位置の候補を決定するための処理量を低く抑えることができる。
 本開示の一態様に係る制御装置は、第1記憶装置をさらに備え、前記第1記憶装置は、前記ワークの周辺環境の特徴及び前記周辺環境に設定されている前記所定作業に関する情報を含む第2属性情報を記憶し、前記第1プロセッサは、前記第2属性情報及び前記選択位置に従って前記ロボットに自動運転で動作させてもよい。
 上記態様によると、制御装置は、周辺環境に適した動作をロボットに実行させることができる。例えば、第2属性情報が、周辺環境であるワークの移動先での配置面の弾性、塑性、靭性、脆性及び展延性等の周辺環境の特徴を含む場合、制御装置は、第2属性情報に基づき、ロボットがワークを配置面に配置する動作でのワークの速度及び加速度を決定することができる。第2属性情報が、ワークの移動先における複数の配置場所に対する配置順序及び配置方向等の所定作業に関する情報を含む場合、制御装置は、第2属性情報に基づき、ロボットがワークを配置する動作でのワークの配置順序及び配置方向を決定することができる。
 本開示の一態様に係る制御装置において、前記第1プロセッサは、前記選択位置に対応する前記第2属性情報を前記操作端末に送信し提示させることをさらに実行し、前記第1プロセッサは、前記操作端末による前記第2属性情報の変更を受け付け、受け付けた変更内容に従って前記第2属性情報を変更し、変更された前記第2属性情報及び前記選択位置に従って前記ロボットに自動運転で動作させてもよい。上記態様によると、制御装置は、操作端末のユーザの判断に従った第2属性情報に従ってロボットの動作を決定することができる。制御装置は、ロボットの動作制御に、選択位置以外のユーザの判断結果を反映することができる。
 本開示の一態様に係る制御装置において、前記第2属性情報は、前記周辺環境に対する前記ワークの位置の情報を含み、前記作業位置の候補を決定する処理において、前記第1プロセッサは、前記第2属性情報を用いて、前記作業位置の候補として、前記周辺環境に対する前記ワークの位置の候補を決定してもよい。上記態様によると、制御装置は、周辺環境に設定されている周辺環境に対するワークの位置の候補の情報を第2属性情報として記憶する。よって、制御装置は、作業位置の候補を決定するための処理量を低く抑えることができる。
 本開示の一態様に係るロボットシステムは、本開示の一態様に係る制御装置と、前記制御装置によって制御される前記ロボットとを備える。上記態様によると、本開示の一態様に係る制御装置と同様の効果が得られる。
 本開示の一態様に係るロボットシステムは、前記制御装置と前記制御装置によって制御される前記ロボットとの複数の組み合わせを含む複数のロボットグループと、前記通信ネットワークにデータ通信可能に接続される仲介装置であって、複数の前記操作端末のうちの選択された前記操作端末と前記複数のロボットグループのうちの選択された前記ロボットグループの前記制御装置との接続を仲介する仲介装置とをさらに備えてもよい。
 上記態様によると、複数の操作端末のユーザのうちの任意のユーザが、複数のロボットグループのうちの任意のロボットグループのロボットに選択位置に従った動作をさせることができる。例えば、複数のユーザが交代しつつ1つのロボットグループのロボットを間接操作することが可能である。これにより、各ユーザの操作の負荷を軽減しつつ、ロボットの継続的な作業が可能である。例えば、複数のユーザのうちのロボット及び所定作業に適したユーザによるロボットの間接操作が可能である。
 本開示の一態様に係る学習装置は、第2プロセッサと第2記憶装置とを備え、前記第2記憶装置は、本開示の一態様に係る1つ以上の制御装置において取得された、前記状態情報と前記状態情報に対応する前記選択位置とを学習用データとして記憶し、前記状態情報に対応する前記選択位置は、前記状態情報に基づく前記作業位置の候補の中から選択された前記選択位置であり、前記第2プロセッサは、前記学習用データの前記状態情報を学習用入力データとし、前記状態情報に対応する前記学習用データの前記選択位置の情報を教師データとして、学習することと、ワークの状態を含む状態情報である入力状態情報を入力データとして受け付け、前記入力状態情報に対応する前記ワークに関する作業位置の候補の中の最適な前記作業位置の情報を出力データとして出力することとを実行する。
 上記態様によると、学習装置は、操作端末のユーザによる作業位置の選択結果、つまり、ユーザの判断結果を学習することができる。学習後の学習装置は、操作端末のユーザの代わりに、作業位置の候補の中で最適な作業位置を決定し出力することができる。よって、学習装置は、ユーザの判断が必要であるロボットの動作の操作をさらに自動化することができる。第2プロセッサ及び第2記憶装置はそれぞれ、第1プロセッサ及び第1記憶装置と別々であってもよく、一体化されていてもよい。
 本開示の一態様に係る学習装置は、第2プロセッサと第2記憶装置とを備え、前記第2記憶装置は、本開示の一態様に係る1つ以上の制御装置において取得された、前記状態情報と前記状態情報に対応する前記選択位置とを学習用データとして記憶し、前記状態情報に対応する前記選択位置は、前記状態情報に基づく前記作業位置の候補の中から選択された前記選択位置であり、前記第2プロセッサは、前記学習用データの前記状態情報を学習用入力データとし、前記状態情報に対応する前記学習用データの前記選択位置の情報を教師データとして、学習することと、ワークの状態を含む状態情報である入力状態情報を入力データとして受け付け、前記入力状態情報に対応する前記ワークに関する作業位置の候補の信頼度を出力データとして出力することと、前記信頼度に基づき、前記ワークに関する任意の位置から最適な前記作業位置を決定し、前記最適な作業位置の情報を出力することとを実行する。
 上記態様によると、学習装置は、操作端末のユーザによる作業位置の選択結果、つまり、ユーザの判断結果を学習することができる。学習後の学習装置は、操作端末のユーザの代わりに、任意の位置の中で作業位置に最適な位置を決定し出力することができる。よって、学習装置は、ユーザの判断が必要であるロボットの動作の操作をさらに自動化することができる。第2プロセッサ及び第2記憶装置はそれぞれ、第1プロセッサ及び第1記憶装置と別々であってもよく、一体化されていてもよい。
 本明細書で開示する要素の機能は、開示された機能を実行するよう構成又はプログラムされた汎用プロセッサ、専用プロセッサ、集積回路、ASIC、従来の回路、及び/又は、それらの組み合わせ、を含む回路又は処理回路を使用して実行できる。プロセッサは、トランジスタやその他の回路を含むため、処理回路又は回路と見なされる。本開示において、回路、ユニット、又は手段は、列挙された機能を実行するハードウェアであるか、又は、列挙された機能を実行するようにプログラムされたハードウェアである。ハードウェアは、本明細書に開示されているハードウェアであってもよいし、あるいは、列挙された機能を実行するようにプログラム又は構成されているその他の既知のハードウェアであってもよい。ハードウェアが回路の一種と考えられるプロセッサである場合、回路、手段、又はユニットはハードウェアとソフトウェアの組み合わせであり、ソフトウェアはハードウェア及び/又はプロセッサの構成に使用される。
 上記で用いた序数、数量等の数字は、全て本開示の技術を具体的に説明するために例示するものであり、本開示は例示された数字に制限されない。構成要素間の接続関係は、本開示の技術を具体的に説明するために例示するものであり、本開示の機能を実現する接続関係はこれに限定されない。
 機能ブロック図におけるブロックの分割は一例であり、複数のブロックを一つのブロックとして実現する、一つのブロックを複数に分割する、一部の機能を他のブロックに移す、又はこれらの2つ以上を組み合わせてもよい。類似する機能を有する複数のブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。
 本開示は、その本質的な特徴の精神から逸脱することなく、様々なかたちで実施され得るように、本開示の範囲は、明細書の記載よりも添付の請求項によって定義されるため、例示的な実施の形態及び変形例は、例示的なものであって限定的なものではない。請求項及びその範囲内にあるすべての変更、又は、請求項及びその範囲の均等物は、請求項によって包含されることが意図されている。

Claims (15)

  1.  ロボットに自動運転で所定作業を実行させる制御を行う制御装置であって、
     第1プロセッサを備え、
     前記第1プロセッサは、
     前記所定作業の実行中、作業対象であるワークの状態を含む状態情報を取得することと、
     前記状態情報に基づき、前記ワークに関する作業位置の候補を決定することと、
     前記作業位置の候補の中から前記作業位置を選択することを要求する選択要求を、通信ネットワークを介してデータ通信可能に接続される操作端末に送信することと、
     前記操作端末から、選択された前記作業位置である選択位置の情報を受信すると、前記選択位置に従って前記ロボットに自動運転で動作させることとを実行する
     制御装置。
  2.  前記状態情報を取得する処理において、前記第1プロセッサは、前記ワークが撮像された画像のデータである第1画像データを取得し、前記第1画像データを画像処理することによって前記状態情報を検出する
     請求項1に記載の制御装置。
  3.  前記選択要求を前記操作端末に送信する処理において、前記第1プロセッサは、
     前記ワークが撮像された画像のデータである第1画像データを取得し、前記第1画像データを画像処理することによって、前記第1画像データの画像上で前記作業位置の候補を表す画像のデータである第2画像データを生成し、
     前記第2画像データを用いた前記選択要求を前記操作端末に送信する
     請求項1又は2に記載の制御装置。
  4.  前記第1プロセッサは、
     前記操作端末から前記選択位置の情報を受信すると、前記選択位置に従った前記ロボットの予定動作を検出することと、
     前記予定動作の情報を前記操作端末に送信し提示させることとをさらに実行する
     請求項1から3のいずれか一項に記載の制御装置。
  5.  前記第1プロセッサは、前記操作端末による前記予定動作の変更を受け付け、変更された前記予定動作に従って前記ロボットに自動運転で動作させる
     請求項4に記載の制御装置。
  6.  第1記憶装置をさらに備え、
     前記第1記憶装置は、前記ワークの特徴及び前記ワークに設定されている前記所定作業に関する情報を含む第1属性情報を記憶し、
     前記第1プロセッサは、前記第1属性情報及び前記選択位置に従って前記ロボットに自動運転で動作させる
     請求項1から5のいずれか一項に記載の制御装置。
  7.  前記第1プロセッサは、前記選択位置に対応する前記第1属性情報を前記操作端末に送信し提示させることをさらに実行し、
     前記第1プロセッサは、
     前記操作端末による前記第1属性情報の変更を受け付け、受け付けた変更内容に従って前記第1属性情報を変更し、
     変更された前記第1属性情報及び前記選択位置に従って前記ロボットに自動運転で動作させる
     請求項6に記載の制御装置。
  8.  前記第1属性情報は、前記ロボットが前記ワークに作用を加えることができる位置の情報を含み、
     前記作業位置の候補を決定する処理において、前記第1プロセッサは、前記第1属性情報を用いて、前記作業位置の候補として、前記ロボットが前記ワークに作用を加える位置の候補を決定する
     請求項6又は7に記載の制御装置。
  9.  第1記憶装置をさらに備え、
     前記第1記憶装置は、前記ワークの周辺環境の特徴及び前記周辺環境に設定されている前記所定作業に関する情報を含む第2属性情報を記憶し、
     前記第1プロセッサは、前記第2属性情報及び前記選択位置に従って前記ロボットに自動運転で動作させる
     請求項1から8のいずれか一項に記載の制御装置。
  10.  前記第1プロセッサは、前記選択位置に対応する前記第2属性情報を前記操作端末に送信し提示させることをさらに実行し、
     前記第1プロセッサは、前記操作端末による前記第2属性情報の変更を受け付け、受け付けた変更内容に従って前記第2属性情報を変更し、
     変更された前記第2属性情報及び前記選択位置に従って前記ロボットに自動運転で動作させる
     請求項9に記載の制御装置。
  11.  前記第2属性情報は、前記周辺環境に対する前記ワークの位置の情報を含み、
     前記作業位置の候補を決定する処理において、前記第1プロセッサは、前記第2属性情報を用いて、前記作業位置の候補として、前記周辺環境に対する前記ワークの位置の候補を決定する
     請求項9又は10に記載の制御装置。
  12.  請求項1から11のいずれか一項に記載の制御装置と、
     前記制御装置によって制御される前記ロボットとを備えるロボットシステム。
  13.  前記制御装置と前記制御装置によって制御される前記ロボットとの複数の組み合わせを含む複数のロボットグループと、
     前記通信ネットワークにデータ通信可能に接続される仲介装置であって、複数の前記操作端末のうちの選択された前記操作端末と前記複数のロボットグループのうちの選択された前記ロボットグループの前記制御装置との接続を仲介する仲介装置とをさらに備える
     請求項12に記載のロボットシステム。
  14.  第2プロセッサと第2記憶装置とを備え、
     前記第2記憶装置は、請求項1から13のいずれか一項に記載の1つ以上の制御装置において取得された、前記状態情報と前記状態情報に対応する前記選択位置とを学習用データとして記憶し、
     前記状態情報に対応する前記選択位置は、前記状態情報に基づく前記作業位置の候補の中から選択された前記選択位置であり、
     前記第2プロセッサは、
     前記学習用データの前記状態情報を学習用入力データとし、前記状態情報に対応する前記学習用データの前記選択位置の情報を教師データとして、学習することと、
     ワークの状態を含む状態情報である入力状態情報を入力データとして受け付け、前記入力状態情報に対応する前記ワークに関する作業位置の候補の中の最適な前記作業位置の情報を出力データとして出力することとを実行する
     学習装置。
  15.  第2プロセッサと第2記憶装置とを備え、
     前記第2記憶装置は、請求項1から13のいずれか一項に記載の1つ以上の制御装置において取得された、前記状態情報と前記状態情報に対応する前記選択位置とを学習用データとして記憶し、
     前記状態情報に対応する前記選択位置は、前記状態情報に基づく前記作業位置の候補の中から選択された前記選択位置であり、
     前記第2プロセッサは、
     前記学習用データの前記状態情報を学習用入力データとし、前記状態情報に対応する前記学習用データの前記選択位置の情報を教師データとして、学習することと、
     ワークの状態を含む状態情報である入力状態情報を入力データとして受け付け、前記入力状態情報に対応する前記ワークに関する作業位置の候補の信頼度を出力データとして出力することと、
     前記信頼度に基づき、前記ワークに関する任意の位置から最適な前記作業位置を決定し、前記最適な作業位置の情報を出力することとを実行する
     学習装置。
     
PCT/JP2021/046542 2020-12-18 2021-12-16 制御装置、ロボットシステム及び学習装置 WO2022131335A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022570057A JP7473685B2 (ja) 2020-12-18 2021-12-16 制御装置、ロボットシステム及び学習装置
US18/267,309 US20240051134A1 (en) 2020-12-18 2021-12-16 Controller, robot system and learning device
CN202180084729.XA CN116600952A (zh) 2020-12-18 2021-12-16 控制装置、机器人系统以及学习装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020210012 2020-12-18
JP2020-210012 2020-12-18

Publications (1)

Publication Number Publication Date
WO2022131335A1 true WO2022131335A1 (ja) 2022-06-23

Family

ID=82059561

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/046542 WO2022131335A1 (ja) 2020-12-18 2021-12-16 制御装置、ロボットシステム及び学習装置

Country Status (4)

Country Link
US (1) US20240051134A1 (ja)
JP (1) JP7473685B2 (ja)
CN (1) CN116600952A (ja)
WO (1) WO2022131335A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024047924A1 (ja) * 2022-08-29 2024-03-07 パナソニックIpマネジメント株式会社 画像認識装置、画像認識方法およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62199376A (ja) * 1986-02-26 1987-09-03 株式会社日立製作所 遠隔マニピユレ−シヨン方法及び装置
JP2012006097A (ja) * 2010-06-23 2012-01-12 Yaskawa Electric Corp ロボット装置
JP2020131279A (ja) * 2019-02-26 2020-08-31 株式会社神戸製鋼所 溶接線データ生成装置、溶接システム、溶接線データ生成方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62199376A (ja) * 1986-02-26 1987-09-03 株式会社日立製作所 遠隔マニピユレ−シヨン方法及び装置
JP2012006097A (ja) * 2010-06-23 2012-01-12 Yaskawa Electric Corp ロボット装置
JP2020131279A (ja) * 2019-02-26 2020-08-31 株式会社神戸製鋼所 溶接線データ生成装置、溶接システム、溶接線データ生成方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024047924A1 (ja) * 2022-08-29 2024-03-07 パナソニックIpマネジメント株式会社 画像認識装置、画像認識方法およびプログラム

Also Published As

Publication number Publication date
US20240051134A1 (en) 2024-02-15
JP7473685B2 (ja) 2024-04-23
JPWO2022131335A1 (ja) 2022-06-23
CN116600952A (zh) 2023-08-15

Similar Documents

Publication Publication Date Title
JP7338034B2 (ja) リモートクライアントデバイスからの入力に基づく効率的なロボットの制御
US10759051B2 (en) Architecture and methods for robotic mobile manipulation system
US20220212340A1 (en) Control device, control system, mechanical apparatus system, and controlling method
CN114728417A (zh) 由远程操作员触发的机器人自主对象学习
Annem et al. Towards remote teleoperation of a semi-autonomous mobile manipulator system in machine tending tasks
Westerberg et al. Virtual environment-based teleoperation of forestry machines: Designing future interaction methods
JP7281349B2 (ja) 遠隔操作システム
WO2022131335A1 (ja) 制御装置、ロボットシステム及び学習装置
KR102518766B1 (ko) 데이터 생성 장치, 데이터 생성 방법, 데이터 생성 프로그램 및 원격 조작 시스템
JP6644104B2 (ja) 多機能統合型作業テーブルおよびそれを用いた生産システム
WO2021070859A1 (ja) 制御方法、制御装置、ロボットシステム、プログラム及び記録媒体
US11618164B2 (en) Robot and method of controlling same
KR20160116445A (ko) 지능형 공구 심부름 로봇
US20220374295A1 (en) Systems and Methods for Inter-Process Communication within a Robot
Hentout et al. A telerobotic human/robot interface for mobile manipulators: A study of human operator performance
Sylari et al. Hand gesture-based on-line programming of industrial robot manipulators
Asavasirikulkij et al. A Study of Digital Twin and Its Communication Protocol in Factory Automation Cell
Jia et al. Distributed telerobotics system based on common object request broker architecture
Wozniak et al. Virtual reality framework for better human-robot collaboration and mutual understanding
JP2022131206A (ja) 情報処理装置、学習装置、情報処理システム及びロボットシステム
Chandrasekaran et al. A Robotic System Architecture Based on Safety Controller and Priority Module Using Robot Operating System (ROS), Sensor Fusion and Human Robot Interaction for Control and Safety
JP2022035765A (ja) 自律移動体、及びその制御システム、制御方法、及びプログラム
CN115225682A (zh) 管理服务器、远程操作系统、远程操作方法以及存储介质
CN115997182A (zh) 模拟装置及模拟系统
JP2022066982A (ja) 教育システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21906695

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022570057

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 18267309

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 202180084729.X

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21906695

Country of ref document: EP

Kind code of ref document: A1