WO2013150599A1 - ロボットシステム及び作業設備 - Google Patents

ロボットシステム及び作業設備 Download PDF

Info

Publication number
WO2013150599A1
WO2013150599A1 PCT/JP2012/058985 JP2012058985W WO2013150599A1 WO 2013150599 A1 WO2013150599 A1 WO 2013150599A1 JP 2012058985 W JP2012058985 W JP 2012058985W WO 2013150599 A1 WO2013150599 A1 WO 2013150599A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
robot
teaching
unit
teaching information
Prior art date
Application number
PCT/JP2012/058985
Other languages
English (en)
French (fr)
Inventor
吉田 修
智広 上野
英治 木原
太郎 難波
Original Assignee
株式会社安川電機
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社安川電機 filed Critical 株式会社安川電機
Priority to PCT/JP2012/058985 priority Critical patent/WO2013150599A1/ja
Priority to EP12873864.8A priority patent/EP2835232A1/en
Priority to CN201280072249.2A priority patent/CN104220219A/zh
Priority to JP2014508943A priority patent/JP5928923B2/ja
Publication of WO2013150599A1 publication Critical patent/WO2013150599A1/ja
Priority to US14/499,253 priority patent/US20150019012A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0084Programme-controlled manipulators comprising a plurality of manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36508Each pallet, workpiece, tool holder, selects corresponding tape reader, program
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40383Correction, modification program by detection type workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40607Fixed camera to observe workspace, object, workpiece, global

Definitions

  • the disclosed embodiment relates to a robot system and work equipment.
  • Patent Document 1 discloses a robot teaching system.
  • This robot teaching system includes a robot, a robot control device (robot controller), and a robot teaching device (teaching operation terminal).
  • the robot operates based on the taught position information.
  • the robot control device operates the robot based on a predetermined program.
  • the robot teaching device teaches position information to the robot.
  • a teacher teaches an operation for a robot work target using the robot teaching device, and the teaching information is stored in the robot control device. Then, when the work is performed, the robot control device controls the operation of the robot based on the teaching information stored in advance, thereby causing the robot to execute the operation with respect to the work target.
  • the teacher needs to teach the operation for the robot work target again, which is inconvenient.
  • the present invention has been made in view of such problems, and an object of the present invention is to provide a robot system and work equipment that can reduce the labor burden on the teacher for teaching work and can improve the convenience of the teacher. .
  • the teaching information stored in the storage unit includes a robot that performs a predetermined operation, and a storage unit that stores teaching information that defines the operation of the robot.
  • One or more work facilities having a robot control device for controlling the operation of the robot based on the above and a sensor provided corresponding to the robot, and connected to each of the one or more work facilities so that data communication is possible
  • a central computer device wherein the central computer device is processing information based on detection information of the sensor or processing based on a processing algorithm for the detection information in each work facility.
  • a teaching information database that stores a plurality of associated teaching information, and the detection information of the sensor of each work facility is received.
  • the detection information or the processing information is included in the plurality of teaching information stored in the teaching information database.
  • a correlation determining unit that determines whether or not teaching information having a predetermined correlation is included, and the specific teaching information determined to have the correlation by the correlation determining unit
  • a robot system provided with a first transfer unit that transfers information from the information database to the storage unit of the corresponding work facility is applied.
  • FIG. 1 is a system configuration diagram schematically illustrating an overall configuration of a robot system according to an embodiment. It is explanatory drawing showing another example of a central server. It is a schematic diagram which represents typically the structure of the work equipment of one site. It is a functional block diagram showing the functional structure of the robot controller of one site, a camera, IF apparatus, and a central server. It is explanatory drawing showing an example of the memory content of a teaching information database. It is a flowchart showing an example of the control procedure performed by the control part of a central server. It is a flowchart showing an example of the control procedure performed by the control part of a robot controller corresponding to the case where specific teaching information and correlation degree data are transferred from the central server. It is a flowchart showing an example of the control procedure performed by the control part of a robot controller corresponding to the case where an error signal is output from the central server.
  • the robot system 1 of the present embodiment includes, for example, a plurality of sites such as a factory equipped with a production line (“site A”, “site B”, “site C”, “site D”, “ A plurality of work facilities 100 (not shown in FIG. 1; see FIG. 3 to be described later) and a central server 200 (central computer device) provided in each of the sites E ”.
  • the central server 200 is a server that is shared (shared) among the work facilities 100 at a plurality of sites.
  • the central server 200 is configured as an aggregate of one or more arithmetic devices and storage devices connected by a network cloud NW1 (network), and is connected to each of the plurality of work facilities 100 so that data communication is possible.
  • NW1 network cloud
  • a single arithmetic device connected to each work facility 100 via an appropriate network NW2 may be used as the central server 200.
  • the central server 200 is installed in, for example, a building of a management company of the robot system 1.
  • the conveyor 101 which conveys the workpiece
  • the workpiece W is an indeterminate shape whose shape and size vary among individuals and whose shape and size are undefined between individuals.
  • a robot 110 as a work facility 100, a robot 110, a robot controller 120 (robot control device), a camera 130 (image sensor, sensor) including a lens 131, and an interface device 140 (robot teaching device, hereinafter). , Abbreviated as “IF device 140”).
  • IF device 140 Abbreviated as “IF device 140”.
  • the robot controller 120 at each site and the central server 200 are connected to each other via the network cloud NW1 so as to be able to perform data communication with each other.
  • the robot 110 performs a handling operation of holding and transferring the workpiece W, which is a work target that is continuously conveyed by the conveyor 101, as a predetermined operation.
  • the robot 110 includes an arm 111 and actuators Ac1, Ac2, Ac3, Ac4, Ac5, and Ac6 each provided with a servo motor for driving the arm 111.
  • a suction type hand 112 capable of lifting the workpiece W by vacuum suction is attached to the tip of the arm 111.
  • a tool 112 for example, a servo hand, a fork type hand, a chuck type hand, etc.
  • the robot 110 can exchange the tool 112 at the tip of the arm 111 by performing a tool exchanging operation using an ATC (Auto Tool Changer) or the like.
  • ATC Auto Tool Changer
  • the robot controller 120 is connected to the servo motors of the actuators Ac1 to Ac6 provided on the arm 111 so as to be able to communicate with each other, and controls the drive of each servo motor. Thus, the overall operation of each of the actuators Ac1 to Ac6, that is, the operation of the robot 110 is controlled.
  • the robot controller 120 controls the operation of the tool 112 attached to the tip of the arm 111 (for example, turning on or off a vacuum device (not shown) for bringing the suction part of the suction type hand 112 into a vacuum state).
  • the camera 130 is fixed to a support member (not shown) so that the workpiece W that is being conveyed can be imaged through the lens 131 at the upper upstream side of the conveyance path of the workpiece W.
  • the camera 130 may be provided on the robot 110 side (for example, the tip side of the arm 111).
  • the camera 130 captures an image of the conveyed workpiece W through the lens 131 and generates image information including an image of the captured workpiece W.
  • the generated image information is output as detection information to the robot controller 120, and transmitted to the central server 200 via the network cloud NW1 by the transmission unit 122a of the communication control unit 122 described later.
  • the camera 130 may directly transmit the image information to the central server 200.
  • the IF device 140 is a device for a teacher to create and edit teaching information that regulates the operation of the robot 110, and an operator to input various types of information.
  • the IF device 140 includes a personal computer, a teaching pendant, and the like. Yes.
  • the teaching information created or edited by the IF device 140 is output to the robot controller 120 and stored (details will be described later).
  • Information (described later) input to the central server 200 by the operator via the IF device 140 is output to the robot controller 120, and the central server 200 is transmitted via the network cloud NW1 by the transmission unit 122a of the communication control unit 122 described later. Sent to. Note that the IF device 140 may directly transmit information to the central server 200 to the central server 200.
  • the central server 200 receives image information transmitted from the robot controller 120 at each site, performs feature extraction processing (image processing) on the received image information, and extracts features (patterns) unique to the image information. (Details will be described later). Note that the extracted pattern of image information corresponds to processing information and processing image information.
  • the camera 130 of the work facility 100 provided at one site includes the lens 131, the control unit 132, and the input / output unit 133 as a functional configuration.
  • the control unit 132 controls the entire camera 130. For example, the control unit 132 generates image information including the image of the workpiece W taken through the lens 131.
  • the input / output unit 133 controls information communication performed with the robot controller 120.
  • the input / output unit 133 controls information communication when the image information generated by the control unit 132 is output to the robot controller 120.
  • the IF device 140 includes a control unit 141, an operation unit 142, and an input / output unit 143 (information output unit) as a functional configuration.
  • the control unit 141 controls the entire IF device 140.
  • the operation unit 142 includes keys, buttons, switches, and the like for the teacher to input various information such as teaching information.
  • the teacher appropriately operates the operation unit 142 to create teaching information, edit teaching information stored in the storage device 124 of the robot controller 120, and input various information.
  • the input / output unit 143 controls information communication performed with the robot controller 120.
  • the input / output unit 143 outputs teaching information created or edited by the teacher via the operation unit 142 to the storage device 124 of the robot controller 120.
  • the output teaching information is stored in the storage device 124.
  • the input / output unit 143 outputs information (described later) to the central server 200 input by the operator via the operation unit 142 to the robot controller 120.
  • the robot controller 120 includes, as a functional configuration, a control unit 121, a communication control unit 122, a first input / output unit 123a, a second input / output unit 123b, and a storage device 124 (storage unit).
  • the first input / output unit 123a controls information communication performed between the robot 110 and the camera 130.
  • the first input / output unit 123 a performs control of information communication when inputting image information output from the camera 130.
  • the second input / output unit 123b controls information communication performed with the IF device 140.
  • the second input / output unit 123b controls information communication when inputting the teaching information output from the IF device 140 and the information to the central server 200.
  • the communication control unit 122 includes a transmission unit 122a (transmitter) and a reception unit 122b (receiver), and controls information communication performed with the central server 200 via the network cloud NW1.
  • the transmission unit 122a receives image information from the camera 130 input from the first input / output unit 123a, teaching information from the IF device 140 input from the second input / output unit 123b, and information to the central server 200. Is controlled to transmit information to the central server 200 via the network cloud NW1.
  • the receiving unit 122b controls information communication when receiving specific teaching information (described later) transmitted from the central server 200 via the network cloud NW1.
  • the storage device 124 is configured by, for example, an HDD (Hard Disk Drive) or the like, and stores various types of information.
  • the storage device 124 stores the teaching information from the IF device 140 input by the second input / output unit 123b and the specific teaching information received by the receiving unit 122b.
  • the control unit 121 controls the entire robot controller 120.
  • the control unit 121 controls the operation of the robot 110 by performing drive control of each servo motor of the robot 110, operation control of the tool 112, and the like based on the teaching information stored in the storage device 124. .
  • the central server 200 includes a control unit 201, a communication control unit 202 (information reception unit, signal output unit), and a mass storage device 203 as functional configurations.
  • the communication control unit 202 is configured to control information communication with the robot controller 120 at each site via the network cloud NW1.
  • the communication control unit 202 transmits (outputs) a configuration as an information receiving unit that receives (receives) image information transmitted from the robot controller 120 at each site and an error signal described later to the corresponding robot controller 120 at the site. And a configuration as a signal output unit.
  • the control unit 201 controls the entire central server 200. For example, the control unit 201 performs a feature extraction process on the image information received by the communication control unit 202 and extracts a pattern of the image information.
  • the large-capacity storage device 203 is configured as a set of a plurality of storage media existing in the network cloud NW1, and the storage capacity and the like can be variably set.
  • the large-capacity storage device 203 stores a teaching information database 2030 (see FIG. 5 described later) and an algorithm storage unit (not shown).
  • the algorithm storage unit stores a plurality of types of processing algorithms associated with the shape pattern of the object to be detected.
  • a circular area is cut out from the image information received by the communication control unit 202, and position information of each cut out area is output (suitable for detecting an object with a circular hole opened). ) And the one that detects the length and position / orientation of the long axis of each object from image information (suitable for detecting an elongated object such as a bolt). Also included are those that simply binarize image information according to conditions, and those that only perform region division based on image information, and one processing algorithm is configured by a combination of a plurality of processing algorithms Also included.
  • the control unit 201 transmits information transmitted from each site to the central server 200 from the IF device 140, specifically, information indicating a processing algorithm for feature extraction processing (hereinafter referred to as “instruction information as appropriate”). ”), A processing algorithm used for the feature extraction process is selected from a plurality of types of processing algorithms stored in the algorithm storage unit, and parameters used for the processing algorithm are set.
  • the control unit 201 configures a processing algorithm that performs a feature extraction process on image information from the site and extracts a pattern of the image information.
  • the processing algorithm configured by the control unit 201 is used as a common processing algorithm for image information from each site (hereinafter referred to as “common image processing algorithm” as appropriate). It is done.
  • the work facility 100 at one site has been described.
  • the robot 110, the robot controller 120, the camera 130, and the IF device 140 are also used as the work facility 100 at other sites. It may be of a type having a structure / configuration different from that of the site).
  • the teaching information database 2030 describes a plurality of image information patterns (in FIG. 5, “pattern 01” “pattern 02” “pattern 03” “pattern 04” “pattern 05”... ) And a plurality of teaching information (in FIG. 5, “teaching information A”, “teaching information B”, “teaching information C”, “teaching information D”, “teaching information”) defining the operation of the robot 110 with respect to the workpiece W related to the image information. E ”and so on) are stored in association with each other.
  • the pattern of image information stored in the teaching information database 2030 will be referred to as a “registered pattern” as appropriate.
  • the registered pattern is a pattern of the image information extracted by the control unit 201 of the central server 200 performing feature extraction processing based on the common image processing algorithm on the image information of the work W captured by the camera 130.
  • the teaching information is teaching information that defines the operation of the robot 110 with respect to the workpiece W.
  • the teaching information includes, for example, information indicating the type of the tool 112 used for the workpiece W handling operation, information indicating the lift position (coordinates) of the workpiece W by the tool 112, information indicating the operation speed during the workpiece W handling operation, and the like.
  • a plurality of pieces of information relating to the work of handling the workpiece W are included. Note that information such as the shape / size of the workpiece W and identification information (for example, name) of the workpiece W may be stored as teaching information.
  • control procedure executed by the control unit 201 of the central server 200 will be described with reference to FIG.
  • the process shown in this flow is started by performing a predetermined start operation (for example, powering on the central server 200). That is, when the operator operates the operation unit 142 of the IF device 140 and inputs the instruction information, the instruction information is output to the robot controller 120 by the input / output unit 143. Then, the control unit 120 of the robot controller 120 inputs the instruction information output from the input / output unit 143 of the IF device 140 through the second input / output unit 123b, and transmits the instruction information to the network cloud NW1 through the transmission unit 122a. To the central server 200. Thereby, the control unit 201 first receives the instruction information transmitted from the transmission unit 122a of the robot controller 120 by the communication control unit 202 in step SB2.
  • a predetermined start operation for example, powering on the central server 200. That is, when the operator operates the operation unit 142 of the IF device 140 and inputs the instruction information, the instruction information is output to the robot controller 120 by the input / output unit 143. Then, the control unit 120 of
  • step SB4 the control unit 201 selects a processing algorithm to be used for feature extraction processing from a plurality of types of processing algorithms stored in the algorithm storage unit in accordance with the instruction information received in step SB2.
  • the common image processing algorithm is configured.
  • step SB20 the control unit 201 performs a known appropriate feature extraction process on the image information received in step SB10 based on the common image processing algorithm configured in step SB4. Thereby, the pattern of the image information is extracted.
  • the extracted pattern is referred to as an “input pattern” as appropriate.
  • step SB30 the control unit 201 uses known appropriate pattern matching (normalized correlation) between the input pattern extracted in step SB20 and the plurality of registered patterns stored in the teaching information database 2030. Sequential matching (matching) using processing technology. Thereby, it is determined whether or not the teaching information having a predetermined correlation with the input pattern among the plurality of teaching information stored in the teaching information database 2030 is included. Specifically, among a plurality of pieces of teaching information stored in the teaching information database 2030, teaching information in which the degree of correlation indicating the degree of correlation with respect to the input pattern of the related registered pattern is larger than a predetermined value set in advance is included. It is determined whether it is. In other words, the degree of correlation can be said to be the accuracy of the matching.
  • the procedure of step SB30 functions as a correlation determination unit.
  • step SB40 the control unit 201 determines whether or not it is determined in step SB30 that teaching information in which the degree of correlation of the associated registered pattern is greater than a predetermined value is included. If it is determined that the teaching information in which the correlation degree of the related registered pattern is greater than the predetermined value is included, the determination in step SB40 is satisfied, and the process proceeds to step SB50.
  • step SB50 the control unit 201 selects specific teaching information having the highest degree of correlation of the related registered pattern from the plurality of teaching information stored in the teaching information database 2030, and acquires the selected teaching information from the teaching information database 2030. . Then, the acquired specific teaching information together with the correlation data representing the correlation corresponding to the specific teaching information is transmitted to the storage device 124 of the corresponding robot controller 120 on the site by the communication control unit 202 via the network cloud NW1. Forward.
  • the procedure of step SB50 functions as a first transfer unit. Thereafter, the processing shown in this flow is terminated.
  • step SC10 when specific teaching information and correlation data are transferred from the communication control unit 202 of the central server 200 in step SB50 of FIG. 6, first, in step SC10, the control unit 121 displays the specific teaching information and The correlation degree data is received by the receiving unit 122b. The received specific teaching information is stored in the storage device 124.
  • step SC20 the control unit 121 determines whether or not the degree of correlation represented by the degree of correlation data received in step SC10 is greater than a predetermined threshold value set in advance.
  • the procedure of step SC20 corresponds to a correlation degree determination unit. If the degree of correlation is greater than the threshold value, the determination at step SC20 is satisfied, and the routine goes to step SC30.
  • step SC30 the controller 121 controls the robot for the workpiece W based on the specific teaching information stored in the storage device 124 in step SC10 (may be used as it is or may be arranged as appropriate).
  • the operation of 110 is controlled.
  • the robot 110 is caused to execute the above-described tool exchange operation, and the tool 112 at the tip of the arm 111 is exchanged.
  • the operation for the workpiece W is executed.
  • the robot 110 is caused to perform the work of handling the workpiece W.
  • step SC40 determines whether the operation
  • This determination may be performed, for example, by providing a sensor for detecting an operation error of the robot 110 at each site and determining whether the operation error is detected by this sensor.
  • an operation button is provided at each site to operate when a supervisor (also an instructor; the same applies hereinafter) finds an operation error of the robot 110, and it is determined whether or not this operation button has been operated by the supervisor. It may be done by.
  • the procedure of step SC40 functions as an operation determination unit. When the operation of the robot 110 is normally executed, the determination at Step SC40 is satisfied, and the routine goes to Step SC50.
  • step SC50 the control unit 121 provides teaching information (for example, information indicating the type of the tool 112, information indicating the lifting position of the workpiece W, information specifying the operation of the robot 110 determined to have been normally executed in step SC40).
  • teaching information for example, information indicating the type of the tool 112, information indicating the lifting position of the workpiece W, information specifying the operation of the robot 110 determined to have been normally executed in step SC40.
  • the information indicating the operation speed at the time of the handling work of the workpiece W is acquired from the storage device 124.
  • the acquired teaching information is transferred to the teaching information database 2030 of the central server 200 via the network cloud NW1 by the transmission unit 122a.
  • the procedure of step SC50 functions as a second transfer unit. Thereafter, the processing shown in this flow is terminated.
  • the control unit 201 of the central server 200 receives the teaching information transferred from the transmission unit 122a of the robot controller 120 by the communication control unit 202.
  • the received teaching information is stored in the teaching information database 2030 in association with the
  • step SC20 determines whether the degree of correlation is equal to or less than the predetermined threshold value in step SC20, and the operation of robot 110 is not normally executed in step SC40. If the determination is not satisfied, the routine goes to Step SC60.
  • step SC60 the control unit 121 causes a not-illustrated notification unit (for example, speaker, lamp, display, etc.) to execute a predetermined error notification (for example, sound output from the speaker, lighting of the lamp, display on the display, etc.).
  • the notification instruction signal is generated.
  • indication signal is output to a alerting
  • the supervisor is requested to edit the teaching information (or create new teaching information) by the operation unit 142 of the IF device 140. Thereafter, the processing shown in this flow is terminated.
  • step SB30 if it is determined in step SB30 that the teaching information in which the correlation degree of the associated registered pattern is greater than the predetermined value is not included, the determination in step SB40 is not satisfied, and step SB60 is satisfied. Move on.
  • step SB60 the control unit 201 indicates that the teaching information database 2030 does not include teaching information in which the degree of correlation of the associated registered pattern is greater than a predetermined value (hereinafter referred to as “error signal” as appropriate). ) Is transmitted by the communication control unit 202 to the corresponding robot controller 120 at the site via the network cloud NW1. Thereafter, the processing shown in this flow is terminated.
  • control unit 121 when an error signal is output from the communication control unit 202 of the central server 200 in step SB60 of FIG. 6, the control unit 121 first receives the error signal by the receiving unit 122b in step SC110.
  • step SC120 the control unit 121 outputs a notification instruction signal to the notification unit in the same manner as in step SC60 of FIG. Thereby, the supervisor is requested to edit the teaching information (or create new teaching information) by the operation unit 142 of the IF device 140. Thereafter, the processing shown in this flow is terminated.
  • the procedure of step SC120 and step SC60 of FIG. 7 functions as an input request unit.
  • the central server 200 receives the image information of the workpiece W captured by the camera 130 at each site, and extracts the pattern of the received image information. Then, the extracted input pattern and the plurality of registered patterns stored in the teaching information database 2030 are sequentially matched. At this time, if the teaching information database 2030 stores teaching information in which the degree of correlation of the related registered pattern with respect to the input pattern is greater than a predetermined value, the central server 200 reads the specific teaching described above from the teaching information database 2030. The information is acquired and transferred to the storage device 124 of the corresponding robot controller 120 at the site.
  • the robot controller 120 that has received the specific teaching information transferred from the central server 200 controls the operation of the robot 110 based on the specific teaching information, so that the handling operation of the workpiece W is performed on the robot 110. Can be made.
  • the workpiece W is an irregular shape as in the present embodiment, in general, the instructor must perform the teaching work every time the workpiece W that is the work target of the robot 110 changes.
  • the teaching information for the workpiece W correlated for example, similar in shape and size
  • the robot controller 120 can control the operation of the robot 110 based on the teaching information, so that the robot 110 can perform the work of handling the workpiece W.
  • the central server 200 displays the error signal described above. To the corresponding robot controller 120 at the site. Then, the robot controller 120 that has received the error signal transmitted from the central server 200 causes the notification unit to execute error notification and requests editing of teaching information by the operation unit 142 of the IF device 140. When the instructor edits the teaching information in response to this request, the robot controller 120 controls the operation of the robot 110 based on the teaching information, thereby causing the robot 110 to perform the work of handling the workpiece W. be able to.
  • the robot controller 120 determines whether or not the operation of the robot 110 with respect to the workpiece W has been normally executed. If it is determined that the operation of the robot 110 has been normally executed, the teaching information defining the operation is acquired from the storage device 124 and transferred to the teaching information database 2030 of the central server 200.
  • the teaching information database 2030 stores the teaching information transferred from the robot controller 120 in association with the input pattern related to the workpiece W handled by the operation of the robot 110 specified by the teaching information.
  • the central server 200 transfers the specific teaching information to the storage device 124 of the corresponding robot controller 120 on the site along with the correlation data corresponding to the specific teaching information. Then, the robot controller 120 that has received the specific teaching information and correlation degree data transferred from the central server 200 determines whether or not the correlation degree represented by the received correlation degree data is greater than a threshold value. When it is determined that the degree of correlation is greater than the threshold value, the operation of the robot 110 is controlled based on the input specific teaching information. On the other hand, if it is determined that the degree of correlation is equal to or less than the threshold value, the notification unit is caused to execute error notification, and request for editing teaching information by the operation unit 142 of the IF device 140 is requested.
  • the embodiment is not limited to the above contents, and various modifications can be made without departing from the spirit and technical idea of the embodiment.
  • the image information of the work W captured by the camera 130 at each site is transmitted to the central server 200, and the central server 200 side performs feature extraction processing on the image information, and the image Although the information pattern was extracted, it is not limited to this. That is, the feature extraction process for the image information may be performed on each site side. In this case, a pattern of image information that has undergone feature extraction processing is transmitted from each site to the central server 200.
  • the subsequent steps are the same as in the above embodiment.
  • the teaching information database 2030 stores a plurality of image information patterns and a plurality of teaching information in association with each other.
  • the present invention is not limited to this. That is, the teaching information database 2030 may store a plurality of pieces of image information and a plurality of teaching information in association with each other.
  • the present invention is not limited to this, and the present invention can also be applied to the case where the workpiece is painted, the workpiece is welded, or the like. In this case, the painting of the workpiece, welding of the workpiece, and the like correspond to a predetermined operation.
  • communication including a conversation with a person using a robot having a microphone as a sensor for example, reception of a visitor at a company building or venue, service in the real world or virtual world, etc. It is also applicable when performing the above. In this case, communication including a conversation with the person corresponds to a predetermined work.
  • the camera 130 and the microphone are provided as part of the on-site work facility.
  • the teaching information database 2030 storing teaching information, which is an example of technical information (know-how), is stored in the large-capacity storage device 203 of the central server 200 shared by the work facilities 100 at a plurality of sites.
  • teaching information which is an example of technical information (know-how)
  • a database storing other technical information may be stored in the mass storage device 203 of the central server 200.
  • FIGS. 6, 7, and 8 are not limited to the procedure illustrating the embodiment, and the addition / deletion of the procedure or the order of the procedure is within the scope not departing from the spirit and technical idea. Changes may be made.
  • Robot System 100 Work Equipment 110 Robot 120 Robot Controller (Robot Controller) 121 Control unit 122a Transmitter (transmitter) 122b Receiver (receiver) 124 storage device (storage unit) 130 Camera (Image sensor, sensor) 140 IF device (robot teaching device) 142 Operation Unit 143 Input / Output Unit (Information Output Unit) 200 Central server (central computer equipment) 201 control unit 202 communication control unit (information receiving unit, signal output unit) 2030 Teaching Information Database NW1 Network Cloud (Network)

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

【課題】教示作業にかかる教示者の労力負担を低減して、教示者の利便性を向上する。 【解決手段】ロボットシステム(1)は、ロボット(110)、ロボットコントローラ(120)、及びカメラ(130)を有する複数の作業設備(100)と、処理アルゴリズムに基づく処理を施した画像情報のパターンに関連付けられた複数の教示情報を記憶する教示情報データベース(2030)を備えた中央サーバ(200)とを有している。中央サーバは、各作業設備のカメラで生成された画像情報を受け付け、その受け付けた画像情報のパターンに基づいて、教示情報データベースに記憶された複数の教示情報のうち、当該画像情報のパターンに対し相関を備える教示情報が含まれているかどうかを判定する。そして、相関を備えると判定された特定の教示情報を、教示情報データベースから、対応する作業設備のロボットコントローラへ転送する。

Description

ロボットシステム及び作業設備
 開示の実施形態は、ロボットシステム及び作業設備に関する。
 特許文献1には、ロボット教示システムが開示されている。このロボット教示システムは、ロボットと、ロボット制御装置(ロボットコントローラ)と、ロボット教示装置(教示操作端末)とから構成される。ロボットは、教示された位置情報に基づき動作する。ロボット制御装置は、ロボットを所定のプログラムに基づいて作動させる。ロボット教示装置は、ロボットに位置情報を教示する。
特開2008-21239号公報
 一般に、ロボットにより作業を行う現場では、作業を行う前に、教示者がロボット教示装置を用いてロボットの作業目標に対する動作の教示を行って、その教示情報をロボット制御装置に記憶させておく。そして、作業を行う際に、ロボット制御装置が事前に記憶した教示情報に基づいてロボットの動作を制御することで、作業目標に対する動作をロボットに実行させる。しかしながら、一般に、ロボットの作業目標が変わるたびに教示者はロボットの作業目標に対する動作の教示を改めて行う必要があり、不便であった。
 本発明はこのような問題に鑑みてなされたものであり、教示作業にかかる教示者の労力負担を低減でき、教示者の利便性を向上できるロボットシステム及び作業設備を提供することを目的とする。
 上記課題を解決するため、本発明の一の観点によれば、所定の作業を行うロボット、前記ロボットの動作を規定する教示情報を記憶する記憶部を備え当該記憶部に記憶された前記教示情報に基づいて前記ロボットの動作を制御するロボット制御装置、及び、前記ロボットに対応して設けられるセンサ、を有する1以上の作業設備と、前記1以上の作業設備のそれぞれに対しデータ通信可能に接続された中央コンピュータ装置と、を有し、前記中央コンピュータ装置は、前記センサの検出情報、又は、各作業設備における前記検出情報に対する処理アルゴリズムに基づく処理を前記検出情報に対し施した処理情報、に関連付けられた複数の前記教示情報を記憶する教示情報データベースと、各作業設備の前記センサの前記検出情報を受け付ける情報受付部と、前記情報受付部が受け付けた前記検出情報又はこれに対応する前記処理情報に基づいて、前記教示情報データベースに記憶された前記複数の教示情報のうち、当該検出情報又は処理情報に対し所定の相関を備える教示情報が含まれているかどうかを判定する相関判定部と、を有し、かつ、前記相関判定部により前記相関を備えると判定された特定の前記教示情報を、前記教示情報データベースから、対応する前記作業設備の前記記憶部に対し転送する第1転送部を設けたロボットシステムが適用される。
 本発明によれば、教示作業にかかる教示者の労力負担を低減することができ、教示者の利便性を向上することができる。
一実施の形態のロボットシステムの全体構成を模式的に表すシステム構成図である。 中央サーバの別の例を表す説明図である。 一現場の作業設備の構成を模式的に表す模式図である。 一現場のロボットコントローラ、カメラ、及びIF装置と中央サーバとの機能的構成を表す機能ブロック図である。 教示情報データベースの記憶内容の一例を表す説明図である。 中央サーバの制御部により実行される制御手順の一例を表すフローチャートである。 中央サーバから特定の教示情報及び相関度データが転送された場合に対応して、ロボットコントローラの制御部により実行される制御手順の一例を表すフローチャートである。 中央サーバからエラー信号が出力された場合に対応して、ロボットコントローラの制御部により実行される制御手順の一例を表すフローチャートである。
 以下、一実施の形態について図面を参照しつつ説明する。
 図1に示すように、本実施形態のロボットシステム1は、例えば生産ラインを備えた工場等の複数の現場(図1中では「現場A」「現場B」「現場C」「現場D」「現場E」・・・と記載)のそれぞれに設けられた複数の作業設備100(図1中では図示省略。後述の図3参照)と、中央サーバ200(中央コンピュータ装置)とを有している。中央サーバ200は、複数の現場の作業設備100間で共通(共有)化されたサーバである。この中央サーバ200は、ネットワーククラウドNW1(ネットワーク)で連結された1以上の演算装置及び記憶装置の集合体として構成されており、複数の作業設備100のそれぞれに対しデータ通信可能に接続されている。なお、図2に示すように、中央サーバ200として、各作業設備100と適宜のネットワークNW2を介して接続される単一の演算装置を用いることもできる。この場合、中央サーバ200は、例えばロボットシステム1の管理会社の社屋等に設置される。
 図3に示すように、一現場には、ワークWを所定の搬送方向(図3中の矢印Aで示す方向)に搬送するコンベア101が設けられている。ワークWは、この例では、個体間で形状・大きさにばらつきがあって、個体間で形状・大きさが不定な不定形物である。また、この現場には、作業設備100として、ロボット110と、ロボットコントローラ120(ロボット制御装置)と、レンズ131を備えたカメラ130(画像センサ、センサ)と、インターフェイス装置140(ロボット教示装置。以下、「IF装置140」と略記する)とが設けられている。なお、図3中では、一現場だけを図示しているが、他の現場についてもこれと同様である。各現場のロボットコントローラ120と、上記中央サーバ200とは、上記ネットワーククラウドNW1を介しそれぞれ相互にデータ通信可能に接続されている。
 ロボット110は、所定の作業として、コンベア101により連続して続々と搬送されてくる作業目標であるワークWを保持しつつ移送する、のハンドリング作業を行う。このロボット110は、アーム111と、このアーム111を駆動するためのサーボモータをそれぞれ備えたアクチュエータAc1,Ac2,Ac3,Ac4,Ac5,Ac6とを有している。アーム111の先端には、ワークWを真空吸着により持ち上げ可能な吸着式ハンド112が取り付けられている。また、図3中では図示を省略しているが、ロボット110の近傍には、吸着式ハンド112とは種類の異なるツール112(例えば、サーボハンド、フォーク式ハンド、チャック式ハンド等)が設けられている。ロボット110は、ATC(Auto Tool Changer)等を用いたツール交換動作を行うことにより、アーム111の先端のツール112を交換できるようになっている。
 ロボットコントローラ120は、上記アーム111に設けられた各アクチュエータAc1~Ac6のサーボモータと相互通信可能に接続されており、これら各サーボモータの駆動制御を行う。これにより、各アクチュエータAc1~Ac6の全体の動作、すなわちロボット110の動作を制御する。また、ロボットコントローラ120は、上記アーム111の先端に取り付けられたツール112の動作(例えば吸着式ハンド112の吸着部を真空状態とするための図示しない真空装置のオン・オフ等)を制御する。
 カメラ130は、ワークWの搬送経路の上流側上方において、搬送されてくるワークWを上記レンズ131を介し撮像可能なように、図示しない支持部材に固定されている。なお、カメラ130をロボット110側(例えばアーム111の先端側等)に設けてもよい。このカメラ130は、搬送されてくるワークWをレンズ131を介し撮像し、その撮像したワークWの画像を含む画像情報を生成する。生成された画像情報は、検出情報として、ロボットコントローラ120へ出力され、後述の通信制御部122の送信部122aにより上記ネットワーククラウドNW1を介し中央サーバ200へ送信される。なお、カメラ130が画像情報を中央サーバ200へ直接送信してもよい。
 IF装置140は、教示者がロボット110の動作を規定する教示情報の作成や編集を行ったり、操作者が各種情報の入力を行うための装置であり、パーソナルコンピュータやティーチングペンダント等で構成されている。IF装置140により作成又は編集された教示情報は、ロボットコントローラ120へ出力され記憶される(詳細は後述)。また、操作者がIF装置140を介し入力した中央サーバ200への情報(後述)は、ロボットコントローラ120へ出力され、後述の通信制御部122の送信部122aにより上記ネットワーククラウドNW1を介し中央サーバ200へ送信される。なお、IF装置140が上記中央サーバ200への情報を中央サーバ200へ直接送信してもよい。
 中央サーバ200は、各現場のロボットコントローラ120から送信された画像情報をそれぞれ受け付け、受け付けた画像情報に対し特徴抽出処理(画像処理)を施して、その画像情報に固有の特徴(パターン)を抽出する(詳細は後述)。なお、この抽出された画像情報のパターンが、処理情報及び処理画像情報に相当する。
 図4に示すように、一現場に設けられた作業設備100のカメラ130は、機能的構成として、上記レンズ131と、制御部132と、入出力部133とを備えている。
 制御部132は、カメラ130全体の制御を行う。例えば、制御部132は、レンズ131を介し撮像した上記ワークWの画像を含む画像情報を生成する。
 入出力部133は、ロボットコントローラ120との間で行われる情報通信の制御を行う。例えば、入出力部133は、制御部132により生成された画像情報をロボットコントローラ120へ出力する際の情報通信の制御を行う。
 IF装置140は、機能的構成として、制御部141と、操作部142と、入出力部143(情報出力部)とを備えている。
 制御部141は、IF装置140全体の制御を行う。
 操作部142は、教示者が教示情報等の各種情報を操作入力するためのキー、ボタン、スイッチ等で構成されている。教示者は、この操作部142を適宜に操作して、教示情報の作成や、ロボットコントローラ120の記憶装置124に記憶された教示情報の編集、各種情報の入力を行う。
 入出力部143は、ロボットコントローラ120との間で行われる情報通信の制御を行う。例えば、入出力部143は、教示者により操作部142を介し作成又は編集された教示情報を、ロボットコントローラ120の記憶装置124へ出力する。これにより、その出力された教示情報が、記憶装置124に記憶される。また例えば、入出力部143は、操作者により操作部142を介し入力された中央サーバ200への情報(後述)を、ロボットコントローラ120へ出力する。
 ロボットコントローラ120は、機能的構成として、制御部121と、通信制御部122と、第1入出力部123aと、第2入出力部123bと、記憶装置124(記憶部)とを備えている。
 第1入出力部123aは、ロボット110やカメラ130との間で行われる情報通信の制御を行う。例えば、第1入出力部123aは、カメラ130から出力された画像情報を入力する際の情報通信の制御を行う。
 第2入出力部123bは、IF装置140との間で行われる情報通信の制御を行う。例えば、第2入出力部123bは、IF装置140から出力された教示情報や上記中央サーバ200への情報を入力する際の情報通信の制御を行う。
 通信制御部122は、送信部122a(送信機)及び受信部122b(受信機)を備えており、中央サーバ200との間でネットワーククラウドNW1を介し行われる情報通信の制御を行う。例えば、送信部122aは、第1入出力部123aで入力されたカメラ130からの画像情報や、第2入出力部123bで入力されたIF装置140からの教示情報や上記中央サーバ200への情報を、ネットワーククラウドNW1を介し中央サーバ200へ送信する際の情報通信の制御を行う。受信部122bは、中央サーバ200から送信された特定の教示情報(後述)をネットワーククラウドNW1を介し受信する際の、情報通信の制御を行う。
 記憶装置124は、例えばHDD(Hard Disk Drive)等で構成されており、各種情報等を記憶する。例えば、記憶装置124には、第2入出力部123bで入力されたIF装置140からの教示情報や、受信部122bで受信された上記特定の教示情報が記憶されている。
 制御部121は、ロボットコントローラ120全体の制御を行う。例えば、制御部121は、記憶装置124に記憶された教示情報に基づいて、ロボット110の上記各サーボモータの駆動制御や、上記ツール112の動作制御等を行って、ロボット110の動作を制御する。
 中央サーバ200は、機能的構成として、制御部201と、通信制御部202(情報受付部、信号出力部)と、大容量記憶装置203とを備えている。
 通信制御部202は、各現場のロボットコントローラ120との間でネットワーククラウドNW1を介し行われる情報通信の制御を行うように構成されている。この通信制御部202は、各現場のロボットコントローラ120から送信された画像情報を受け付ける(受信する)情報受付部としての構成と、後述のエラー信号を、対応する現場のロボットコントローラ120へ送信(出力)する信号出力部としての構成とを有している。
 制御部201は、中央サーバ200全体の制御を行う。例えば、制御部201は、通信制御部202で受信された画像情報に対し特徴抽出処理を施して、その画像情報のパターンを抽出する。
 大容量記憶装置203は、ネットワーククラウドNW1内に存在する複数の記憶媒体の集合として構成されており、記憶容量等を可変に設定することができる。この大容量記憶装置203には、教示情報データベース2030(後述の図5参照)が記憶されると共に、アルゴリズム記憶部(図示省略)が構成されている。アルゴリズム記憶部には、被検出対象物の形状パターンが関連付けられた複数種類の処理アルゴリズムが記憶されている。
 処理アルゴリズムとしては、通信制御部202で受信された画像情報から円形の領域を切り出して、その切り出された各領域の位置情報を出力するもの(円形の穴が開いた対象を検出する場合に適する)や、画像情報から各物体の長軸の長さ及び位置姿勢を検出するもの(ボルト等の細長い対象を検出する場合に適する)が含まれる。また、単純に画像情報を条件に沿って2値化するだけのものや、画像情報に基づいて領域分割をするだけのものも含まれ、複数の処理アルゴリズムの組み合わせにより1つの処理アルゴリズムを構成するものも含まれる。
 本実施形態では、制御部201は、各現場から送信されたIF装置140からの中央サーバ200への情報、具体的には、特徴抽出処理の処理アルゴリズムを指示する情報(以下適宜、「指示情報」と称する)に応じて、アルゴリズム記憶部に記憶された複数種類の処理アルゴリズムから、特徴抽出処理に用いる処理アルゴリズムを選択して構成すると共に、処理アルゴリズムに用いるパラメータ等を設定する。特に、本実施形態では、制御部201は、現場からの画像情報に対し特徴抽出処理を施してその画像情報のパターンを抽出する処理アルゴリズムを構成する。なお、各現場において同様の処理を行う場合、制御部201により構成された処理アルゴリズムが、各現場からの画像情報に対し共通の処理アルゴリズム(以下適宜、「共通画像処理アルゴリズム」と称する)として用いられる。
 なお、以上では、一現場の作業設備100について説明したが、他の現場についてもこれと同様に、作業設備100として、ロボット110、ロボットコントローラ120、カメラ130、及び、IF装置140(いずれも上記現場とは異なる構造・構成を備えたタイプでもよい)が少なくとも設けられている。
 図5に示すように、教示情報データベース2030には、複数の画像情報のパターン(図5中では「パターン01」「パターン02」「パターン03」「パターン04」「パターン05」・・・と記載)と、当該画像情報に係わるワークWに対するロボット110の動作を規定した複数の教示情報(図5中では「教示情報A」「教示情報B」「教示情報C」「教示情報D」「教示情報E」・・・と記載)とが、それぞれ関連付けられて記憶されている。以下適宜、教示情報データベース2030に記憶された画像情報のパターンを「登録パターン」と称する。
 登録パターンは、中央サーバ200の制御部201が上記共通画像処理アルゴリズムに基づく特徴抽出処理を、カメラ130により撮像されたワークWの画像情報に対し施して抽出した、当該画像情報のパターンである。
 教示情報は、ロボット110のワークWに対する動作を規定した教示情報である。教示情報は、例えば、ワークWのハンドリング作業に使用するツール112の種類を表す情報、ツール112によるワークWの持ち上げ位置(座標)を表す情報、ワークWのハンドリング作業時の動作速度を表す情報等の、ワークWのハンドリング作業に係わる複数の情報を含んでいる。なお、ワークWの形状・大きさの情報や、ワークWの識別情報(例えば名称等)等の情報についても、教示情報として記憶させてもよい。
 以下、図6を用いて、中央サーバ200の制御部201により実行される制御手順を説明する。
 図6において、このフローに示す処理は、所定の開始操作(例えば、中央サーバ200の電源オン)が行われることによって開始される。すなわち、操作者がIF装置140の操作部142を操作して上記指示情報を入力すると、その指示情報が入出力部143によりロボットコントローラ120へ出力される。すると、ロボットコントローラ120の制御部120は、IF装置140の入出力部143から出力された指示情報を、第2入出力部123bにより入力して、その指示情報を、送信部122aによりネットワーククラウドNW1を介し中央サーバ200へ送信する。これにより、制御部201は、まずステップSB2で、ロボットコントローラ120の送信部122aから送信された指示情報を、通信制御部202により受信する。
 その後、ステップSB4で、制御部201は、上記ステップSB2で受信された指示情報に応じて、アルゴリズム記憶部に記憶された複数種類の処理アルゴリズムから、特徴抽出処理に用いる処理アルゴリズムを選択して、上記共通画像処理アルゴリズムを構成する。
 そして、コンベア101によりレンズ131の画角内に搬送されてきたワークWがカメラ130により撮像されると、そのワークWの画像情報が生成され、その画像情報が入出力部133によりロボットコントローラ120へ出力される。すると、ロボットコントローラ120の制御部120は、カメラ130の入出力部133から出力された画像情報を第1入出力部123aにより入力して、その画像情報を、送信部122aによりネットワーククラウドNW1を介し中央サーバ200へ送信する。これにより、制御部201は、ステップSB10で、ロボットコントローラ120の送信部122aから送信された画像情報を、通信制御部202により受信する。
 その後、ステップSB20で、制御部201は、上記ステップSB4で構成された共通画像処理アルゴリズムに基づいて、上記ステップSB10で受信された画像情報に対し、公知の適宜の特徴抽出処理を施す。これにより、その画像情報のパターンを抽出する。以下適宜、抽出されたパターンを「入力パターン」と称する。
 そして、ステップSB30に移り、制御部201は、上記ステップSB20で抽出された入力パターンと、上記教示情報データベース2030に記憶された複数の登録パターンとを、公知の適宜のパターンマッチング(正規化相関)処理技術を用いて順次照合(マッチング)する。これにより、教示情報データベース2030に記憶された複数の教示情報のうち、関連する登録パターンが入力パターンに対し所定の相関を備える教示情報が含まれているかどうかを判定する。具体的には、教示情報データベース2030に記憶された複数の教示情報のうち、関連する登録パターンの入力パターンに対する相関の程度を表す相関度が予め設定された所定値よりも大きくなる教示情報が含まれているかどうかを判定する。なお、相関度は、言い換えれば、上記マッチングの精度とも言える。このステップSB30の手順が、相関判定部として機能する。
 その後、ステップSB40で、制御部201は、上記ステップSB30において、関連する登録パターンの相関度が所定値よりも大きくなる教示情報が含まれていると判定されていたかどうかを判定する。関連する登録パターンの相関度が所定値よりも大きくなる教示情報が含まれていると判定されていた場合には、ステップSB40の判定が満たされて、ステップSB50に移る。
 ステップSB50では、制御部201は、教示情報データベース2030に記憶された複数の教示情報のうち、関連する登録パターンの相関度が最も大きい特定の教示情報を選定して、教示情報データベース2030から取得する。そして、取得した特定の教示情報を、その特定の教示情報に対応する相関度を表す相関度データと共に、通信制御部202によりネットワーククラウドNW1を介し、対応する現場のロボットコントローラ120の記憶装置124へ転送する。このステップSB50の手順が、第1転送部として機能する。その後、このフローに示す処理を終了する。
 以下、図7を用いて、中央サーバ200から特定の教示情報及び相関度データが転送された場合に対応して、ロボットコントローラ120の制御部121により実行される制御手順を説明する。
 図7において、上記図6のステップSB50で中央サーバ200の通信制御部202から特定の教示情報及び相関度データが転送されると、まずステップSC10で、制御部121は、その特定の教示情報及び相関度データを、受信部122bにより受信する。そして、受信した特定の教示情報を記憶装置124に記憶させる。
 その後、ステップSC20で、制御部121は、上記ステップSC10で受信された相関度データで表される相関度が、予め設定された所定のしきい値よりも大きいかどうかを判定する。このステップSC20の手順が、相関度判定部に相当する。相関度がしきい値よりも大きい場合には、ステップSC20の判定が満たされて、ステップSC30に移る。
 ステップSC30では、制御部121は、上記ステップSC10で記憶装置124に記憶された特定の教示情報に基づいて(そのまま用いてもよいし、適宜にアレンジして用いてもよい)、ワークWに対するロボット110の動作を制御する。このとき、ロボット110のアーム111の先端に取り付けられたツール112が、教示されたツール112と異なる場合には、前述のツール交換動作をロボット110に実行させ、アーム111の先端のツール112を交換させた後に、ワークWに対する動作を実行させる。これにより、ワークWのハンドリング作業をロボット110に実行させる。
 そして、ステップSC40に移り、制御部121は、ロボット110のワークWに対する動作が正常に実行されたかどうかを判定する。この判定は、例えば、各現場にロボット110の動作ミスを検知するためのセンサを設け、このセンサにより動作ミスが検知されたかどうかを判定することにより行ってもよい。又は、各現場に監視者(教示者でもある。以下同様)がロボット110の動作ミスを見つけた際に操作するための操作ボタンを設け、監視者によりこの操作ボタンが操作されたかどうかを判定することにより行ってもよい。このステップSC40の手順が、動作判定部として機能する。ロボット110の動作が正常に実行された場合には、ステップSC40の判定が満たされて、ステップSC50に移る。
 ステップSC50では、制御部121は、上記ステップSC40において正常に実行されたと判定されたロボット110の動作を規定した教示情報(例えば、ツール112の種類を表す情報、ワークWの持ち上げ位置を表す情報、ワークWのハンドリング作業時の動作速度を表す情報等)を、記憶装置124から取得する。そして、取得した教示情報を、送信部122aによりネットワーククラウドNW1を介し中央サーバ200の上記教示情報データベース2030へ転送する。このステップSC50の手順が、第2転送部として機能する。その後、このフローに示す処理を終了する。これにより、中央サーバ200の制御部201は、ロボットコントローラ120の送信部122aから転送された教示情報を、通信制御部202により受信する。そして、受信した教示情報を、その教示情報により規定されるロボット110の動作によってハンドリングされたワークWに係わる入力パターンに関連付けて、教示情報データベース2030に記憶させる。
 一方、上記ステップSC20において相関度が所定のしきい値以下であったためステップSC20の判定が満たされなった場合、及び、上記ステップSC40においてロボット110の動作が正常に実行されていなかったためステップSC40の判定が満たされなかった場合には、ステップSC60に移る。
 ステップSC60では、制御部121は、図示しない報知部(例えば、スピーカ、ランプ、ディスプレイ等)に所定のエラー報知(例えば、スピーカからの音声出力、ランプの点灯、ディスプレイによる表示等)を実行させるための報知指示信号を生成する。そして、生成した報知指示信号を報知部へ出力して、報知部にエラー報知を実行させる。これにより、監視者に対し、IF装置140の操作部142による教示情報の編集(又は新たな教示情報の作成)を要求する。その後、このフローに示す処理を終了する。
 図6に戻り、上記ステップSB30において、関連する登録パターンの相関度が所定値よりも大きくなる教示情報が含まれていないと判定されていた場合には、ステップSB40の判定が満たされず、ステップSB60に移る。
 ステップSB60では、制御部201は、教示情報データベース2030に、関連する登録パターンの相関度が所定値よりも大きくなる教示情報が含まれていない旨を表す信号(以下適宜、「エラー信号」と称する)を、通信制御部202によりネットワーククラウドNW1を介し、対応する現場のロボットコントローラ120へ送信する。その後、このフローに示す処理を終了する。
 以下、図8を用いて、中央サーバ200からエラー信号が送信された場合に対応して、ロボットコントローラ120の制御部121により実行される制御手順を説明する。
 図8において、上記図6のステップSB60で中央サーバ200の通信制御部202からエラー信号が出力されると、まずステップSC110で、制御部121は、そのエラー信号を、受信部122bにより受信する。
 その後、ステップSC120で、制御部121は、上記図7のステップSC60と同様、報知指示信号を報知部へ出力して、報知部にエラー報知を実行させる。これにより、監視者に対し、IF装置140の操作部142による教示情報の編集(又は新たな教示情報の作成)を要求する。その後、このフローに示す処理を終了する。このステップSC120と上記図7のステップSC60との手順が、入力要求部として機能する。
 以上説明した本実施形態のロボットシステム1においては、中央サーバ200が、各現場のカメラ130で撮像されたワークWの画像情報をそれぞれ受信し、受信した画像情報のパターンを抽出する。そして、抽出した入力パターンと、教示情報データベース2030に記憶された複数の登録パターンとを順次マッチングする。このとき、教示情報データベース2030に、関連する登録パターンの入力パターンに対する相関度が所定値よりも大きくなる教示情報が記憶されていれば、中央サーバ200は、教示情報データベース2030から上述した特定の教示情報を取得して、対応する現場のロボットコントローラ120の記憶装置124へ転送する。これにより、中央サーバ200から転送された特定の教示情報を受信したロボットコントローラ120が、その特定の教示情報に基づいてロボット110の動作を制御することで、ワークWのハンドリング作業をロボット110に実行させることができる。また、本実施形態のようにワークWが不定形物である場合、一般にはロボット110の作業の対象となるワークWが変わるたびに教示者が教示作業を行わなくてはならない。これに対し本実施形態では、教示情報データベース2030に、作業の対象となるワークWと相関のある(例えば形状・大きさが類似する)ワークWに対する教示情報が記憶されていれば、上記のようにして、ロボットコントローラ120が、その教示情報に基づいてロボット110の動作を制御することで、ワークWのハンドリング作業をロボット110に実行させることができる。
 以上のように、本実施形態によれば、教示者はワークWに対するロボット110の動作の教示を改めて行う必要がなくなるので、教示者による教示作業を省略又は簡素化することができる。この結果、教示作業にかかる教示者の労力負担を低減することができ、教示者の利便性を向上することができる。
 また、本実施形態では特に、教示情報データベース2030に、関連する登録パターンの入力パターンに対する相関度が所定値よりも大きくなる教示情報が記憶されていなければ、中央サーバ200は、上述したエラー信号を、対応する現場のロボットコントローラ120へ送信する。すると、中央サーバ200から送信されたエラー信号を受信したロボットコントローラ120が、報知部にエラー報知を実行させ、IF装置140の操作部142による教示情報の編集等を要求する。この要求に応じて、教示者が教示情報の編集等を行うと、ロボットコントローラ120が、その教示情報に基づいてロボット110の動作を制御することで、ワークWのハンドリング作業をロボット110に実行させることができる。
 また、本実施形態では特に、ロボットコントローラ120が、ロボット110のワークWに対する動作が正常に実行されたかどうかを判定する。そして、ロボット110の動作が正常に実行されたと判定した場合には、記憶装置124からその動作を規定した教示情報を取得して、中央サーバ200の教示情報データベース2030へ転送する。これにより、教示情報データベース2030は、ロボットコントローラ120から転送された教示情報を、その教示情報により規定されたロボット110の動作によってハンドリングされたワークWに係わる入力パターンに関連付けて記憶する。これにより、実際にロボット110によりワークWに対する動作が正常に実行されたことが確認された教示情報を教示情報データベース2030に蓄積していくことができるので、教示情報データベース2030内の教示情報の信頼性を向上することができる。
 また、本実施形態では特に、中央サーバ200が、特定の教示情報をその特定の教示情報に対応する相関度データと共に、対応する現場のロボットコントローラ120の記憶装置124へ転送する。すると、中央サーバ200から転送された特定の教示情報及び相関度データを受信したロボットコントローラ120が、受信された相関度データで表される相関度がしきい値よりも大きいかどうかを判定する。そして、相関度がしきい値よりも大きいと判定した場合には、入力された特定の教示情報に基づいてロボット110の動作を制御する。一方、相関度がしきい値以下であると判定した場合には、報知部にエラー報知を実行させ、IF装置140の操作部142による教示情報の編集等を要求する。以上のように、相関度を数値的な指標として用いて、教示情報データベース2030から転送された特定の教示情報を利用するかしないかを使い分けることにより、ロボット110の作業の対象となるワークWとの類似性があまり高くないワークWに対する教示情報を使用したために、ロボット110の動作が正常に実行されないといった不具合が生じるのを未然に回避することができる。
 なお、実施の形態は、上記内容に限られるものではなく、その趣旨及び技術的思想を逸脱しない範囲内で種々の変形が可能である。例えば、上記実施形態においては、各現場のカメラ130で撮像したワークWの画像情報を中央サーバ200へ送信して、中央サーバ200側で、当該画像情報に対し特徴抽出処理を施して、その画像情報のパターンを抽出していたが、これに限られない。すなわち、上記画像情報に対する特徴抽出処理を、各現場側で行ってもよい。この場合、各現場からは、特徴抽出処理が施された画像情報のパターンが、中央サーバ200へ送信される。その後は、上記実施形態と同様である。
 また、上記実施形態においては、教示情報データベース2030には、複数の画像情報のパターンと複数の教示情報とがそれぞれ関連付けられて記憶されていたが、これに限られない。すなわち、教示情報データベース2030に、複数の画像情報と複数の教示情報とをそれぞれ関連付けて記憶させてもよい。
 また、上記実施形態においては、ロボット110によりワークWのハンドリング作業を行う場合を説明したが、これに限られず、ロボットにより、ワークの塗装、ワークの溶接等を行う場合にも適用可能である。この場合、上記ワークの塗装、ワークの溶接等が、所定の作業に相当する。
 また、上記以外にも、センサとしてのマイクを備えたロボットにより人との会話を含むコミュニケーション(例えば、会社の社屋や会場等での来訪者の受付や、現実世界又は仮想世界でのサービス等)を行う場合にも適用可能である。この場合、上記人との会話を含むコミュニケーションが、所定の作業に相当する。
 また以上では、現場の作業設備の一部としてカメラ130やマイク等を設けていたが、これに限られず、その他のセンサ(例えば触覚センサ等)を設けてもよい。
 また以上では、複数の現場の作業設備100で共通化された中央サーバ200の大容量記憶装置203に、技術情報(ノウハウ)の一例である教示情報を格納した教示情報データベース2030を記憶させていたが、これに限られない。例えば、中央サーバ200の大容量記憶装置203に、他の技術情報を格納したデータベースを記憶させてもよい。
 また、前述の図6、図7、及び図8に示すフローチャートは実施の形態を図示する手順に限定するものではなく、趣旨及び技術的思想を逸脱しない範囲内で手順の追加・削除又は順番の変更等をしてもよい。
 また、以上既に述べた以外にも、上記実施形態等による手法を適宜組み合わせて利用してもよい。
 その他、一々例示はしないが、上記実施形態等は、その趣旨を逸脱しない範囲内において、種々の変更が加えられて実施されるものである。
 1      ロボットシステム
 100    作業設備
 110    ロボット
 120    ロボットコントローラ(ロボット制御装置)
 121    制御部
 122a   送信部(送信機)
 122b   受信部(受信機)
 124    記憶装置(記憶部)
 130    カメラ(画像センサ、センサ)
 140    IF装置(ロボット教示装置)
 142    操作部
 143    入出力部(情報出力部)
 200    中央サーバ(中央コンピュータ装置)
 201    制御部
 202    通信制御部(情報受付部、信号出力部)
 2030   教示情報データベース
 NW1    ネットワーククラウド(ネットワーク)

Claims (8)

  1.  所定の作業を行うロボット、前記ロボットの動作を規定する教示情報を記憶する記憶部を備え当該記憶部に記憶された前記教示情報に基づいて前記ロボットの動作を制御するロボット制御装置、及び、前記ロボットに対応して設けられるセンサ、を有する1以上の作業設備と、
     前記1以上の作業設備のそれぞれに対しデータ通信可能に接続された中央コンピュータ装置と、
    を有し、
     前記中央コンピュータ装置は、
     前記センサの検出情報、又は、各作業設備における前記検出情報に対する処理アルゴリズムに基づく処理を前記検出情報に対し施した処理情報、に関連付けられた複数の前記教示情報を記憶する教示情報データベースと、
     各作業設備の前記センサの前記検出情報を受け付ける情報受付部と、
     前記情報受付部が受け付けた前記検出情報又はこれに対応する前記処理情報に基づいて、前記教示情報データベースに記憶された前記複数の教示情報のうち、当該検出情報又は処理情報に対し所定の相関を備える教示情報が含まれているかどうかを判定する相関判定部と、
    を有し、
    かつ、
     前記相関判定部により前記相関を備えると判定された特定の前記教示情報を、前記教示情報データベースから、対応する前記作業設備の前記記憶部に対し転送する第1転送部を設けた
    ことを特徴とする、ロボットシステム。
  2.  各作業設備は、さらに、
     前記教示情報を操作入力するための操作部、及び、前記操作部により操作入力された前記教示情報を前記ロボット制御装置の前記記憶部に対し出力する情報出力部、を備えるロボット教示装置を有し、
     前記中央コンピュータ装置は、さらに、
     前記相関判定部により前記相関を備える教示情報が含まれていないと判定された場合に、その旨を表す信号を、対応する前記作業設備に対し出力する信号出力部を有し、
     各作業設備は、さらに、
     前記信号出力部から出力された前記信号が入力された場合に、前記操作部による前記教示情報の操作入力を要求する入力要求部を有する
    ことを特徴とする、請求項1に記載のロボットシステム。
  3.  各作業設備は、さらに、
     前記ロボットの動作が正常に実行されたかどうかを判定する動作判定部を有し、
    かつ、
     前記動作判定部により前記動作が正常に実行されたと判定された場合に、その動作に係わる前記教示情報を、前記ロボット制御装置の前記記憶部から前記中央コンピュータ装置の前記教示情報データベースに対し転送する第2転送部を設け、
     前記教示情報データベースは、
     前記第2転送部により転送された前記教示情報を、その教示情報に基づいた動作時の前記センサの前記検出情報又はこれに対応する前記処理情報に関連付けて記憶する
    ことを特徴とする、請求項2に記載のロボットシステム。
  4.  前記第1転送部は、
     前記特定の教示情報を、前記情報受付部が受け付けた前記検出情報又はこれに対応する前記処理情報に対する相関の程度を表す相関度と共に、転送する
    ことを特徴とする、請求項3に記載のロボットシステム。
  5.  各作業設備の前記ロボット制御装置は、
     前記第1転送部により転送された前記相関度が所定のしきい値よりも大きいかどうかを判定する相関度判定部をさらに備え、前記相関度判定部により前記相関度が前記しきい値よりも大きいと判定された場合に、前記特定の教示情報に基づいて、前記ロボットの動作を制御し、
     前記入力要求部は、
     前記相関度判定部により前記相関度が前記しきい値以下であると判定された場合に、前記ロボット教示装置の前記操作部による前記教示情報の操作入力を要求する
    ことを特徴とする、請求項4に記載のロボットシステム。
  6.  各作業設備の前記センサは、
     前記検出情報として、前記ロボットの作業目標の画像情報を生成する画像センサであり、
     前記中央コンピュータ装置の前記教示情報データベースは、
     前記画像情報、又は、各作業設備における前記画像情報に対する処理アルゴリズムに基づく画像処理を前記画像情報に対し施した処理画像情報、に関連付けられた前記複数の教示情報を記憶し、
     前記情報受付部は、
     各作業設備の前記画像センサにより生成された前記画像情報を受け付け、
     前記相関判定部は、
     前記情報受付部が受け付けた前記画像情報又はこれに対応する前記処理画像情報に基づいて、前記教示情報データベースに記憶された前記複数の教示情報のうち、当該画像情報又は処理画像情報に対し前記相関を備える教示情報が含まれているかどうかを判定する
    ことを特徴とする、請求項1乃至5のいずれか1項に記載のロボットシステム。
  7.  前記中央コンピュータ装置は、
     ネットワークで連結された1以上の演算装置及び記憶装置の集合体として構成される
    ことを特徴とする、請求項1乃至6のいずれか1項に記載のロボットシステム。
  8.  所定の作業を行うロボット、前記ロボットの動作を規定する教示情報を記憶する記憶部を備え当該記憶部に記憶された前記教示情報に基づいて前記ロボットの動作を制御するロボット制御装置、及び、前記ロボットに対応して設けられるセンサ、を有する、請求項1乃至7のいずれか1項に記載のロボットシステムに用いられる作業設備であって、
     前記センサの検出情報を、ネットワークを介し、前記検出情報又はこれに対応する前記処理情報に関連付けられた複数の前記教示情報を記憶する教示情報データベースを備えた中央コンピュータ装置へ送信する送信機と、
     前記教示情報データベースに記憶された前記複数の教示情報のうち、前記送信機により送信された前記検出情報又はこれに対応する前記処理情報に対し所定の相関を備えると判定された特定の前記教示情報を、ネットワークを介し受信する受信機と、
    を有し、
     前記記憶部は、
     前記受信機により受信された前記特定の教示情報を記憶する
    ことを特徴とする、作業設備。
PCT/JP2012/058985 2012-04-02 2012-04-02 ロボットシステム及び作業設備 WO2013150599A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
PCT/JP2012/058985 WO2013150599A1 (ja) 2012-04-02 2012-04-02 ロボットシステム及び作業設備
EP12873864.8A EP2835232A1 (en) 2012-04-02 2012-04-02 Robot system and work facility
CN201280072249.2A CN104220219A (zh) 2012-04-02 2012-04-02 机器人系统及作业设备
JP2014508943A JP5928923B2 (ja) 2012-04-02 2012-04-02 ロボットシステム及び作業設備
US14/499,253 US20150019012A1 (en) 2012-04-02 2014-09-29 Robot system and work facility

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/058985 WO2013150599A1 (ja) 2012-04-02 2012-04-02 ロボットシステム及び作業設備

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/499,253 Continuation US20150019012A1 (en) 2012-04-02 2014-09-29 Robot system and work facility

Publications (1)

Publication Number Publication Date
WO2013150599A1 true WO2013150599A1 (ja) 2013-10-10

Family

ID=49300126

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/058985 WO2013150599A1 (ja) 2012-04-02 2012-04-02 ロボットシステム及び作業設備

Country Status (5)

Country Link
US (1) US20150019012A1 (ja)
EP (1) EP2835232A1 (ja)
JP (1) JP5928923B2 (ja)
CN (1) CN104220219A (ja)
WO (1) WO2013150599A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103692441A (zh) * 2013-12-19 2014-04-02 成都市卓睿科技有限公司 通过工作流技术模拟机械臂运动的系统及方法
CN108000519A (zh) * 2017-11-24 2018-05-08 中国船舶重工集团公司第七〇九研究所 一种感知记忆型机械手臂及其使用方法
WO2021065609A1 (ja) * 2019-10-03 2021-04-08 ソニー株式会社 データ処理装置、データ処理方法、調理ロボット
US11597079B2 (en) 2018-11-21 2023-03-07 Honda Motor Co., Ltd. Robot apparatus, robot system, robot control method, and storage medium
US11931895B2 (en) 2019-01-18 2024-03-19 Kabushiki Kaisha Yaskawa Denki Robot control system and robot control method

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105215987B (zh) * 2015-10-12 2017-03-22 埃夫特智能装备股份有限公司 一种工业机器人工艺云系统及其工作方法
CN105511427B (zh) * 2015-11-30 2019-03-26 上海新时达电气股份有限公司 多机器人的操控方法及操控系统
CN105666526A (zh) * 2016-03-22 2016-06-15 北京百度网讯科技有限公司 基于人工智能的机器人调试系统
JP6850183B2 (ja) * 2017-04-11 2021-03-31 川崎重工業株式会社 ロボットシステム及びその運転方法
JP6705847B2 (ja) * 2018-02-14 2020-06-03 ファナック株式会社 加工結果に基づいた学習制御を行うロボットシステム及びその制御方法
JP7338200B2 (ja) * 2019-03-29 2023-09-05 村田機械株式会社 保守方法、及び、保守サーバ
JP2020203349A (ja) * 2019-06-18 2020-12-24 株式会社ダイヘン ロボット制御装置、及びロボット制御システム
CN111823223B (zh) * 2019-08-19 2023-12-29 北京伟景智能科技有限公司 一种基于智能立体视觉的机器人手臂抓取控制系统及方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002123394A (ja) * 2000-10-16 2002-04-26 Denso Corp ロボット装置のプログラム登録システム
JP2005202609A (ja) * 2004-01-14 2005-07-28 Sony Corp コンテンツ管理装置及び方法並びにロボット装置及びその制御方法
JP2008021239A (ja) 2006-07-14 2008-01-31 Nidec Sankyo Corp ロボット教示システム、及びこれに使用するコントローラ、教示操作端末、並びにロボット教示方法
JP2008307662A (ja) * 2007-06-15 2008-12-25 Fujitsu Ltd ロボットシステム、エディタ端末、およびエディタプログラム
JP2009262279A (ja) * 2008-04-25 2009-11-12 Nec Corp ロボット、ロボットプログラム共有システム、ロボットプログラム共有方法およびプログラム
JP2010524548A (ja) * 2007-04-16 2010-07-22 ニューロアーム サージカル リミテッド フレームマッピングおよびフォースフィードバックの方法、装置およびシステム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4266893B2 (ja) * 2004-07-15 2009-05-20 ファナック株式会社 ロボット制御装置及びロボットシステム
KR101178847B1 (ko) * 2008-12-08 2012-08-31 한국전자통신연구원 가상공간과 연계된 다중 로봇 제어 장치 및 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002123394A (ja) * 2000-10-16 2002-04-26 Denso Corp ロボット装置のプログラム登録システム
JP2005202609A (ja) * 2004-01-14 2005-07-28 Sony Corp コンテンツ管理装置及び方法並びにロボット装置及びその制御方法
JP2008021239A (ja) 2006-07-14 2008-01-31 Nidec Sankyo Corp ロボット教示システム、及びこれに使用するコントローラ、教示操作端末、並びにロボット教示方法
JP2010524548A (ja) * 2007-04-16 2010-07-22 ニューロアーム サージカル リミテッド フレームマッピングおよびフォースフィードバックの方法、装置およびシステム
JP2008307662A (ja) * 2007-06-15 2008-12-25 Fujitsu Ltd ロボットシステム、エディタ端末、およびエディタプログラム
JP2009262279A (ja) * 2008-04-25 2009-11-12 Nec Corp ロボット、ロボットプログラム共有システム、ロボットプログラム共有方法およびプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103692441A (zh) * 2013-12-19 2014-04-02 成都市卓睿科技有限公司 通过工作流技术模拟机械臂运动的系统及方法
CN108000519A (zh) * 2017-11-24 2018-05-08 中国船舶重工集团公司第七〇九研究所 一种感知记忆型机械手臂及其使用方法
US11597079B2 (en) 2018-11-21 2023-03-07 Honda Motor Co., Ltd. Robot apparatus, robot system, robot control method, and storage medium
US11931895B2 (en) 2019-01-18 2024-03-19 Kabushiki Kaisha Yaskawa Denki Robot control system and robot control method
WO2021065609A1 (ja) * 2019-10-03 2021-04-08 ソニー株式会社 データ処理装置、データ処理方法、調理ロボット

Also Published As

Publication number Publication date
CN104220219A (zh) 2014-12-17
EP2835232A1 (en) 2015-02-11
JP5928923B2 (ja) 2016-06-01
JPWO2013150599A1 (ja) 2015-12-14
US20150019012A1 (en) 2015-01-15

Similar Documents

Publication Publication Date Title
JP5928923B2 (ja) ロボットシステム及び作業設備
US10737396B2 (en) Method and apparatus for robot path teaching
US11331803B2 (en) Mixed reality assisted spatial programming of robotic systems
US11039895B2 (en) Industrial remote control robot system
JP6581056B2 (ja) ロボット制御部と通信する教示操作盤を備えたロボットシステム
JP4266211B2 (ja) ロボット装置、ロボット装置の移動方法、および、プログラム
EP2081096B1 (en) Controller of work piece-conveying robot
JP5928921B2 (ja) ロボットシステム及びロボット制御装置
JP2011201002A (ja) ロボット装置、ロボット装置の遠隔制御方法及びプログラム
US20190381662A1 (en) Autonomous moving body and control program for autonomous moving body
JP4713846B2 (ja) ロボット遠隔制御システム
WO2019046559A1 (en) UTILIZING INCREASED REALITY TO CONTROL INTELLIGENT DEVICES
US20210146546A1 (en) Method to control a robot in the presence of human operators
JPWO2013150596A1 (ja) ロボットシステム及び作業設備
CN101108439A (zh) 全方位焊接机器人系统以及该系统的计算方法
KR20160116445A (ko) 지능형 공구 심부름 로봇
JP2006212732A (ja) ロボットによる案内・説明方法、システム、サーバ、およびロボット
Kanash et al. Design and Implementation of Voice Controlled Robotic ARM
CN217475952U (zh) 机器人控制系统及机器人
WO2017092620A1 (zh) 智能设备及其智能控制方法、及计算机存储介质
WO2020213545A1 (ja) ロボット、伝達方法及び伝達推定方法
CN115225682B (zh) 管理服务器、远程操作系统、远程操作方法以及存储介质
WO2023089943A1 (ja) 管理システム、管理方法及びプログラム
WO2020155178A1 (zh) 机器人示教编程的方法和装置、机器人控制器和计算机可读介质
JP2002268716A (ja) Nc加工装置の遠隔モニタリング・制御装置とその方法及びこれに用いる手動パルスハンドル

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12873864

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014508943

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2012873864

Country of ref document: EP