WO2019107454A1 - 技能伝承機械装置 - Google Patents

技能伝承機械装置 Download PDF

Info

Publication number
WO2019107454A1
WO2019107454A1 PCT/JP2018/043876 JP2018043876W WO2019107454A1 WO 2019107454 A1 WO2019107454 A1 WO 2019107454A1 JP 2018043876 W JP2018043876 W JP 2018043876W WO 2019107454 A1 WO2019107454 A1 WO 2019107454A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
command
motion
correction
data
Prior art date
Application number
PCT/JP2018/043876
Other languages
English (en)
French (fr)
Inventor
康彦 橋本
信恭 下村
掃部 雅幸
繁次 田中
Original Assignee
川崎重工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 川崎重工業株式会社 filed Critical 川崎重工業株式会社
Priority to CN201880077003.1A priority Critical patent/CN111432990B/zh
Priority to EP18883581.3A priority patent/EP3718706A4/en
Priority to US16/767,984 priority patent/US11977365B2/en
Priority to JP2019557294A priority patent/JP7185639B2/ja
Publication of WO2019107454A1 publication Critical patent/WO2019107454A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4155Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by programme execution, i.e. part programme or machine function execution, e.g. selection of a programme
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/02Hand grip control means
    • B25J13/025Hand grip control means comprising haptic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • G05B19/423Teaching successive positions by walk-through, i.e. the tool head or end effector being grasped and guided directly, with or without servo-assistance, to follow a path
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • G05B19/427Teaching successive positions by tracking the position of a joystick or handle to control the positioning servo of the tool head, master-slave control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36416Adapt teached position as function of deviation 3-D, 2-D position of end effector, tool
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36418Modify trajectory by operator gesture, gesture force sensed by end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39338Impedance control, also mechanical

Definitions

  • the present invention relates to a skill transfer machine.
  • Such a problem is a problem common to the machinery used in the industry to perform work on the work environment.
  • the present invention has been made to solve such problems, and it is possible to transmit the skills of skilled workers in the industry, and to achieve automation of a predetermined task in a short period of time. Aims to provide a skill transfer machine that can
  • a skill transfer machine includes a working unit, and controls an operation unit that moves the working unit to perform a task, and controls operations of the operation unit.
  • Controller a motion information detection unit for detecting motion information of the motion unit corresponding to the motion of the working unit, and manual motion correction data representing manual motion correction which is correction of motion of the working unit by the operator
  • a manual motion correction data generating unit to be generated wherein the controller outputs a basic operation command unit for outputting a basic operation command for causing the working unit to perform a basic motion by the operation unit, and an automatic operation correction command
  • a motion correction data generation unit that generates motion correction data by adding the manual motion correction data to the automatic motion correction command, a motion correction data storage unit that stores the motion correction data, and the motion A motion information storage unit for storing information
  • the learning unit performs machine learning on the motion correction data stored in the motion correction data storage unit using the motion information stored in the motion information storage unit.
  • the operation information is input when the operation unit operates, and the automatic operation correction instruction is output, and the operation unit is configured to correct the basic operation instruction and the automatic operation correction.
  • the operation unit is configured to move according to an automatic operation command based on the command and the manual motion correction.
  • the manual movement correction by the operator is performed by inputting a manual operation correction command according to the operation of the operator using the operation device to the controller, or the operator physically physically or directly to the working unit.
  • the operation unit constitutes a manual motion correction data generation unit.
  • the manual motion correction data generation unit is configured to generate the manual motion correction data by subtracting the automatic motion command from the motion data in the motion information.
  • the operation data includes at least one of force data representing a force that the operation unit exerts on the work environment, and position data representing the position of the operation unit at the time of operation of the operation unit.
  • the operation unit moves the working unit according to the automatic operation command based on the basic operation command and the automatic operation correction command, and the manual movement correction, so the operator does not perform the manual movement correction and the learning unit
  • the operation unit causes the working unit to perform a basic movement according to the basic operation command output from the basic operation command unit.
  • the operator monitors the movement of the operation unit while visually confirming the operation by the operation unit, and manually performs the predetermined operation with the operation when the operation is not performed by the basic operation. Make motion corrections.
  • the manual movement correction corrects the basic movement, whereby the predetermined operation is performed in a skilled movement.
  • manual motion correction data representing manual motion correction relating to the predetermined work is generated, and this manual motion correction data is added to the automatic motion correction command output by the learning unit to generate motion correction data, and this motion correction data is generated.
  • the operation information of the operation unit corresponding to the movement of the operation unit is input to the learning unit at the time of operation of the operation unit, so that an operation state in which the predetermined work similar to the above is not performed by the skilled movement occurs.
  • the action correction command learned as described above is output from the learning unit as an automatic action correction command.
  • the basic operation command is corrected in the direction in which the predetermined operation is performed by the expert movement, and if the correction is appropriate, the predetermined operation is performed by the expert movement.
  • the correction is performed.
  • the prescribed task is not performed by skilled movements.
  • the operator performs manual motion correction so that the operator performs the predetermined task in the expert motion, whereby the operator performs the predetermined task in the expert motion.
  • the manual motion correction data corresponding to the further manual motion correction is added to the automatic motion correction command corresponding to the previous manual motion correction, and is learned by the learning unit. This improves the ability of the learning unit to correct basic movements of the working unit.
  • the learning unit appropriately corrects the basic movement of the working unit on behalf of the operator, and causes the working unit to properly perform the predetermined work.
  • the operation unit is configured to operate according to the automatic operation command and the manual motion correction based on the basic operation command and the automatic operation correction command, so that the automatic operation correction insufficient from the learning unit Even when the command is output, the operator can perform the manual movement correction while watching the movement of the working unit to cause the operating unit to perform an appropriate operation. For this reason, it is possible to perform trial and correction of appropriate operation in on-site practice. In other words, since the learning unit can be made to learn through on-site practice, a large amount of learning data and start-up period for the learning unit are unnecessary. As a result, automation of a predetermined work can be achieved in a short time.
  • the basic motion command unit automatically carries out a portion of the basic movement of the working unit relating to the predetermined work that requires no correction. You can do it. Thus, the burden on the operator is reduced. In addition, even with the expert, the work varies, so if only a part of the work is performed by the operator's operation, the accuracy of the work is improved compared to the case where all the work is performed by the operator's operation. .
  • manual movement correction data corresponding to the operator's manual movement correction in the storage unit, it is conceivable to transfer the skills of the expert, but the basic movement of the working unit must be corrected. As there are an infinite number of aspects, it is actually difficult to transfer the skills of the skilled person by such an approach.
  • manual movement correction accelerationly, movement correction data
  • the learning unit is used as in the above-mentioned configuration, manual movement correction (accurately, movement correction data) according to the mode is learned whenever an event occurs that must correct the basic movement of the working unit. By letting the department learn, it is possible to easily realize the transmission of the skill of the expert.
  • the manual movement correction data generation unit is an operation unit that outputs a manual movement correction command according to the operation of the operator as the manual movement correction data, and the operator can perceive the movement information
  • the motion correction data generation unit further includes a motion information presentation mechanism for presenting to the operator, and the motion correction data generation unit generates the motion correction instruction by adding the manual operation correction command to the automatic operation correction command.
  • the motion correction data storage unit is a motion correction command storage unit for storing the motion correction command, and the learning unit is configured to store the motion correction command using the motion information stored in the motion information storage unit. After machine learning of the operation correction command stored in the unit and finishing machine learning, the operation information is input at the time of operation of the operation unit, and the automatic operation correction instruction is output. It is, and the operation portion, and the automatic operation command based on said basic operation command and the automatic operation correction command may be configured to move the working unit in accordance, with the manual operation correction instruction.
  • the movement of the working unit can be corrected by the operator operating the operating device. Therefore, the operator can operate the operating unit at a position away from the working unit. In addition, since the operator can operate the operation device while perceiving the movement of the working unit corresponding to the movement information by the movement information presentation mechanism, the movement of the working unit can be accurately corrected.
  • the mechanical device has a tip effect portion as the working portion, and the machine main body as the operating portion that moves the tip effect portion to perform work on the work object, and the control that controls the operation of the machine main body A machine including the tool, and the reaction according to the operation of the operator while generating a reaction force according to the force data as the operation information representing the force exerted on the work object by the tip end effector of the machine main body
  • a mechanical system for outputting a manual operation correction command the operation unit also serving as the operation information presentation mechanism, and the basic operation command unit causes the tip effect unit to perform a basic movement by the machine main body
  • the basic motion command is configured to be output
  • the learning unit is configured to correct the motion stored in the motion correction command storage unit using the motion information stored in the motion information storage unit.
  • the operation information is inputted at the time of operation of the machine main body, and the automatic operation correction command is configured to be output, and the machine main body
  • the tip effect unit may be moved according to the automatic operation command based on the automatic operation correction command and the manual operation correction command.
  • the operator can correct the movement of the end effector by operating the operating device. Therefore, the operator can operate the machine body at a position away from the machine body. In addition, since the operator can operate the operation device while generating a reaction force according to the force data, it is possible to correct the movement of the end effector.
  • the motion information detection unit includes a motion data detection unit provided in the machine main body, and the motion data detection unit is a force that detects the force data representing a force that the tip effect unit acts on the work object.
  • a data detection unit, and a position data detection unit for detecting position data representing a position of the tip effect unit during operation of the machine main body, and configured to output the force data and the position data as operation data
  • the motion information storage unit is a motion data storage unit for storing the motion data, and the learning unit performs machine learning of the motion correction instruction using the motion data, and the machine learning is completed.
  • the operation data may be input, and the automatic operation correction command may be output.
  • bilateral control in the operation type skill transfer machine system can be suitably embodied.
  • the machine body may be configured to operate according to a current command, and may further include an adjustment unit that outputs the current command based on the operation command.
  • the switch further includes a switch for selectively communicating and blocking the transmission path of the manual operation correction command from the controller to the controller, and the switch is configured to block the transmission path. It may be configured to be able to be used to train the operator.
  • the operating unit in a state in which the transmission path of the manual operation correction command from the operating device to the controller is shut off, the operating unit does not operate even if the operating device is operated. Therefore, an unfamiliar operator can actually operate the operation device to practice the operation of the operation device. Moreover, since the mechanical device is configured to be able to train the author using the operation device, it is possible to preferably train an unskilled operator.
  • the controller further includes a controller control unit that controls the operation of the controller using the force data and the automatic operation correction command, and controls the operation of the switch unit, and the controller control unit controls the training mode and the non-training mode. And, in the non-training mode, the switch portion is communicated with the transmission path, and a manual operation correction command according to the operation of the operator is output while generating a reaction force according to the force data.
  • Control the controller in the training mode, cause the switch section to shut off the transmission path, and cause the controller to output the manual operation correction command according to the operation of the operator, and the manual operation correction
  • a deviation of the command with respect to the automatic operation correction command is calculated, and when the deviation is equal to or more than a predetermined value, the manual position correction command corresponding to the automatic operation correction command is output. It may be configured to control the operating device to the.
  • the learning unit when the machine device learned to the practical level is used, when the machine device performs a predetermined operation, the learning unit outputs an automatic operation correction command as an example.
  • the deviation of the manual operation correction command by the operation with respect to the automatic operation correction command as the example is calculated.
  • the deviation is equal to or more than a predetermined value, that is, when the operation of the operator is inappropriate to a predetermined degree or more, an operation of outputting a manual position correction command corresponding to an automatic operation correction command as a model is performed.
  • the controller is controlled.
  • the operator is guided by the controller to perform an appropriate operation. Therefore, an unfamiliar operator can be suitably trained.
  • the controller control unit is configured to control the controller to output a manual operation correction command according to the operation of the operator while generating a reaction force according to the force data in the training mode. It may be
  • the motion information includes motion data
  • the motion data includes force data representing a force that the working unit exerts on the work environment and position data representing a position of the working unit at the time of operation of the motion unit.
  • the manual motion correction is correction of the motion of the working unit by causing the operator to physically exert a force directly or indirectly on the working unit
  • the manual motion correction data generation unit is the motion information detection unit.
  • the manual motion correction data may be generated by subtracting the basic motion command from the motion data in which the manual motion correction is detected, which is detected by
  • the movement of the working unit can be corrected by the operator physically applying a force to the working unit directly or indirectly. Therefore, even if it is a difficult task, the movement of the working unit can be finely corrected.
  • the mechanical device has a tip effect portion as the working portion, and the machine main body as the operating portion that moves the tip effect portion to perform work on the work object, and the control that controls the operation of the machine main body
  • the basic operation command unit is configured to output a basic operation command for causing the end effector to perform a basic motion by the machine main body
  • the learning unit is configured to perform the operation.
  • the motion correction data stored in the motion correction data storage unit is machine-learned using the motion information stored in the information storage unit, and after the machine learning is completed, the motion information is input when the machine main body operates.
  • the automatic motion correction command, and the machine body is configured to output the automatic motion command based on the basic motion command and the automatic motion correction command; When, it may be configured to move the end effector unit according.
  • the movement of the end effector can be corrected by the operator physically applying a force directly or indirectly to the end effector. Therefore, even if it is a difficult task, the movement of the working unit can be finely corrected.
  • the motion information detection unit includes a motion data detection unit provided in the machine main body, and the motion data detection unit is a force that detects the force data representing a force that the tip effect unit acts on the work object.
  • a data detection unit, and a position data detection unit for detecting the position data representing the position of the tip effect unit during operation of the machine main body, and outputting the force data and the position data as operation data
  • the motion information storage unit is configured to store the motion data, and the learning unit performs machine learning on the motion correction data using the motion data, and the machine learning is completed. Thereafter, the operation data may be input, and the automatic operation correction command may be output.
  • the end effector may be an end effector
  • the machine body may be a robot body
  • the machine may be a robot
  • the machine system may be a robot system. According to this configuration, it is possible to realize an operation type skill transfer robot system or a guidance type skill transfer robot.
  • the present invention is able to provide skills transmission equipment capable of transferring the skills of skilled workers in the industry and achieving automation of a predetermined task in a short period of time. Play.
  • FIG. 1 is a functional block diagram illustrating the configuration of a skill transfer system according to a first embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating the configuration of a skill transfer machine according to a second embodiment of the present invention.
  • FIG. 3 is a schematic view illustrating the hardware configuration of the skill transfer robot system according to the third embodiment of the present invention.
  • FIG. 4 is a perspective view illustrating the configuration of the controller of FIG.
  • FIG. 5 is a functional block diagram illustrating the configuration of the control system of the skill transfer robot system of FIG. 3.
  • FIG. 6 is a functional block diagram illustrating the detailed configuration of the learning unit in FIG.
  • FIG. 7 is a schematic view illustrating the cycle time in the operation of the robot body of FIG. FIG.
  • FIGS. 9A to 9C are schematic diagrams showing the process of improving the trajectory of the end effector to the ideal trajectory.
  • 10 (a) to 10 (c) are schematic views showing how the robot body smoothly inserts the first object into the second object.
  • FIGS. 11 (a) to 11 (d) are schematic diagrams showing the robot body inserting and inserting the first object into the second object.
  • FIGS. 12 (a) to 12 (d) are schematic diagrams showing the robot body inserting and inserting the first object into the second object.
  • FIG. 13 is a functional block diagram illustrating the configuration of the control system of the skill-based robot system according to the fourth embodiment of the present invention.
  • FIG. 14 is a functional block diagram illustrating the configuration of a skill transfer system according to a fifth embodiment of the present invention.
  • FIG. 15 is a schematic view illustrating the hardware configuration of a skill transfer robot system according to a sixth embodiment of the present invention.
  • FIG. 16 is a functional block diagram illustrating a configuration of a control system of the skill transfer robot system of FIG.
  • FIG. 17 is a block diagram illustrating the configuration of a skill transfer system according to a ninth embodiment of the present invention.
  • FIG. 18 is a functional block diagram illustrating the configuration of the control system of the skill-based robot system according to the tenth embodiment of the present invention.
  • FIG. 19 is a functional block diagram illustrating the configuration of the control system of the skill-relevant robot system according to the eleventh embodiment of the present invention.
  • Embodiment 1 of the present invention illustrates a skill transfer machine.
  • FIG. 1 is a functional block diagram illustrating the configuration of a skill transfer system according to a first embodiment of the present invention.
  • solid arrows indicate the flow of commands, data, information and the like for the operation of the operation unit 201
  • broken arrows indicate the flow of commands, data, information and the like for learning of the learning unit 252. This is the same as in FIGS. 2, 5, 6, 13, 14, and 16.
  • the skill transfer mechanical device (which may be simply referred to as a mechanical device hereinafter) 100 includes an operation unit 217 and operates an operation unit 201 that moves the operation unit 217 to perform an operation.
  • a controller 203 that controls the operation of the operation unit 201, an operation information detection unit 254 that detects operation information of the operation unit 201 corresponding to the movement of the operation unit 217, and a manual that is correction of the movement of the operation unit 217 by the operator.
  • a manual motion correction data generation unit 271 that generates manual motion correction data representing the motion correction.
  • the mechanical device 100 may be any mechanical device that performs work on the work environment by power.
  • Examples of the mechanical device 100 include a construction machine, a tunnel excavator, a crane, an industrial robot, and the like.
  • the shovel is the working unit 217
  • the link mechanism for moving the shovel is the operation unit 201
  • the control unit for hydraulically controlling the link mechanism is the controller 203.
  • the digging blade is the working unit 217
  • the operating mechanism that moves the drilling blade is the operating unit 201
  • the control unit that controls the operating mechanism is the controller 203.
  • the end effector is a working unit 217
  • a robot body such as a robot arm that moves the end effector
  • a robot control unit that controls the operation of the robot body is a controller 203.
  • the type of power may be any type. Examples of types of power include an electric motor, an internal combustion engine, water vapor and the like.
  • the type of control may be any type. Examples of the type of control include electrical control, hydraulic control, and pneumatic control.
  • the controller 203 is configured of, for example, an arithmetic unit having a processor and a memory.
  • the controller 203 causes the operation unit 201 to output a basic operation command for causing the working unit 217 to perform a basic movement, a learning unit 252 for outputting an automatic operation correction command, and a manual operation for the automatic operation correction command.
  • the motion correction data generation unit 272 generates motion correction data by adding motion correction data, a motion correction data storage unit 253 storing motion correction data, and a motion information storage unit 256 storing motion information.
  • Blocks 250, 252, 272 and 261 in FIG. 1 are functional blocks implemented by the processor executing predetermined programs stored in the memory of the computing unit.
  • the storage units 253 and 254 are configured by the memory of the computing unit.
  • the learning unit 252 is a machine learning model, and examples of such learning models include a neural network, a regression model, a tree model, a Bayesian model, a time series model, a clustering model, and an ensemble learning model.
  • the learning model is a neural network.
  • the learning unit 252 performs machine learning of the motion correction data stored in the motion correction data storage unit 253 using the motion information stored in the motion information storage unit 256, and after completing the machine learning, at the time of operation of the motion unit 201.
  • the operation information is input and configured to output an automatic operation correction command.
  • the operating unit 201 is configured to move the working unit 217 in accordance with an automatic operation command based on the basic operation command and the automatic operation correction command, and the manual movement correction.
  • the manual motion correction by the operator acts on the mechanical device 10 via the first path or the second path and corresponds to the manual correction, depending on whether the mechanical device 100 is the operation type or the guide type.
  • Manual motion correction data is generated.
  • “Operation type” means a type in which the operation unit is operated by the operation device.
  • the “guided type” means a type in which the operator manually operates the operation unit.
  • manual motion correction is via the first path. Specifically, a manual operation correction command according to the operation of the operator is input to the controller 203 using the operation device, or the operator physically exerts a force on the operation unit 217 directly or indirectly. As a result, manual motion correction is performed and manual motion correction data (manual motion correction command described later) is generated. Therefore, the controller constitutes the manual motion correction data generation unit 271.
  • the manual motion correction is via the second path. Specifically, manual movement correction is performed by the operator physically applying a force to the operation unit 217 directly or indirectly. Then, the operation information detection unit 254 detects the operation of the operation unit 201 reflecting the manual movement correction, and the manual movement correction data generation unit 271 automatically operates based on the operation data in the operation information detected by the operation information detection unit. Subtract the commands to generate manual motion correction data.
  • the operation information detection unit 254 detects information related to the operation of the operation unit.
  • the operation information in each embodiment of the present application includes operation data as essential information.
  • the operation data includes at least one of force data representing a force that the working unit 217 acts on the work environment and position data representing the position of the working unit 217 when the operation unit 201 operates.
  • the reason that the motion information includes motion data as essential information is that the controller 203 at least one of the “force” that the working unit 217 causes the working environment to exert on the work environment and the “position” of the working unit 217 at the time of the operation of the motion unit 201.
  • the “command” in each embodiment of the present application is a force command that instructs the target value or the correction value (correction value) of the “force”, and the target value or the correction value of the “position” (correction value And / or a position command, which is a command instructing the command).
  • adding or subtracting "commands” and adding or subtracting "operation command (operation correction command)", "operation data”, and "motion correction data” from one another can do.
  • imaging data of the work of the work unit 217, vibration data or impact data generated by the work unit 217, sound data generated by the work unit 217, and the like are exemplified.
  • the operation unit 201 moves the working unit 217 according to the automatic operation command based on the basic operation command and the automatic operation correction command, and the manual movement correction, so the operator does not perform the manual movement correction.
  • the learning unit 252 does not perform automatic operation correction
  • the operation unit 201 causes the working unit 217 to perform basic movement in accordance with the basic operation command output from the basic operation command unit 250.
  • the operator monitors the movement of the operation unit 217 while visually confirming the operation by the operation unit 217, and performs the predetermined operation by the skilled movement when the predetermined operation is not performed by the basic movement. Perform manual motion correction.
  • the manual movement correction corrects the basic movement, whereby the predetermined operation is performed in a skilled movement.
  • manual motion correction data representing manual motion correction relating to the predetermined work is generated, and this manual motion correction data is added to the automatic motion correction command output from the learning unit 252 to generate motion correction data.
  • the data is machine-learned by the learning unit 252.
  • the learning unit 252 learns only manual movement correction data based on the movement correction of the operator.
  • the operation information of the operation unit 201 corresponding to the movement of the operation unit 217 is input to the learning unit 252 during the operation of the operation unit 201, so an operation state in which the predetermined work similar to the above is not performed by the skilled movement
  • the operation correction instruction learned as described above is output from the learning unit 252 as an automatic operation correction instruction.
  • the basic operation command is corrected in the direction in which the predetermined operation is performed by the expert movement, and if the correction is appropriate, the predetermined operation is performed by the expert movement.
  • the correction is performed.
  • the predetermined work is not performed by skilled movements.
  • the operator performs manual motion correction so that the operator performs a predetermined operation in a skilled movement, whereby the operation unit 201 performs the predetermined operation in a skilled movement.
  • the manual motion correction data corresponding to the further manual motion correction is added to the automatic motion correction command corresponding to the previous manual motion correction, and is learned by the learning unit 252.
  • the correction capability of the learning unit 252 with respect to the basic movement of the working unit 217 is improved.
  • the learning unit 252 appropriately corrects the basic movement of the working unit 217 on behalf of the operator, and causes the working unit 217 to properly perform the predetermined work.
  • the manual movement correction of the operator constitutes the “skill” of the skilled person, and this “skill” is accumulated in the learning unit 252 and transferred to the learning unit 252. , And the learning unit 252 becomes a "transferee” of the "skills” of the expert. As a result, the mechanical device 100 provided with the learning unit 252 becomes a “skill transmission device”.
  • the learning unit 252 is insufficient. Even when the automatic operation correction command is output, the operator can perform the manual movement correction while watching the movement of the working unit 217 to cause the operation unit 201 to perform an appropriate operation. For this reason, it is possible to perform trial and correction of appropriate operation in on-site practice. In other words, since it is possible to make the learning unit 252 learn through practical work in the field, a large amount of learning data and start-up period for the learning unit 252 are unnecessary. As a result, automation of a predetermined work can be achieved in a short time.
  • a part of the basic movement of the work unit 217 related to the predetermined work that does not need to be corrected is automatically performed by the basic movement command unit 250. You only have to make corrections. Thus, the burden on the operator is reduced. In addition, even with the expert, the work varies, so if only a part of the work is performed by the operator's operation, the accuracy of the work is improved compared to the case where all the work is performed by the operator's operation. .
  • manual movement correction (accurately, movement correction data) according to the form is performed each time an event that must correct the basic movement of the working unit occurs.
  • the more detailed configuration of the mechanical device 100 is exemplified by the following embodiment.
  • FIG. 2 is a block diagram illustrating the configuration of a skill transfer machine according to a second embodiment of the present invention.
  • the skill transfer mechanism 200 of the second embodiment is different from the skill transfer mechanism 100 of the first embodiment in the following configuration, and the other configurations are the same as the skill transfer mechanism 100 of the first embodiment. Hereinafter, this difference will be described.
  • the manual movement correction data generation unit 271 of the first embodiment outputs a manual operation correction command according to the operation of the operator 220 as manual movement correction data.
  • the mechanical device 200 further includes a motion information presentation mechanism 206 for presenting the motion information to the operator 220 so that the motion information can be perceived by the operator 220.
  • the motion correction data generation unit 272 of the first embodiment is a motion correction command generation unit 272 that adds a manual motion correction command to the automatic motion correction command to generate a motion correction command.
  • the learning unit 252 uses the motion information stored in the motion information storage unit 256 to generate the motion correction command stored in the motion correction command storage unit 53
  • operation information is input when the operation unit 201 operates, and an automatic operation correction command is output.
  • the operation unit 201 is configured to move the working unit 217 in accordance with the automatic operation command based on the basic operation command and the automatic operation correction command, and the manual operation correction command.
  • the mechanical device 200 includes the working unit 217 and the operation unit 201 that moves the working unit 217 to perform work, and the controller 203 that controls the operation of the operation unit 201.
  • An operation information detection unit 254 for detecting operation information of the operation unit 201 corresponding to the movement of the operation unit 217; an operation unit 202 for outputting a manual operation correction command according to the operation of the operator 220; And a motion information presentation mechanism 206 for presenting to the operator 220 so that the 220 can perceive.
  • the controller 203 causes the operation unit 201 to output a basic operation command for causing the working unit 217 to perform a basic movement, a learning unit 252 for outputting an automatic operation correction command, and a manual operation for the automatic operation correction command.
  • a motion correction command generation unit 272 that generates a motion correction command by adding a motion correction command, a motion correction command storage unit 53 that stores a motion correction command, and a motion information storage unit 256 that stores motion information.
  • the learning unit 252 performs machine learning of the operation correction instruction stored in the operation correction instruction storage unit 53 using the operation information stored in the operation information storage unit 256, and after completing the machine learning, at the time of operation of the operation unit 201.
  • the operation information is input and configured to output an automatic operation correction command, and the operation unit 201 performs the operation unit 217 according to the automatic operation command based on the basic operation command and the automatic operation correction command, and the manual operation correction command. Is configured to move.
  • the movement of the working unit 217 can be corrected by the operator 220 operating the operation device 202. Therefore, the operator 220 can operate the operating unit 201 at a position away from the working unit 217. In addition, since the operator 220 can operate the operation device 202 while perceiving the motion of the working unit 217 corresponding to the motion information by the motion information presentation mechanism 206, the motion of the working unit 217 can be accurately corrected.
  • FIG. 3 is a schematic view illustrating the hardware configuration of the skill transfer robot system according to the third embodiment of the present invention.
  • a robot system 300 according to the third embodiment is different from the mechanical device 200 according to the second embodiment in the following configuration, and the other configurations are the same as the mechanical device 200 according to the second embodiment.
  • this difference will be described.
  • the mechanical device 200 includes the end effector 17 as the working unit 217, and the robot main body 1 as the operation unit 201 that moves the end effector 17 to perform the work on the work target
  • a robot 10 having a controller 3 for controlling the operation of the main body 1 and a reaction force according to force data as operation information representing a force exerted on the work object by the end effector 17 of the robot main body 1
  • the robot system 300 is configured to include the controller 2 which doubles as the operation information presentation mechanism 206 and outputs a manual operation correction command according to the operation of the operator.
  • the basic motion command unit 50 is configured to output a basic motion command for causing the end effector 17 to perform a basic motion by the robot main body 1, and the learning unit 52 stores the motion data storage unit 56 in the motion data storage unit 56. After machine learning of the motion correction command stored in the motion correction command storage unit 53 using the motion data, and after completion of the machine learning, motion data is input at the time of motion of the robot body 1, and an automatic motion correction command is output. It is configured to
  • the robot main body 1 is configured to move the end effector 17 in accordance with the automatic operation command based on the basic operation command and the automatic operation correction command, and the manual operation correction command.
  • an operation type skill transfer robot system 300 can be realized. Specifically, the movement of the end effector 17 can be corrected by the operator operating the operation device 2. Therefore, the operator can operate the robot body 1 at a position away from the robot body 1. In addition, since the operator can operate the controller 2 while generating a reaction force according to the force data, the movement of the end effector 17 can be accurately corrected.
  • the skill transfer robot system 300 includes a robot body 1, an operator 2, a controller 3, a camera 4, and a monitor 5.
  • the robot body 1 and the controller 3 constitute a robot 10.
  • the robot body 1 includes an end effector 17.
  • the robot main body 1 is constituted by, for example, a robot arm, and the end effector 17 is attached to the tip of the wrist portion 14 of the robot arm via the force sensor 19.
  • the force sensor 19 constitutes a force data detection unit.
  • the force data detection unit constitutes a part of the motion data detection unit 273 provided in the robot main body 1.
  • the camera 4 and the monitor 5 constitute a part of the motion information presentation mechanism 206 (see FIG. 2).
  • the camera 4 can use a well-known thing.
  • the camera 4 is installed at a place where the operation of the robot body 1 can be imaged.
  • the monitor 5 can use a well-known thing.
  • the monitor 5 is installed near the controller 2.
  • the controller 3 includes, for example, a processor and a memory.
  • the controller 3 controls the operation of the robot main body 1 by the processor reading and executing a predetermined operation program stored in the memory.
  • the controller 3 includes, for example, a microcontroller, an MPU, a field programmable gate array (FPGA), a programmable logic controller (PLC), a logic circuit, and the like.
  • the robot body 1 includes a base 15, an arm 13 supported by the base 15, and a wrist 14 supported by the tip of the arm 13 and to which the end effector 17 is attached.
  • the robot body 1 is an articulated robot arm having a plurality of joints JT1 to JT6 as shown in FIG. 3, and is configured by sequentially connecting a plurality of links 11a to 11f. More specifically, in the first joint JT1, the base 15 and the base end of the first link 11a are rotatably connected around an axis extending in the vertical direction. In the second joint JT2, the distal end of the first link 11a and the proximal end of the second link 11b are rotatably connected around an axis extending in the horizontal direction.
  • the distal end of the second link 11b and the proximal end of the third link 11c are rotatably connected around an axis extending in the horizontal direction.
  • the distal end of the third link 11c and the proximal end of the fourth link 11d are rotatably connected around an axis extending in the longitudinal direction of the fourth link 11c.
  • the distal end portion of the fourth link 11d and the proximal end portion of the fifth link 11e are rotatably coupled around an axis orthogonal to the longitudinal direction of the link 11d.
  • the distal end portion of the fifth link 11e and the proximal end portion of the sixth link 11f are coupled so as to be torsionally rotatable.
  • a mechanical interface is provided at the tip of the sixth link 11f.
  • An end effector 17 as an end effector corresponding to the work content of the robot body 1 is detachably mounted on the mechanical interface via the force sensor 19.
  • the force sensor 19 is, for example, a three-axis acceleration sensor.
  • the force sensor 19 detects a force (a reaction force from the work object) that the end effector 17 causes the work object to exert.
  • the force detected by the force sensor 19 is converted into force data by suitable signal processing means (not shown).
  • This signal processing means is provided, for example, in the force sensor 19 or the controller 3. In the present specification, for convenience, the force sensor 19 is expressed as detecting force data.
  • the arm 13 of the robot main body 1 is formed by a link-joint combination including the first joint JT1, the first link 11a, the second joint JT2, the second link 11b, the third joint JT3, and the third link 11c. It is formed.
  • the wrist of the robot main body 1 is a joint of a link and a joint consisting of the fourth joint JT4, the fourth link 11d, the fifth joint JT5, the fifth link 11e, the sixth joint JT6, and the fourth link 11f described above. 14 is formed.
  • the joints JT1 to JT6 are provided with a drive motor (not shown) as an example of an actuator that relatively rotates two members to which it is coupled.
  • the drive motor is, for example, a servomotor servo-controlled via a servo amplifier by a current command transmitted from the controller 3.
  • the joints JT1 to JT6 are provided with a rotation angle sensor (not shown) for detecting the rotation angle of the drive motor and a current sensor (not shown) for detecting the current of the drive motor.
  • the rotation angle sensor is constituted by an encoder, for example.
  • the controller 3 integrates the rotation angles of the drive motors of all the joints and converts them into position data of the end effector.
  • the data detected by the above-described force sensor 19 is force data, and these force data and position data are operation data of the robot body 1.
  • the rotation angle sensor and the force sensor 19 constitute an operation data detection unit 273.
  • the detection signal of the current sensor is used by the controller 3 (specifically, the adjustment unit 51) to perform feedback control of the current of the servomotor of each joint to a value according to the current command.
  • FIG. 4 is a perspective view showing a configuration of the controller 2 of FIG.
  • the controller 2 includes a gripping unit 21 gripped by an operator, an arm 22 that movably supports the gripping unit 21, and a motor 24.
  • the motor 24 is composed of a servomotor.
  • the gripping portion 21 is formed so that the operator can grip and grip the gripping portion 21 so that the operator can easily grip. In a state in which the operator holds and holds the gripping unit 21, the operator moves the robot main body 1 by moving the gripping unit 21 and operates the robot main body 1.
  • the gripping portion 21 is supported by the support portion 23. Moreover, the holding part 21 is connected to the support part 23 via the cylindrical connection part 23c.
  • the support 23 is movably supported by the arm 22.
  • the arm unit 22 is connected to the motor 24.
  • the arm portions 22 each have a joint 22a and are formed so as to be able to bend around the joint 22a. Accordingly, in the arm unit 22, the grip unit side arm unit 22b and the motor side arm unit 22c are connected so as to be bendable by the joint 22a.
  • the motor 24 is supported by a support 30.
  • Six motors 24 are provided.
  • the six motors 24 have one side constituted by the pair of motors 24 and are arranged in a triangle on the support base 30. More specifically, the six motors 24 are arranged such that the rotation axes (central axes) of the main axes of the pair of motors 24 constitute one side of an equilateral triangle.
  • a pair of arm parts 22 is provided corresponding to a pair of motors 24 which constitute one side.
  • One of the three sides defining the outer shape of the support portion 23 is sandwiched by the pair of arm portions 22.
  • the shaft 23 b is disposed on the side 23 a of the support 23 through the inside of the support 23.
  • the shaft 23b is rotatably held at its both ends by two gripping unit side arms 22b sandwiching the side 23a around three mutually orthogonal axes including the central axis of the shaft 23b.
  • the support portion 23 is rotatably supported around three orthogonal axes including the central axis of the axis 23b.
  • the support portion 23 is rotatably supported by the two grip portion side arm portions 22b around three mutually orthogonal axes including the central axis of the shaft 23b.
  • the configurations of the side 23 a and the shaft 23 b in the support portion 23 are similar to the three sides of the support portion 23.
  • the central axes of the three axes 23b form an equilateral triangle.
  • the joint 22a described above connects the grip side arm 22b to the motor side arm 22c so as to be rotatable around three mutually orthogonal axes including an axis parallel to the central axis of the output shaft of the pair of motors 24. doing. Therefore, the rotation angles of the six motors 24 are uniquely determined in accordance with the position and attitude of the support portion 23.
  • the six motors 24 are servo-controlled (position control) by the controller 3 via servo amplifiers.
  • Each of the six motors 24 is provided with a rotation angle sensor (not shown).
  • the rotation angle sensor is constituted by an encoder, for example.
  • the detection signal of the rotation angle sensor is transmitted to the controller control unit 42 of the controller 3.
  • the detection signal of the rotation angle sensor is converted into a manual operation command which is position data of the support portion 23 in the controller 3.
  • this manual operation correction command is output from the controller 2.
  • the manipulator control unit 42 of the controller 3 controls the output torque of each motor based on the force data input from the robot body 1.
  • the output torque is controlled such that a reaction force corresponding to the force data is generated in response to the operation of the gripping unit 21 by the operator.
  • a force sensor for example, a 3-axis acceleration sensor
  • this force sensor A force command is generated based on the output of.
  • only the manual position correction command may constitute the manual operation correction command, or the manual position correction command and the manual force correction command may constitute the manual operation correction command.
  • buttons 21a and 21b are provided in the grip portion 21 of the controller 2. These are used, for example, to operate the end effector 17.
  • the controller 3 When the six arms 22 move, the output shafts of the six motors 24 rotate accordingly, and the rotation angles are detected by the six rotation angle sensors.
  • the detection signal is converted into the manual position correction command as described above, and the controller 3 generates the operation command based on the manual operation correction command including the manual position correction command, the basic operation command, and the automatic operation correction finger. And sends it to the robot main body 1.
  • the robot body 1 operates so that the end effector 17 takes a position and a posture in which the position and the posture of the support portion 23 are reflected.
  • the operator can operate the grip portion 21 of the controller 2 to operate the robot body 1 as intended.
  • the operator control unit 42 controls each drive motor so that a reaction force corresponding to the force data transmitted from the robot body 1 is generated in response to the operation of the gripping unit 21 by the operator. Feel the reaction force against the movement of the grip 21. Thereby, the operator can manipulate the position and posture of the end effector 17 while feeling the reaction force from the work object acting on the end effector 17 of the robot main body 1.
  • the operating device 2 is not limited to this.
  • the controller 2 may be configured by a master robot similar to the robot body 1 and configured to control the robot body 1 as a slave robot.
  • the controller 2 may be a joystick.
  • the installation position of the controller 2 is not particularly limited.
  • the controller 2 may be installed on the end effector 17 of the robot body 1.
  • FIG. 5 is a functional block diagram illustrating a schematic configuration of a control system of the skill transfer robot system of FIG. 3.
  • the controller 3 includes a controller control unit 42.
  • the camera 4 captures a scene of the movement range of the robot body 1 and transmits the imaging signal to the monitor control unit 43.
  • the monitor control unit 43 converts the received imaging signal into an image display signal and transmits the image display signal to the monitor 5.
  • the monitor 5 displays an image according to the received image display signal.
  • the operator operates the operation device 2 to operate the robot body 1 while viewing the image displayed on the monitor 5.
  • the controller 3 includes a basic operation command unit 50, an operation command generation unit 60, an adjustment unit 51, a learning unit 52, an operation correction command storage unit 53, and an operation data storage unit 56. Equipped with These are functional blocks that are realized by execution of a predetermined operation program stored in a memory constituting the controller 3 by a processor constituting the controller 3.
  • Bilateral control is performed in the control of the robot main body 1, and depending on the type, among the position commands concerning the position of the end effector 17 and the force commands concerning the force that the effector 17 exerts on the work object, There are cases where only the former is required and where both are required. For this reason, in the following, each command includes both the case where only the former of the position command and the force command is included and the case where both are included.
  • the robot 10 repeatedly performs a predetermined operation at a predetermined cycle time.
  • the cycle time is roughly classified into an "operation time” in which the robot 10 performs a predetermined task and a "learning time” in which the robot 10 (more precisely, the neural network 55) learns. Both may partially overlap.
  • the operation of the robot 10 is not limited to the mode in which the predetermined work is repeatedly performed in the predetermined cycle time.
  • the robot 10 may operate to perform a desired operation and learning.
  • the operation command generation unit 60 generates an operation command based on the basic operation command, the automatic operation correction command output from the learning unit 52, and the manual operation correction command output from the controller 2, and outputs the operation command.
  • an automatic operation correction command is added to the basic operation command to generate an automatic operation correction command
  • a manual operation correction command is added to this to generate an operation command.
  • these instructions may be added to each other, and these instructions may be added in any manner.
  • the adjustment unit 51 generates a current command based on the operation command, and transmits the current command to the robot body 1.
  • the drive motor of each joint operates according to the current command
  • the robot body 1 operates according to the current command.
  • the end effector 17 of the robot body 1 manipulates the work target, and the data (position data) of the position of the end effector 17 at that time and the force that the end effector 17 acts on the work target (anti Motion data including force data (force data) is output from the motion data detection unit 273 of the robot body 1.
  • Force data in the operation data is converted into a torque output of a drive motor of the operating device 2 by the operating device control unit 42 and transmitted to the operating device 2.
  • the controller 2 when the operator operates the controller 2 while feeling the reaction force based on the force data, the controller 2 outputs a manual operation correction command.
  • the manual operation correction command is sent to the operation command generation unit 60 and to the operation correction command generation unit 272.
  • the operation correction command generation unit 272 adds the manual operation correction command to the automatic operation correction command output from the learning unit 52 to generate an operation correction command.
  • the operation correction command is stored in the operation correction command storage unit 53.
  • the operation correction instruction storage unit 53 outputs the stored manual operation instruction as a learning manual operation instruction to the learning unit 52 at the time of learning of the neural network 55 at the time of operation of the current predetermined operation (hereinafter referred to as current operation).
  • the motion data output from the motion data detection unit 273 of the robot body 1 is input to the learning unit 52 and stored in the motion data storage unit 56.
  • the motion data storage unit 56 outputs the stored motion data as learning motion data to the learning unit 52 at the time of learning of the neural network 55 this time.
  • the learning unit 52 causes the neural network 55 to learn the current operation correction command based on the input at the time of learning described above, and the predicted operation correction command reflecting the learning is automatically operated correction command based on the input at the time of operation. Output to the operation command generation unit 60.
  • FIG. 6 is a functional block diagram illustrating the detailed configuration of the learning unit 52 of FIG.
  • FIG. 7 is a schematic view illustrating cycle time in the operation of the robot main body 1 of FIG.
  • FIG. 8 is a schematic diagram showing time-series data of the operation correction instruction Pm, the learning operation correction instruction Pm ', the operation data Pd, and the learning operation data Pd' in the skill transfer robot system 300 of FIG.
  • the robot 10 (robot main body 1) repeatedly performs a predetermined operation at a predetermined cycle time.
  • the cycle time is roughly classified into an “operation time” in which the robot 10 (the robot main body 1) performs a predetermined work and a “learning time” in which the robot 10 learns.
  • the operation of the robot 10 in the "operation time” of each cycle time is the above-mentioned ".about.operation”.
  • time-series data Pm0, Pm1, Pm3... Pmu (hereinafter abbreviated as Pm0 to Pmu) of the operation correction command Pm are acquired at predetermined sampling intervals. Further, time series data Pd0 to Pdu of the operation data Pd are similarly acquired. The time series data Pm0 to Pmu of the operation correction command Pm acquired in the previous operation become the time series data Pm0 'to Pm0' of the learning operation correction command Pm 'in the current operation.
  • time series data Pd0 to Pdu of the operation data Pd acquired in the previous operation become the time series data Pd0 'to Pd0' of the learning operation data Pd 'in the current operation.
  • the suffix numerals in each time-series data indicate the order of sampling times (intermittent times). Therefore, time-series data having the same suffix numeral means that it is data acquired at the same sampling time.
  • the learning unit 52 includes a neural network 55, a learning data and teacher data generating unit 71, a data input unit 72, and a learning evaluation unit 73.
  • the neural network 55 comprises an input layer, an intermediate layer, and an output layer.
  • the number of neurons in each layer is appropriately set.
  • a known learning method can be applied to the learning of the neural network 55. Therefore, it will be briefly described here.
  • the neural network 55 is, for example, a recurrent neural network.
  • the learning data and teacher data generation unit 71 generates time series data pn1 to Pnu of teacher data pn from the time series data Pm0 'to Pmu' of the operation correction command for learning Pm '. Further, time series data Pd0 'to Pdu-1' of learning data Pd 'are generated from time series data Pd0' to Pdu 'of learning operation data Pd'.
  • the data input unit 72 sequentially inputs time-series data Pd 0 ′ to Pdu ⁇ 1 ′ of learning data Pd ′ to each neuron of the input layer. At this time, when the data input unit 72 inputs time series data Pdi of learning data Pd ′ at a certain sampling time ti, the neural network 55 calculates a prediction operation correction command Pni + 1 at the next sampling time ti + 1 by forward calculation. .
  • the learning evaluation unit 73 takes in the time-series data pni + 1 at the next sampling time ti + 1 from the time-series data pn1 to Pnu of the teacher data pn, and corrects the prediction operation correction command Pni + 1 and the time-series data pni + 1 of the teacher data pn. For example, the sum value e 2 of the square errors of the position correction command and the force correction command is calculated.
  • the learning evaluation unit 73 updates the weights of the neural network 55 by backward calculation.
  • the data input unit 72 and the learning evaluation unit 73 perform this process on all the time series data Pd0 ′ to Pdu ⁇ 1 ′ of the learning data Pd ′. For example, in all the processes, the sum value e 2 of squared errors is The learning is ended when the value is less than a predetermined threshold.
  • the data input unit 72 inputs operation data Pd0 at the current sampling time t0 at the next operation of the robot main body 1. Then, the neural network 55 outputs a predicted operation correction command Pn1 at the next sampling time t1 as an automatic operation correction command.
  • the learning result of the neural network 55 (learning unit 52) is reflected in the operation of the robot main body 1.
  • the input unit 72 When the input unit 72 inputs the time-series data Pdi of the learning data Pd ′ at a certain sampling time ti, the input unit 72 inputs the time-series data Pdi-1 to Pdi-n (n is a predetermined positive number) before that. You may However, in this case, the input unit 72 needs to input past operation data Pd-1 to Pd-n at the next operation of the robot body 1 in the same manner. In this way, the learning efficiency of the neural network 55 is improved. The reason is that when predicting the movement of the end effector 17, the operator sees not only the movement at the current moment but the series of movement from before that, and predicts the next movement, whereby the end effector This is because the 17 movements are accurately predicted.
  • motion information other than the motion data may be used as learning data and input data at the time of motion of the robot body 1.
  • the basic operation command unit 50 outputs a basic operation command.
  • the learning unit 52 outputs an automatic operation correction command.
  • the automatic operation command generation unit 61 adds an automatic operation correction command to the basic operation command to generate an automatic operation command.
  • a manual operation correction command is output.
  • the operation command generation unit 62 adds the manual operation correction command to the automatic operation correction command to generate an operation command.
  • the adjustment unit 51 generates a current command based on the operation command, and outputs the current command to the robot body 1.
  • the robot body 1 operates to move the end effector 17 in accordance with the current command. Thereby, the end effector 17 moves in accordance with the basic motion command, the automatic motion correction command, and the manual motion correction command.
  • the motion data detection unit 273 detects motion data of the robot main body 1 corresponding to the motion of the end effector 17. Force data of the detected motion data is input to the controller control unit 42.
  • the manipulator control unit 42 controls the manipulator 2 so that the reaction force is felt when the operator operates based on the force data.
  • the operation data storage unit 56 stores operation data.
  • the operation correction command generation unit 272 adds the manual operation correction command to the automatic operation correction command to generate the operation correction command.
  • the operation correction command storage unit 53 stores the operation correction command.
  • motion data is input to the learning unit 52.
  • the learning unit 52 outputs a predicted operation correction command reflecting the previous learning content as the above-described automatic operation correction command.
  • the learning unit 52 uses the learning operation data stored in the operation data storage unit 56 to machine learn the learning operation correction instruction stored in the operation correction instruction storage unit 53. Do.
  • the learning unit 52 outputs a predicted operation correction command reflecting the current learning content as a next automatic operation correction command.
  • the adjustment unit 51 generates a current command from an operation command when forward control is performed, and calculates a deviation of operation data from the operation command when feedback control is performed, based on the deviation. Generate a current command.
  • FIGS. 9A to 9C are schematic diagrams showing the process of improving the trajectory of the end effector 17 to an ideal trajectory.
  • operation data Pd represents a position on a two-dimensional surface.
  • a two-dot chain line indicates an ideal trajectory of the end effector 17 in a time interval from time ta to tb
  • a solid line corresponds to an operation command in which a basic operation command, an automatic operation command and a manual operation correction command are added.
  • the dashed-dotted line indicates the trajectory of the virtual end effector 17 corresponding to the automatic operation command in which the basic operation command and the automatic operation correction command are added.
  • the learning unit 52 In the initialized state, the learning unit 52 is learned to output an automatic operation correction command with a correction value of zero. In this case, as indicated by a solid line in FIG. 9A, the end effector 17 moves so as to indicate a basic trajectory corresponding to the basic operation command output from the basic operation command unit 50.
  • the learning unit 52 learns an operation correction command in which an automatic operation correction with a correction value of zero and a manual operation correction with a correction value of zero are added in the previous time.
  • the trajectory of the virtual end effector 17 corresponding to the automatic operation command in the time interval ta to tb is the trajectory of the end effector 17 corresponding to the basic operation command, as shown by the one-dot chain line in FIG. 9B.
  • the operator sees the end effector 17 try to follow this trajectory, and operates the controller 2 to try the first improvement. Then, as shown by a solid line in FIG. 9B, the trajectory of the end effector 17 is improved so as to approach an ideal trajectory.
  • the learning unit 52 learns the operation correction command in which the previous automatic operation command and the manual correction command are added, and the automatic operation according to the previous manual operation correction command Since the correction command is output, the locus of the virtual end effector 17 corresponding to the automatic operation command in the time interval ta to tb is the end corresponding to the previous manual operation correction command as shown by the alternate long and short dash line in FIG.
  • the trajectory of the effector 17 is the same. However, the operator looks at the end effector 17 trying to trace this virtual trajectory, and operates the controller 2 in an attempt to improve it to an ideal trajectory. Then, as shown by a solid line in FIG. 9C, the trajectory of the end effector 17 is improved to an ideal trajectory.
  • the learning unit 52 learns the operation correction command in which the previous automatic operation command and the manual correction command are added, and the automatic operation according to the previous manual operation correction command Since the correction command is output, the locus of the virtual end effector 17 corresponding to the automatic movement command in the time interval ta to tb is an ideal locus like the locus of the end effector 17 corresponding to the previous manual movement correction command. Become. Therefore, after that, the improvement by the operator operating the operation device 2 becomes unnecessary.
  • the learning unit 52 since the manual operation correction command by the operator is accumulated in the learning unit 52, finally, the skill of the operator is transmitted to the learning unit 52. Also, since the learning unit 52 learns through practice, the learning period may be short.
  • FIGS. 10A to 10C are schematic views showing how the robot body 1 smoothly inserts the first object 81 into the second object 82.
  • FIGS. 11 (a) to 11 (d) are schematic diagrams showing how the robot body 1 inserts the first object 81 into the second object 82 while inserting it.
  • FIGS. 12 (a) to 12 (d) are schematic diagrams showing how the robot body 1 is inserted into the second object 82 while inserting the first object 81.
  • FIG. 11 (a) to 11 (d) are schematic diagrams showing how the robot body 1 inserts the first object 81 into the second object 82 while inserting it.
  • FIGS. 12 (a) to 12 (d) are schematic diagrams showing how the robot body 1 is inserted into the second object 82 while inserting the first object 81.
  • a first object 81 having a large-diameter short cylindrical head 81a and a small-diameter long cylindrical barrel 81b, and a cylindrical through hole 82a at the center of the short cylindrical main body
  • the second function and effect will be described by taking the fitting with the two object 82 as an example.
  • the body 81b of the first object 81 is inserted into the through hole 82a of the second object 82, but the gap between the two is small, and there may be cases where both do not fit smoothly due to a positioning error of the robot body 1 Suppose.
  • the basic motion command output from the basic motion command unit 50 is positioned such that the first object 81 is directly above the second object 82 so that the central axes of both coincide with each other. Then, the end effector 17 is moved to lower the first object 81 toward the second object 82. In this case, when the positioning error of the robot body 1 is close to zero, as shown in FIGS. 10A to 10C, the body 81b of the first object 81 smoothly enters the through hole 82a of the second object 82. It is inserted.
  • the first object 81 is slightly shifted to the right in the drawing as shown in FIG. 11 (a) due to the positioning error of the robot main body 1, as shown in FIG. 11 (b), the first object The body 81 b of 81 abuts on the edge of the through hole 82 a of the second object 82. Then, the operator operates the operation device 2 so that the body 81b of the first object 81 and the edge of the through hole 82a of the second object 82 are straight, as shown in FIGS. 10 (c) to 10 (d). Finally, the body 81 b of the first object 81 is inserted into the through hole 82 a of the second object 82.
  • Motion data corresponding to this series of counterbore motions is detected by the motion data detection unit 273 of the robot main body 1 and stored in the motion data storage unit 56. Further, the manual operation correction command corresponding to this series of counterbore operation is added to the automatic operation correction command during that time, and is stored in the operation correction command storage unit 53 as an operation correction command. Then, the operation correction instruction is associated with the operation data and learned by the learning unit 52.
  • the learning unit 52 performs the operation following the above-described series of gouging operations. Output automatic operation correction command to make Thereby, the first object 81 is fitted to the second object 82. Thereby, part of the skill of the operator is transmitted to the learning unit 52.
  • the learning unit 52 does not learn this event. Output an automatic operation correction command that can not cope with this event.
  • FIG. 12B it is assumed that the body 81b of the first object 81 abuts on the edge of the through hole 82a of the second object 82. Then, the operator operates the operation device 2 so that the body 81b of the first object 81 and the edge of the through hole 82a of the second object 82 are straight, as shown in FIGS. 10 (c) to 10 (d). Finally, the body 81 b of the first object 81 is inserted into the through hole 82 a of the second object 82.
  • Motion data corresponding to this series of counterbore motions is detected by the motion data detection unit 273 of the robot main body 1 and stored in the motion data storage unit 56. Further, the manual operation correction command corresponding to this series of counterbore operation is added to the automatic operation correction command during that time, and is stored in the operation correction command storage unit 53 as an operation correction command. Then, the operation correction instruction is associated with the operation data and learned by the learning unit 52.
  • the learning unit 52 performs the operation following the above-described series of gouging operations. Output automatic operation correction command to make Thereby, the first object 81 is fitted to the second object 82. Thus, another part of the operator's skill is transmitted to the learning unit 52.
  • the basic movement of the end effector 17 has to be corrected, but when using the learning unit 252 for machine learning like the robot system 300, the basic movement of the end effector 17 is Transmission of the skill of the operator is easily realized by making the learning unit 52 learn the manual operation correction command (more precisely, the operation correction command) according to the mode whenever an event that needs to be corrected occurs. be able to.
  • a part of the basic movement of the end effector 17 related to the predetermined work that does not need to be corrected is automatically performed by the basic movement command unit 50. You only have to make corrections. Thus, the burden on the operator is reduced. In addition, even with the expert, the work varies, so if only a part of the work is performed by the operator's operation, the accuracy of the work is improved compared to the case where all the work is performed by the operator's operation. .
  • bilateral control for example, symmetrical bilateral control, force-backed bilateral control, and force feedback bilateral control are known.
  • any bilateral control can be applied.
  • force-backed bilateral control is applied.
  • the above-mentioned "operation command” and “operation correction command” include only "position command” and "position correction command”.
  • the contents of the third embodiment can be easily applied to other mechanical devices by replacing the respective elements of the robot system 300 with the respective components of the other mechanical devices corresponding to the respective elements. it can.
  • Embodiment 4 of the present invention exemplifies a skill transfer robot system capable of training an operator.
  • FIG. 13 is a functional block diagram illustrating the configuration of the control system of the skill-based robot system according to the fourth embodiment of the present invention.
  • the robot system 400 according to the fourth embodiment is different from the robot system 300 according to the third embodiment in the following configuration, and the other configurations are the same as the robot system 300 according to the third embodiment. Hereinafter, this difference will be described.
  • the robot system 400 selects a transmission path of a manual operation correction command (hereinafter referred to as a manual operation correction command transmission path) from the controller 2 to the operation command generation unit 62 of the controller 3. It further includes a switch unit 75 that communicates and shuts off.
  • the controller control unit 42 controls the operation of the switch unit 75. Further, the automatic operation correction command output from the learning unit 52 is input to the controller control unit 42.
  • the operator control unit 42 has a training mode and a non-training mode.
  • the controller control unit 42 causes the switch unit 75 to communicate the manual operation correction command transmission path, and generates a reaction force corresponding to the force data, and transmits the manual operation correction command according to the operator's operation.
  • the controller is controlled to output. Thereby, the robot system 400 operates to perform a predetermined work.
  • the controller control unit 42 causes the switch unit 75 to cut off the manual operation correction command transmission path. Then, the controller 2 outputs a manual operation correction command according to the operation of the operator, and calculates a deviation of the manual operation correction command from the automatic operation correction command. Then, when the deviation is equal to or more than a predetermined value, the controller 2 is controlled to output a manual position correction command corresponding to the automatic operation correction command.
  • the controller control unit 42 may be configured to cause an appropriate device to generate a warning when the deviation is equal to or greater than a predetermined value. For example, a speaker not shown is configured to issue an alarm to the operator.
  • the robot system 400 learned to the practical level when the robot system 400 performs a predetermined operation, the automatic operation correction according to the learning unit 52 is performed.
  • the command is output.
  • the operation device control unit 42 calculates the deviation of the manual operation correction instruction due to the operation with respect to the automatic operation correction instruction as the example.
  • the deviation is equal to or more than a predetermined value, that is, when the operation of the operator is inappropriate to be equal to or more than a predetermined degree
  • the manipulator control unit 42 performs manual position correction corresponding to the automatic operation correction command as a model.
  • the controller 2 is controlled to perform an operation of outputting a command. Thereby, the operator is guided by the controller 2 to perform an appropriate operation. Therefore, an unfamiliar operator can be suitably trained.
  • Embodiment 5 of the present invention exemplifies a guidance type skill transmission machine apparatus.
  • FIG. 14 is a functional block diagram illustrating the configuration of a skill transfer mechanism 500 according to a fifth embodiment of the present invention.
  • the mechanical device 500 of the fifth embodiment differs from the mechanical device 100 of the first embodiment in the following configuration, and the other configuration is the same as the mechanical device 100 of the first embodiment.
  • the motion information includes motion data
  • the motion data includes force data representing a force that the working unit 217 acts on the work environment and position data representing the position of the working unit 217 at the time of operation of the motion unit 201.
  • the operation unit 217 is provided with an operation unit 218 for causing the operator to directly and physically exert a force on the operation unit 217.
  • the manual movement correction is the correction of the movement of the working unit 217 by causing the operator to physically exert a force directly or indirectly on the working unit 217.
  • the manual motion correction data generation unit 282 generates a manual motion correction data by subtracting the basic motion command from the motion data on which the manual motion correction is detected, which is detected by the motion information detection unit 254.
  • the movement of the working unit 217 can be corrected by the operator physically applying a force to the working unit 217 directly or indirectly. For this reason, even if it is a difficult task, the movement of the working unit 217 can be finely corrected.
  • FIG. 15 is a schematic view illustrating the hardware configuration of a skill transfer robot system 600 according to the sixth embodiment of the present invention.
  • FIG. 16 is a functional block diagram illustrating the configuration of the control system of the skill transfer robot system 600 of FIG.
  • the mechanical device 100 according to the first embodiment includes the end effector 17 as a working unit and operates as an operation unit that moves the end effector 17 to perform work on a work target.
  • the controller 3 for controlling the operation of the robot main body 1, and the basic operation command unit 50 causes the robot main body 1 to make the end effector 17 perform a basic movement command.
  • the learning unit 52 machine-learning the motion correction data stored in the motion correction data storage unit 283 using the motion data stored in the motion data storage unit 56 and completing the machine learning
  • Operation data is input at the time of operation, and an automatic operation correction command is output.
  • the robot body 1 is configured to move the end effector 17 in accordance with the automatic operation command based on the basic operation command and the automatic operation correction command, and the manual movement correction.
  • the end effector 17 is provided with an operation unit 281.
  • the operation unit 281 may be omitted, and the operator may apply a force directly to the work object.
  • the controller 3 includes a basic motion command unit 50, an automatic motion command generation unit 61, an adjustment unit 51, a manual motion correction data generation unit 282, a motion correction data generation unit 272, and a motion correction data storage unit 283. And an operation data storage unit 56.
  • the controller 3 lowers the rigidity in the operation of the robot body 1 to such an extent that the end effector 17 moves when the operator applies a force to the end effector 17 ( Weaken). Then, at the time of the operation of the robot body 1, the basic operation command unit 50 outputs a basic operation command. On the other hand, the learning unit 52 outputs an automatic operation correction command. The automatic operation command generation unit 61 adds an automatic operation correction command to the basic operation command to generate an automatic operation command. The adjustment unit 51 generates a current command based on the automatic operation command, and outputs the current command to the robot body 1. The robot body 1 operates to move the end effector 17 in accordance with the current command.
  • the end effector 17 moves in response to this operation. Thereby, the end effector 17 moves in accordance with the basic motion command, the automatic motion correction command, and the manual motion correction.
  • the motion data detection unit 273 detects motion data of the robot main body 1 corresponding to the motion of the end effector 17.
  • the operation data storage unit 56 stores the detected operation data.
  • the manual motion correction data generation unit 282 subtracts the automatic operation command from the operation data to generate manual motion correction data.
  • the motion correction data generation unit 272 adds the manual motion correction data to the automatic motion correction command to generate motion correction data.
  • the motion correction data storage unit 283 stores the motion correction data.
  • motion data is input to the learning unit 52.
  • the learning unit 52 outputs, as the above-described automatic motion correction command, predicted motion correction data in which the content of the previous learning is reflected.
  • the learning unit 52 performs machine learning on the motion correction data for learning stored in the motion correction data storage unit 283 using the learning operation data stored in the motion data storage unit 56. Do.
  • the learning unit 52 outputs the predicted motion correction data reflecting the current learning content as the next automatic operation correction command.
  • the learning method of the learning unit 52 is the same as that of the robot system 300 according to the third embodiment, and thus the description thereof is omitted.
  • the movement of the end effector 17 can be corrected by the operator physically applying a force to the end effector 17 directly or indirectly. Therefore, even if it is a difficult task, the movement of the working unit can be finely corrected.
  • any bilateral control can be applied.
  • force-backed bilateral control is applied.
  • operation command and operation correction command include only "position command” and "position correction command”.
  • the contents of the third embodiment can be easily applied to other mechanical devices by replacing the respective elements of the robot system 600 with the respective components of the other mechanical devices corresponding to the respective elements. it can.
  • Embodiment 7 of the present invention illustrates scaling of distance and scaling of force in Embodiments 2 to 4.
  • the operation device is given to the working machine (including an industrial robot such as a manipulator) by the control device, and the working machine is driven.
  • the control device includes, for example, an operation element that can be linearly displaced in the front-rear direction.
  • the operator can move the wrist of the manipulator by operating the controls.
  • the wrist is displaced in proportion to the displacement of the manipulator. In one setting, when the operator is displaced 1 cm forward, the wrist is displaced 10 cm forward. At this time, the displacement ratio is 1:10.
  • This displacement ratio can be arbitrarily set within a predetermined range (for example, 1: 1 to 1: 100).
  • the wrist is displaced 1 cm forward when the operator is displaced 10 cm forward.
  • the displacement ratio is 10: 1.
  • This displacement ratio can be set arbitrarily within a predetermined range (eg, 1: 1 to 100: 1).
  • the steering device comprises an operating lever on which a force sensor is mounted.
  • the operator can operate the manipulator to drive the wrist of the manipulator.
  • the wrist is attached with a hand for performing a specific work on the work.
  • a force sensor is attached to the hand, and the force applied to the workpiece by the hand can be detected.
  • the output of the force sensor of the hand is fed back to the controller that drives and controls the manipulator, and the current of the motor of the joint axis of the manipulator is controlled so that the set force is applied to the workpiece from the hand.
  • the motor current is controlled such that the hand applies a force of 10 N to the workpiece.
  • the power ratio is 1:10. This force ratio can be arbitrarily set within a predetermined range (for example, 1: 1 to 1: 100).
  • the motor current is controlled such that the hand applies 1 N of force to the work.
  • the power ratio is 10: 1.
  • This force ratio can be set arbitrarily within a predetermined range (eg, 1: 1 to 100: 1).
  • the eighth embodiment of the present invention exemplifies a mode in which a plurality of working machines are steered by a one-person steering device and the steering and the external shaft are steered by both hands by using a one-person steering device in the second to fourth embodiments.
  • a plurality of work machines can be steered by a set of operating devices configured to be operated by one operator.
  • the control device is provided with an operating lever A for operating with the left hand and an operating lever B for operating with the right hand.
  • the manipulator A is steered by the control lever A
  • the manipulator B is steered by the control lever B.
  • the two manipulators A and B are arranged close to each other so that work can be performed on one work together.
  • a hand that can hold and hold a workpiece is attached to the wrist of the manipulator A.
  • a paint gun is attached to the wrist of the manipulator B. The operator can arbitrarily set and change the position and angle of the workpiece within a predetermined range by operating the operation lever A.
  • the position and angle of the coating gun can be arbitrarily set and changed within a predetermined range.
  • the operator can freely set and change the position and angle of the coating gun while freely setting and changing the position and angle of the work, and can uniformly apply the coating on the surface of the work.
  • the control device may further include a pedal A for the left foot and a pedal B for the right foot. By the pedal A, ON / OFF control of the ejection of the paint from the coating gun can be performed.
  • the on / off control of the spray of paint from the coating gun is performed by the external shaft A. That is, the external axis A is steered by the pedal A.
  • FIG. 17 is a block diagram illustrating the configuration of a skill transfer system according to a ninth embodiment of the present invention.
  • the skill transfer mechanism 900 of the ninth embodiment differs from the skill transfer mechanism 100 of the first embodiment in the following configuration, and the other configuration is the same as the skill transfer mechanism 100 of the first embodiment. Hereinafter, this difference will be described.
  • the manual movement correction data generation unit 271 outputs a manual operation correction command according to the operation of the operator 220 as manual movement correction data. 202.
  • the motion correction data generation unit 272 of the first embodiment adds the manual operation correction command to the automatic operation correction command to generate the operation correction command, and the motion correction data storage unit 253.
  • the learning unit 252 uses the motion information stored in the motion information storage unit 256 to generate the motion correction command stored in the motion correction command storage unit 53 After learning and machine learning, operation information is input when the operation unit 201 operates, and an automatic operation correction command is output.
  • the operation unit 201 is configured to move the working unit 217 in accordance with the automatic operation command based on the basic operation command and the automatic operation correction command, and the manual operation correction command.
  • the mechanical device 900 has a working unit 217, and an operation unit 201 that moves the working unit 217 to perform work, and a controller 203 that controls the operation of the working unit 201.
  • the operation information detection unit 254 detects operation information of the operation unit 201 corresponding to the movement of the operation unit 217, and the operation unit 202 outputs a manual operation correction command according to the operation of the operator 220.
  • the controller 203 causes the operation unit 201 to output a basic operation command for causing the working unit 217 to perform a basic movement, a learning unit 252 for outputting an automatic operation correction command, and a manual operation for the automatic operation correction command.
  • a motion correction command generation unit 272 that generates a motion correction command by adding a motion correction command, a motion correction command storage unit 53 that stores a motion correction command, and a motion information storage unit 256 that stores motion information.
  • the learning unit 252 performs machine learning of the operation correction instruction stored in the operation correction instruction storage unit 53 using the operation information stored in the operation information storage unit 256, and after completing the machine learning, at the time of operation of the operation unit 201.
  • the operation information is input and configured to output an automatic operation correction command, and the operation unit 201 performs the operation unit 217 according to the automatic operation command based on the basic operation command and the automatic operation correction command, and the manual operation correction command. Is configured to move.
  • the operator 220 when the operator 220 operates the operation device 202, the movement of the working unit 217 can be corrected. Therefore, the operator 220 can operate the operating unit 201 at a position away from the working unit 217.
  • the mechanical device 900 of the ninth embodiment does not include the operation information presentation mechanism 206 of FIG. This point is different from the mechanical device 200 of the second embodiment in terms of points.
  • FIG. 18 is a functional block diagram illustrating the configuration of the control system of the skill-based robot system according to the tenth embodiment of the present invention.
  • a robot system 1000 according to the tenth embodiment is an embodiment of the mechanical apparatus 900 as the robot system 1000 as an example of the mechanical apparatus 900 according to the ninth embodiment.
  • a robot system 300 of the third embodiment is an embodiment of the mechanical device 200 as the robot system 300 as an example of the mechanical device 200 of the second embodiment.
  • the robot system 1000 of the tenth embodiment is compared with the robot system 300 of the third embodiment, the robot system 1000 is a force whose motion data represents the force that the end effector 17 (see FIG. 3) exerts on the work object. No data, and thus no force data is input to the manipulator control unit 42 of the controller 3, and thus the controller 3 performs position control of the robot body 1 without bilateral control. , And is different from the robot system 300.
  • the hardware configuration of the robot system 1000 is as illustrated in FIG. Referring to FIG. 3, the robot system 1000 of the tenth embodiment differs from the mechanical device 900 of the ninth embodiment in the following configuration, and the other configuration is the same as the mechanical device 900 of the ninth embodiment. Hereinafter, this difference will be described.
  • the mechanical device 900 of the ninth embodiment has the end effector 17 as the working unit 217, and the robot main body 1 as the operation unit 201 that moves the end effector 17 to perform the work on the work object, and the robot A robot system 1000 includes a robot 10 having a controller 3 for controlling the operation of the main body 1 and an operator 2 for outputting a manual operation correction command according to the operation of the operator.
  • the basic motion command unit 50 is configured to output a basic motion command for causing the end effector 17 to perform a basic motion by the robot body 1, and the learning unit 52 stores the motion data storage unit 56 in the motion data storage unit 56. After machine learning of the motion correction command stored in the motion correction command storage unit 53 using the motion data, and after completion of the machine learning, motion data is input at the time of motion of the robot body 1, and an automatic motion correction command is output. It is configured to
  • the robot main body 1 is configured to move the end effector 17 in accordance with the automatic operation command based on the basic operation command and the automatic operation correction command, and the manual operation correction command.
  • the detailed configuration and operation of the robot system 1000 are the same as the configuration and operation of the robot system 300 according to the third embodiment except for the differences between the two, and thus the description thereof will be omitted.
  • a painting robot As a robot 10 in the tenth embodiment, a painting robot, a welding robot, a picking robot, etc. are exemplified.
  • the contents of the tenth embodiment can be easily applied to other mechanical devices by replacing the respective elements of the robot system 1000 with the other mechanical devices corresponding to the respective elements. it can.
  • the eleventh embodiment of the present invention illustrates a skill transfer robot system capable of training an operator using the robot system 1000 of the tenth embodiment.
  • FIG. 19 is a functional block diagram illustrating the configuration of the control system of the skill transfer robot system 1100 according to the eleventh embodiment.
  • the robot system 11 of the eleventh embodiment differs from the robot system 1000 of the tenth embodiment in the following configuration, and the other configurations are the same as the robot system 1000 of the tenth embodiment. Hereinafter, this difference will be described.
  • the robot system 1100 further includes a switch unit 75 for selectively communicating and blocking a manual operation correction command transmission path from the operation device 2 to the operation command generation unit 62 of the controller 3. .
  • the controller control unit 42 controls the operation of the switch unit 75. Further, the automatic operation correction command output from the learning unit 52 is input to the controller control unit 42.
  • the operator control unit 42 has a training mode and a non-training mode. In the non-training mode, the controller control unit 42 causes the switch unit 75 to communicate the manual operation correction command transmission path, and controls the controller 2 to output the manual operation correction command according to the operation of the operator. Thereby, the robot system 1100 operates to perform a predetermined work.
  • the controller control unit 42 causes the switch unit 75 to cut off the manual operation correction command transmission path. Then, the controller 2 outputs a manual operation correction command according to the operation of the operator, and calculates a deviation of the manual operation correction command from the automatic operation correction command. Then, when the deviation is equal to or more than a predetermined value, the controller 2 is controlled to output a manual position correction command corresponding to the automatic operation correction command.
  • the controller control unit 42 may be configured to cause an appropriate device to generate a warning when the deviation is equal to or greater than a predetermined value. For example, a speaker not shown is configured to issue an alarm to the operator.
  • the twelfth embodiment of the present invention exemplifies a form in which a program learned by the learning unit of the operation type skill transfer robot is stored in the storage unit of another robot and the operator is trained using the other robot.
  • the program learned by the learning unit 52 of the robot system 300 of the third embodiment or the robot system 1000 of the tenth embodiment is stored in the storage unit of a robot not having another learning function.
  • the robot is provided with a manipulator control unit similar to the manipulator control unit 42 of the robot system 400 of the fourth embodiment or the robot system 1100 of the eleventh embodiment.
  • Examples of the “robot system having no other learning function” include a robot system in which the configuration relating to the learning function is omitted in the robot system 300 of the third embodiment or the robot system 1000 of the tenth embodiment.
  • the operator can be trained using a robot that does not have a learning function.
  • the skill transfer machine according to the present invention is capable of transferring the skills of skilled workers in the industry, and is useful as a skill transfer machine capable of achieving automation of a predetermined operation in a short period of time. is there.

Abstract

技能伝承装置(900)が、作業部(217)を動かす動作部(201)と、動作部(201)の動作を制御する制御器(203)と、動作部(201)の動作情報を検出する動作情報検出部(254)と、操作者(220)の操作に応じた手動動作修正指令を出力する操作器(202)と、を備える。制御器(203)が、基本動作指令を出力する基本動作指令部(250)と、自動動作修正指令を出力する学習部(252)と、自動動作修正指令に手動動作修正指令を加えて動作修正指令を生成する動作修正指令生成部(272)と、動作修正指令を記憶する動作修正指令(53)と、動作情報を記憶する動作情報記憶部(256)と、を備える。学習部(252)が、動作情報記憶部(256)に記憶された動作情報を用いて動作修正指令記憶部(53)に記憶された動作修正指令を機械学習し、機械学習を終えた後、動作部(201)の動作時に動作情報が入力され、自動動作修正指令を出力するよう構成され、且つ、動作部(201)が、基本動作指令と自動動作修正指令とに基づく自動動作指令と、手動動き修正と、に従って作業部(21)を動かすよう構成されている。

Description

技能伝承機械装置
 本発明は、技能伝承機械装置に関する。
 従来から、人が行う作業をニューラルネットワークに学習させ、学習したニューラルネットワークによりロボットを制御することによって、人の作業を自動化することが行われている。このような技術として、例えば、特許文献1に記載された技術が知られている。この技術では、熟練したカメラマンがロボカメ操作器を操作するとロボットカメラがその操作に従い動作して被写体を撮影する。そして、ロボットカメラがこの撮影動作の状態を示す撮影動作状態データを学習制御装置に出力する。また、被写体検出装置が被写体位置データを学習制御装置に出力する。学習時には、学習制御装置が、被写体位置データを用いて撮影動作状態データをニューラルネットワークに学習させる。そして、自動制御時には、学習したニューラルネットワークに被写体位置データが入力され、ニューラルネットワークの出力によりロボットカメラの動作が制御される。これにより、熟練したカメラマンの作業が自動化される。
特開2009-211294号公報
 しかしながら、特許文献1に記載された技術では、自動制御時にニューラルネットワークのみによってロボットカメラを制御するので、その撮影の品質を熟練のカメラマンによる撮影と同レベルに維持するために、ニューラルネットワークの学習の達成度を極限に高める必要がある。また、被写体の位置に応じてロボットカメラの動作状態を変える必要があるが、被写体の位置は無限に存在するため、実際の被写体の態様に応じてロボットカメラの動作状態を適切に制御するためには、ニューラルネットワークに対する膨大な学習用データ及び立ち上げ期間が必要とされる。そのため、被写体の撮影の自動化を短期間で達成することが困難である。
 このような問題は、産業界において使用される、作業環境に対する作業を行う機械装置にも共通する問題である。
 ところで、産業界においては、少子高齢化により労働者が高齢化するとともに不足しており、熟練作業者の技能を伝承することが急務であるが、その技能の伝承者も同様に減少していくという問題があった。
 本発明は、このような課題を解決するためになされたものであり、産業界における熟練作業者の技能を伝承することが可能であり、且つ、所定の作業の自動化を短期間で達成することが可能な技能伝承機械装置を提供することを目的とする。
 上記課題を解決するために、本発明のある態様(aspect)に係る技能伝承機械装置は、作業部を有し、作業を行うよう前記作業部を動かす動作部と、前記動作部の動作を制御する制御器と、前記作業部の動きに対応する前記動作部の動作情報を検出する動作情報検出部と、操作者による前記作業部の動きの修正である手動動き修正を表す手動動き修正データを発生する手動動き修正データ発生部と、を備え、前記制御器が、前記動作部によって前記作業部に基本的な動きをさせる基本動作指令を出力する基本動作指令部と、自動動作修正指令を出力する学習部と、前記自動動作修正指令に前記手動動き修正データを加算して動き修正データを生成する動き修正データ生成部と、前記動き修正データを記憶する動き修正データ記憶部と、前記動作情報を記憶する動作情報記憶部と、を備え、前記学習部が、前記動作情報記憶部に記憶された前記動作情報を用いて前記動き修正データ記憶部に記憶された前記動き修正データを機械学習し、機械学習を終えた後、前記動作部の動作時に前記動作情報が入力され、前記自動動作修正指令を出力するよう構成され、且つ、前記動作部が、前記基本動作指令と前記自動動作修正指令とに基づく自動動作指令と、前記手動動き修正と、に従って前記作業部を動かすよう構成されている。
 ここで、操作者による手動動き修正は、操作器を用いて操作者の操作に応じた手動動作修正指令を制御器に入力することにより、又は、操作者が作業部に直接又は間接に物理的に力を作用させることにより行われる。前者の場合、操作器が手動動き修正データ発生部を構成する。後者の場合、手動動き修正データ発生部が、動作情報中の動作データから自動動作指令を減算して手動動き修正データを発生するように構成される。ここで、動作データは、作業部が作業環境に作用させる力を表す力データと動作部の動作時における作業部の位置を表す位置データとのうちの少なくともいずれかを含む。
 上記構成によれば、動作部は、基本動作指令と自動動作修正指令とに基づく自動動作指令と、手動動き修正と、に従って作業部を動かすので、操作者が手動動き修正をせず且つ学習部が自動動作修正をしない場合、動作部は基本動作指令部が出力する基本動作指令に従って作業部に基本的な動きをさせる。操作者は、目視によって作業部による作業を確認しながら作業部の動きを監視し、基本的な動きによって所定作業が熟練した動きで行われないときには、所定作業を熟練した動きで遂行するよう手動動き修正を行う。すると、この手動動き修正によって基本的な動きが修正され、それにより、所定作業が熟練した動きで遂行される。一方、この所定作業に関する手動動き修正を表す手動動き修正データが発生され、この手動動き修正データが、学習部が出力する自動動作修正指令に加算されて動き修正データが生成され、この動き修正データが学習部によって機械学習される。上述のように学習部が自動修正をしない場合、学習部は操作者の動き修正に基づく手動動き修正データのみを学習する。学習部には、動作部の動作時において、作業部の動きに対応する動作部の動作情報が入力されるので、上記と類似の所定作業が熟練した動きで遂行されない動作状態が生じた場合には、学習部から上述のように学習した動作修正指令が自動動作修正指令として出力される。これにより、基本動作指令が、所定作業が熟練した動きで遂行される方向に修正され、当該修正が適切であれば、所定の作業が熟練した動きで遂行される。
 しかし、学習が不十分である場合や、所定作業が熟練した動きで遂行されない場合における動作部の動作状態が学習されたものとかなり異なる場合等には、当該修正が行われたにも関わらず所定作業が熟練した動きで遂行されない。すると、操作者が所定の作業を熟練した動きで遂行するよう手動動き修正を行い、それにより、動作部によって所定の作業が熟練した動きで遂行される。そして、このさらなる手動動き修正に対応する手動動き修正データが、前回の手動動き修正に対応する自動動作修正指令に加算されて、学習部によって学習される。これにより、作業部の基本的な動きに対する学習部の修正能力が向上する。以降、これらの動作が繰り返され、作業部の基本的な動きに対する学習部の修正能力が操作者と同等のレベルまで向上すると、操作者による作業部の基本的な動きに対する修正が不要になる。この状態においては、学習部が、操作者に代わって、作業部の基本的な動きを適切に修正し、作業部に所定作業を適切に遂行させる。
 このようにして、操作者が熟練者である場合、操作者の手動動き修正が熟練者の「技能」を構成し、この「技能」が学習部に蓄積されて当該学習部に伝承され、学習部が熟練者の「技能」の「伝承者」になる。その結果、当該学習部を備える機械装置が「技能伝承機械装置」になる。
 また、上記構成によれば、動作部が、基本動作指令と自動動作修正指令とに基づく自動動作指令と手動動き修正とに従って動作するよう構成されているので、学習部から不十分な自動動作修正指令が出力されても、操作者が作業部の動きを見ながら手動動き修正を行って動作部に適切な動作をさせることができる。このため、現場の実務で適切な動作の試行及び修正を行うことができる。換言すると、現場の実務を通して学習部に学習をさせることができるので、学習部に対する膨大な学習用データ及び立ち上げ期間が不要である。その結果、所定作業の自動化を短期間で達成することができる。
  また、上記構成によれば、所定作業に関する作業部の基本的な動きのうち修正が不要である部分は、基本動作指令部によって自動的に遂行されるので、操作者は、必要な修正のみを行えばよい。よって、操作者の負担が軽減される。また、熟練者であっても作業がばらつくので、このように一部の作業のみを操作者の操作によって行うと、全ての作業を操作者の操作によって行う場合に比べて作業の精度が向上する。
 また、操作者の手動動き修正に対応する手動動き修正データを記憶部に記憶することによって、熟練者の技能を伝承することが考えられるが、作業部の基本的な動きを修正しなければならない態様は無限に存在するので、そのような手法によって、熟練者の技能を伝承することは現実には困難である。一方、上記構成のように学習部を用いると、作業部の基本的な動きを修正しなければならない事象が発生する度にその態様に応じた手動動き修正(正確には動き修正データ)を学習部に学習させることによって、熟練者の技能の伝承を容易に実現することができる。
 前記手動動き修正データ発生部が、前記操作者の操作に応じた手動動作修正指令を前記手動動き修正データとして出力する操作器であり、前記動作情報を前記操作者が知覚することが可能なように前記操作者に提示する動作情報提示機構をさらに備えており、前記動き修正データ生成部が、前記自動動作修正指令に前記手動動作修正指令を加えて動作修正指令を生成する動作修正指令生成部であり、前記動き修正データ記憶部が前記動作修正指令を記憶する動作修正指令記憶部であり、前記学習部が、前記動作情報記憶部に記憶された前記動作情報を用いて前記動作修正指令記憶部に記憶された前記動作修正指令を機械学習し、機械学習を終えた後、前記動作部の動作時に前記動作情報が入力され、前記自動動作修正指令を出力するよう構成され、且つ、前記動作部が、前記基本動作指令と前記自動動作修正指令とに基づく自動動作指令と、前記手動動作修正指令と、に従って前記作業部を動かすよう構成されていてもよい。
 この構成によれば、操作者が操作器を操作することによって作業部の動きを修正することができる。このため、操作者が、作業部から離れた位置で動作部を操作することができる。また、操作者が動作情報提示機構によって動作情報に対応する作業部の動きを知覚しながら操作器を操作できるので、作業部の動きを的確に修正することができる。
 前記機械装置が、前記作業部としての先端効果部を有し、作業対象物に対する作業を行うよう前記先端効果部を動かす前記動作部としての機械本体と、前記機械本体の動作を制御する前記制御器と、を備える機械と、前記機械本体の前記先端効果部が前記作業対象物に作用させる力を表す前記動作情報としての力データに応じた反力を発生しながら前記操作者の操作に応じた手動動作修正指令を出力する、前記動作情報提示機構を兼ねる前記操作器と、を備える機械システムであり、前記基本動作指令部が、前記機械本体によって前記先端効果部に基本的な動きをさせる基本動作指令を出力するよう構成されており、前記学習部が、前記動作情報記憶部に記憶された前記動作情報を用いて前記動作修正指令記憶部に記憶された前記動作修正指令を機械学習し、機械学習を終えた後、前記機械本体の動作時に前記動作情報が入力され、前記自動動作修正指令を出力するよう構成され、且つ、前記機械本体が、前記基本動作指令と前記自動動作修正指令とに基づく前記自動動作指令と、前記手動動作修正指令と、に従って前記先端効果部を動かすよう構成されていてもよい。
 この構成によれば、操作型の技能伝承機械システムを実現することができる。具体的には、操作者が操作器を操作することによって先端効果部の動きを修正することができる。このため、操作者が、機械本体から離れた位置で機械本体を操作することができる。また、操作者が力データに応じた反力を発生しながら操作器を操作できるので、先端効果部の動きを的確に修正することができる。
 前記動作情報検出部が、前記機械本体に設けられた動作データ検出部を含み、前記動作データ検出部は、前記先端効果部が前記作業対象物に作用させる力を表す前記力データを検出する力データ検出部と、前記機械本体の動作時における前記先端効果部の位置を表す位置データを検出する位置データ検出部とを含み、且つ、前記力データ及び前記位置データを動作データとして出力するよう構成され、前記動作情報記憶部が、前記動作データを記憶する動作データ記憶部であり、且つ、前記学習部が、前記動作データを用いて前記動作修正指令を機械学習し、機械学習を終えた後、前記動作データが入力され、前記自動動作修正指令を出力するよう構成されていてもよい。
 この構成によれば、操作型の技能伝承機械システムにおけるバイラテラル制御を好適に具体化することができる。
 前記機械本体が、電流指令に従って動作するよう構成されており、且つ、前記動作指令に基づいて前記電流指令を出力する調整部をさらに備えてもよい。
 この構成によれば、機械本体が電流指令に従って動作する技能伝承機械システムを好適に具体化することができる。
 前記操作器から前記制御器に至る前記手動動作修正指令の伝達経路を選択的に連通及び遮断するスイッチ部をさらに備え、前記スイッチ部が前記伝達経路を遮断している場合において、前記操作器を用いて前記操作者を訓練することが可能なように構成されていてもよい。
 この構成によれば、操作器から前記制御器に至る前記手動動作修正指令の伝達経路を遮断している状態では、操作器を操作しても動作部が動作しない。従って、不慣れな操作者が実際に操作器を操作して、操作器の操作を練習することができる。しかも、機械装置が、操作器を用いて作者を訓練することが可能なように構成されているので、不慣れな操作者を好適に訓練することができる。
 前記力データ及び前記自動動作修正指令を用いて前記操作器の動作を制御し、且つ前記スイッチ部の動作を制御する操作器制御部をさらに備え、前記操作器制御部は、訓練モードと非訓練モードとを有し、非訓練モードにおいて、前記スイッチ部に前記伝達経路を連通させ、且つ前記力データに応じた反力を発生しながら前記操作者の操作に応じた手動動作修正指令を出力するよう前記操作器を制御し、訓練モードにおいて、前記スイッチ部に前記伝達経路を遮断させ、且つ前記操作器に前記操作者の操作に応じた前記手動動作修正指令を出力させるとともに、前記手動動作修正指令の前記自動動作修正指令に対する偏差を演算し、当該偏差が所定値以上である場合に、前記自動動作修正指令に対応する前記手動位置修正指令を出力する動作をするよう前記操作器を制御するように構成されていてもよい。
 この構成によれば、実用レベルに学習された機械装置を用いると、当該機械装置に所定の作業を行わせた場合には、学習部から手本になる自動動作修正指令が出力される。一方、このような状態において、操作者が操作器を操作すると、この手本になる自動動作修正指令に対するその操作による手動動作修正指令の偏差が演算される。そして、当該偏差が所定値以上である場合、すなわち、操作者の操作が所定程度以上に不適切である場合、手本となる自動動作修正指令に対応する手動位置修正指令を出力する動作をするよう操作器が制御される。これにより、操作者は、適切な操作をするように操作器によって誘導される。従って、不慣れな操作者を好適に訓練することができる。
 前記操作器制御部は、前記訓練モードにおいて、前記力データに応じた反力を発生しながら前記操作者の操作に応じた手動動作修正指令を出力するよう前記操作器を制御するように構成されていてもよい。
 この構成によれば、操作者が手感に近い感覚で動作部を操作することができるので、より好適に操作者を訓練することができる。
 前記動作情報が動作データを含み、前記動作データが、前記作業部が作業環境に作用させる力を表す力データと前記動作部の動作時における前記作業部の位置を表す位置データとを含み、前記手動動き修正が、前記操作者が前記作業部に直接又は間接に物理的に力を作用させることによる前記作業部の動きの修正であり、前記手動動き修正データ発生部が、前記動作情報検出部によって検出される、前記手動動き修正が反映された前記動作データから前記基本動作指令を減算して前記手動動き修正データを発生するよう構成されていてもよい。
 この構成によれば、操作者が作業部に直接又は間接に物理的に力を作用させることによって作業部の動きを修正することができる。このため、難しい作業であっても、作業部の動きをきめ細かく修正することができる。
 前記機械装置が、前記作業部としての先端効果部を有し、作業対象物に対する作業を行うよう前記先端効果部を動かす前記動作部としての機械本体と、前記機械本体の動作を制御する前記制御器と、を備える機械であり、前記基本動作指令部が、前記機械本体によって前記先端効果部に基本的な動きをさせる基本動作指令を出力するよう構成されており、前記学習部が、前記動作情報記憶部に記憶された前記動作情報を用いて前記動き修正データ記憶部に記憶された前記動き修正データを機械学習し、機械学習を終えた後、前記機械本体の動作時に前記動作情報が入力され、前記自動動作修正指令を出力するよう構成され、且つ、前記機械本体が、前記基本動作指令と前記自動動作修正指令とに基づく前記自動動作指令と、前記手動動き修正と、に従って前記先端効果部を動かすよう構成されていてもよい。
 この構成によれば、案内型の技能伝承機械システムを実現することができる。具体的には、操作者が先端効果部に直接又は間接に物理的に力を作用させることによって先端効果部の動きを修正することができる。このため、難しい作業であっても、作業部の動きをきめ細かく修正することができる。
 前記動作情報検出部が、前記機械本体に設けられた動作データ検出部を含み、前記動作データ検出部は、前記先端効果部が前記作業対象物に作用させる力を表す前記力データを検出する力データ検出部と、前記機械本体の動作時における前記先端効果部の位置を表す前記位置データを検出する位置データ検出部とを含み、且つ、前記力データ及び前記位置データを動作データとして出力するよう構成され、前記動作情報記憶部が、前記動作データを記憶する動作データ記憶部であり、且つ、前記学習部が、前記動作データを用いて前記動き修正データを機械学習し、機械学習を終えた後、前記動作データが入力され、前記自動動作修正指令を出力するよう構成されていてもよい。
 この構成によれば、案内型の技能伝承機械システムにおけるバイラテラル制御を好適に具体化することができる。
 前記先端効果部がエンドエフェクタであり、前記機械本体がロボット本体であり、前記機械がロボットであり、前記機械システムがロボットシステムであってもよい。
この構成によれば、操作型の技能伝承ロボットシステム又は案内型の技能伝承ロボットを実現することができる。
 本発明は、産業界における熟練作業者の技能を伝承することが可能であり、且つ、所定の作業の自動化を短期間で達成することが可能な技能伝承機械装置を提供することができるという効果を奏する。
図1は、本発明の実施形態1に係る技能伝承機械装置の構成を例示する機能ブロック図である。 図2は、本発明の本発明の実施形態2に係る技能伝承機械装置の構成を例示するブロック図である。 図3は、本発明の実施形態3に係る技能伝承ロボットシステムのハードウェアの構成を例示する模式図である。 図4は、図3の操作器の構成を例示する斜視図である。 図5は、図3の技能伝承ロボットシステムの制御系統の構成を例示する機能ブロック図である。 図6は、図5の学習部の詳細な構成を例示する機能ブロック図である。 図7は、図3のロボット本体の動作におけるサイクルタイムを例示する模式図である。 図8は、図3の技能伝承ロボットシステムにおける手動位置修正指令、教師用手動位置修正指令、及び学習用動作データのそれぞれの時系列データを示す模式図である。 図9(a)~(c)は、エンドエフェクタの軌跡が理想の軌跡に改善される過程を示す模式図である。 図10(a)~(c)は、ロボット本体が第1物体をスムーズに第2物体に嵌挿する様子を示す模式図である。 図11(a)~(d)は、ロボット本体が第1物体をまさぐりながら第2物体に嵌挿する様子を示す模式図である。 図12(a)~(d)は、ロボット本体が第1物体をまさぐりながら第2物体に嵌挿する様子を示す模式図である。 図13は、本発明の実施形態4に係る技能伝承ロボットシステムの制御系統の構成を例示する機能ブロック図である。 図14は、本発明の実施形態5に係る技能伝承機械装置の構成を例示する機能ブロック図である。 図15は、本発明の実施形態6に係る技能伝承ロボットシステムのハードウェアの構成を例示する模式図である。 図16は、図15の技能伝承ロボットシステムの制御系統の構成を例示する機能ブロック図である。 図17は、本発明の実施形態9に係る技能伝承機械装置の構成を例示するブロック図である。 図18は、本発明の実施形態10に係る技能伝承ロボットシステムの制御系統の構成を例示する機能ブロック図である。 図19は、本発明の実施形態11に係る技能伝承ロボットシステムの制御系統の構成を例示する機能ブロック図である。
 以下、本発明の実施形態について、添付図面を参照しつつ説明する。なお、以下では、全ての図を通じて、同一又は相当する要素には同一の参照符号を付してその重複する説明を省略する。また、添付図面は、本発明を説明するための図である。それ故、本発明に無関係な要素が省略される場合、誇張のため寸法が正確でない場合、簡略化される場合、複数の図面において同一の要素の形状が互いに一致しない場合等がある。
 (実施形態1)
 本発明の実施形態1は、技能伝承機械装置を例示する。図1は、本発明の実施形態1に係る技能伝承機械装置の構成を例示する機能ブロック図である。図1において、実線の矢印は動作部201の動作用の指令、データ、情報等の流れを示し、破線の矢印は学習部252の学習用の指令、データ、情報等の流れを示す。このことは、図2、図5、図6、図13、図14、及び図16において同様である。
 [構成]
 図1を参照すると、実施形態1の技能伝承機械装置(以下、単に機械装置と呼ぶ場合がある)100は、作業部217を有し、作業を行うよう作業部217を動かす動作部201と、動作部201の動作を制御する制御器203と、作業部217の動きに対応する動作部201の動作情報を検出する動作情報検出部254と、操作者による作業部217の動きの修正である手動動き修正を表す手動動き修正データを発生する手動動き修正データ発生部271と、を備える。
 機械装置100は、動力によって作業環境に対する作業を行う機械装置であれば良い。機械装置100として、例えば、建設機械、トンネル掘削機、クレーン、産業用ロボット等が例示される。例えば、建設機械でショベルカーの場合、ショベルが作業部217であり、ショベルを動かすリンク機構が動作部201であり、リンク機構を油圧制御する制御部が制御器203である。トンネル掘削機の場合、掘削刃が作業部217であり、掘削刃を動かす作動機構が動作部201であり、作動機構の動作を制御する制御部が制御器203である。産業用ロボットの場合、エンドエフェクタが作業部217であり、エンドエフェクタを動かすロボットアーム等のロボット本体が動作部201であり、ロボット本体の動作を制御するロボット制御部が制御器203である。動力の種類はどのような種類でも構わない。動力の種類として、電動機、内燃機関、水蒸気等が例示される。制御の種類はどのような種類でも構わない。制御の種類として、例えば、電気制御、油圧制御、空圧制御が例示される。
 制御器203は、例えば、プロセッサとメモリとを有する演算器で構成される。制御器203は、動作部201によって作業部217に基本的な動きをさせる基本動作指令を出力する基本動作指令部250と、自動動作修正指令を出力する学習部252と、自動動作修正指令に手動動き修正データを加算して動き修正データを生成する動き修正データ生成部272と、動き修正データを記憶する動き修正データ記憶部253と、動作情報を記憶する動作情報記憶部256と、を備える。図1のブロック250、252、272及び261は、上記演算器のメモリに格納された所定のプログラムをプロセッサが実行することによって実現される機能ブロックである。記憶部253及び254は、上記演算器のメモリによって構成される。
 学習部252は、機械学習する学習モデルであり、そのような学習モデルとして、ニューラルネットワーク、回帰モデル、木モデル、ベイズモデル、時系列モデル、クラスタリングモデル、アンサンブル学習モデル等が例示される。実施形態1では、学習モデルは、ニューラルネットワークである。
 学習部252は、動作情報記憶部256に記憶された動作情報を用いて動き修正データ記憶部253に記憶された動き修正データを機械学習し、機械学習を終えた後、動作部201の動作時に動作情報が入力され、自動動作修正指令を出力するよう構成されている。
 動作部201は、基本動作指令と自動動作修正指令とに基づく自動動作指令と、手動動き修正と、に従って作業部217を動かすように構成されている。
 ここで、操作者による手動動き修正は、機械装置100が操作型か案内型であるかによって、第1経路又は第2経路を経由して機械装置10に作用し、且つ当該手動修正に対応する手動動き修正データが発生する。「操作型」は、操作器によって動作部を操作するタイプを意味する。「案内型」は、操作者が手動で動作部を操作するタイプを意味する。
 機械装置100が操作型のものである場合は、手動動き修正は、第1経路を経由する。具体的には、操作器を用いて操作者の操作に応じた手動動作修正指令を制御器203に入力することにより、又は、操作者が作業部217に直接又は間接に物理的に力を作用させることにより手動動き修正が行われるとともに手動動き修正データ(後述する手動動作修正指令)が発生する。従って、操作器が手動動き修正データ発生部271を構成する。
 機械装置100が、案内型のものである場合は、手動動き修正は、第2経路を経由する。具体的には、操作者が作業部217に直接又は間接に物理的に力を作用させることにより手動動き修正が行われる。そして、この手動動き修正を反映した動作部201の動作が動作情報検出部254によって検出され、手動動き修正データ発生部271が、動作情報検出部によって検出された動作情報中の動作データから自動動作指令を減算して手動動き修正データを発生する。
 動作情報検出部254は、動作部の動作に関する情報を検出する。本願の各実施形態における動作情報は、動作データを必須の情報として含む。動作データは、作業部217が作業環境に作用させる力を表す力データと動作部201の動作時における作業部217の位置を表す位置データとのうちの少なくともいずれかを含む。動作情報は、動作データを必須の情報として含む理由は、制御器203は、作業部217が作業環境に作用させる「力」及び動作部201の動作時における作業部217の「位置」の少なくともいずれかを制御することによって、動作部201の動作を制御するからである。従って、本願の各実施形態における「指令」は、この「力」の目標値又は修正値(補正値)を指示する指令である力指令と、この「位置」の目標値又は修正値(補正値)を指示する指令である位置指令とのうちの少なくともいずれかを含む。
 このことから、本願の各実施形態においては、「指令」同士を加算又は減算すること、及び「動作指令(動作修正指令)」、「動作データ」、及び「動き修正データ」を互いに加算又は減算することができる。
 動作データ以外の動作情報として、作業部217の作業の撮像データ、作業部217で発生する振動データ又は衝撃データ、作業部217で発生する音データ等が例示される。
 [作用効果]
 実施形態1によれば、動作部201は、基本動作指令と自動動作修正指令とに基づく自動動作指令と、手動動き修正と、に従って作業部217を動かすので、操作者が手動動き修正をせず且つ学習部252が自動動作修正をしない場合、動作部201は基本動作指令部250が出力する基本動作指令に従って作業部217に基本的な動きをさせる。操作者は、目視によって作業部217による作業を確認しながら作業部217の動きを監視し、基本的な動きによって所定作業が熟練した動きで遂行されないときには、所定作業を熟練した動きで遂行するよう手動動き修正を行う。すると、この手動動き修正によって基本的な動きが修正され、それにより、所定作業が熟練した動きで遂行される。一方、この所定作業に関する手動動き修正を表す手動動き修正データが発生され、この手動動き修正データが、学習部252が出力する自動動作修正指令に加算されて動き修正データが生成され、この動き修正データが学習部252によって機械学習される。上述のように学習部252が自動修正をしない場合、学習部252は操作者の動き修正に基づく手動動き修正データのみを学習する。学習部252には、動作部201の動作時において、作業部217の動きに対応する動作部201の動作情報が入力されるので、上記と類似の所定作業が熟練した動きで遂行されない動作状態が生じた場合には、学習部252から上述のように学習した動作修正指令が自動動作修正指令として出力される。これにより、基本動作指令が、所定作業が熟練した動きで遂行される方向に修正され、当該修正が適切であれば、所定の作業が熟練した動きで遂行される。
 しかし、学習が不十分である場合や、所定作業が熟練した動きで遂行されない場合における動作部201の動作状態が学習されたものとかなり異なる場合等には、当該修正が行われたにも関わらず所定作業が熟練した動きで遂行されない。すると、操作者が所定の作業を熟練した動きで遂行するよう手動動き修正を行い、それにより、動作部201によって所定の作業が熟練した動きで遂行される。そして、このさらなる手動動き修正に対応する手動動き修正データが、前回の手動動き修正に対応する自動動作修正指令に加算されて、学習部252によって学習される。これにより、作業部217の基本的な動きに対する学習部252の修正能力が向上する。以降、これらの動作が繰り返され、作業部217の基本的な動きに対する学習部252の修正能力が操作者と同等のレベルまで向上すると、操作者による作業部217の基本的な動きに対する修正が不要になる。この状態においては、学習部252が、操作者に代わって、作業部217の基本的な動きを適切に修正し、作業部217に所定作業を適切に遂行させる。
 このようにして、操作者が熟練者である場合、操作者の手動動き修正が熟練者の「技能」を構成し、この「技能」が学習部252に蓄積されて当該学習部252に伝承され、学習部252が熟練者の「技能」の「伝承者」になる。その結果、当該学習部252を備える機械装置100が「技能伝承機械装置」になる。
 また、実施形態1によれば、動作部201が、基本動作指令と自動動作修正指令とに基づく自動動作指令と手動動き修正とに従って動作するよう構成されているので、学習部252から不十分な自動動作修正指令が出力されても、操作者が作業部217の動きを見ながら手動動き修正を行って動作部201に適切な動作をさせることができる。このため、現場の実務で適切な動作の試行及び修正を行うことができる。換言すると、現場の実務を通して学習部252に学習をさせることができるので、学習部252に対する膨大な学習用データ及び立ち上げ期間が不要である。その結果、所定作業の自動化を短期間で達成することができる。
 また、実施形態1によれば、所定作業に関する作業部217の基本的な動きのうち修正が不要である部分は、基本動作指令部250によって自動的に遂行されるので、操作者は、必要な修正のみを行えばよい。よって、操作者の負担が軽減される。また、熟練者であっても作業がばらつくので、このように一部の作業のみを操作者の操作によって行うと、全ての作業を操作者の操作によって行う場合に比べて作業の精度が向上する。
 また、操作者の手動動き修正に対応する手動動き修正データを記憶部に記憶することによって、熟練者の技能を伝承することが考えられるが、作業部の基本的な動きを修正しなければならない態様は無限に存在するので、そのような手法によって、熟練者の技能を伝承することは現実には困難である。一方、実施形態1のように学習部252を用いると、作業部の基本的な動きを修正しなければならない事象が発生する度にその態様に応じた手動動き修正(正確には動き修正データ)を学習部252に学習させることによって、熟練者の技能の伝承を容易に実現することができる。
 なお、機械装置100のより詳細な構成は、以下の実施形態によって例示される。
 (実施形態2)
 本発明の実施形態2は、操作型の技能伝承機械装置を例示する。図2は、本発明の本発明の実施形態2に係る技能伝承機械装置の構成を例示するブロック図である。実施形態2の技能伝承機械装置200は、以下の構成が実施形態1の技能伝承機械装置100と相違し、その他の構成は実施形態1の技能伝承機械装置100と同じである。以下、この相違点を説明する。
 図2を参照すると、実施形態2の機械装置200では、実施形態1の手動動き修正データ発生部271が、操作者220の操作に応じた手動動作修正指令を手動動き修正データとして出力する操作器202である。機械装置200は、動作情報を操作者220が知覚することが可能なように操作者220に提示する動作情報提示機構206をさらに備えている。機械装置200では、実施形態1の動き修正データ生成部272が、自動動作修正指令に手動動作修正指令を加えて動作修正指令を生成する動作修正指令生成部272であり、動き修正データ記憶部253が動作修正指令を記憶する動作修正指令記憶部53であり、学習部252が、動作情報記憶部256に記憶された動作情報を用いて動作修正指令記憶部53に記憶された動作修正指令を機械学習し、機械学習を終えた後、動作部201の動作時に動作情報が入力され、自動動作修正指令を出力するよう構成されている。
 また、機械装置200では、動作部201が、基本動作指令と自動動作修正指令とに基づく自動動作指令と、手動動作修正指令と、に従って作業部217を動かすよう構成されている。
 以上の相違点を整理すると、実施形態2の機械装置200は、作業部217を有し、作業を行うよう作業部217を動かす動作部201と、動作部201の動作を制御する制御器203と、作業部217の動きに対応する動作部201の動作情報を検出する動作情報検出部254と、操作者220の操作に応じた手動動作修正指令を出力する操作器202と、動作情報を操作者220が知覚することが可能なように操作者220に提示する動作情報提示機構206と、を備える。制御器203は、動作部201によって作業部217に基本的な動きをさせる基本動作指令を出力する基本動作指令部250と、自動動作修正指令を出力する学習部252と、自動動作修正指令に手動動作修正指令を加えて動作修正指令を生成する動作修正指令生成部272と、動作修正指令を記憶する動作修正指令記憶部53と、動作情報を記憶する動作情報記憶部256と、を備える。学習部252は、動作情報記憶部256に記憶された動作情報を用いて動作修正指令記憶部53に記憶された動作修正指令を機械学習し、機械学習を終えた後、動作部201の動作時に動作情報が入力され、自動動作修正指令を出力するよう構成され、且つ、動作部201は、基本動作指令と自動動作修正指令とに基づく自動動作指令と、手動動作修正指令と、に従って作業部217を動かすよう構成されている。
 実施形態2によれば、操作者220が操作器202を操作することによって作業部217の動きを修正することができる。このため、操作者220が、作業部217から離れた位置で動作部201を操作することができる。また、操作者220が動作情報提示機構206によって動作情報に対応する作業部217の動きを知覚しながら操作器202を操作できるので、作業部217の動きを的確に修正することができる。
 (実施形態3)
 本発明の実施形態3は、操作型の技能伝承ロボットシステム(以下、単にロボットシステムと呼ぶ場合がある)を例示する。図3は、本発明の実施形態3に係る技能伝承ロボットシステムのハードウェアの構成を例示する模式図である。図3を参照すると、実施形態3のロボットシステム300は、以下の構成が実施形態2の機械装置200と相違し、その他の構成は実施形態2の機械装置200と同じである。以下、この相違点を説明する。
 実施形態3では、実施形態2の機械装置200が、作業部217としてのエンドエフェクタ17を有し、作業対象物に対する作業を行うようエンドエフェクタ17を動かす動作部201としてのロボット本体1と、ロボット本体1の動作を制御する制御器3と、を備えるロボット10と、ロボット本体1のエンドエフェクタ17が作業対象物に作用させる力を表す動作情報としての力データに応じた反力を発生しながら操作者の操作に応じた手動動作修正指令を出力する、動作情報提示機構206を兼ねる操作器2と、を備えるロボットシステム300として構成されている。
 ロボットシステム300では、基本動作指令部50が、ロボット本体1によってエンドエフェクタ17に基本的な動きをさせる基本動作指令を出力するよう構成されており、学習部52が、動作データ記憶部56に記憶された動作データを用いて動作修正指令記憶部53に記憶された動作修正指令を機械学習し、機械学習を終えた後、ロボット本体1の動作時に動作データが入力され、自動動作修正指令を出力するよう構成されている。
 また、ロボット本体1が、基本動作指令と自動動作修正指令とに基づく自動動作指令と、手動動作修正指令と、に従ってエンドエフェクタ17を動かすよう構成されている。
 この構成によれば、操作型の技能伝承ロボットシステム300を実現することができる。具体的には、操作者が操作器2を操作することによってエンドエフェクタ17の動きを修正することができる。このため、操作者が、ロボット本体1から離れた位置でロボット本体1を操作することができる。また、操作者が力データに応じた反力を発生しながら操作器2を操作できるので、エンドエフェクタ17の動きを的確に修正することができる。
 以下、このロボットシステム300の構成及び動作を詳細に説明する。
 [ハードウェアの構成]
 図3を参照すると、実施形態3の技能伝承ロボットシステム300は、ロボット本体1と、操作器2と、制御器3と、カメラ4と、モニタ5と、を備える。ロボット本体1と制御器3とがロボット10を構成する。ロボット本体1は、エンドエフェクタ17を備える。ロボット本体1は、例えば、ロボットアームで構成され、ロボットアームの手首部14の先端に力センサ19を介してエンドエフェクタ17が装着される。この力センサ19が力データ検出部を構成する。力データ検出部は、ロボット本体1に設けられた動作データ検出部273の一部を構成する。また、カメラ4及びモニタ5は、動作情報提示機構206(図2参照)の一部を構成する。
 以下、これらの構成要素を順に説明する。
 カメラ4は、公知のものを使用することができる。カメラ4は、ロボット本体1の動作を撮像できる箇所に設置される。
 モニタ5は、公知のものを使用することができる。モニタ5は、操作器2の近傍に設置される。
 制御器3は、例えば、プロセッサとメモリとを備える。制御器3は、メモリに格納された所定の動作プログラムをプロセッサが読み出して実行することにより、ロボット本体1の動作を制御する。制御器3は、具体的には、例えば、マイクロコントローラ、MPU、FPGA(Field Programmable Gate Array)、PLC(Programmable Logic Controller)、論理回路等で構成される。
 <ロボット本体1>
 ロボット本体1は、基台15と、基台15に支持された腕部13と、腕部13の先端に支持され、エンドエフェクタ17が装着される手首部14とを備えている。ロボット本体1は、図3に示すように3以上の複数の関節JT1~JT6を有する多関節ロボットアームであって、複数のリンク11a~11fが順次連結されて構成されている。より詳しくは、第1関節JT1では、基台15と、第1リンク11aの基端部とが、鉛直方向に延びる軸回りに回転可能に連結されている。第2関節JT2では、第1リンク11aの先端部と、第2リンク11bの基端部とが、水平方向に延びる軸回りに回転可能に連結されている。第3関節JT3では、第2リンク11bの先端部と、第3リンク11cの基端部とが、水平方向に延びる軸回りに回転可能に連結されている。第4関節JT4では、第3リンク11cの先端部と、第4リンク11dの基端部とが、第4リンク11cの長手方向に延びる軸回りに回転可能に連結されている。第5関節JT5では、第4リンク11dの先端部と、第5リンク11eの基端部とが、リンク11dの長手方向と直交する軸回りに回転可能に連結されている。第6関節JT6では、第5リンク11eの先端部と第6リンク11fの基端部とが、ねじり回転可能に連結されている。そして、第6リンク11fの先端部にはメカニカルインターフェースが設けられている。このメカニカルインターフェースに、力センサ19を介して、ロボット本体1の作業内容に対応したエンドエフェクタとしてのエンドエフェクタ17が着脱可能に装着される。力センサ19は、例えば、3軸加速度センサで構成される。力センサ19は、エンドエフェクタ17が作業対象物に作用させる力(作業対象物からの反力)を検出する。力センサ19によって検出される力は、適宜な信号処理手段(図示せず)によって力データに変換される。この信号処理手段は、例えば、力センサ19又は制御器3に設けられる。本明細書では、便宜上、力センサ19が力データを検出すると表現する。
 上記の第1関節JT1、第1リンク11a、第2関節JT2、第2リンク11b、第3関節JT3、及び第3リンク11cから成るリンクと関節の連結体によって、ロボット本体1の腕部13が形成されている。また、上記の第4関節JT4、第4リンク11d、第5関節JT5、第5リンク11e、第6関節JT6、及び第4リンク11fから成るリンクと関節の連結体によって、ロボット本体1の手首部14が形成されている。
 関節JT1~JT6には、それが連結する2つの部材を相対的に回転させるアクチュエータの一例としての駆動モータ(図示せず)が設けられている。駆動モータは、例えば、制御器3から送信される電流指令によってサーボアンプを介してサーボ制御されるサーボモータである。また、関節JT1~JT6には、駆動モータの回転角を検出するための回転角センサ(図示せず)と、駆動モータの電流を検出するための電流センサ(図示せず)とが設けられている。回転角センサは例えばエンコーダで構成される。
 制御器3は、全ての関節の駆動モータの回転角を総合してエンドエフェクタの位置データに変換する。上述の力センサ19が検出するデータが力データであり、これらの力データ及び位置データがロボット本体1の動作データである。この回転角センサと力センサ19とが動作データ検出部273を構成する。電流センサの検出信号は、制御器3(詳しくは調整部51)が、各関節のサーボモータの電流を、電流指令に従った値になるようフィードバック制御するために用いられる。
 <操作器2>
 図4は、図3の操作器2の構成を示す斜視図である。図4を参照すると、操作器2は、操作者によって把持される把持部21と、把持部21を移動可能に支持するアーム部22と、モータ24とを備えている。モータ24はサーボモータで構成される。
 把持部21は、操作者が把持し易いように、操作者が把持部21を握って把持することが可能に形成されている。操作者が把持部21を握って把持した状態で、操作者が、把持部21を移動させることによりロボット本体1を移動させ、ロボット本体1を操作する。
 把持部21は、支持部23によって支持されている。また、把持部21は、円筒状の接続部23cを介して、支持部23に接続されている。支持部23は、アーム部22によって移動可能に支持されている。アーム部22は、モータ24に接続されている。
 アーム部22は、それぞれ関節22aを有し、関節22aを中心に屈曲することが可能に形成されている。従って、アーム部22は、把持部側アーム部22bと、モータ側アーム部22cとが、関節22aによって屈曲可能に接続されている。
 モータ24は、支持台30によって支持されている。モータ24は、6つ設けられている。6つのモータ24は、一対のモータ24によって1つの辺が構成され、支持台30上に三角形状に並べられて配置されている。より詳しくは、一対のモータ24の主軸の回転軸(中心軸)が正三角形の1辺を構成するように、6つのモータ24が配置されている。そして、1辺を構成する一対のモータ24に対応して一対のアーム部22が設けられている。この一対のアーム部22によって、支持部23の外形を規定する3つの辺のうちの1つの辺23aが挟まれている。支持部23の辺23aには、軸23bが、支持部23の内部を通って配置されている。軸23bは、辺23aを挟む2つの把持部側アーム部22bによって両端部を、軸23bの中心軸を含む互いに直交する3軸の周りに回転可能に保持されている。これにより、支持部23が、軸23bの中心軸を含む互いに直交する3軸の周りに回転可能に軸支されている。このように、支持部23は、2つの把持部側アーム部22bによって軸23bの中心軸を含む互いに直交する3軸の周りに回転可能に支持されている。支持部23における辺23aと軸23bの構成については、支持部23の3つの辺について同様である。ここで、3つの軸23bの中心軸は正三角形を成している。
 また、上述の関節22aは、一対のモータ24の出力軸の中心軸に平行な軸を含む互いに直交する3軸の周りに回転可能に、把持部側アーム部22bをモータ側アーム部22cに接続している。従って、支持部23の位置及び姿勢に応じて、6つのモータ24の回転角が一義的に定まる。
 次に、操作器2の制御系統について説明する。本実施形態では、操作器2を用いてバイラテラル制御が行われる。操作器2において、6つのモータ24は、それぞれ、サーボアンプを介して、制御器3によってサーボ制御(位置制御)される。6つのモータ24には、それぞれ、回転角センサ(図示せず)が設けられている。回転角センサは例えばエンコーダで構成される。回転角センサの検出信号は制御器3の操作器制御部42に送信される。この回転角センサの検出信号は、制御器3において支持部23の位置データである手動動作指令に変換される。以下では、便宜上、この手動動作修正指令が操作器2から出力されると表現する。一方、制御器3の操作器制御部42は、ロボット本体1から入力される力データに基づいて、各モータの出力トルクを制御する。この出力トルクは、操作者による把持部21の操作に対し、上記力データに応じた反力が発生するように制御される。また、バイラテラル制御において、操作器2からの力指令が必要とされる場合には、把持部21と支持部23との間に力センサ(例えば3軸加速度センサ)が設けられ、この力センサの出力に基づいて力指令が生成される。バイラテラル制御のタイプにより、手動位置修正指令のみが手動動作修正指令を構成する場合と、手動位置修正指令と手動力修正指令とが手動動作修正指令を構成する場合とがある。
 また、操作器2の把持部21には、押しボタン21a及び21bが設けられている。これらは、例えば、エンドエフェクタ17を操作するために用いられる。
 次に、操作器2によってロボット本体1を操作する際の動作について説明する。操作器2によってロボット本体1の腕部13及び手首部14を操作する際には、把持部21を操作者が把持する。操作者が把持部21を把持した状態で、ロボット本体1を移動させたい方向に合わせて把持部21を移動させると、把持部21を支持する支持部23が、把持部21の移動に伴って移動する。また、支持部23の移動により、支持部23に接続されている6つのアーム部22が移動する。
 6つのアーム部22が移動すると、それに応じて6つのモータ24の出力軸が回転し、この回転角を6つの回転角センサが検出する。この検出信号は上述のように手動位置修正指令に変換され、制御器3が、この手動位置修正指令を含む手動動作修正指令と基本動作指令と自動動作修正指とに基づいて動作指令を生成して、これをロボット本体1に送信する。すると、ロボット本体1が、エンドエフェクタ17が支持部23の位置及び姿勢を反映した位置及び姿勢を取るように動作する。これにより、操作者が、操作器2の把持部21を操作して、ロボット本体1を意図するように操作することができる。
 一方、この間、操作器制御部42が操作者による把持部21の操作に対し、ロボット本体1から送信される力データに応じた反力が発生するように各駆動モータを制御するので、操作者は把持部21の移動に対する反力を感じる。これにより、操作者がロボット本体1のエンドエフェクタ17に作用する作業対象物からの反力を感じながらエンドエフェクタ17の位置及び姿勢を操作することができる。
 なお、操作器2は、これには限定されない。例えば、操作器2をロボット本体1と相似のマスターロボットで構成し、ロボット本体1をスレーブロボットとして制御するように構成してもよい。また、操作器2がジョイスティックであってもよい。
 操作器2の設置位置は特に限定されない。例えば、操作器2をロボット本体1のエンドエフェクタ17に設置してもよい。
 [制御系統の構成]
 図5は、図3の技能伝承ロボットシステムの制御系統の概略の構成を例示する機能ブロック図である。
 まず、カメラ4及びモニタ5の制御系統を説明する。制御器3は、操作器制御部42を備える。カメラ4は、ロボット本体1の動作範囲の景色を撮像し、その撮像信号をモニタ制御部43に送信する。モニタ制御部43は、受信した撮像信号を画像表示信号に変換し、モニタ5に送信する。モニタ5は、受信した画像表示信号に従って、画像を表示する。これにより、カメラ4により撮像された画像がモニタ5に表示される。操作者は、モニタ5に表示された画像を見ながら、ロボット本体1を操作すべく操作器2を操作する。
 次に、ロボット本体1の制御系統について説明する。
 図5を参照すると、制御器3は、基本動作指令部50と、動作指令生成部60と、調整部51と、学習部52と、動作修正指令記憶部53と、動作データ記憶部56と、を備える。これらは、制御器3を構成するメモリに格納された所定の動作プログラムを、制御器3を構成するプロセッサが実行することにより実現される機能ブロックである。
 ロボット本体1の制御では、バイラテラル制御が行われるが、そのタイプによって、ロボット本体1に対する指令が、エンドエフェクタ17の位置に関する位置指令及びエフェクタ17が作業対象物に作用させる力に関する力指令のうち、前者のみを必要とされる場合と、両者を必要とされる場合とがある。このため、以下では、各指令は、位置指令及び力指令のうちの前者のみを含む場合と両者を含む場合との双方を含む。
 また、ロボット10は、ここでは、図7に示すように、所定作業を所定のサイクルタイムで繰り返し遂行する。このサイクルタイムは、ロボット10が所定作業を行う「動作時間」とロボット10(正確にはニューラルネットワーク55)が学習する「学習時間」とに大別される。両者は部分的に重複していてもよい。なお、ロボット10の動作は、所定作業を所定のサイクルタイムで繰り返し遂行する態様には限定されない。ロボット10は、所望の作業の動作と学習とを行うように動作すればよい。
 動作指令生成部60は、基本動作指令と、学習部52から出力される自動動作修正指令と、操作器2から出力される手動動作修正指令とに基づいて動作指令を生成し、これを出力する。ここでは、基本動作指令に自動動作修正指令を加えて自動動作修正指令を生成し、これに手動動作修正指令を加えて動作指令を生成する。但し、これらの指令は互いに加えられればよく、これらの指令をいかなる態様で加えてもよい。
 調整部51は、動作指令に基づいて電流指令を生成し、ロボット本体1に送信する。ロボット本体1では、電流指令に従って各関節の駆動モータが動作し、ロボット本体1が電流指令に従って動作する。これにより、ロボット本体1のエンドエフェクタ17が作業対象物を操り、その際のエンドエフェクタ17の位置のデータ(位置データ)及びエンドエフェクタ17が作業対象物に作用させる力(作業対象物から受ける反力)のデータ(力データ)を含む動作データがロボット本体1の動作データ検出部273ら出力される。
 この動作データのうちの力データが操作器制御部42で操作器2の駆動モータのトルク出力に変換されて操作器2に送信される。 
 操作器2は、上述のように、操作者が力データに基づく反力を感じながら操作器2を操作すると、手動動作修正指令を出力する。この手動動作修正指令は動作指令生成部60に送られるとともに、動作修正指令生成部272に送られる。動作修正指令生成部272は、学習部52から出力される自動動作修正指令に手動動作修正指令を加算して、動作修正指令を生成する。この動作修正指令は、動作修正指令記憶部53に記憶される。
 動作修正指令記憶部53は、今回の所定作業の動作時(以下、今回動作時という)のニューラルネットワーク55の学習時に、記憶した手動動作指令を学習用手動動作指令として学習部52に出力する。
ロボット本体1の動作データ検出部273から出力される動作データは、学習部52に入力されるとともに、動作データ記憶部56に記憶される。
 動作データ記憶部56は、今回のニューラルネットワーク55の学習時に、記憶した動作データを学習用動作データとして学習部52に出力する。
 学習部52は、上述の学習時における入力に基づいて、今回の動作修正指令を、ニューラルネットワーク55に学習させ、動作時における入力に基づいて、学習を反映した予測動作修正指令を自動動作修正指令として動作指令生成部60に出力する。
 次に、学習部52の構成を詳しく説明する。図6は、図5の学習部52の詳細な構成を例示する機能ブロック図である。図7は、図3のロボット本体1の動作におけるサイクルタイム例示する模式図である。図8は、図3の技能伝承ロボットシステム300における動作修正指令Pm、学習用動作修正指令Pm’、動作データPd、及び学習用動作データPd’のそれぞれの時系列データを示す模式図である。
 最初に各指令の時間的関係を説明する。
 図7を参照すると、ロボット10(ロボット本体1)は、所定作業を所定のサイクルタイムで繰り返し遂行する。このサイクルタイムは、ロボット10(ロボット本体1)が所定作業を行う「動作時間」とロボット10が学習する「学習時間」とに大別される。各サイクルタイムの「動作時間」におけるロボット10の動作が上述の「~回動作」である。
 図8を参照すると、現在進行中の「動作」が「今回動作」であり、その前の「動作」が「前回動作」である。現在進行中の動作において、動作修正指令Pmの時系列データPm0、Pm1、Pm3・・・Pmu(以下、Pm0~Pmuと略記する)が所定のサンプリング間隔で取得される。また、動作データPdの時系列データPd0~Pduが同様に取得される。そして、前回動作において取得された動作修正指令Pmの時系列データPm0~Pmuが、今回動作における学習用動作修正指令Pm’の時系列データPm0’~Pm0’になる。また、前回動作において取得された動作データPdの時系列データPd0~Pduが、今回動作における学習用動作データPd’の時系列データPd0’~Pd0’になる。以下、各時系列データにおける添え字の数字は、サンプリング時刻(間欠的な時刻)の順序を表す。従って、この添え字の数字が同じである時系列データは、同じサンプリング時刻に取得されたデータであることを意味する。
 図6を参照すると、学習部52は、ニューラルネットワーク55と、学習データ及び教師データ生成部71と、データ入力部72と、学習評価部73と、を備える。
 ニューラルネットワーク55は、入力層と、中間層と、出力層とを備える。各層のニューロンの数は、適宜設定される。ニューラルネットワーク55の学習には、周知の学習方法を適用することができる。従って、ここでは簡単に説明する。ここでは、ニューラルネットワーク55は、例えば、リカレント型ニューラルネットワークである。
 学習データ及び教師データ生成部71は、学習用動作修正指令Pm’の時系列データPm0’~Pmu’から教師データpnの時系列データpn1~Pnuを生成する。また、学習用動作データPd’の時系列データPd0’~Pdu’から学習データPd’の時系列データPd0’~Pdu-1’を生成する。
 データ入力部72は、入力層の各ニューロンに学習データPd’の時系列データPd0’~Pdu-1’を順次入力する。この際、データ入力部72が、あるサンプリング時刻tiにおける学習データPd’の時系列データPdiを入力すると、ニューラルネットワーク55が、前向き演算によって、次のサンプリング時刻ti+1における予測動作修正指令Pni+1を計算する。すると、学習評価部73が、教師データpnの時系列データpn1~Pnuから次のサンプリング時刻ti+1における時系列データpni+1を取り込んで、予測動作修正指令Pni+1と教師データpnの時系列データpni+1とについて、例えば、位置修正指令及び力修正指令のそれぞれの二乗誤差の総和値eを計算する。次いで、学習評価部73は、後ろ向き演算によって、ニューラルネットワーク55の重みを更新する。データ入力部72及び学習評価部73は、この処理を、学習データPd’の時系列データPd0’~Pdu-1’の全てについて行い、例えば、全ての処理において、二乗誤差の総和値eが所定の閾値以下になると学習を終了する。
 この学習が終了すると、次回のロボット本体1の動作時において、データ入力部72は、現在のサンプリング時刻t0における動作データPd0を入力する。するとニューラルネットワーク55が、次のサンプリング時刻t1における予測動作修正指令Pn1を、自動動作修正指令として出力する。
 これにより、ロボット本体1の動作にニューラルネットワーク55(学習部52)の学習結果が反映される。
 なお、入力部72は、あるサンプリング時刻tiにおける学習データPd’の時系列データPdiを入力する際に、それ以前の時系列データPdi-1~Pdi-n(nは所定の正数)を入力してもよい。但し、この場合には、入力部72は、ロボット本体1の次回の動作時に、これと同様に過去の動作データPd-1~Pd-nを入力する必要がある。このようにすると、ニューラルネットワーク55の学習効率が向上する。その理由は、操作者は、エンドエフェクタ17の動きを予測する際に現時点の瞬時における動きだけではなく、それ以前からの一連の動きを見て、次の動きを予測し、それによって、エンドエフェクタ17の動きを正確に予測するからである。
 また、動作データ以外の動作情報を学習データ及びロボット本体1の動作時の入力データとして用いてもよい。
 [動作]
 次に、以上のように構成されたロボットシステム300の動作を図3乃至図5を参照して説明する。
 ロボットシステム300では、ロボット本体1の動作時において、基本動作指令部50が基本動作指令を出力する。一方、学習部52が自動動作修正指令を出力する。自動動作指令生成部61は、基本動作指令に自動動作修正指令を加算して、自動動作指令を生成する。一方、必要に応じて、操作者が操作器2を操作すると、手動動作修正指令が出力される。動作指令生成部62は、自動動作修正指令に手動操作修正指令を加算して、動作指令を生成する。調整部51は、動作指令に基づいて電流指令を生成し、これをロボット本体1に出力する。ロボット本体1は、電流指令に従ってエンドエフェクタ17を動かすよう動作する。これにより、エンドエフェクタ17が、基本動作指令、自動動作修正指令、及び手動動作修正指令に従って動く。
 一方、エンドエフェクタ17の動きに対応するロボット本体1の動作データを動作データ検出部273が検出する。この検出された動作データのうちの力データが操作器制御部42に入力される。操作器制御部42は、この力データに基づいて、操作者が操作する際に反力を感じるように操作器2を制御する。一方、動作データ記憶部56は動作データを記憶する。また、動作修正指令生成部272が自動動作修正指令に手動動作修正指令を加算して動作修正指令を生成する。動作修正指令記憶部53は、この動作修正指令を記憶する。
 一方、動作データは学習部52に入力される。学習部52は、動作データが入力されると、前回の学習内容を反映した予測動作修正指令を上述の自動動作修正指令として出力する。
 そして、学習部52の学習時において、学習部52が、動作データ記憶部56に記憶された学習用動作データを用いて、動作修正指令記憶部53に記憶された学習用動作修正指令を機械学習する。
 そして、次回のロボット本体1の動作時において、学習部52が、今回の学習内容を反映した予測動作修正指令を次回の自動動作修正指令として出力する。
 なお、調整部51は、フォワード制御が行われる場合には、動作指令から電流指令を生成し、フィードバック制御が行われる場合には、動作指令に対する動作データの偏差を演算し、当該偏差に基づいて電流指令を生成する。
 [作用効果]
 次に、以上のように動作するロボットシステム300の作用効果を説明する。
 <第1の作用効果>
 ここでは、第1の作用効果を極端に簡略化して説明する。図9(a)~(c)は、エンドエフェクタ17の軌跡が理想の軌跡に改善される過程を示す模式図である。
 図9(a)~(c)において、動作データPdは2次元面上の位置を表す。また、二点鎖線は、時刻taからtbの時間区間におけるエンドエフェクタ17の理想的な軌跡を示し、実線は、基本動作指令と自動動作指令と手動動作修正指令とが合算された動作指令に対応するエンドエフェクタ17の軌跡を示し、一点鎖線は、基本動作指令と自動動作修正指令とが合算された自動動作指令に対応する仮想のエンドエフェクタ17の軌跡を示す。
 最初に、学習部52が手動修正を学習しておらず、且つ、操作者が手動修正しない場合を説明する。学習部52は、初期化された状態では、修正値がゼロの自動動作修正指令を出力するように学習されている。この場合、図9(a)に実線で示すように、エンドエフェクタ17は、基本動作指令部50が出力する基本動作指令に対応する基本的な軌跡を示すように動く。
 その次の回のロボット本体1の動作時には、前回において、学習部52が、修正値がゼロの自動動作修正と修正値がゼロの手動動作修正とが合算された動作修正指令を学習するので、時間区間ta~tbにおける自動動作指令に対応する仮想のエンドエフェクタ17の軌跡は、図9(b)に一点鎖線で示すように、基本動作指令に対応するエンドエフェクタ17の軌跡になる。操作者は、エンドエフェクタ17がこの軌跡を辿ろうとするのを見て、操作器2を操作して、1回目の改善を試みる。すると、図9(b)に実線で示すように、エンドエフェクタ17の軌跡が理想的な軌跡に近づくように改善される。
 その次の回のロボット本体1の動作時には、学習部52が、前回の自動動作指令と手動修正指令とが合算された動作修正指令を学習して、前回の手動動作修正指令に倣った自動動作修正指令を出力するので、時間区間ta~tbにおける自動動作指令に対応する仮想のエンドエフェクタ17の軌跡は、図9(c)に一点鎖線で示すように前回の手動動作修正指令に対応するエンドエフェクタ17の軌跡と同じになる。しかし、操作者が、エンドエフェクタ17がこの仮想の軌跡を辿ろうとするのを見て、これを理想的な軌跡に改善しようとして、操作器2を操作する。すると、図9(c)に実線で示すように、エンドエフェクタ17の軌跡が理想的な軌跡に改善される。
 その次の回のロボット本体1の動作時には、学習部52が、前回の自動動作指令と手動修正指令とが合算された動作修正指令を学習して、前回の手動動作修正指令に倣った自動動作修正指令を出力するので、時間区間ta~tbにおける自動動作指令に対応する仮想のエンドエフェクタ17の軌跡は、前回の手動動作修正指令に対応するエンドエフェクタ17の軌跡と同様に理想的な軌跡になる。従って、それ以降は、操作者が操作器2を操作することによる改善が不要になる。
 このように、実施形態3のロボットシステム300によれば、操作者による手動動作修正指令が学習部52に蓄積されるので、最終的には、操作者の技能が学習部52に伝承される。また、学習部52が実務を通じて学習するので、学習期間が短くて済む。
 <第2の作用効果>
  図10(a)~(c)は、ロボット本体1が第1物体81をスムーズに第2物体82に嵌挿する様子を示す模式図である。図11(a)~(d)は、ロボット本体1が第1物体81をまさぐりながら第2物体82に嵌挿する様子を示す模式図である。図12(a)~(d)は、ロボット本体1が第1物体81をまさぐりながら第2物体82に嵌挿する様子を示す模式図である。
 ここでは、大径の短い円柱状の頭部81aと小径の長い円柱状の胴部81bとを有する第1物体81と、短い円柱状の本体の中心部に円柱状の貫通孔82aを有する第2物体82との嵌合を例に取って第2の作用効果を説明する。ここでは、第2物体82の貫通孔82aに第1物体81の胴部81bが嵌挿されるが、両者の隙間が小さく、ロボット本体1の位置決め誤差によって、両者がスムーズに嵌合しない場合があると仮定する。
 基本動作指令部50が出力する基本動作指令は、図10(a)~(c)に示すように、第1物体81を第2物体82の直上に、両者の中心軸が一致するように位置させ、次いで、第1物体81を第2物体82に向けて下降させるようにエンドエフェクタ17を動かす。この場合、ロボット本体1の位置決め誤差がゼロに近いと、図10(a)~(c)に示すように、第1物体81の胴部81bは、スムーズに第2物体82の貫通孔82aに嵌挿される。
 ところが、ロボット本体1の位置決め誤差により、図11(a)に示すように、第1物体81の位置が、図面右方向に少しずれた場合、図11(b)に示すように、第1物体81の胴部81bが第2物体82の貫通孔82aの縁に当接する。すると、操作者が操作器2を操作して、図10(c)~(d)に示すように、第1物体81の胴部81bを、第2物体82の貫通孔82aの縁辺をまさぐるように移動させて、最終的に第1物体81の胴部81bを第2物体82の貫通孔82aに嵌挿する。
 この一連のまさぐり動作に対応する動作データが、ロボット本体1の動作データ検出部273によって検出されて動作データ記憶部56に記憶される。また、この一連のまさぐり動作に対応する手動動作修正指令がこの間の自動動作修正指令と合算されて動作修正指令として動作修正指令記憶部53に記憶される。そして、この動作修正指令が上記動作データと対応付けられて学習部52によって学習される。
 従って、その後、ロボット本体1の位置決め誤差により、第1物体81の位置が、図面右方向に少しずれた場合には、学習部52が、上述の一連のまさぐり動作に倣った動作をロボット本体1にさせる自動動作修正指令を出力する。それにより、第1物体81が第2物体82に嵌合される。これにより、操作者の技能の一部が学習部52に伝承される。
 その後、ロボット本体1の位置決め誤差により、図12(a)に示すように、第1物体81の位置が、図面左方向に少しずれた場合、学習部52は、この事象を学習していないのでこの事象に対処できない自動動作修正指令を出力する。このため、図12(b)に示すように、第1物体81の胴部81bが第2物体82の貫通孔82aの縁に当接したと仮定する。すると、操作者が操作器2を操作して、図10(c)~(d)に示すように、第1物体81の胴部81bを、第2物体82の貫通孔82aの縁辺をまさぐるように移動させて、最終的に第1物体81の胴部81bを第2物体82の貫通孔82aに嵌挿する。
 この一連のまさぐり動作に対応する動作データが、ロボット本体1の動作データ検出部273によって検出されて動作データ記憶部56に記憶される。また、この一連のまさぐり動作に対応する手動動作修正指令がこの間の自動動作修正指令と合算されて動作修正指令として動作修正指令記憶部53に記憶される。そして、この動作修正指令が上記動作データと対応付けられて学習部52によって学習される。
 従って、その後、ロボット本体1の位置決め誤差により、第1物体81の位置が、図面左方向に少しずれた場合には、学習部52が、上述の一連のまさぐり動作に倣った動作をロボット本体1にさせる自動動作修正指令を出力する。それにより、第1物体81が第2物体82に嵌合される。これにより、操作者の技能の他の一部が学習部52に伝承される。
 このように、エンドエフェクタ17の基本的な動きを修正しなければならない態様は多数存在するが、ロボットシステム300のように機械学習する学習部252を用いると、エンドエフェクタ17の基本的な動きを修正しなければならない事象が発生する度に、その態様に応じた手動動作修正指令(正確には動作修正指令)を学習部52に学習させることによって、操作者の技能の伝承を容易に実現することができる。
 また、ロボットシステム300によれば、所定作業に関するエンドエフェクタ17の基本的な動きのうち修正が不要である部分は、基本動作指令部50によって自動的に遂行されるので、操作者は、必要な修正のみを行えばよい。よって、操作者の負担が軽減される。また、熟練者であっても作業がばらつくので、このように一部の作業のみを操作者の操作によって行うと、全ての作業を操作者の操作によって行う場合に比べて作業の精度が向上する。
 [バイラテラル制御]
 バイラテラル制御として、例えば、対称型バイラテラル制御、力逆送型バイラテラル制御、及び力帰還型バイラテラル制御が知られている。実施形態3では、いずれのバイラテラル制御も適用することができる。ここでは、例えば、力逆送型バイラテラル制御が適用される。力逆送型バイラテラル制御では、上述の「動作指令」及び「動作修正指令」は、「位置指令」及び「位置修正指令」のみを含む。
 [他の機械装置への適用]
 実施形態3において、ロボットシステム300の各要素を、これらの各要素に対応する他の機械装置の各要素に置き替えることによって、実施形態3の内容を容易に他の機械装置に適用することができる。
 (実施形態4)
 本発明の実施形態4は、操作者を訓練可能な技能伝承ロボットシステムを例示する。図13は、本発明の実施形態4に係る技能伝承ロボットシステムの制御系統の構成を例示する機能ブロック図である。実施形態4のロボットシステム400は、以下の構成が実施形態3のロボットシステム300と相違し、その他の構成は実施形態3のロボットシステム300と同じである。以下、この相違点を説明する。
 図13を参照すると、実施形態4のロボットシステム400は、操作器2から制御器3の動作指令生成部62に至る手動動作修正指令の伝達経路(以下、手動動作修正指令伝達経路という)を選択的に連通及び遮断するスイッチ部75をさらに備える。操作器制御部42は、スイッチ部75の動作を制御する。また、操作器制御部42に学習部52から出力される自動動作修正指令が入力される。
 操作器制御部42は、訓練モードと非訓練モードとを有する。操作器制御部42は、非訓練モードにおいて、スイッチ部75に手動動作修正指令伝達経路を連通させ、且つ力データに応じた反力を発生しながら操作者の操作に応じた手動動作修正指令を出力するよう前記操作器を制御する。これにより、ロボットシステム400が、所定作業を行うよう動作する。
 一方、訓練モードにおいて、操作器制御部42は、スイッチ部75に手動動作修正指令伝達経路を遮断させる。そして、操作器2に操作者の操作に応じた手動動作修正指令を出力させるとともに、手動動作修正指令の自動動作修正指令に対する偏差を演算する。そして、当該偏差が所定値以上である場合に、自動動作修正指令に対応する手動位置修正指令を出力する動作をするよう操作器2を制御する。なお、操作器制御部42は、当該偏差が所定値以上である場合に、適宜な機器に警告を発生させるように構成されてもよい。例えば、図示されないスピーカによって、操作者に対し警報を発するように構成される。
このような実施形態4によれば、実用レベルに学習されたロボットシステム400を用いると、このロボットシステム400に所定の作業を行わせた場合には、学習部52から手本になる自動動作修正指令が出力される。一方、このような状態において、操作者が操作器2を操作すると、この手本になる自動動作修正指令に対するその操作による手動動作修正指令の偏差を操作器制御部42が演算する。そして、操作器制御部42は、当該偏差が所定値以上である場合、すなわち、操作者の操作が所定程度以上に不適切である場合、手本となる自動動作修正指令に対応する手動位置修正指令を出力する動作をするよう操作器2を制御する。これにより、操作者は、適切な操作をするように操作器2によって誘導される。従って、不慣れな操作者を好適に訓練することができる。
 なお、操作者を、適切な操作をするように操作器2によって誘導する構成を、ここでは、電気回路によって実現したが、これをハードウェアによって実現してもよい。
 (実施形態5)
 本発明の実施形態5は、案内型の技能伝承機械装置を例示する。図14は、本発明の実施形態5に係る技能伝承機械装置500の構成を例示する機能ブロック図である。
図14を参照すると、実施形態5の機械装置500は、以下の構成が実施形態1の機械装置100と相違し、その他の構成は実施形態1の機械装置100と同じである。
 実施形態5では、動作情報が動作データを含み、動作データが、作業部217が作業環境に作用させる力を表す力データと動作部201の動作時における作業部217の位置を表す位置データとを含む。また、作業部217に、操作者が作業部217に直接物理的に力を作用させるための操作部218が設けられている。つまり、実施形態5では、手動動き修正が、操作者が作業部217に直接又は間接に物理的に力を作用させることによる作業部217の動きの修正である。また、手動動き修正データ発生部282が、動作情報検出部254によって検出される、手動動き修正が反映された動作データから基本動作指令を減算して手動動き修正データを発生する。
 この実施形態5によれば、操作者が作業部217に直接又は間接に物理的に力を作用させることによって作業部217の動きを修正することができる。このため、難しい作業であっても、作業部217の動きをきめ細かく修正することができる。
 (実施形態6)
 本発明の実施形態3は、案内型の技能伝承ロボットシステム(以下、単にロボットシステムと呼ぶ場合がある)を例示する。図15は、本発明の実施形態6に係る技能伝承ロボットシステム600のハードウェアの構成を例示する模式図である。図16は、図15の技能伝承ロボットシステム600の制御系統の構成を例示する機能ブロック図である。
図15及び図16を参照すると、実施形態6では、実施形態1の機械装置100が、作業部としてのエンドエフェクタ17を有し、作業対象物に対する作業を行うようエンドエフェクタ17を動かす動作部としてのロボット本体1と、ロボット本体1の動作を制御する制御器3と、を備えるロボット10であり、基本動作指令部50が、ロボット本体1によってエンドエフェクタ17に基本的な動きをさせる基本動作指令を出力するよう構成されている。また、学習部52が、動作データ記憶部56に記憶された動作データを用いて動き修正データ記憶部283に記憶された動き修正データを機械学習し、機械学習を終えた後、ロボット本体1の動作時に動作データが入力され、自動動作修正指令を出力するよう構成されている。また、ロボット本体1が、基本動作指令と自動動作修正指令とに基づく自動動作指令と、手動動き修正と、に従ってエンドエフェクタ17を動かすよう構成されている。
 具体的には、ロボットシステム600では、エンドエフェクタ17に操作部281が設けられている。なお、操作部281を省略し、作業対象物に操作者が直接力を作用させてもよい。
 また、制御器3が、基本動作指令部50と、自動動作指令生成部61と、調整部51と、手動動き修正データ発生部282と、動き修正データ生成部272と、動き修正データ記憶部283と、動作データ記憶部56とを備える。
 次に、以上のように構成されたロボットシステム600の動作を説明する。
 図15及び図16を参照すると、ロボットシステム600では、制御器3が、ロボット本体1の動作における剛性を、操作者がエンドエフェクタ17に力を作用させるとエンドエフェクタ17が動く程度に低くする(弱める)。そして、ロボット本体1の動作時において、基本動作指令部50が基本動作指令を出力する。一方、学習部52が自動動作修正指令を出力する。自動動作指令生成部61は、基本動作指令に自動動作修正指令を加算して、自動動作指令を生成する。調整部51は、自動動作指令に基づいて電流指令を生成し、これをロボット本体1に出力する。ロボット本体1は、電流指令に従ってエンドエフェクタ17を動かすよう動作する。
 一方、必要に応じて、操作者がエンドエフェクタ17の操作部281を操作すると、エンドエフェクタ17がこの操作に応じて動く。これにより、エンドエフェクタ17が、基本動作指令、自動動作修正指令、及び手動動作修正に従って動く。
 一方、エンドエフェクタ17の動きに対応するロボット本体1の動作データを動作データ検出部273が検出する。この検出された動作データを動作データ記憶部56が記憶する。また、手動動き修正データ発生部282が、動作データから自動動作指令を減算して手動動き修正データを発生する。そして、動き修正データ生成部272が自動動作修正指令に手動動き修正データを加算して動き修正データを生成する。動き修正データ記憶部283は、この動き修正データを記憶する。
 一方、動作データは学習部52に入力される。学習部52は、動作データが入力されると、前回の学習内容を反映した予測動き修正データを上述の自動動作修正指令として出力する。
 そして、学習部52の学習時において、学習部52が、動作データ記憶部56に記憶された学習用動作データを用いて、動き修正データ記憶部283に記憶された学習用動き修正データを機械学習する。
 そして、次回のロボット本体1の動作時において、学習部52が、今回の学習内容を反映した予測動き修正データを次回の自動動作修正指令として出力する。
 なお、学習部52の学習方法は、実施形態3のロボットシステム300と同様であるので、その説明を省略する。
 この実施形態6によれば、案内型の技能伝承ロボットシステムを実現することができる。具体的には、操作者がエンドエフェクタ17に直接又は間接に物理的に力を作用させることによってエンドエフェクタ17の動きを修正することができる。このため、難しい作業であっても、作業部の動きをきめ細かく修正することができる。
 [バイラテラル制御]
 実施形態6では、いずれのバイラテラル制御も適用することができる。ここでは、例えば、力逆送型バイラテラル制御が適用される。力逆送型バイラテラル制御では、上述の「動作指令」及び「動作修正指令」は、「位置指令」及び「位置修正指令」のみを含む。
 [他の機械装置への適用]
 実施形態6において、ロボットシステム600の各要素を、これらの各要素に対応する他の機械装置の各要素に置き替えることによって、実施形態3の内容を容易に他の機械装置に適用することができる。
 (実施形態7)
 本発明の実施形態7は、実施形態2乃至4における距離のスケーリング及び力のスケーリングを例示する。
 (1)移動距離のスケーリング
 操縦装置によって作業機械(マニピュレータなどの産業用ロボットを含む)に対して動作指令が与えられ、作業機械が駆動する。操縦装置は、例えば前後方向に直線的に変位可能な操作子を備えている。操作者が操作子を操作することによってマニピュレータの手首を移動させることができる。操作子の変位に対して、手首は比例的に変位する。ある設定においては、操作子を1cm前方に変位させると、手首が10cm前方に変位する。このとき変位比率は1:10である。この変位比率を所定範囲内(例えば1:1~1:100)において任意に設定することができる。
 他の設定においては、操作子を10cm前方に変位させると、手首が1cm前方に変位する。このとき変位比率は10:1である。この変位比率を所定範囲内(例えば1:1~100:1)において任意に設定することができる。
 (2)力のスケーリング
 操縦装置(マスターロボット含む)によって作業機械(マニピュレータなどの産業用ロボット及びスレーブロボットを含む)に対して動作指令が与えられ、作業機械が駆動する。操縦装置は、力センサが取り付けられた操作レバーを備えている。操作者が操作子を操作することによってマニピュレータの手首を駆動できる。手首には、ワークに対して特定の作業を行うためのハンドが取り付けられている。ハンドには力センサが取り付けられており、ハンドがワークに対して加えた力を検出することができる。ハンドの力センサの出力は、マニピュレータを駆動制御するコントローラにフィードバックされ、設定された力がハンドからワークに加えられるようにマニピュレータの関節軸のモータの電流が制御される。ある設定においては、操作レバーに1Nの力が加えられる(一般には操作者によって)と、ハンドがワークに10Nの力を加えるようにモータ電流が制御される。このとき力比率は1:10である。この力比率を所定範囲内(例えば1:1~1:100)において任意に設定することができる。
 他の設定においては、操作レバーに10Nの力が加えられると、ハンドがワークに1Nの力を加えるようにモータ電流が制御される。このとき力比率は10:1である。この力比率を所定範囲内(例えば1:1~100:1)において任意に設定することができる。
 (実施形態8)
 本発明の実施形態8は、実施形態2乃至4及び7において、1人用の操縦装置によって複数の作業機を駆動・両手両足によって操縦及び外部軸を操縦する形態を例示する。
 1人の操作者によって操作されることを想定して構成された1セットの操作装置によって、複数の作業機(マニピュレータなどの産業用作業用ロボットを含む)を操縦することができる。操縦装置には左手で操作するための操作レバーAと右手で操作するための操作レバーBとが設けられている。操作レバーAによってマニピュレータAが操縦され、操作レバーBによってマニピュレータBが操縦される。2台のマニピュレータA,Bは、共同して1のワークに対して作業を行うことができるように、近接して配置されている。マニピュレータAの手首には、ワークを掴んで保持できるハンドが取り付けられている。マニピュレータBの手首には、塗装ガンが取り付けられている。操作者は操作レバーAを操作することによってワークの位置や角度を所定範囲で任意に設定・変更できる。また、操作レバーBを操作することによって塗装ガンの位置や角度を所定範囲で任意に設定・変更できる。操作者は、ワークの位置・角度を自由に設定・変更させつつ、塗装ガンの位置・角度を自由に設定・変更して、ワーク表面にむらなく塗装を施すことができる。
 操縦装置はさらに左足用のペダルAと右足用のペダルBとを備えたものであってもよい。ペダルAによって塗装ガンからの塗料の噴出のON・OFFの制御をすることができる。
 ペダルBを踏み込むと、マニピュレータA、Bが緊急停止する。
 塗装ガンからの塗料の噴出のON・OFF制御は、外部軸Aによって行われる。つまり、ペダルAによって外部軸Aが操縦される。
 (実施形態9)
 本発明の実施形態9は、動作情報が、作業部が作業環境に作用させる力を表す力データを含まない操作型の技能伝承機械装置を例示する。図17は、本発明の実施形態9に係る技能伝承機械装置の構成を例示するブロック図である。実施形態9の技能伝承機械装置900は、以下の構成が実施形態1の技能伝承機械装置100と相違し、その他の構成は実施形態1の技能伝承機械装置100と同じである。以下、この相違点を説明する。
 図17を参照すると、実施形態9の機械装置900では、実施形態1の手動動き修正データ発生部271が、操作者220の操作に応じた手動動作修正指令を手動動き修正データとして出力する操作器202である。機械装置900では、実施形態1の動き修正データ生成部272が、自動動作修正指令に手動動作修正指令を加えて動作修正指令を生成する動作修正指令生成部272であり、動き修正データ記憶部253が動作修正指令を記憶する動作修正指令記憶部53であり、学習部252が、動作情報記憶部256に記憶された動作情報を用いて動作修正指令記憶部53に記憶された動作修正指令を機械学習し、機械学習を終えた後、動作部201の動作時に動作情報が入力され、自動動作修正指令を出力するよう構成されている。
 また、機械装置200では、動作部201が、基本動作指令と自動動作修正指令とに基づく自動動作指令と、手動動作修正指令と、に従って作業部217を動かすよう構成されている。
 以上の相違点を整理すると、実施形態9の機械装置900は、作業部217を有し、作業を行うよう作業部217を動かす動作部201と、動作部201の動作を制御する制御器203と、作業部217の動きに対応する動作部201の動作情報を検出する動作情報検出部254と、操作者220の操作に応じた手動動作修正指令を出力する操作器202と、を備える。制御器203は、動作部201によって作業部217に基本的な動きをさせる基本動作指令を出力する基本動作指令部250と、自動動作修正指令を出力する学習部252と、自動動作修正指令に手動動作修正指令を加えて動作修正指令を生成する動作修正指令生成部272と、動作修正指令を記憶する動作修正指令記憶部53と、動作情報を記憶する動作情報記憶部256と、を備える。学習部252は、動作情報記憶部256に記憶された動作情報を用いて動作修正指令記憶部53に記憶された動作修正指令を機械学習し、機械学習を終えた後、動作部201の動作時に動作情報が入力され、自動動作修正指令を出力するよう構成され、且つ、動作部201は、基本動作指令と自動動作修正指令とに基づく自動動作指令と、手動動作修正指令と、に従って作業部217を動かすよう構成されている。
 実施形態9によれば、操作者220が操作器202を操作することによって作業部217の動きを修正することができる。このため、操作者220が、作業部217から離れた位置で動作部201を操作することができる。
 なお、実施形態9では、動作情報が、作業部217が作業環境に作用させる力を表す力データを含まないので、実施形態9の機械装置900は、図2の動作情報提示機構206を備えない点で、実施形態2の機械装置200と相違する。
 (実施形態10)
 本発明の実施形態10は、動作情報が、作業部が作業環境に作用させる力を表す力データを含まない操作型の技能伝承ロボットシステムを例示する。図18は、本発明の実施形態10に係る技能伝承ロボットシステムの制御系統の構成を例示する機能ブロック図である。
 図18を参照すると、実施形態10のロボットシステム1000は、実施形態9の機械装置900の一例として、機械装置900をロボットシステム1000として具体化したものである。一方、実施形態3のロボットシステム300は、実施形態2の機械装置200の一例として、機械装置200をロボットシステム300として具体化したものである。
 従って、実施形態10のロボットシステム1000を、実施形態3のロボットシステム300と比較すると、ロボットシステム1000は、動作データが、エンドエフェクタ17(図3参照)が作業対象物に作用させる力を表す力データを含まないことと、従って、力データが制御器3の操作器制御部42に入力されないことと、従って、制御器3が、バイラテラル制御を行わず、ロボット本体1の位置制御を行うこと、とにおいて、ロボットシステム300と相違する。
 ロボットシステム1000のハードウェアの構成は図3に例示される通りである。図3を参照すると、実施形態10のロボットシステム1000は、以下の構成が実施形態9の機械装置900と相違し、その他の構成は実施形態9の機械装置900と同じである。以下、この相違点を説明する。
 実施形態10では、実施形態9の機械装置900が、作業部217としてのエンドエフェクタ17を有し、作業対象物に対する作業を行うようエンドエフェクタ17を動かす動作部201としてのロボット本体1と、ロボット本体1の動作を制御する制御器3と、を備えるロボット10と、操作者の操作に応じた手動動作修正指令を出力する操作器2と、を備えるロボットシステム1000として構成されている。
 ロボットシステム1000では、基本動作指令部50が、ロボット本体1によってエンドエフェクタ17に基本的な動きをさせる基本動作指令を出力するよう構成されており、学習部52が、動作データ記憶部56に記憶された動作データを用いて動作修正指令記憶部53に記憶された動作修正指令を機械学習し、機械学習を終えた後、ロボット本体1の動作時に動作データが入力され、自動動作修正指令を出力するよう構成されている。
 また、ロボット本体1が、基本動作指令と自動動作修正指令とに基づく自動動作指令と、手動動作修正指令と、に従ってエンドエフェクタ17を動かすよう構成されている。
 この構成によれば、力データを用いない操作型の技能伝承ロボットシステム1000を実現することができる。具体的には、操作者が操作器2を操作することによってエンドエフェクタ17の動きを修正することができる。このため、操作者が、ロボット本体1から離れた位置でロボット本体1を操作することができる。
 ロボットシステム1000の詳細な構成及び動作は、上述の両者の相違点を除いて、実施形態3のロボットシステム300の構成及び動作と同じであるので、その説明を省略する。
 ロボットシステム1000によれば、実施形態3のロボットシステム300と同様の効果が得られる。
 実施形態10におけるロボット10として、塗装ロボット、溶接ロボット、ピッキング(取り出し)ロボット等が例示される。
 実施形態10において、ロボットシステム1000の各要素を、これらの各要素に対応する他の機械装置の各要素に置き替えることによって、実施形態10の内容を容易に他の機械装置に適用することができる。
 (実施形態11)
 本発明の実施形態11は、実施形態10のロボットシステム1000を利用して操作者を訓練することが可能な技能伝承ロボットシステムを例示する。図19は、実施形態11に係る技能伝承ロボットシステム1100の制御系統の構成を例示する機能ブロック図である。
 図19を参照すると、実施形態11のロボットシステム11は、以下の構成が実施形態10のロボットシステム1000と相違し、その他の構成は実施形態10のロボットシステム1000と同じである。以下、この相違点を説明する。
 図19を参照すると、実施形態11のロボットシステム1100は、操作器2から制御器3の動作指令生成部62に至る手動動作修正指令伝達経路を選択的に連通及び遮断するスイッチ部75をさらに備える。操作器制御部42は、スイッチ部75の動作を制御する。また、操作器制御部42に学習部52から出力される自動動作修正指令が入力される。
 操作器制御部42は、訓練モードと非訓練モードとを有する。操作器制御部42は、非訓練モードにおいて、スイッチ部75に手動動作修正指令伝達経路を連通させ、且つ操作者の操作に応じた手動動作修正指令を出力するよう操作器2を制御する。これにより、ロボットシステム1100が、所定作業を行うよう動作する。
 一方、訓練モードにおいて、操作器制御部42は、スイッチ部75に手動動作修正指令伝達経路を遮断させる。そして、操作器2に操作者の操作に応じた手動動作修正指令を出力させるとともに、手動動作修正指令の自動動作修正指令に対する偏差を演算する。そして、当該偏差が所定値以上である場合に、自動動作修正指令に対応する手動位置修正指令を出力する動作をするよう操作器2を制御する。なお、操作器制御部42は、当該偏差が所定値以上である場合に、適宜な機器に警告を発生させるように構成されてもよい。例えば、図示されないスピーカによって、操作者に対し警報を発するように構成される。
 このような実施形態11によれば、実施形態4と同様の効果が得られる。
 (実施形態12)
 本発明の実施形態12は、操作型の技能伝承ロボットの学習部が学習したプログラムを他のロボットの記憶部に記憶させ、他のロボットを用いて操作者のトレーニングを行う形態を例示する。
 例えば、実施形態3のロボットシステム300又は実施形態10のロボットシステム1000の学習部52が学習したプログラムを、他の学習機能を有しないロボットの記憶部に格納させる。そして、当該ロボットに、実施形態4のロボットシステム400又は実施形態11のロボットシステム1100の操作器制御部42と同様の操作器制御部を設ける。「他の学習機能を有しないロボットシステム」としては、例えば、実施形態3のロボットシステム300又は実施形態10のロボットシステム1000において学習機能に関する構成を省略したロボットシステムが挙げられる。
 これにより、学習機能を有しないロボットを利用して、操作者のトレーニングを行うことができる。
 上記説明から、当業者にとっては、本発明の多くの改良や他の実施形態が明らかである。従って、上記説明は、例示としてのみ解釈されるべきであり、本発明を実行する最良の態様を当業者に教示する目的で提供されたものである。本発明の精神を逸脱することなく、その構造および/又は機能の詳細を実質的に変更できる。
 本発明の技能伝承機械装置は、産業界における熟練作業者の技能を伝承することが可能であり、且つ、所定の作業の自動化を短期間で達成することが可能な技能伝承機械装置として有用である。
1 ロボット本体
2 操作器
3 制御器
4 カメラ
5 モニタ
10 ロボット
17 エンドエフェクタ
19 力センサ
42 操作器制御部
50 基本動作指令部
51 調整部
52 学習部
53 動作修正指令記憶部
55 ニューラルネットワーク
56 動作データ記憶部
60 動作指令生成部
61 自動動作指令生成部
62 動作指令生成部
72 データ入力部
73 学習部
75 スイッチ部
81 第1物体
82 第2物体
100 機械装置(技能伝承機械装置)
200,500,900 機械装置(技能伝承機械装置)
201 動作部
202 操作器
203 制御器
206 動作情報提示機構
217 作業部
218 操作部
250 基本動作指令部
252 学習部
253 動き修正データ記憶部
254 動作情報検出部
256 動作情報記憶部
271 手動動き修正データ発生部
272 動き修正データ生成(動作修正指令生成部)
273 動作データ検出部
281 操作部
282 手動動き修正データ発生部
283 動き修正データ記憶部
300,400,600,1000,1100 ロボットシステム(技能伝承ロボットシステム)

Claims (12)

  1.  作業部を有し、作業を行うよう前記作業部を動かす動作部と、前記動作部の動作を制御する制御器と、前記作業部の動きに対応する前記動作部の動作情報を検出する動作情報検出部と、操作者の操作に応じた手動動作修正指令を出力する操作器と、を備え、
     前記制御器が、前記動作部によって前記作業部に基本的な動きをさせる基本動作指令を出力する基本動作指令部と、自動動作修正指令を出力する学習部と、前記自動動作修正指令に前記手動動作修正指令を加えて動作修正指令を生成する動作修正指令生成部と、前記動作修正指令を記憶する動作修正指令記憶部と、前記動作情報を記憶する動作情報記憶部と、を備え、
     前記学習部が、前記動作情報記憶部に記憶された前記動作情報を用いて前記動作修正指令記憶部に記憶された前記動作修正指令を機械学習し、機械学習を終えた後、前記動作部の動作時に前記動作情報が入力され、前記自動動作修正指令を出力するよう構成され、且つ、
     前記動作部が、前記基本動作指令と前記自動動作修正指令とに基づく自動動作指令と、前記手動動作修正指令と、に従って前記作業部を動かすよう構成されている、技能伝承機械装置。
  2.  前記機械装置が、前記作業部としての先端効果部を有し、作業対象物に対する作業を行うよう前記先端効果部を動かす前記動作部としての機械本体と、前記機械本体の動作を制御する前記制御器と、を備える機械と、前記操作器と、を備える機械システムであり、
     前記基本動作指令部が、前記機械本体によって前記先端効果部に基本的な動きをさせる基本動作指令を出力するよう構成されており、
     前記学習部が、前記動作情報記憶部に記憶された前記動作情報を用いて前記動作修正指令記憶部に記憶された前記動作修正指令を機械学習し、機械学習を終えた後、前記機械本体の動作時に前記動作情報が入力され、前記自動動作修正指令を出力するよう構成され、且つ、
     前記機械本体が、前記基本動作指令と前記自動動作修正指令とに基づく前記自動動作指令と、前記手動動作修正指令と、に従って前記先端効果部を動かすよう構成されている、請求項1に記載の技能伝承機械装置。
  3.  前記動作情報検出部が、前記機械本体に設けられた動作データ検出部を含み、前記動作データ検出部は、少なくとも、前記機械本体の動作時における前記先端効果部の位置を表す位置データを検出する位置データ検出部を含み、且つ、少なくとも前記位置データを動作データとして出力するよう構成され、
     前記動作情報記憶部が、前記動作データを記憶する動作データ記憶部であり、且つ、
     前記学習部が、前記動作データを用いて前記動作修正指令を機械学習し、機械学習を終えた後、前記動作データが入力され、前記自動動作修正指令を出力するよう構成されている、請求項2に記載の技能伝承機械装置。
  4.  前記操作器から前記制御器に至る前記手動動作修正指令の伝達経路を選択的に連通及び遮断するスイッチ部をさらに備え、
     前記スイッチ部が前記伝達経路を遮断している場合において、前記操作器を用いて前記操作者を訓練することが可能なように構成されている、請求項3に記載の技能伝承機械装置。
  5.  少なくとも前記自動動作修正指令を用いて前記操作器の動作を制御し、且つ前記スイッチ部の動作を制御する操作器制御部をさらに備え、
     前記操作器制御部は、訓練モードと非訓練モードとを有し、非訓練モードにおいて、前記スイッチ部に前記伝達経路を連通させ、且つ、少なくとも前記操作者の操作に応じた手動動作修正指令を出力するよう前記操作器を制御し、訓練モードにおいて、前記スイッチ部に前記伝達経路を遮断させ、且つ前記操作器に前記操作者の操作に応じた前記手動動作修正指令を出力させるとともに、前記手動動作修正指令の前記自動動作修正指令に対する偏差を演算し、当該偏差が所定値以上である場合に、前記自動動作修正指令に対応する前記手動位置修正指令を出力する動作をするよう前記操作器を制御するように構成されている、請求項4に記載の技能伝承機械装置。
  6.  前記動作情報を前記操作者が知覚することが可能なように前記操作者に提示する動作情報提示機構をさらに備える、請求項1に記載の技能伝承機械装置。
  7.  前記機械装置が、前記作業部としての先端効果部を有し、作業対象物に対する作業を行うよう前記先端効果部を動かす前記動作部としての機械本体と、前記機械本体の動作を制御する前記制御器と、を備える機械と、前記機械本体の前記先端効果部が前記作業対象物に作用させる力を表す前記動作情報としての力データに応じた反力を発生しながら前記操作者の操作に応じた手動動作修正指令を出力する、前記動作情報提示機構を兼ねる前記操作器と、を備える機械システムであり、
     前記基本動作指令部が、前記機械本体によって前記先端効果部に基本的な動きをさせる基本動作指令を出力するよう構成されており、
     前記学習部が、前記動作情報記憶部に記憶された前記動作情報を用いて前記動作修正指令記憶部に記憶された前記動作修正指令を機械学習し、機械学習を終えた後、前記機械本体の動作時に前記動作情報が入力され、前記自動動作修正指令を出力するよう構成され、且つ、
     前記機械本体が、前記基本動作指令と前記自動動作修正指令とに基づく前記自動動作指令と、前記手動動作修正指令と、に従って前記先端効果部を動かすよう構成されている、請求項6に記載の技能伝承機械装置。
  8.  前記動作情報検出部が、前記機械本体に設けられた動作データ検出部を含み、前記動作データ検出部は、前記先端効果部が前記作業対象物に作用させる力を表す前記力データを検出する力データ検出部と、前記機械本体の動作時における前記先端効果部の位置を表す位置データを検出する位置データ検出部とを含み、且つ、前記力データ及び前記位置データを動作データとして出力するよう構成され、
     前記動作情報記憶部が、前記動作データを記憶する動作データ記憶部であり、且つ、
     前記学習部が、前記動作データを用いて前記動作修正指令を機械学習し、機械学習を終えた後、前記動作データが入力され、前記自動動作修正指令を出力するよう構成されている、請求項7に記載の技能伝承機械装置。
  9.  前記力データ及び前記自動動作修正指令を用いて前記操作器の動作を制御し、且つ前記スイッチ部の動作を制御する操作器制御部をさらに備え、
     前記操作器制御部は、訓練モードと非訓練モードとを有し、非訓練モードにおいて、前記スイッチ部に前記伝達経路を連通させ、且つ前記力データに応じた反力を発生しながら前記操作者の操作に応じた手動動作修正指令を出力するよう前記操作器を制御し、訓練モードにおいて、前記スイッチ部に前記伝達経路を遮断させ、且つ前記操作器に前記操作者の操作に応じた前記手動動作修正指令を出力させるとともに、前記手動動作修正指令の前記自動動作修正指令に対する偏差を演算し、当該偏差が所定値以上である場合に、前記自動動作修正指令に対応する前記手動位置修正指令を出力する動作をするよう前記操作器を制御するように構成されている、請求項8に記載の技能伝承機械装置。
  10.  前記操作器制御部は、前記訓練モードにおいて、前記力データに応じた反力を発生しながら前記操作者の操作に応じた手動動作修正指令を出力するよう前記操作器を制御するように構成されている、請求項9に記載の技能伝承機械装置。
  11.  前記機械本体が、電流指令に従って動作するよう構成されており、且つ、前記動作指令に基づいて前記電流指令を出力する調整部をさらに備える、請求項2~5、7~10のいずれかに記載の技能伝承機械装置。
  12.  前記先端効果部がエンドエフェクタであり、前記機械本体がロボット本体であり、前記機械がロボットであり、前記機械システムがロボットシステムである、請求項2~5、7~11のいずれかに記載の技能伝承機械装置。
PCT/JP2018/043876 2017-11-28 2018-11-28 技能伝承機械装置 WO2019107454A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201880077003.1A CN111432990B (zh) 2017-11-28 2018-11-28 技能传承机械装置
EP18883581.3A EP3718706A4 (en) 2017-11-28 2018-11-28 SKILLS TRANSFER MACHINE
US16/767,984 US11977365B2 (en) 2017-11-28 2018-11-28 Skill transfer mechanical apparatus
JP2019557294A JP7185639B2 (ja) 2017-11-28 2018-11-28 技能伝承機械装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017228418 2017-11-28
JP2017-228418 2017-11-28

Publications (1)

Publication Number Publication Date
WO2019107454A1 true WO2019107454A1 (ja) 2019-06-06

Family

ID=66665139

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2018/043876 WO2019107454A1 (ja) 2017-11-28 2018-11-28 技能伝承機械装置
PCT/JP2018/043877 WO2019107455A1 (ja) 2017-11-28 2018-11-28 技能伝承機械装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/043877 WO2019107455A1 (ja) 2017-11-28 2018-11-28 技能伝承機械装置

Country Status (4)

Country Link
EP (2) EP3718706A4 (ja)
JP (2) JP7185640B2 (ja)
CN (1) CN111432990B (ja)
WO (2) WO2019107454A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023037634A1 (ja) * 2021-09-07 2023-03-16 オムロン株式会社 指令値生成装置、方法、及びプログラム
JP7282703B2 (ja) 2020-02-10 2023-05-29 株式会社東芝 ロボットシステムおよびプログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7039389B2 (ja) * 2018-05-25 2022-03-22 川崎重工業株式会社 ロボットシステム及びロボット制御方法
JP6826076B2 (ja) 2018-07-17 2021-02-03 ファナック株式会社 自動経路生成装置
JP7159883B2 (ja) * 2019-01-22 2022-10-25 富士通株式会社 強化学習方法、強化学習プログラム、および強化学習装置
JP2021079468A (ja) * 2019-11-15 2021-05-27 川崎重工業株式会社 制御装置、制御システム、ロボットシステム及び制御方法
EP4134205A4 (en) * 2020-04-10 2024-05-01 Kawasaki Heavy Ind Ltd MEDICAL MOVING BODY SYSTEM AND DRIVING METHOD THEREFOR
JP2023145814A (ja) * 2020-08-21 2023-10-12 パナソニックIpマネジメント株式会社 制御システム、制御方法、および制御装置
CN114603551A (zh) * 2020-12-08 2022-06-10 山东新松工业软件研究院股份有限公司 一种控制方法及电子设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6249403A (ja) * 1985-08-28 1987-03-04 Agency Of Ind Science & Technol マニピユレ−タ制御装置
JPH05168B2 (ja) * 1985-01-24 1993-01-05 Yamazaki Mach Works
JP2009211294A (ja) 2008-03-03 2009-09-17 Nippon Hoso Kyokai <Nhk> ニューラルネットワーク装置及びそれを用いたロボットカメラ制御装置並びにニューラルネットワークプログラム
WO2016189924A1 (ja) * 2015-05-28 2016-12-01 株式会社日立製作所 ロボット操作装置およびプログラム
WO2017033376A1 (ja) * 2015-08-25 2017-03-02 川崎重工業株式会社 産業用ロボットおよびその運転方法
WO2017094424A1 (ja) * 2015-11-30 2017-06-08 オムロン株式会社 制御装置
JP2017127964A (ja) * 2016-01-14 2017-07-27 ファナック株式会社 学習機能を備えたロボット装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07210234A (ja) * 1994-01-20 1995-08-11 Fujitsu Ltd 操作制御装置および操作制御方法
JP3311896B2 (ja) * 1995-04-26 2002-08-05 トヨタ自動車株式会社 フィードバック式加工条件補正装置
JP4298757B2 (ja) * 2007-02-05 2009-07-22 ファナック株式会社 ロボット機構のキャリブレーション装置及び方法
JP2009262306A (ja) * 2008-04-28 2009-11-12 Kobe Steel Ltd ロボットの教示方法
CN101623867B (zh) * 2008-07-11 2010-12-01 中国科学院沈阳自动化研究所 一种使机器人高精度跟踪指定路径的设备和方法
KR101891138B1 (ko) * 2010-11-11 2018-08-23 더 존스 홉킨스 유니버시티 인간-기계 협력 로봇 시스템
CN103085072B (zh) * 2013-03-11 2014-10-29 南京埃斯顿机器人工程有限公司 基于三维建模软件实现工业机器人离线编程的方法
JP2014176940A (ja) * 2013-03-15 2014-09-25 Yaskawa Electric Corp ロボットシステム、ロボット制御方法及び被加工物の製造方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05168B2 (ja) * 1985-01-24 1993-01-05 Yamazaki Mach Works
JPS6249403A (ja) * 1985-08-28 1987-03-04 Agency Of Ind Science & Technol マニピユレ−タ制御装置
JP2009211294A (ja) 2008-03-03 2009-09-17 Nippon Hoso Kyokai <Nhk> ニューラルネットワーク装置及びそれを用いたロボットカメラ制御装置並びにニューラルネットワークプログラム
WO2016189924A1 (ja) * 2015-05-28 2016-12-01 株式会社日立製作所 ロボット操作装置およびプログラム
WO2017033376A1 (ja) * 2015-08-25 2017-03-02 川崎重工業株式会社 産業用ロボットおよびその運転方法
WO2017094424A1 (ja) * 2015-11-30 2017-06-08 オムロン株式会社 制御装置
JP2017127964A (ja) * 2016-01-14 2017-07-27 ファナック株式会社 学習機能を備えたロボット装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7282703B2 (ja) 2020-02-10 2023-05-29 株式会社東芝 ロボットシステムおよびプログラム
US11820023B2 (en) 2020-02-10 2023-11-21 Kabushiki Kaisha Toshiba Robot system and computer program product
WO2023037634A1 (ja) * 2021-09-07 2023-03-16 オムロン株式会社 指令値生成装置、方法、及びプログラム

Also Published As

Publication number Publication date
JP7185639B2 (ja) 2022-12-07
CN111432990B (zh) 2023-10-27
EP3718706A4 (en) 2021-10-06
JP7185640B2 (ja) 2022-12-07
EP3718707A4 (en) 2021-08-25
EP3718707A1 (en) 2020-10-07
EP3718706A1 (en) 2020-10-07
JPWO2019107455A1 (ja) 2020-11-19
WO2019107455A1 (ja) 2019-06-06
CN111432990A (zh) 2020-07-17
US20210003993A1 (en) 2021-01-07
JPWO2019107454A1 (ja) 2020-11-19

Similar Documents

Publication Publication Date Title
WO2019107454A1 (ja) 技能伝承機械装置
US10932874B2 (en) Remote control robot system
CN108430375B (zh) 机器人系统以及反向驱动该系统的方法
US9149931B2 (en) Robot system, robot control device and method for controlling robot
US11045954B2 (en) Robot system and method of controlling the same
JP7068059B2 (ja) 遠隔操作方法及び遠隔操作システム
JPWO2007111252A1 (ja) マニピュレータの制御方法および制御システム
WO2021024586A1 (ja) 制御装置、制御システム、ロボットシステム及び制御方法
JP2013184236A (ja) ロボットのキャリブレーション方法及びキャリブレーション装置
CN110709211B (zh) 机器人系统和机器人系统的控制方法
CN105382840A (zh) 机器人的控制装置以及控制方法
US11878423B2 (en) Robot system
JP2016221653A (ja) ロボット制御装置およびロボットシステム
US11977365B2 (en) Skill transfer mechanical apparatus
JP2009078308A (ja) ロボットの直接教示装置
JP7185749B2 (ja) ロボットシステム及びロボットシステムの制御方法
Ohta et al. A posture control of redundant manipulator using image information on bilateral system
JP2016147321A (ja) ロボットの制御装置及び制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18883581

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019557294

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018883581

Country of ref document: EP

Effective date: 20200629