WO2021117871A1 - ロボットシステム - Google Patents

ロボットシステム Download PDF

Info

Publication number
WO2021117871A1
WO2021117871A1 PCT/JP2020/046295 JP2020046295W WO2021117871A1 WO 2021117871 A1 WO2021117871 A1 WO 2021117871A1 JP 2020046295 W JP2020046295 W JP 2020046295W WO 2021117871 A1 WO2021117871 A1 WO 2021117871A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
work
control device
information
robot system
Prior art date
Application number
PCT/JP2020/046295
Other languages
English (en)
French (fr)
Inventor
掃部 雅幸
裕和 杉山
英紀 谷
Original Assignee
川崎重工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 川崎重工業株式会社 filed Critical 川崎重工業株式会社
Priority to EP20898428.6A priority Critical patent/EP4074463A4/en
Priority to JP2021506356A priority patent/JP6990340B2/ja
Priority to CN202080084991.XA priority patent/CN114761180A/zh
Priority to US17/783,650 priority patent/US20230010975A1/en
Publication of WO2021117871A1 publication Critical patent/WO2021117871A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • B25J13/065Control stands, e.g. consoles, switchboards comprising joy-sticks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/02Hand grip control means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/409Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details, by setting parameters
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35348Different colour, texture as function of distance, direction between tool and workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37422Distance and attitude detector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40127Virtual tape measure, indicate distance between end effector and destination
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40195Tele-operation, computer assisted manual operation

Definitions

  • This disclosure relates to robot systems.
  • a remote control device for remotely controlling a robot in a working environment is known (see, for example, Patent Document 1).
  • an environment model storage that stores information such as a camera that captures an image of the work environment and the position and orientation of an object to be worked by a robot in the work environment as an environment model. It is equipped with a composite image generation means that generates a composite image that combines the image captured by the camera and the image obtained by graphically displaying the positioning information obtained from the environment model storage means, and manually operates the robot by the operation means. At that time, the composite image is displayed on the display means so that the manual operation can be guided.
  • the painting robot for painting the work is located in the explosion-proof area. Therefore, in order for the operator (operator) to remotely control the painting robot by using the remote control control device disclosed in Patent Document 1, it is necessary to arrange an explosion-proof camera in the explosion-proof area. There is. Explosion-proof cameras are expensive and equipment costs increase. In addition, when the size of the workpiece to be painted changes, it may be necessary to change the shooting position of the camera. In such a case, the work load of the worker increases. In addition, the sprayed paint may obscure the tip of the robot and the workpiece from the camera. Even in such a case, it is necessary to change the shooting position of the camera, which increases the work load on the operator. Similarly, the light generated by welding and the fluid ejected for cleaning or grinding may obscure the tip of the robot and the workpiece from the camera. Even in such a case, it is necessary to change the shooting position of the camera, which increases the work load on the operator.
  • the present disclosure is intended to solve the above-mentioned problems and to provide a robot system capable of reducing equipment costs.
  • Another object of the present invention is to provide a robot system capable of reducing the burden on the operator and improving work efficiency.
  • the robot system of the present disclosure includes a robot installed in a work area, an operator, a display device, and a control device, and the control device is an operation command of the robot input from the operator.
  • the control device is an operation command of the robot input from the operator.
  • the operator can remotely control the robot without arranging the camera in the work area, so that the equipment cost can be reduced. Since the positional relationship between the work and the tip of the robot is displayed on the display device, the operator can be informed of the positional relationship between the work and the tip of the robot. Therefore, the burden on the operator can be reduced and the work efficiency can be improved.
  • FIG. 1 is a schematic diagram showing a schematic configuration of a robot system according to the first embodiment.
  • FIG. 2 is a schematic diagram showing a schematic configuration of the robot.
  • FIG. 3 is a schematic view showing a state in which the work area is viewed from the window.
  • FIG. 4 is a flowchart showing an example of the operation of the robot system according to the first embodiment.
  • FIG. 5 is a schematic diagram showing a schematic configuration of the robot system of the modified example 1 in the first embodiment.
  • FIG. 6 is a schematic diagram showing a schematic configuration of the robot system of the modified example 1 in the first embodiment.
  • FIG. 7 is a schematic diagram showing a schematic configuration of the robot system according to the second embodiment.
  • FIG. 8 is a schematic diagram showing a schematic configuration of the robot system according to the third embodiment.
  • FIG. 9 is a flowchart showing an example of the operation of the robot system according to the third embodiment.
  • FIG. 10 is a schematic diagram showing a schematic configuration of the robot system of the first modification in the third embodiment.
  • FIG. 11 is a schematic diagram showing a schematic configuration of the robot system according to the fourth embodiment.
  • FIG. 12A is a flowchart showing an example of the operation of the robot system according to the fourth embodiment.
  • FIG. 12B is a flowchart showing an example of the operation of the robot system according to the fourth embodiment.
  • FIG. 1 is a schematic diagram showing a schematic configuration of a robot system according to the first embodiment.
  • the robot system 100 includes a robot 101, an actuator 102, a display device 105, and a control device 111.
  • the robot 101 performs a predetermined type of work on the work 300.
  • the "predetermined work” is any one of the work of spraying or injecting particles, liquid, or gas onto the surface of the work 300, or the work of welding, cutting, cleaning, and polishing the work 300. Means the work of.
  • the robot 101 is remotely controlled by the operator operating the actuator 102 to perform the above-mentioned work. The detailed configuration of the robot 101 will be described later.
  • the robot 101 is installed in the work area 201, and the operation device 102, the display device 105, and the control device 111 are arranged in the operation area 202.
  • the work area 201 includes at least a space within the operating range of the robot 101.
  • the operation area 202 is a space different from the work area 201.
  • the wall member 203 is provided between the work area 201 and the operation area 202, and the work area 201 and the operation area 202 are partitioned by the wall member 203.
  • the wall member 203 is provided with a window 204 made of a transparent member, so that the operator can visually recognize the robot 101 in the work area 201 while in the operation area 202.
  • the work area 201 may be an explosion-proof area that is explosion-proof, and the operation area 202 may be a non-explosion-proof area that is not explosion-proof.
  • the coordinate system that defines the work area 201 which is the space where the robot 101 is installed, is defined by the X-axis and Y-axis that are orthogonal to each other on the horizontal plane and the Z-axis whose positive direction is vertically upward. It shows the original Cartesian coordinate system.
  • the positive direction on the X-axis coincides with the direction from the robot 101 to the work 300.
  • the X-axis, Y-axis, and Z-axis are the same in the drawings after FIG.
  • the actuator 102 operates the robot 101.
  • the actuator 102 is, for example, a joystick, a keyboard, a numeric keypad, a teach pendant, or the like.
  • the actuator 102 may be provided with a device that transmits force sense information or voice information detected by a force sense sensor provided in the end effector 20 of the robot 101 to the operator. Examples of the device include a vibration motor, a speaker, a mechanism for expanding and contracting a housing constituting a grip portion, and the like.
  • the actuator 102 may be provided with a switch 102B for instructing the work 300 to start or stop the above-mentioned work.
  • the actuator 102 may be a device that can be carried by the operator.
  • the display device 105 displays a three-dimensional model of the work 300, the robot 101, and the like. These three-dimensional models are output from the control device 111.
  • the display device 105 may be, for example, a stationary display device, or a head-mounted display or glasses worn and used by an operator.
  • FIG. 2 is a schematic diagram showing a schematic configuration of the robot 101.
  • the robot 101 includes joints of six links (first link 11a, second link 11b, third link 11c, fourth link 11d, fifth link 11e, and sixth link 11f). It includes six joints (first joint JT1, second joint JT2, third joint JT3, fourth joint JT4, fifth joint JT5 and sixth joint JT6), and a base 15 for supporting them.
  • the robot 101 is a vertical articulated robot.
  • the robot 101 may be a horizontal articulated robot instead of the vertical articulated robot.
  • the base 15 and the base end portion of the first link 11a are rotatably connected around an axis extending in the vertical direction.
  • the tip end portion of the first link 11a and the base end portion of the second link 11b are rotatably connected around an axis extending in the horizontal direction.
  • the tip end portion of the second link 11b and the base end portion of the third link 11c are rotatably connected around an axis extending in the horizontal direction.
  • the tip end portion of the third link 11c and the base end portion of the fourth link 11d are rotatably connected around an axis extending in the longitudinal direction of the fourth link 11d.
  • the tip end portion of the fourth link 11d and the base end portion of the fifth link 11e are rotatably connected around an axis orthogonal to the longitudinal direction of the fourth link 11d.
  • the tip end portion of the fifth link 11e and the base end portion of the sixth link 11f are rotatably connected to each other.
  • a mechanical interface is provided at the tip of the sixth link 11f.
  • An end effector 20 corresponding to the work content is detachably attached to the mechanical interface.
  • the end effector 20 sprays or sprays, for example, a liquid such as paint on the surface of the work 300.
  • a pipe 21 for supplying a liquid to the end effector 20 is connected to the end effector 20.
  • the end effector 20 may be configured to be able to perform any of the operations of welding, cutting, cleaning, and polishing the work 300 instead of applying the liquid to the work 300.
  • the drive motors are provided in the first joint JT1, the second joint JT2, the third joint JT3, the fourth joint JT4, the fifth joint JT5, and the sixth joint JT6, respectively.
  • the drive motor is an actuator that relatively rotates two members to which the joints JT1, JT2, JT3, JT4, JT5 and JT6 are connected.
  • the drive motor may be, for example, a servomotor that is servo-controlled by the control device 111.
  • the first joint JT1, the second joint JT2, the third joint JT3, the fourth joint JT4, the fifth joint JT5, and the sixth joint JT6 have a rotation sensor for detecting the rotation position of the drive motor and a drive motor, respectively.
  • a current sensor that detects the current that controls the rotation of the joint is provided.
  • the rotation sensor may be, for example, an encoder.
  • the control device 111 includes an arithmetic processor 111a such as a microprocessor and a CPU, and a storage device 111b such as a ROM and RAM. Information such as a basic program and various fixed data is stored in the storage device 111b.
  • the storage device 111b may store three-dimensional model information of a scale indicating a preset first range.
  • the three-dimensional model information of the scale may be, for example, a ruler for measuring the distance from the tip of the robot 101, or information indicating in a conical shape the range in which particles, liquids, or gases are injected onto the work 300. Good.
  • the arithmetic processing unit 111a executes various operations of the robot 101 by reading and executing software such as a basic program stored in the storage unit 111b.
  • the arithmetic processor 111a outputs the three-dimensional model of the work 300 stored in the storage device 111b and the three-dimensional model of the tip of the robot 101 to the display device 105.
  • the display device 105 described above displays the three-dimensional model of the work 300 input from the arithmetic processor 111a as the 3D work 301, and displays the three-dimensional model of the tip of the robot 101 as the 3D robot 101A.
  • the control device 111 causes the robot 101 to perform an injection operation of injecting particles, liquid, or gas onto the work 300.
  • the "work" of the injection work means a series of actions performed by the robot 101 on the work 300, and the actions include a plurality of actions.
  • the work includes, for example, an operation in which the robot 101 approaches the work 300, an operation in which the robot 101 starts injecting liquid to the work 300, an operation in which the robot 101 stops injecting liquid, and the robot 101 works.
  • the operation of moving away from 300 is included.
  • the control device 111 may be a single control device for centralized control, or may be a plurality of control devices for distributed control in cooperation with each other. Further, the control device 111 may be composed of a microcomputer, an MPU, a PLC (Programmable Logic Controller), a logic circuit, or the like.
  • FIG. 3 is a schematic view showing a state in which the work area 201 is viewed from the window 204.
  • the work 300 and the robot 101 may appear to overlap each other.
  • the robot 101 paints the work 300, it is necessary to install an explosion-proof camera in the work area 201. Explosion-proof cameras are expensive, which can increase equipment costs. Further, since it is necessary to change the position of the camera according to the size and type of the workpiece to be painted, the burden on the operator may increase.
  • the tip of the end effector 20 of the robot 101 and the work 300 are not included in the shooting range of the camera, for example, the sprayed paint, the light generated by welding, and the spray (spout) for cleaning or grinding.
  • the robot system 100 executes the following processing.
  • FIG. 4 is a flowchart showing an example of the operation of the robot system 100 according to the first embodiment.
  • the process shown in FIG. 4 is executed by the arithmetic processor 111a of the control device 111 reading the program stored in the storage device 111b.
  • the process shown in FIG. 4 is started when the operator gives an instruction to the work 300 to start executing the work by using an input device or the like, and the instruction information indicating the instruction is input to the control device 111.
  • an example of executing a painting operation as an operation will be described.
  • the arithmetic processor 111a acquires the first data which is the three-dimensional model data (three-dimensional model information) of the work 300 from the storage device 111b (step S101).
  • the first data is created in advance by a programmer and stored in the storage device 111b.
  • the arithmetic processor 111a acquires the position information of the first position, which is the transport position in the work area 201 of the work 300, from the storage device 111b (step S102).
  • the first position is a position where the work 300 is conveyed by the transfer device described later, and is a reference position for the robot 101 to perform an injection operation or the like on the work 300.
  • the arithmetic processor 111a acquires the second data, which is the three-dimensional model data (three-dimensional model information) of the robot 101, from the storage device 111b (step S103).
  • the second data like the first data, is created in advance by the programmer and stored in the storage device 111b.
  • the arithmetic processor 111a conveys the work 300 to the first position of the work area 201 by a conveying device such as a belt conveyor (step S104).
  • the arithmetic processor 111a may execute the processes of steps S101 to S103 before the instruction information is input, or may execute the processes after the execution of step S104.
  • the arithmetic processor 111a acquires the operation command information input from the operation device 102 (step S105), and operates the robot 101 based on the operation command information acquired in step S105 (step S106).
  • the positional relationship with the work 300 is represented by a three-dimensional model and displayed on the display device 105 (step S107).
  • the three-dimensional model of the robot 101 will be referred to as the 3D robot 101A
  • the three-dimensional model of the work 300 will be referred to as the 3D work 301.
  • the arithmetic processor 111a causes the display device 105 to display the 3D work 301 and the 3D robot 101A when the operator views the robot 101 from the operation area 202 from a direction different from the direction in which the robot 101 is viewed.
  • the “direction in which the operator is looking at the robot 101 from the operation area 202” is, for example, the direction in which the operator is looking at the robot 101 from the window 204 in the operation area 202 (in the example shown in FIG. The direction from the directional side to the positive side).
  • a motion sensor is arranged in the operation area 202, and the position coordinates of the operator detected by the motion sensor and the position coordinates of the robot 101.
  • a direction different from the direction in which the operator is looking at the robot 101 from the operation area 202 is a direction other than the direction from the negative direction side to the positive direction side on the X axis in the first embodiment. If there is, it may be any other direction, for example, a direction orthogonal to the X direction (Y direction or Z direction). Therefore, in step S107, the arithmetic processor 111a displays the 3D work 301 and the 3D robot 101A on the display device 105 when the robot 101 is viewed from a direction different from the direction from the negative direction side to the positive direction side on the X axis. Display it. Specifically, as shown in FIG.
  • the arithmetic processor 111a causes the display device 105 to display the positional relationship between the tip end portion of the end effector 20 of the robot 101 and the work 300 when viewed from the Y direction. As shown in FIG. 1, the arithmetic processor 111a may display the 3D scale 20A, which is a three-dimensional model of the scale, on the display device 105 at the tip of the 3D robot 101A.
  • the arithmetic processing unit 111a determines whether or not the instruction information indicating the end of the work for the work 300 has been input from the operator via the input device or the like (step S108).
  • step S108 determines that the instruction information indicating the end of the work has not been input (step S108: No)
  • step S105 determines that the instruction information indicating the end of the work for the work 300 has been input.
  • step S108 is repeatedly executed.
  • step S108: Yes when it is determined that the instruction information indicating the end of the work for the work 300 has been input (step S108: Yes), the arithmetic processing unit 111a ends this program.
  • the arithmetic processing unit 111a may store the operation information of the operating device 102, which is information indicating the work executed by the robot 101 by the operator operating the operating device 102, in the storage device 111b. Further, the arithmetic processing unit 111a may operate the robot 101 according to the operation information stored in the storage unit 111b.
  • the direction in which the control device 111 is looking at the robot 101 from the window 204 of the operation area 202 (here, the positive direction from the negative direction side on the X axis).
  • the positional relationship between the tip of the end effector 20 of the robot 101 and the work 300 when viewed from a direction different from the direction toward the side) is displayed on the display device 105 by a three-dimensional model. Therefore, the operator can remotely control the robot 101 without arranging an expensive explosion-proof camera in the work area 201, so that the equipment cost can be reduced. Further, since the operator does not need to change the position of the camera according to the change in the type and size of the work 300, the burden on the operator can be reduced. Therefore, the work efficiency of the operator can be improved.
  • control device 111 causes the display device 105 to display the positional relationship between the work 300 and the tip of the robot 101 as the 3D work 301 and the 3D robot 101A, respectively. , The burden on the operator can be reduced and the work efficiency can be improved.
  • control device 111 causes the display device 105 to display the 3D scale 20A at the tip of the end effector 20 (3D robot 101A) of the robot 101, which imposes a burden on the operator. It can be reduced and the work efficiency can be improved.
  • the control device 111 displays the three-dimensional model of the tip of the robot 101 on the display device 105 as the 3D robot 101A, but the present disclosure is not limited to this.
  • the control device 111 may display not only the front end portion of the robot 101 but also a three-dimensional model of, for example, the rear end portion of the robot 101 and other parts such as the entire robot 101 as the 3D robot 101A.
  • [Modification 1] 5 and 6 are schematic views showing a schematic configuration of the robot system of the first modification of the first embodiment.
  • the robot system 100 of the present modification 1 is a line 30 indicating the normal direction with respect to the first portion preset in the work 300 based on the three-dimensional model information of the work 300. Is different from the robot system 100 of the first embodiment described above in that the display device 105 is displayed and the alarm 150 is additionally provided.
  • the above-mentioned "first part” is a part facing the tip of the end effector 20 of the robot 101.
  • the alarm 150 notifies the operator of information that calls attention. In the first modification, the alarm 150 notifies that the line 30 and the axial direction of the end effector 20 in the 3D robot 101A coincide with each other.
  • As a method of notification character data, image data, or the like may be displayed on the display device 105, audio may be output to a speaker or the like, or a lamp may be made to emit light, depending on the content to be notified. The color of the light to be emitted may be different.
  • other terminal devices connected to the control device 111 wirelessly or by wire such as a smartphone, a mobile phone, or a tablet computer, may be notified by e-mail or an application.
  • the control device 111 changes the line thickness of the line 30 and causes the display device 105 to display the line 30. ..
  • the control device 111 may display the line 30 by changing the line color instead of the line thickness of the line 30, or change both the line thickness and the line color of the line 30. May be displayed.
  • the robot system 100 of the present modification 1 described above also has the same effects as the robot system 100 according to the first embodiment described above.
  • FIG. 7 is a schematic diagram showing a schematic configuration of the robot system according to the second embodiment.
  • the robot system 100 according to the second embodiment is provided with an additional transfer device 106 for transferring the work 300 from the operation area 202 to the work area 201, and the work 300 in the transfer device 106.
  • a shutter 107 that restricts movement is additionally provided.
  • the transport device 106 a known transport device such as a belt conveyor can be used.
  • the shutter 107 is attached to the wall member 203 and permits or prohibits the movement of the work 300 from the operation area 202 to the work area 201.
  • the shutter 107 may be omitted.
  • the robot system 100 according to the second embodiment described above also has the same effects as the robot system 100 according to the first embodiment described above.
  • FIG. 8 is a schematic diagram showing a schematic configuration of the robot system according to the third embodiment.
  • the sensor 104 is arranged in the operation area 202, and the operation device 102 includes the grip portion 102A and the main body portion 102E. It is different from the robot system 100 according to the first embodiment.
  • the sensor 104 wirelessly detects the position information and the posture information of the tip of the actuator 102 and outputs them to the control device 111.
  • the position information and the attitude information are output to the control device 111 by wireless or wired communication.
  • the sensor 104 is, for example, an infrared sensor.
  • the sensor 104 may be a camera instead of the infrared sensor. In this case, the sensor 104 does not have to be arranged in the operation area 202, and may be, for example, a camera provided in a mobile terminal or a head-mounted display carried by the operator.
  • the actuator 102 includes a grip portion 102A and a main body portion 102E.
  • the operator operates the robot 101 by gripping the grip portion 102A and operating the main body portion 102E. Specifically, by operating the robot 101 following the trajectory of the tip of the main body 102E, the operator can intuitively operate the robot 101 using the actuator 102 in the operation area 202.
  • the grip portion 102A may be provided with a device that transmits force sense information or voice information detected by a force sense sensor provided in the end effector 20 of the robot 101 to the operator.
  • Examples of the device include a vibration motor, a speaker, a mechanism for expanding and contracting a housing constituting a grip portion, and the like.
  • the main body 102E of the actuator 102 may be formed in the same shape as the end effector 20 of the robot 101.
  • the control device 111 calculates the trajectory of the actuator 102 based on the position information and the attitude information of the actuator 102 input from the sensor 104, and follows the movement of the tip portion of the actuator 102 in real time to end the robot 101. Operate the effector 20.
  • FIG. 9 is a flowchart showing an example of the operation of the robot system according to the third embodiment. As shown in FIG. 9, the operation of the robot system 100 according to the third embodiment is the same as the operation of the robot system 100 according to the first embodiment in that steps S105A and S105B are executed instead of step S105. different.
  • the arithmetic processor 111a acquires the position information and the posture information of the actuator 102 detected by the sensor 104 from the sensor 104 (step S105A).
  • the arithmetic processor 111a calculates the locus of the actuator 102 based on the position information and the posture information acquired in step S105A (step S105B).
  • the calculated locus corresponds to the operation command information.
  • the arithmetic processor 111a operates the robot 101 in real time based on the locus of the actuator 102 calculated in step S105B (step S106). After the execution of step S106, the above-mentioned S107 is executed, and the positional relationship between the tip of the end effector 20 of the robot 101 and the work 300 is displayed on the display device 105 by the three-dimensional model.
  • the robot system 100 according to the third embodiment described above also has the same effects as the robot system 100 according to the first embodiment described above.
  • the arithmetic processor 111a stores the locus information of the actuator 102, which is information indicating the work executed by the robot 101 based on the locus of the actuator 102 generated when the operator operates the actuator 102. It may be stored in the vessel 111b. Further, the arithmetic processing unit 111a may operate the robot 101 according to the locus information stored in the storage unit 111b.
  • FIG. 10 is a schematic diagram showing a schematic configuration of the robot system of the first modification in the third embodiment.
  • the robot system 100 of the present modification 1 includes a detector 12 that wirelessly detects the position information and the posture information of the actuator 102, and the position information and the posture detected by the detector 12. It differs from the robot system 100 according to the third embodiment in that it includes a transmitter 13 for transmitting information from the control device 111.
  • the detector 12 and the transmitter 13 correspond to the sensor 104.
  • the detector 12 is provided on the actuator 102.
  • the detector 12 is, for example, a gyro sensor.
  • the detector 12 may be a camera instead of the gyro sensor. Further, for example, the detector 12 may not detect both the position information and the posture information, may detect only the position information, or may detect only the posture information.
  • the robot system 100 of the present modification 1 described above also has the same effects as the robot system 100 according to the third embodiment described above.
  • FIG. 11 is a schematic diagram showing a schematic configuration of the robot system according to the fourth embodiment.
  • the robot system 100 according to the fourth embodiment is different from the robot system 100 according to the first embodiment in that the alarm 150 is arranged in the operation area 202. Since the alarm 150 is the same as the alarm 150 of the first modification in the first embodiment, detailed description thereof will be omitted.
  • FIGS. 12A and 12B are flowcharts showing an example of the operation of the robot system according to the fourth embodiment. As shown in FIGS. 12A and 12B, the operation of the robot system 100 according to the fourth embodiment is carried out in that the processes of steps S107A, S107B and S107C are executed between steps S107 and S108. This is different from the operation of the robot system 100 according to the first embodiment.
  • step S107 is executed, and the positional relationship between the tip of the end effector 20 of the robot 101 and the work 300 is displayed by a three-dimensional model based on the first data, the second data, and the operation command information.
  • the arithmetic processor 111a calculates the distance A between the robot 101 and the work 300 based on the first data, the second data, and the operation command information (step S107A).
  • the arithmetic processing unit 111a may calculate the shortest distance between the robot 101 and the work 300 as the distance A.
  • the shortest distance may be, for example, the distance between the portion of the robot 101 closest to the work 300 and the work 300.
  • the arithmetic processing unit 111a may calculate the distance between the tip of the end effector 20 and the work 300. Further, when a certain part of the robot 101 is located at the position closest to the work 300, the arithmetic processing unit 111a may calculate the distance between the part and the work 300. Since the distance A is calculated based on the first data, the second data, and the operation command information, 3D data can also be used. In this case, even if the distance between the 3D robot 101A and the 3D work 301 is calculated. Good.
  • the arithmetic processor 111a determines whether or not the distance A calculated in step S107A is equal to or less than the preset first distance (step S107B).
  • the first distance is set to a value according to the operating speed of the robot 101, the work content for the work 300, and the like.
  • the first distance is preferably 0.5 cm or more.
  • the first distance may be set smaller than when the operating speed of the robot 101 is high.
  • the first distance may be 30 cm.
  • the work content for the work 300 is welding, cutting, cleaning, and polishing work
  • the first distance is set smaller than when the work content for the work 300 is injection / spraying work of liquid or the like. ing.
  • step S107B: Yes the arithmetic processor 111a notifies the alarm 150 of a warning indicating that the robot 101 and the work 300 may collide with each other (step S107B: Yes).
  • step S107C the arithmetic processing unit 111a may reduce the operating speed of the robot 101 or may stop the robot 101. Therefore, since it is possible to inform the operator that the robot 101 and the work 300 may collide with each other, the operator uses the actuator 102 to avoid the collision between the work 300 and the robot 101. 101 can be operated.
  • step S107C the above-mentioned step S105 is executed.
  • step S107B determines that the distance A is not equal to or less than the first distance (step S107B: No)
  • the arithmetic processor 111a executes the above-mentioned step S108.
  • the robot system 100 according to the fourth embodiment described above also has the same effects as the robot system 100 according to the first embodiment described above.

Abstract

本開示のロボットシステム(100)は、作業エリア(201)内に設置されているロボット(101)と、操作器(102)と、表示装置(105)と、制御装置(111)と、を備え、制御装置(111)は、操作器(102)から入力されたロボット(101)の操作指令情報に基づいて、ロボット(101)を動作させてワーク(300)に対して予め定められた種類の作業を実行させている場合に、ワーク(300)の3次元モデル情報、ロボット(101)の3次元モデル情報、及び操作指令情報に基づいて、操作者が作業エリア(201)とは異なる空間である操作エリア(202)からロボット(101)を見ている方向とは異なる方向から見た場合におけるワーク(300)とロボット(101)との位置関係を表示装置(105)に表示させる。

Description

ロボットシステム 関連出願への相互参照
 本件出願は、2019年12月13日に日本特許庁に出願された特願2019-225563号の優先権を主張するものであり、その全体を参照することにより本件出願の一部となすものとして引用する。
 本開示は、ロボットシステムに関する。
 作業環境中のロボット遠隔的に操作制御するための遠隔操作制御装置が知られている(例えば、特許文献1参照)。特許文献1に開示されている遠隔操作制御装置では、作業環境の映像を捉えるカメラ、作業環境中でロボットによる作業の対象となる物体の位置姿勢等に関する情報などを環境モデルとして記憶する環境モデル記憶手段、カメラが捉えた映像と環境モデル記憶手段から得られる位置決めに関する情報を図形化して表示した画像とを合成した合成画像を生成する合成画像生成手段を備え、操作手段によりロボットの手動操作を行う際に合成画像を表示手段に表示して手動操作を誘導できるようにされている。
特開2003-311661号公報
 ところで、ワークに塗装するための塗装用ロボットは、防爆エリアに配置されている。このため、上記特許文献1に開示されている遠隔操作制御装置を用いて、作業者(操作者)が、塗装用ロボットを遠隔操作するためには、防爆エリアに防爆仕様のカメラを配置する必要がある。防爆仕様のカメラは高額であり、設備コストが増加する。また、塗装されるワークの大きさが変わると、カメラの撮影位置を変更する必要がある場合もある。このような場合には、作業者の作業負担が増加する。また、噴射された塗料により、ロボットの先端部分とワークがカメラから見えなくなる場合がある。このような場合にも、カメラの撮影位置を変更する必要があり、作業者の作業負担が増加する。同様に、溶接により発生する光、洗浄又は研削のために噴射(噴出)される流体により、ロボットの先端部分とワークがカメラから見えなくなる場合がある。このような場合にも、カメラの撮影位置を変更する必要があり、作業者の作業負担が増加する。
 本開示は、上述の課題を解決するもので、設備コストを低減できるロボットシステムを提供することを目的とする。また、操作者の負担を軽減して、作業効率を向上できるロボットシステムを提供することを目的とする。
 本開示のロボットシステムは、作業エリア内に設置されているロボットと、操作器と、表示装置と、制御装置と、を備え、前記制御装置は、前記操作器から入力された前記ロボットの操作指令情報に基づいて、前記ロボットを動作させてワークに対して予め定められた種類の作業を実行させている場合に、前記ワークの3次元モデル情報、前記ロボットの3次元モデル情報、及び前記操作指令情報に基づいて、操作者が前記作業エリアとは異なる空間である操作エリアから前記ロボットを見ている方向とは異なる方向から見た場合における前記ワークと前記ロボットとの位置関係を前記表示装置に表示させる。
 この形態のロボットシステムによれば、作業エリアにカメラを配置することなく、操作者が、ロボットを遠隔操作することができるため、設備コストの低減を図ることができる。ワークとロボットの先端部との位置関係が表示装置に表示されるので、操作者にワークとロボットの先端部との位置関係を知らしめることができる。このため、操作者の負担を軽減して、作業効率を向上させることができる。
図1は、本実施の形態1に係るロボットシステムの概略構成を示す模式図である。 図2は、ロボットの概略構成を示す模式図である。 図3は、窓から作業エリアを見た状態を示す模式図である。 図4は、本実施の形態1に係るロボットシステムの動作の一例を示すフローチャートである。 図5は、本実施の形態1における変形例1のロボットシステムの概略構成を示す模式図である。 図6は、本実施の形態1における変形例1のロボットシステムの概略構成を示す模式図である。 図7は、本実施の形態2に係るロボットシステムの概略構成を示す模式図である。 図8は、本実施の形態3に係るロボットシステムの概略構成を示す模式図である。 図9は、本実施の形態3に係るロボットシステムの動作の一例を示すフローチャートである。 図10は、本実施の形態3における変形例1のロボットシステムの概略構成を示す模式図である。 図11は、本実施の形態4に係るロボットシステムの概略構成を示す模式図である。 図12Aは、本実施の形態4に係るロボットシステムの動作の一例を示すフローチャートである。 図12Bは、本実施の形態4に係るロボットシステムの動作の一例を示すフローチャートである。
 以下、本開示の実施の形態を、図面を参照しながら説明する。なお、全ての図面において、同一又は相当部分には同一符号を付し、重複する説明は省略する。また、全ての図面において、本発明を説明するための構成要素を抜粋して図示しており、その他の構成要素については図示を省略している場合がある。さらに、本発明は以下の実施の形態に限定されない。
 (実施の形態1)
 [ロボットシステムの構成]
 図1は、本実施の形態1に係るロボットシステムの概略構成を示す模式図である。図1に示すように、ロボットシステム100は、ロボット101、操作器102、表示装置105、及び制御装置111を備える。
 ロボット101は、ワーク300に対して予め定められた種類の作業を行う。「予め定められた作業」とは、ワーク300の表面に対して粒体、液体、又は気体を噴霧又は噴射させる作業や、ワーク300を溶接、切削、洗浄、及び研磨する作業のうちのいずれかの作業を意味する。ロボット101は、操作者により操作器102が操作されることにより遠隔制御され、上述の作業を実行する。なお、ロボット101の詳細な構成については、後述する。
 ロボット101は、作業エリア201内に設置され、操作器102、表示装置105及び制御装置111は、操作エリア202に配置されている。作業エリア201は、少なくともロボット101の動作範囲内の空間を含む。操作エリア202は、作業エリア201とは異なる空間である。本実施形態では、作業エリア201と操作エリア202との間に壁部材203が設けられ、作業エリア201と操作エリア202とは、壁部材203によって区画されている。壁部材203には、透明部材からなる窓204が設けられており、操作者は、操作エリア202にいながら作業エリア201内のロボット101を視認できる。なお、作業エリア201は、防爆対応が施された防爆エリアであってもよく、操作エリア202は、防爆対応が施されていない非防爆エリアであってもよい。図1において、ロボット101が設置された空間である作業エリア201を規定する座標系を、水平面上において互いに直交するX軸およびY軸と、鉛直上向きを正方向とするZ軸によって規定される三次元直交座標系を示している。なお、X軸における正方向は、ロボット101からワーク300へ向かう方向と一致する。X軸、Y軸およびZ軸は図1以降の図においても同様である。
 操作器102は、ロボット101を操作する。操作器102は、例えば、ジョイスティック、キーボード、テンキー、ティーチペンダント等である。操作器102には、ロボット101のエンドエフェクタ20に設けられた力覚センサにより検知された力覚情報、又は音声情報を操作者に伝達する機器が配置されていてもよい。当該機器としては、例えば、振動モータ、スピーカー、把持部を構成する筐体を伸縮させる機構等が挙げられる。操作器102には、ワーク300に対する上述の作業の開始や、停止を指示するスイッチ102Bが設けられていてもよい。操作器102は、操作者が持ち運び可能な装置であってもよい。
 表示装置105は、ワーク300及びロボット101等の3次元モデルを表示する。これらの3次元モデルは、制御装置111から出力される。表示装置105は、例えば、据え置き型の表示装置であってもよいし、操作者に装着されて用いられるヘッドマウントディスプレイやメガネであってもよい。
 図2は、ロボット101の概略構成を示す模式図である。図2に示すように、ロボット101は、6つのリンク(第1リンク11a、第2リンク11b、第3リンク11c、第4リンク11d、第5リンク11eおよび第6リンク11f)の連接体と、6つの関節(第1関節JT1、第2関節JT2、第3関節JT3、第4関節JT4、第5関節JT5および第6関節JT6)と、これらを支持する基台15とを備える。ロボット101は、垂直多関節型のロボットである。なお、ロボット101は、垂直多関節型ロボットに代えて、水平多関節型ロボットであってもよい。
 第1関節JT1では、基台15と、第1リンク11aの基端部とが、鉛直方向に延びる軸回りに回転可能に連結されている。第2関節JT2では、第1リンク11aの先端部と、第2リンク11bの基端部とが、水平方向に延びる軸回りに回転可能に連結されている。第3関節JT3では、第2リンク11bの先端部と、第3リンク11cの基端部とが、水平方向に延びる軸回りに回転可能に連結されている。第4関節JT4では、第3リンク11cの先端部と、第4リンク11dの基端部とが、第4リンク11dの長手方向に延びる軸回りに回転可能に連結されている。第5関節JT5では、第4リンク11dの先端部と、第5リンク11eの基端部とが、第4リンク11dの長手方向と直交する軸回りに回転可能に連結されている。第6関節JT6では、第5リンク11eの先端部と第6リンク11fの基端部とが、捻れ回転可能に連結されている。第6リンク11fの先端部には、メカニカルインターフェースが設けられている。メカニカルインターフェースには、作業内容に対応したエンドエフェクタ20が着脱可能に装着される。
 エンドエフェクタ20は、ワーク300の表面に、例えば、塗料等の液体を噴霧又は噴射する。エンドエフェクタ20には、液体を当該エンドエフェクタ20に供給するための配管21が接続されている。エンドエフェクタ20は、ワーク300に対する液体の塗布に代えて、ワーク300を溶接、切削、洗浄、及び研磨する作業のうちのいずれかの作業を実行できるように構成されていてもよい。
 第1関節JT1、第2関節JT2、第3関節JT3、第4関節JT4、第5関節JT5および第6関節JT6には、それぞれ、駆動モータが設けられている。駆動モータは、各関節JT1、JT2、JT3、JT4、JT5およびJT6が連結する2つの部材を相対的に回転させるアクチュエータである。駆動モータは、例えば、制御装置111によってサーボ制御されるサーボモータであってもよい。また、第1関節JT1、第2関節JT2、第3関節JT3、第4関節JT4、第5関節JT5および第6関節JT6には、それぞれ、駆動モータの回転位置を検出する回転センサと、駆動モータの回転を制御する電流を検出する電流センサとが設けられている。回転センサは、例えば、エンコーダであってもよい。
 制御装置111は、マイクロプロセッサ、CPU等の演算処理器111aと、ROM、RAM等の記憶器111bとを備える。記憶器111bには、基本プログラム、各種固定データ等の情報が記憶されている。記憶器111bには、予め設定された第1範囲を示すスケールの3次元モデル情報が記憶されていてもよい。スケールの3次元モデル情報は、例えば、ロボット101の先端からの距離を測るための物差しや、ワーク300に対して粒体、液体又は気体が噴射される範囲を円錐状に示す情報であってもよい。
 演算処理器111aは、記憶器111bに記憶されている基本プログラム等のソフトウェアを読み出して実行することにより、ロボット101の各種の動作を実行する。演算処理器111aは、記憶器111bに記憶されているワーク300の3次元モデルとロボット101の先端部の3次元モデルとを表示装置105に出力する。上述の表示装置105は、演算処理器111aから入力されたワーク300の3次元モデルを3Dワーク301として表示し、ロボット101の先端部の3次元モデルを3Dロボット101Aとして表示する。
 制御装置111は、ワーク300に対して粒体、液体又は気体を噴射する噴射作業をロボット101に実行させる。本実施形態において噴射作業の「作業」とは、ロボット101が、ワーク300に対して実行する一連の動作を意味し、動作には複数の動作を含む。作業には、例えば、ロボット101がワーク300に近接する動作、ロボット101がワーク300に対して液体の噴射等を開始する動作、ロボット101が液体の噴射等を停止する動作、及びロボット101がワーク300から離間する動作が含まれる。なお、制御装置111は、集中制御する単独の制御装置であってもよいし、互いに協働して分散制御する複数の制御装置であってもよい。また、制御装置111は、マイクロコンピュータで構成されていてもよいし、MPU、PLC(Programmable Logic Controller)、論理回路等によって構成されていてもよい。
 [ロボットシステムの動作及び作用効果]
 図3は、窓204から作業エリア201を見た状態を示す模式図である。図3に示すように、操作者が窓204から作業エリア201を見たとき、ワーク300とロボット101とが重なって見える場合がある。また、ロボット101のエンドエフェクタ20の先端部とワーク300との位置関係を把握しにくい場合がある。このような場合、作業エリア201内にカメラを設置し、ロボット101のエンドエフェクタ20の先端部とワーク300とを撮影して、撮影された映像を操作者に提示することが考えられる。
 しかしながら、ロボット101がワーク300を塗装する場合には、防爆仕様のカメラを作業エリア201に設置する必要がある。防爆仕様のカメラは高額であるため、設備コストが増加するおそれがある。また、塗装されるワークの大きさや種類に応じてカメラの位置を変更する必要があるため、作業者の負担が増加するおそれがある。また、ロボット101のエンドエフェクタ20の先端部とワーク300とがカメラの撮影範囲に含まれなくなる場合、例えば、噴射された塗料や、溶接により発生する光、洗浄又は研削のために噴射(噴出)される流体によりエンドエフェクタ20の先端部とワーク300とがカメラから見えなくなる場合や、には、カメラの位置を変更する必要があるため、作業者の負担が増加するおそれがある。このため、ロボットシステム100では、以下の処理を実行する。
 図4は、本実施の形態1に係るロボットシステム100の動作の一例を示すフローチャートである。図4に示す処理は、制御装置111の演算処理器111aが、記憶器111bに格納されているプログラムを読み出すことにより実行される。図4に示す処理は、操作者が入力器等を用いて、ワーク300に対する作業の実行開始の指示を行い、該指示を示す指示情報が制御装置111に入力されると開始される。本実施形態では、作業として塗装作業を実行する例を用いて説明する。
 演算処理器111aは、記憶器111bからワーク300の3次元モデルデータ(3次元モデル情報)である第1データを取得する(ステップS101)。なお、第1データは、予めプログラマにより作成され、記憶器111bに記憶されている。
 演算処理器111aは、ワーク300の作業エリア201内の搬送位置である第1位置の位置情報を記憶器111bから取得する(ステップS102)。第1位置とは、後述の搬送装置によってワーク300が搬送される位置であり、ワーク300に対してロボット101が噴射作業等を実行するための基準となる位置である。
 演算処理器111aは、ロボット101の3次元モデルデータ(3次元モデル情報)である第2データを記憶器111bから取得する(ステップS103)。なお、第2データは、第1データと同様に、予めプログラマにより作成され、記憶器111bに記憶されている。
 演算処理器111aは、ベルトコンベア等の搬送装置にワーク300を作業エリア201の第1位置に搬送させる(ステップS104)。なお、演算処理器111aは、ステップS101からステップS103の処理を指示情報が入力される前に実行してもよいし、ステップS104の実行後に実行してもよい。
 演算処理器111aは、操作器102から入力された操作指令情報を取得し(ステップS105)、ステップS105で取得された操作指令情報を基にロボット101を動作させる(ステップS106)。
 演算処理器111aは、ステップS101からステップS103において取得した第1データ、第1位置及び第2データと、ステップS105において取得した操作指令情報とを基に、ロボット101のエンドエフェクタ20の先端部と、ワーク300との位置関係を、3次元モデルにより表して表示装置105に表示させる(ステップS107)。なお、以降の説明においては、ロボット101の3次元モデルを3Dロボット101Aと称し、ワーク300の3次元モデルを3Dワーク301と称する。
 具体的には、演算処理器111aは、操作者が操作エリア202からロボット101を見ている方向とは異なる方向から見た場合における3Dワーク301と3Dロボット101Aとを表示装置105に表示させる。「操作者が操作エリア202からロボット101を見ている方向」とは、例えば、操作者が操作エリア202の窓204からロボット101を見ている方向(図1に示す例では、X軸における負方向側から正方向側に向かう方向)である。なお、操作者が操作エリア202からロボット101を見ている方向は、操作エリア202に人感センサを配置しておき、当該人感センサにより検知された操作者の位置座標とロボット101の位置座標とを結ぶ直線方向であってもよい。また、「操作者が操作エリア202からロボット101を見ている方向とは異なる方向」とは、本実施の形態1においては、X軸における負方向側から正方向側に向かう方向以外の方向であれば、他の任意の方向であってもよく、例えば、X方向と直交する方向(Y方向又はZ方向)であってもよい。したがって、ステップS107において、演算処理器111aは、X軸における負方向側から正方向側へ向かう方向とは異なる方向からロボット101を見た場合における3Dワーク301と3Dロボット101Aとを表示装置105に表示させる。詳細には、演算処理器111aは、図1に示すように、Y方向から見た場合のロボット101のエンドエフェクタ20の先端部とワーク300との位置関係を表示装置105に表示させる。なお、図1に示すように、演算処理器111aは、3Dロボット101Aの先端にスケールの3次元モデルである3Dスケール20Aを表示装置105に表示してもよい。
 演算処理器111aは、操作者から入力器等を介して、ワーク300に対する作業の終了を示す指示情報が入力されたか否かを判定する(ステップS108)。
 演算処理器111aは、作業の終了を示す指示情報が入力されていないと判定した場合(ステップS108:No)、ワーク300に対する作業の終了を示す指示情報が入力されたと判定するまで、ステップS105からステップS108の処理を繰り返し実行する。一方、演算処理器111aは、ワーク300に対する作業の終了を示す指示情報が入力されたと判定した場合(ステップS108:Yes)には、本プログラムを終了する。
 なお、演算処理器111aは、操作者が操作器102を操作することによりロボット101に実行させた作業を示す情報である操作器102の操作情報を記憶器111bに記憶させてもよい。また、演算処理器111aは、記憶器111bに記憶された操作情報に従って、ロボット101を動作させてもよい。
 以上説明した本実施の形態1に係るロボットシステム100では、制御装置111が、操作者が操作エリア202の窓204からロボット101を見ている方向(ここでは、X軸における負方向側から正方向側に向かう方向)とは異なる方向から見た場合における、ロボット101のエンドエフェクタ20の先端部と、ワーク300との位置関係を、3次元モデルにより表示装置105に表示させる。このため、作業エリア201に高額な防爆仕様のカメラを配置することなく、操作者がロボット101を遠隔操作することができるので、設備コストを低減できる。また、操作者は、ワーク300の種類や大きさの変更に伴ってカメラの位置を変更する必要がないため、操作者の負担を軽減できる。このため、操作者の作業効率を向上できる。
 また、本実施の形態1に係るロボットシステム100では、制御装置111が、ワーク300とロボット101の先端部の位置関係が、それぞれ、3Dワーク301と3Dロボット101Aとして、表示装置105に表示させるので、操作者の負担を軽減して、作業効率を向上させることができる。
 さらに、本実施の形態1に係るロボットシステム100では、制御装置111が、ロボット101のエンドエフェクタ20(3Dロボット101A)の先端に3Dスケール20Aを表示装置105に表示させるので、操作者の負担を軽減して、作業効率を向上させることができる。
 なお、上述のロボットシステム100では、制御装置111は、ロボット101の先端部の3次元モデルを3Dロボット101Aとして表示装置105に表示させていたが、本開示はこれに限定されない。例えば、制御装置111は、ロボット101の先端部だけでなく、例えば、ロボット101の後端部、およびロボット101全体等の他の部分の3次元モデルを3Dロボット101Aとして表示してもよい。
 [変形例1]
 図5及び図6は、本実施の形態1における変形例1のロボットシステムの概略構成を示す模式図である。図5及び図6に示すように、本変形例1のロボットシステム100はワーク300の3次元モデル情報に基づいて、当該ワーク300において予め設定されている第1部分に対する法線方向を示すライン30を表示装置105に表示させる点と、報知器150を追加して備える点とにおいて、上述の実施の形態1のロボットシステム100と異なる。
 上述の「第1部分」とは、ロボット101のエンドエフェクタ20の先端と対向する部分である。報知器150は、操作者に対して注意を促す情報を報知する。本変形例1においては、報知器150は、ライン30と3Dロボット101Aにおけるエンドエフェクタ20の軸心方向とが一致したことを報知する。報知の方法としては、文字データ又は画像データ等を表示装置105に表示させてもよいし、音声をスピーカー等に出力させてもよいし、ランプを発光させてもよく、報知する内容に応じて発光させる光の色を異ならせてもよい。また、スマートフォン、携帯電話、又はタブレット型コンピュータ等の無線や有線によって制御装置111に接続された他の端末機器にメール又はアプリケーションにより報知してもよい。
 図6に示すように、ライン30と3Dロボット101Aにおけるエンドエフェクタ20の軸心方向とが一致した場合、制御装置111は、ライン30の線の太さを変更して、表示装置105に表示させる。なお、制御装置111は、ライン30の線の太さに代えて、ライン30の線の色を変更して表示させてもよいし、ライン30の線の太さと線の色とのいずれも変更して表示させてもよい。
 以上説明した本変形例1のロボットシステム100においても、上述の実施の形態1に係るロボットシステム100と同様の作用効果を奏する。
 (実施の形態2)
 [ロボットシステムの構成]
 図7は、本実施の形態2に係るロボットシステムの概略構成を示す模式図である。図7に示すように、本実施の形態2に係るロボットシステム100は、操作エリア202から作業エリア201へワーク300を搬送する搬送装置106を追加して備える点と、搬送装置106におけるワーク300の移動を制限するシャッター107を追加して備える点とにおいて、実施の形態1に係るロボットシステム100と異なる。搬送装置106は、ベルトコンベア等、公知の搬送装置を用いることができる。シャッター107は、壁部材203に取り付けられ、操作エリア202から作業エリア201へのワーク300の移動を許可、または禁止する。なお、シャッター107を省略してもよい。
 以上説明した本実施の形態2に係るロボットシステム100においても、上述の実施の形態1に係るロボットシステム100と同様の作用効果を奏する。
 (実施の形態3)
 [ロボットシステムの構成]
 図8は、本実施の形態3に係るロボットシステムの概略構成を示す模式図である。図8に示すように、本実施の形態3に係るロボットシステム100は、操作エリア202にセンサ104が配置されている点と、操作器102が把持部102Aおよび本体部102Eを備える点とにおいて、実施の形態1に係るロボットシステム100と異なる。
 センサ104は、操作器102の先端部の位置情報及び姿勢情報を無線により検出し、制御装置111に出力する。位置情報および姿勢情報の制御装置111への出力は、無線又は有線による通信により行われる。センサ104は、例えば、赤外線センサである。なお、センサ104は、赤外線センサに代えて、カメラであってもよい。この場合、センサ104は、操作エリア202内に配置されていなくてもよく、例えば、操作者が携帯している携帯端末又はヘッドマウントディスプレイ等に設けられたカメラであってもよい。
 操作器102は、把持部102Aと本体部102Eとを備える。操作者は、把持部102Aを把持して本体部102Eを操作することにより、ロボット101を操作する。具体的には、本体部102Eの先端部の軌跡に追従してロボット101を動作させることで、操作者は、操作エリア202内で操作器102を用いてロボット101を直感的に操作できる。
 把持部102Aには、ロボット101のエンドエフェクタ20に設けられた力覚センサにより検知された力覚情報、又は音声情報を操作者に伝達する機器が配置されていてもよい。当該機器としては、例えば、振動モータ、スピーカー、把持部を構成する筐体を伸縮させる機構等が挙げられる。なお、操作器102の本体部102Eは、ロボット101のエンドエフェクタ20と同様の形状に形成されていてもよい。
 制御装置111は、センサ104から入力された操作器102の位置情報及び姿勢情報を基に操作器102の軌跡を算出し、操作器102の先端部の動きに追従してリアルタイムにロボット101のエンドエフェクタ20を動作させる。
 [ロボットシステムの動作及び作用効果]
 図9は、本実施の形態3に係るロボットシステムの動作の一例を示すフローチャートである。図9に示すように、本実施の形態3に係るロボットシステム100の動作は、ステップS105に代えて、ステップS105A及びステップS105Bを実行する点において、実施の形態1に係るロボットシステム100の動作と異なる。
 具体的には、演算処理器111aは、センサ104から当該センサ104により検出された操作器102の位置情報及び姿勢情報を取得する(ステップS105A)。演算処理器111aは、ステップS105Aで取得された位置情報及び姿勢情報を基に、操作器102の軌跡を算出する(ステップS105B)。なお、算出された軌跡は、操作指令情報に相当する。
 演算処理器111aは、ステップS105Bで算出された操作器102の軌跡を基に、リアルタイムにロボット101を動作させる(ステップS106)。ステップS106の実行後、上述のS107が実行されて、ロボット101のエンドエフェクタ20の先端部とワーク300との位置関係が3次元モデルにより表示装置105に表示される。
 以上説明した本実施の形態3に係るロボットシステム100においても、上述の実施の形態1に係るロボットシステム100と同様の作用効果を奏する。
 なお、演算処理器111aは、操作者が操作器102を操作することに伴って生じる操作器102の軌跡に基づいてロボット101に実行させた作業を示す情報である操作器102の軌跡情報を記憶器111bに記憶させてもよい。また、演算処理器111aは、記憶器111bに記憶された軌跡情報に従って、ロボット101を動作させてもよい。
 [変形例1]
 図10は、本実施の形態3における変形例1のロボットシステムの概略構成を示す模式図である。図10に示すように、本変形例1のロボットシステム100は、操作器102の位置情報及び姿勢情報を無線により検出する検出器12を備える点と、検出器12により検出された位置情報及び姿勢情報を制御装置111の送信する送信器13を備える点とにおいて、実施の形態3に係るロボットシステム100と異なる。なお、本変形例1においては、検出器12と送信器13とがセンサ104に相当する。
 検出器12は、操作器102に設けられている。検出器12は、例えば、ジャイロセンサである。なお、検出器12は、ジャイロセンサに代えて、カメラであってもよい。また、例えば、検出器12は、位置情報と姿勢情報との両方を検出しなくてもよく、位置情報のみを検出してもよいし、姿勢情報のみを検出してもよい。
 以上説明した本変形例1のロボットシステム100においても、上述の実施の形態3に係るロボットシステム100と同様の作用効果を奏する。
 (実施の形態4)
 [ロボットシステムの構成]
 図11は、本実施の形態4に係るロボットシステムの概略構成を示す模式図である。図11に示すように、本実施の形態4に係るロボットシステム100は操作エリア202に報知器150が配置されている点において、実施の形態1に係るロボットシステム100と異なる。報知器150は、実施の形態1における変形例1の報知器150と同じであるので、詳細な説明は省略する。
 [ロボットシステムの動作及び作用効果]
 図12A及び図12Bは、本実施の形態4に係るロボットシステムの動作の一例を示すフローチャートである。図12A及び図12Bに示すように、本実施の形態4に係るロボットシステム100の動作は、ステップS107とステップS108との間にステップS107A、S107BおよびステップS107Cの処理を実行する点において、実施の形態1に係るロボットシステム100の動作と異なる。
 具体的には、上述のステップS107が実行されて、第1データ、第2データ及び操作指令情報に基づいてロボット101のエンドエフェクタ20の先端部とワーク300との位置関係が3次元モデルにより表示装置105に表示されると、演算処理器111aは、第1データ、第2データ及び操作指令情報を基にロボット101とワーク300との距離Aを算出する(ステップS107A)。このとき、演算処理器111aは、距離Aとして、ロボット101とワーク300との最短距離を算出してもよい。最短距離は、例えば、ロボット101においてワーク300に最も近い部分と、ワーク300との距離としてもよい。すなわち、ロボット101のエンドエフェクタ20の先端がワーク300と最も近い位置に位置している場合には、演算処理器111aは、エンドエフェクタ20の先端とワーク300との距離を算出すればよい。また、ロボット101の或る部分が、ワーク300と最も近い位置に位置している場合には、演算処理器111aは、当該部分とワーク300との距離を算出すればよい。なお、距離Aは第1データ、第2データ及び操作指令情報に基づき算出されることから、3Dデータを用いることもでき、この場合、3Dロボット101Aと3Dワーク301との距離が算出されてもよい。
 演算処理器111aは、ステップS107Aで算出された距離Aが予め設定されている第1距離以下であるか否かを判定する(ステップS107B)。本実施形態において第1距離は、ロボット101の動作速度、及びワーク300に対する作業内容等に応じた値に設定されている。例えば、ロボット101とワーク300との衝突を抑制する観点から、第1距離は0.5cm以上であることが好ましい。また、例えば、ロボット101の動作速度が小さい場合、ロボット101の動作速度が大きい場合に比べて第1距離は小さく設定されていてもよい。また、例えば、ワーク300に対して作業を実行する観点から、第1距離は30cmであってもよい。また、例えば、ワーク300に対する作業内容が溶接、切削、洗浄、及び研磨作業である場合、ワーク300に対する作業内容が液体等の噴射/噴霧作業である場合に比べて、第1距離は小さく設定されている。
 演算処理器111aは、距離Aが第1距離以下であると判定した場合(ステップS107B:Yes)、ロボット101とワーク300とが衝突するおそれがあることを示す警告を報知器150に報知させる(ステップS107C)。このとき、演算処理器111aは、ロボット101の動作速度を小さくしてもよく、ロボット101を停止させてもよい。したがって、ロボット101とワーク300とが衝突するおそれがあることを操作者に知らしめることができるので、操作者は、操作器102を用いてワーク300とロボット101との衝突を回避するようにロボット101を操作できる。ステップS107Cの実行後、上述のステップS105が実行される。
 一方、演算処理器111aは、距離Aが第1距離以下ではないと判定した場合(ステップS107B:No)には、上述のステップS108を実行する。
 以上説明した本実施の形態4に係るロボットシステム100においても、上述の実施の形態1に係るロボットシステム100と同様の作用効果を奏する。
 上記説明から、当業者にとっては、本開示の多くの改良又は他の実施形態が明らかである。従って、上記説明は、例示としてのみ解釈されるべきであり、本開示を実行する最良の態様を当業者に教示する目的で提供されたものである。本開示を逸脱することなく、その構造及び/又は機能の詳細を実質的に変更できる。
 11a 第1リンク
 11b 第2リンク
 11c 第3リンク
 11d 第4リンク
 11e 第5リンク
 11f 第6リンク
 12 検出器
 13 送信器
 15 基台
 20 エンドエフェクタ
 21 配管
 30 ライン
 100 ロボットシステム
 101 ロボット
 101A 3Dロボット
 102 操作器
 102A 把持部
 102B スイッチ
 102E 本体部
 104 センサ
 105 表示装置
 106 搬送装置
 107 シャッター
 110 制御装置
 150 報知器
 201 作業エリア
 202 操作エリア
 203 壁部材
 204 窓
 300 ワーク
 301 3Dワーク
 JT1 第1関節
 JT2 第2関節
 JT3 第3関節
 JT4 第4関節
 JT5 第5関節
 JT6 第6関節
 

Claims (9)

  1.  作業エリア内に設置されているロボットと、
     操作器と、
     表示装置と、
     制御装置と、を備え、
     前記制御装置は、
      前記操作器から入力された前記ロボットの操作指令情報に基づいて、前記ロボットを動作させてワークに対して予め定められた種類の作業を実行させている場合に、前記ワークの3次元モデル情報、前記ロボットの3次元モデル情報、及び前記操作指令情報に基づいて、操作者が前記作業エリアとは異なる空間である操作エリアから前記ロボットを見ている方向とは異なる方向から見た場合における前記ワークと前記ロボットとの位置関係を前記表示装置に表示させる、ロボットシステム。
  2.  前記異なる方向は、前記操作者が前記操作エリアから前記ロボットを見ている方向に対して直交する方向である、請求項1に記載のロボットシステム。
  3.  前記ワークを前記作業エリアの予め設定されている第1位置に搬送する搬送装置をさらに備える、請求項1又は請求項2に記載のロボットシステム。
  4.  前記操作エリアに配置され、前記操作器の位置情報及び姿勢情報を無線により検出するセンサをさらに備え、
     前記制御装置は、
      前記センサにより検出された前記位置情報及び前記姿勢情報に基づいて、前記操作器の軌跡を算出し、
      算出された前記軌跡に基づいて前記ロボットをリアルタイムに動作させることにより、前記ロボットに前記作業を実行させる、請求項1から請求項3までのいずれか1項に記載のロボットシステム。
  5.  前記制御装置は、
      予め設定された第1範囲を示すスケールの3次元モデル情報が記憶されている記憶器をさらに備え、
      前記表示装置に表示された前記ロボットのエンドエフェクタの先端に前記スケールの3次元モデルを表示させる、請求項1から請求項4までのいずれか1項に記載のロボットシステム。
  6.  前記制御装置は、
      前記ワークの3次元モデル情報に基づいて、当該ワークにおいて予め設定されている第1部分に対する法線方向を示すラインを前記表示装置に表示させ、
      前記ラインと前記ロボットのエンドエフェクタの軸心方向とが一致した場合に、前記ラインの色と前記ラインの太さとのうちの少なくとも一つを変更して前記表示装置に前記ラインを表示させる、請求項1から請求項5までのいずれか1項に記載のロボットシステム。
  7.  報知器をさらに備え、
     前記制御装置は、
      前記ラインと前記ロボットのエンドエフェクタの軸心方向とが一致した場合に、前記報知器を作動させる、請求項6に記載のロボットシステム。
  8.  前記第1部分は、前記エンドエフェクタの先端と対向する部分である、請求項6又は請求項7に記載のロボットシステム。
  9.  報知器をさらに備え、
     前記制御装置は、前記ロボットと前記ワークとの距離が予め設定された第1距離以下である場合、前記報知器を作動させる、請求項1から請求項8までのいずれか1項に記載のロボットシステム。
     
PCT/JP2020/046295 2019-12-13 2020-12-11 ロボットシステム WO2021117871A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP20898428.6A EP4074463A4 (en) 2019-12-13 2020-12-11 ROBOT SYSTEM
JP2021506356A JP6990340B2 (ja) 2019-12-13 2020-12-11 ロボットシステム
CN202080084991.XA CN114761180A (zh) 2019-12-13 2020-12-11 机器人系统
US17/783,650 US20230010975A1 (en) 2019-12-13 2020-12-11 Robot system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-225563 2019-12-13
JP2019225563 2019-12-13

Publications (1)

Publication Number Publication Date
WO2021117871A1 true WO2021117871A1 (ja) 2021-06-17

Family

ID=76330014

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/046295 WO2021117871A1 (ja) 2019-12-13 2020-12-11 ロボットシステム

Country Status (5)

Country Link
US (1) US20230010975A1 (ja)
EP (1) EP4074463A4 (ja)
JP (2) JP6990340B2 (ja)
CN (1) CN114761180A (ja)
WO (1) WO2021117871A1 (ja)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01153288A (ja) * 1987-12-10 1989-06-15 Mitsubishi Electric Corp 遠隔操作式マニピュレータ操作装置
JPH0639753A (ja) * 1991-09-18 1994-02-15 Fujitsu Ltd ロボットの遠隔操作支援装置
JPH06143161A (ja) * 1992-10-29 1994-05-24 Kobe Steel Ltd マニピュレータの制御方法及びその装置
JPH0749711A (ja) * 1993-08-05 1995-02-21 Brother Ind Ltd ロボットの安全装置
JPH07213966A (ja) * 1994-02-03 1995-08-15 Mitsubishi Heavy Ind Ltd 塗装ブース
JP2003311661A (ja) 2002-04-24 2003-11-05 Hitachi Ltd 遠隔操作制御装置
JP2007320009A (ja) * 2006-06-05 2007-12-13 Toshiba Mach Co Ltd ロボットにおける回転体干渉回避制御方法及び回転体干渉回避制御装置並びにこれを有する塗装装置
JP2007326160A (ja) * 2006-06-06 2007-12-20 Fanuc Ltd ロボットシミュレーション装置
JP2019000947A (ja) * 2017-06-16 2019-01-10 タクボエンジニアリング株式会社 塗装ロボットにおける軌道データのシミュレーション方法
JP2019000814A (ja) * 2017-06-16 2019-01-10 タクボエンジニアリング株式会社 塗装ロボットにおける軌道データのシミュレーション方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10264065A (ja) * 1997-03-27 1998-10-06 Mitsubishi Electric Corp ロボットの遠隔操作支援装置
KR101762638B1 (ko) * 2009-11-13 2017-07-28 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 최소 침습 수술 시스템에서 손 제스처 제어를 위한 방법 및 장치
JP5816527B2 (ja) * 2011-11-08 2015-11-18 オリンパス株式会社 医療用処置具およびこれを備えるマニピュレータ
US10442025B2 (en) * 2014-10-22 2019-10-15 Illinois Tool Works Inc. Virtual reality controlled mobile robot
KR102015522B1 (ko) * 2015-08-25 2019-08-28 카와사키 주코교 카부시키 카이샤 로봇시스템과 그 운전방법
EP3465362B1 (en) * 2016-05-27 2022-07-06 ABB Schweiz AG User interface for a teleoperated robot
EP3547267A4 (en) * 2016-11-24 2020-11-25 Kyoto University ROBOT CONTROL SYSTEM, MACHINE CONTROL SYSTEM, ROBOT CONTROL METHOD, MACHINE CONTROL METHOD, AND RECORDING MEDIUM
JP7169130B2 (ja) * 2018-09-03 2022-11-10 川崎重工業株式会社 ロボットシステム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01153288A (ja) * 1987-12-10 1989-06-15 Mitsubishi Electric Corp 遠隔操作式マニピュレータ操作装置
JPH0639753A (ja) * 1991-09-18 1994-02-15 Fujitsu Ltd ロボットの遠隔操作支援装置
JPH06143161A (ja) * 1992-10-29 1994-05-24 Kobe Steel Ltd マニピュレータの制御方法及びその装置
JPH0749711A (ja) * 1993-08-05 1995-02-21 Brother Ind Ltd ロボットの安全装置
JPH07213966A (ja) * 1994-02-03 1995-08-15 Mitsubishi Heavy Ind Ltd 塗装ブース
JP2003311661A (ja) 2002-04-24 2003-11-05 Hitachi Ltd 遠隔操作制御装置
JP2007320009A (ja) * 2006-06-05 2007-12-13 Toshiba Mach Co Ltd ロボットにおける回転体干渉回避制御方法及び回転体干渉回避制御装置並びにこれを有する塗装装置
JP2007326160A (ja) * 2006-06-06 2007-12-20 Fanuc Ltd ロボットシミュレーション装置
JP2019000947A (ja) * 2017-06-16 2019-01-10 タクボエンジニアリング株式会社 塗装ロボットにおける軌道データのシミュレーション方法
JP2019000814A (ja) * 2017-06-16 2019-01-10 タクボエンジニアリング株式会社 塗装ロボットにおける軌道データのシミュレーション方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4074463A4

Also Published As

Publication number Publication date
CN114761180A (zh) 2022-07-15
US20230010975A1 (en) 2023-01-12
EP4074463A1 (en) 2022-10-19
JP6990340B2 (ja) 2022-01-12
JPWO2021117871A1 (ja) 2021-12-09
EP4074463A4 (en) 2024-01-31
JP2021185014A (ja) 2021-12-09

Similar Documents

Publication Publication Date Title
EP3342549B1 (en) Remote control robot system and method of operating the same
US9849595B2 (en) Contact force limiting with haptic feedback for a tele-operated robot
CN111093903B (zh) 机器人系统及其运行方法
US20150298318A1 (en) Teleoperation Of Machines Having At Least One Actuated Mechanism
JP6821374B2 (ja) ロボットシステム及びその運転方法
JP6905651B1 (ja) ロボットシステム及びワークの3次元モデルの形成方法
CN109789555B (zh) 机器人系统及其运转方法
WO2021117871A1 (ja) ロボットシステム
CN112041128A (zh) 机器人的教导方法和机器人的教导系统
CN112936258A (zh) 一种面向空中作业机器人的人机协作系统及方法
WO2020195928A1 (ja) ロボットシステム
TW202037465A (zh) 機器人系統
US20240123607A1 (en) Robot system comprising robot equipped with display unit
CN116568466A (zh) 使多个移动机械移动并进行规定的作业的控制装置、机械系统、方法以及计算机程序

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2021506356

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20898428

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020898428

Country of ref document: EP

Effective date: 20220713