WO2022071585A1 - ロボットシステム及びロボットシステムの制御方法 - Google Patents

ロボットシステム及びロボットシステムの制御方法 Download PDF

Info

Publication number
WO2022071585A1
WO2022071585A1 PCT/JP2021/036454 JP2021036454W WO2022071585A1 WO 2022071585 A1 WO2022071585 A1 WO 2022071585A1 JP 2021036454 W JP2021036454 W JP 2021036454W WO 2022071585 A1 WO2022071585 A1 WO 2022071585A1
Authority
WO
WIPO (PCT)
Prior art keywords
control
end effector
work
gun
robot
Prior art date
Application number
PCT/JP2021/036454
Other languages
English (en)
French (fr)
Inventor
達健 朝戸
秀樹 磯田
優仁 勝部
Original Assignee
川崎重工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 川崎重工業株式会社 filed Critical 川崎重工業株式会社
Priority to KR1020237014036A priority Critical patent/KR20230074781A/ko
Priority to US18/027,141 priority patent/US20230330855A1/en
Priority to EP21875881.1A priority patent/EP4223465A1/en
Priority to CN202180067561.1A priority patent/CN116249590A/zh
Priority to JP2022502250A priority patent/JP7174194B2/ja
Publication of WO2022071585A1 publication Critical patent/WO2022071585A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05BSPRAYING APPARATUS; ATOMISING APPARATUS; NOZZLES
    • B05B12/00Arrangements for controlling delivery; Arrangements for controlling the spray area
    • B05B12/08Arrangements for controlling delivery; Arrangements for controlling the spray area responsive to condition of liquid or other fluent material to be discharged, of ambient medium or of target ; responsive to condition of spray devices or of supply means, e.g. pipes, pumps or their drive means
    • B05B12/12Arrangements for controlling delivery; Arrangements for controlling the spray area responsive to condition of liquid or other fluent material to be discharged, of ambient medium or of target ; responsive to condition of spray devices or of supply means, e.g. pipes, pumps or their drive means responsive to conditions of ambient medium or target, e.g. humidity, temperature position or movement of the target relative to the spray apparatus
    • B05B12/124Arrangements for controlling delivery; Arrangements for controlling the spray area responsive to condition of liquid or other fluent material to be discharged, of ambient medium or of target ; responsive to condition of spray devices or of supply means, e.g. pipes, pumps or their drive means responsive to conditions of ambient medium or target, e.g. humidity, temperature position or movement of the target relative to the spray apparatus responsive to distance between spray apparatus and target
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05BSPRAYING APPARATUS; ATOMISING APPARATUS; NOZZLES
    • B05B12/00Arrangements for controlling delivery; Arrangements for controlling the spray area
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05BSPRAYING APPARATUS; ATOMISING APPARATUS; NOZZLES
    • B05B12/00Arrangements for controlling delivery; Arrangements for controlling the spray area
    • B05B12/08Arrangements for controlling delivery; Arrangements for controlling the spray area responsive to condition of liquid or other fluent material to be discharged, of ambient medium or of target ; responsive to condition of spray devices or of supply means, e.g. pipes, pumps or their drive means
    • B05B12/12Arrangements for controlling delivery; Arrangements for controlling the spray area responsive to condition of liquid or other fluent material to be discharged, of ambient medium or of target ; responsive to condition of spray devices or of supply means, e.g. pipes, pumps or their drive means responsive to conditions of ambient medium or target, e.g. humidity, temperature position or movement of the target relative to the spray apparatus
    • B05B12/122Arrangements for controlling delivery; Arrangements for controlling the spray area responsive to condition of liquid or other fluent material to be discharged, of ambient medium or of target ; responsive to condition of spray devices or of supply means, e.g. pipes, pumps or their drive means responsive to conditions of ambient medium or target, e.g. humidity, temperature position or movement of the target relative to the spray apparatus responsive to presence or shape of target
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/005Manipulators for mechanical processing tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0075Manipulators for painting or coating
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05BSPRAYING APPARATUS; ATOMISING APPARATUS; NOZZLES
    • B05B13/00Machines or plants for applying liquids or other fluent materials to surfaces of objects or other work by spraying, not covered by groups B05B1/00 - B05B11/00
    • B05B13/02Means for supporting work; Arrangement or mounting of spray heads; Adaptation or arrangement of means for feeding work
    • B05B13/04Means for supporting work; Arrangement or mounting of spray heads; Adaptation or arrangement of means for feeding work the spray heads being moved during spraying operation
    • B05B13/0431Means for supporting work; Arrangement or mounting of spray heads; Adaptation or arrangement of means for feeding work the spray heads being moved during spraying operation with spray heads moved by robots or articulated arms, e.g. for applying liquid or other fluent material to 3D-surfaces
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45013Spraying, coating, painting
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45065Sealing, painting robot

Definitions

  • the present invention relates to a robot system and a control method for the robot system.
  • a paint gun is attached to a robot to paint an object to be painted.
  • the tire inner surface coating device disclosed in Patent Document 1 the data of the target path of the coating gun preset by the teaching and the distance between the coating gun and the coated surface of the tire measured by the distance sensor are used. It is disclosed that painting is performed while maintaining a constant distance between the painting gun mounted on the robot and the surface to be painted on the tire.
  • the uniformity of the thickness of the coating film depends at least on the movement path of the coating gun. Therefore, it is desirable to determine the movement path of the coating gun while confirming the coating condition on the actual work. Examples of the uniformity include a small amount of coating unevenness.
  • the movement path of the coating gun in the direction parallel to the coating surface is determined in a state of painting with the coating gun while actually maintaining a constant distance between the coating gun and the surface to be coated of the tire. Not done, but preset. Therefore, there is no guarantee that the actual painting condition will be the desired condition.
  • Such problems are common to the case where a robot is used to machine the workpiece surface of the work in a non-contact manner.
  • Such cases include, for example, processing in which a substance or energy for processing is released from an end effector to a work surface of a work.
  • the present invention has been made to solve the above-mentioned problems, and is a robot system and a robot capable of improving the actual machining state when machining is performed in a non-contact manner with respect to the workpiece surface of the work. It is intended to provide a method of controlling the system.
  • the robot system moves a robot equipped with an end effector, an operation unit, and the end effector based on the operation of the operation unit, and works on the end effector.
  • the control unit is provided with a control unit for performing processing in a non-contact manner with respect to the surface to be processed, and the control unit can move the end effector based on the operation of the operation unit.
  • control method of the robot system is a control method of a robot system including a robot provided with an end effector and an operation unit, and the end effector is controlled based on the operation of the operation unit.
  • the end effector is moved and the end effector is made to perform machining on the work surface of the work in a non-contact manner, and the end effector is moved, the end effector and the work surface of the work or a virtual cover of the work are applied.
  • At least one of a first control for making the distance to the controlled machined surface, which is a machined surface, constant, and a second control for making the angle of the end effector with respect to the controlled machined surface constant is executed.
  • the present disclosure has the effect that the actual processing state can be improved when processing is performed in a non-contact manner with respect to the workpiece surface of the work.
  • FIG. 1 is a schematic diagram showing an example of the configuration of the painting robot system according to the first embodiment of the present disclosure.
  • FIG. 2 is a plan view schematically showing the arrangement of the robot and the position / attitude sensor of FIG. 1.
  • FIG. 3 is a functional block diagram showing an example of the configuration of the control system of the painting robot system of FIG.
  • FIG. 4 is a perspective view showing an outline of constant gun distance control.
  • FIG. 5 is a plan view showing an outline of gun surface direct control.
  • FIG. 6 is a schematic diagram showing an example of setting the CAD data of the work in the robot coordinate system.
  • FIG. 7 is a flowchart showing an example of the content of the specific control of the robot.
  • FIG. 8 is a flowchart showing an example of the content of the constant gun distance control of the robot.
  • FIG. 9 is a plan view showing the content of constant gun distance control and the allowable correction position range regarding the position of the paint gun.
  • FIG. 10 is a plan view showing a correction allowable angle range regarding the orientation of the paint gun.
  • FIG. 11 is a flowchart showing an example of the contents of the gun surface direct control of the robot.
  • FIG. 12 is a plan view showing an example of the content of the specific control of the modified example 1.
  • FIG. 13 is a plan view showing an example of the content of the specific control of the second embodiment.
  • FIG. 14 is a plan view showing an example of the content of the specific control of the modification 2.
  • the robot provided with the end effector, the operation unit, and the end effector are moved based on the operation of the operation unit, and the end effector is not in contact with the workpiece surface of the work. It is equipped with a control unit for processing.
  • the control unit moves the end effector based on the operation of the operation unit, the control unit keeps the distance between the end effector and the controlled workpiece surface, which is the workpiece surface of the work or the virtual workpiece surface of the work, constant.
  • At least one of the first control and the second control for setting the angle of the end effector with respect to the controlled object to be machined to a constant angle is executed.
  • the "constant angle" in the second control an angle suitable for machining by the end effector is selected. For example, in the painting process using a painting gun, 90 degrees is selected. Of course, for other machining, other angles may be selected.
  • the operation unit includes a position / orientation indicating unit that indicates the position and orientation of the end effector, a position / orientation detection unit that detects the position and orientation of the position / orientation instruction unit, and a processing instruction unit for operating the processing. To prepare for.
  • the controlled workpiece surface in the first and second controls is the actual machined surface of the work
  • the controlled workpiece surface in the first and second controls is the virtual machining of the work.
  • the form of the surface will be described in the second embodiment.
  • FIG. 1 is a schematic diagram showing an example of the configuration of the robot system according to the first embodiment of the present disclosure.
  • FIG. 2 is a plan view schematically showing the arrangement of the robot 1 and the position / attitude sensor 4 of FIG.
  • the robot system is, for example, a painting robot system 100.
  • the painting robot system 100 includes a robot 1, an indicator 2 which is an example of a position / attitude indicator unit, a system controller 3 which is an example of a control unit, and a position / attitude sensor 4 which is an example of a position / attitude detection unit.
  • a specific control switch 5 and a storage device 7 which is an example of a storage unit are provided.
  • the paint gun 6, which is an example of the end effector, is mounted on the EF mounting portion 1a, which is the end effector mounting portion of the robot 1.
  • the indicator 2 and the position / attitude sensor 4 constitute an actuator 8 which is an example of an operation unit.
  • the painting robot system 100 is an example of the robot system according to the embodiment of the present disclosure.
  • the processing by the end effector is the processing by releasing the substance or energy for processing from the end effector onto the surface to be processed.
  • the discharge processing which is the processing by discharging the substance or energy for processing from the end effector to the work surface
  • painting by spraying the paint from the painting gun 6 is exemplified.
  • the release processing may be other release processing.
  • a robot system that performs the discharge processing can be realized. This is because all robot systems have in common that the principle is that the processing is performed by releasing a substance or energy from the end effector to the work surface of the work.
  • the "substance or energy” for processing is not particularly limited.
  • the “substance for processing” include liquids, gases, powdery or granular solids, flames and the like.
  • Examples of “energy for processing” include electric current, electromagnetic wave, light, and sound wave.
  • Examples of electromagnetic waves include radio waves and radiation.
  • Light includes ultraviolet rays and infrared rays.
  • Examples of sound waves include ultrasonic waves.
  • "Processing" means causing at least a physical or chemical change in the surface to be machined. Examples of physical changes include changes in the shape of the surface to be machined, changes in hardness, changes in color, and changes in characteristics.
  • Examples of changes in the shape of the work surface include the formation of recesses, the peeling of the work surface, the formation of a coating layer, and melt deformation. Melt deformation includes welding. Changes in conductivity, magnetism, etc. are exemplified as changes in characteristics. Examples of chemical changes include oxidation, reduction, compounding, polymerization, decomposition and the like. Examples of the "release" of a substance or energy include radiation, injection, ejection, outflow, etc. of the substance or energy.
  • the "direction of emission of the substance or energy of the end effector” is defined as, for example, the main emission direction of the substance or energy, the extending direction or the normal direction of the center line of the substance or energy emission port of the end effector. ..
  • the paint gun 6 is an "end effector"
  • the paint is a substance for processing
  • the spray of the paint is "release of the substance”
  • the direction of the paint spray of the paint gun 6 is the "end effector”.
  • the direction of the release of the substance is referred to as the "direction of the paint gun 6".
  • EF distance constant control which is an example of the first control
  • EF surface direct control which is an example of the second control
  • the indicator unit for instructing the position and attitude of the paint gun 6 and the sensor unit for detecting the position and attitude of the instructed paint gun 6 are separated into an indicator 2 and a position / attitude sensor 4, respectively.
  • the operation device 8 is illustrated.
  • the actuator 8 in which the indicator unit and the sensor unit are integrated may be used.
  • the machining instruction unit for operating the machining by the end effector is the trigger 2a, and the operation device 8 provided on the indicator 2 is exemplified as the trigger 2a.
  • the machining instruction unit may be provided separately from the actuator 8.
  • the processing instruction unit may be displayed on the display of the system controller 3, for example.
  • FIG. 2 shows an EF mounting portion 1a, which is a wrist portion, instead of the robot 1 in order to make the figure easier to see.
  • Reference numeral 10 indicates a paint ejected from the paint gun 6.
  • One side wall of the coating chamber 13 is composed of a transparent partition plate 12, and a control area is formed adjacent to the transparent partition plate 12.
  • the operation position is assumed in the control area where the work W and the paint gun 6 can be seen.
  • the specific control switch 5 is arranged at this operation position, and a plurality of position / attitude sensors 4 are arranged around this operation position.
  • the number of position / attitude sensors 4 is three.
  • the operator 11 is located at this operation position, holds the indicator 2 in one hand while looking at the work W and the paint gun 6, and moves the indicator 2 to operate the paint gun 6.
  • one hand is, for example, the right hand.
  • the position / posture sensor 4 detects the position and posture of the indicator 2.
  • the operator 11 operates the specific control switch 5 with the other hand to command at least one of constant gun distance control and direct gun surface control.
  • the other hand is, for example, the left hand.
  • constant gun distance control and direct gun surface control are collectively referred to as "specific control”.
  • the system controller 3 is arranged at an appropriate place other than the painting room 13, for example.
  • the system controller 3 may be arranged close to the operation position of the control area, for example.
  • the system controller 3 may be downsized and integrated with the robot controller 9 shown in FIG. In this case, the integrated system controller 3 may be arranged inside the base of the robot 1.
  • the storage device 7 can be placed at any place. Here, it is arranged inside the system controller 3.
  • the robot 1 is an element for moving the paint gun 6. Therefore, the robot 1 may be any as long as it can be equipped with the paint gun 6. Examples of the robot 1 include a vertical articulated robot, a horizontal articulated robot, a parallel link robot, and a Cartesian coordinate robot.
  • the paint gun 6 is mounted on the EF mounting portion 1a of the robot 1.
  • the EF mounting portion 1a is an example of a mounting portion on which the paint gun 6 is mounted. If the robot 1 is of another type, the name of the mounting portion of the paint gun 6 may change.
  • the paint gun 6 is a kind of various end effectors mounted on the EF mounting portion 1a, so that the position and posture of the paint gun 6 are the positions of the EF mounting portion 1a which is the mounting portion of the paint gun 6. And controlled by controlling the posture. Therefore, although the control of the position and posture of the EF mounting portion 1a will be described below, controlling the position and posture of the EF mounting portion 1a is synonymous with controlling the position and posture of the coating gun 6. Further, the "direction of the EF mounting portion 1a" is synonymous with the orientation of the paint gun 6 mounted on the EF mounting portion 1a.
  • the indicator 2 is an element for indicating the position and posture of the painting gun 6 and operating the spraying of the paint of the painting gun 6.
  • the indicator 2 is formed into a gun shape that simplifies and simulates the shape of the paint gun 6.
  • the position and the posture of the paint gun 6 can be indicated by the position and the posture of the indicator 2.
  • the shape of the indicator 2 does not have to be a gun shape.
  • a marker may be provided on the indicator 2 having an arbitrary shape, and the position / attitude of the indicator 2 may be specified by detecting the marker by the position / attitude sensor 4.
  • the indicator 2 is provided with a trigger 2a for operating the spraying of the paint of the painting gun 6.
  • the trigger 2a is configured to be pushable while being urged to return to the original position.
  • the paint is ejected from the paint gun 6.
  • the injection from the paint gun 6 is stopped.
  • the amount of paint sprayed increases or decreases according to the amount of pushing of the trigger 2a.
  • the spray amount of the paint may be, for example, the spray amount per unit time.
  • the system controller 3 performs basic control for controlling the operation of the robot 1 so that the paint gun 6 takes a position and a posture corresponding to the position and the posture of the indicator 2 detected by the position / posture sensor 4, and paints.
  • the injection of the paint of the painting gun 6 is controlled according to the operation of the indicator 2 regarding the injection of the paint of the gun 6.
  • the system controller 3 controls the constant gun distance to keep the distance between the painting gun 6 and the coated surface f of the work W constant, and the direction of the painting gun 6 is perpendicular to the painted surface of the work W. Perform at least one of the gun face-to-face controls.
  • the surface to be coated f is an example of the surface to be processed.
  • the system controller 3 is based on the position and attitude data of the indicator 2 detected by the position / attitude sensor 4, the three-dimensional data of the work W, and the position data of the work W, and the robot 1 and the painting.
  • the control signals of the gun 6 are generated and transmitted to the robot controller 9 shown in FIG.
  • the position and attitude data means a position / attitude signal.
  • the three-dimensional data of the work W is stored in advance in the storage device 7 of the system controller 3 shown in FIG.
  • CAD data of the work W As the three-dimensional data of the work W, CAD data of the work W, actual measurement data of the work W, and the like are exemplified.
  • the system controller 3 is composed of an arithmetic unit having a processor Pr and a memory Me shown in FIG.
  • the mode changeover switch 31 of FIG. 3 is a functional block realized by the processor Pr executing a control program stored in the memory Me in this arithmetic unit.
  • this arithmetic unit is composed of, for example, a microcontroller, an MPU, an FPGA (Field Programmable Gate Array), a PLC (Programmable Logic Controller), or the like. These may be composed of a single arithmetic unit that performs centralized control, or may be configured by a plurality of arithmetic units that perform distributed control.
  • the functions of the elements disclosed herein include general purpose processors, dedicated processors, integrated circuits, ASICs (Application Specific Integrated Circuits), conventional circuits, and / or general purpose processors configured or programmed to perform the disclosed functions. , A combination thereof, can be performed using a circuit or processing circuit.
  • a processor is considered a processing circuit or circuit because it includes transistors and other circuits.
  • "vessel" and “part” are hardware that performs the listed functions or are programmed to perform the listed functions.
  • the hardware may be the hardware disclosed herein, or it may be other known hardware that is programmed or configured to perform the listed functions. If the hardware is a processor considered to be a type of circuit, the "vessel” and “part” are a combination of hardware and software, and the software is used to configure the hardware and / or the processor.
  • the position / attitude sensor 4 is an element that detects the position and attitude of the actuator. Therefore, the position / attitude sensor 4 may be any sensor that can detect the position and attitude of the indicator 2.
  • a type A that combines a plurality of distance sensors for example, a type B that uses a 3D camera as an example of a stereoscopic camera, a type C that uses a depth camera, and a 3-axis acceleration sensor, a gyro sensor, and geomagnetism.
  • Type D that combines sensors can be mentioned.
  • the position and orientation of the indicator 2 can be acquired, for example, by combining and analyzing the distance data detected by a plurality of infrared distance sensors.
  • the position and orientation of the indicator 2 can be acquired, for example, by analyzing an image including depth information captured by one or more 3D cameras.
  • the position and orientation of the indicator 2 can be acquired, for example, by analyzing an image with a depth captured by one or more TOF cameras.
  • the position and posture of the indicator 2 can be acquired by the 3-axis accelerometer attached to the indicator 2. Further, by attaching a gyro sensor and a geomagnetic sensor to the indicator 2 in addition to the 3-axis accelerometer and analyzing the outputs in combination, the position and attitude of the indicator 2 can be acquired with high accuracy. ..
  • type B is used as the position / attitude sensor 4.
  • the indicator 2 may be provided with a marker for specifying the position and orientation of the indicator 2 from the captured image of the 3D camera.
  • the specific control switch 5 includes a gun distance constant switch 5a and a gun surface direct switch 5b.
  • a constant gun distance control ON signal is output, and when the constant gun distance switch 5a is returned, the constant gun distance control ON signal disappears.
  • the gun surface direct switch 5b is turned, the gun surface direct control ON signal is output, and when the gun surface direct switch 5b is returned, the gun surface direct control ON signal disappears.
  • the paint gun 6 is not particularly limited. Here, the paint gun 6 can change the amount of paint sprayed.
  • the paint may be, for example, a liquid, a gas, a powder, or a mixture of one or more of these.
  • the storage device 7 stores the three-dimensional data of the work W. Further, the storage device 7 outputs a robot control signal and a paint gun control signal to the robot 1 and the paint gun 6 in a time series in order for the system controller 3 to control the operation of the robot 1 and the injection of the paint of the paint gun 6, respectively.
  • the storage device 7 is composed of the memory Me that constitutes the system controller 3, and is built inside the system controller 3.
  • the storage device 7 may be provided as an independent element outside the system controller 3.
  • the storage device 7 may be composed of a teaching pendant.
  • FIG. 3 is a functional block diagram showing an example of the configuration of the control system of the painting robot system 100 of FIG.
  • the painting robot system 100 further includes a mode changeover switch 31.
  • the mode changeover switch 31 is displayed, for example, on the display provided in the system controller 3 shown in FIG.
  • the mode changeover switch 31 outputs a mode changeover signal for switching between the storage mode and the reproduction mode to the system controller 3.
  • the indicator 2 outputs an injection signal indicating the injection amount of the paint in the coating gun 6 according to the pushing amount of the trigger 2a to the system controller 3.
  • the position / attitude sensor 4 outputs a position / attitude signal indicating the position and attitude of the detected indicator 2 to the system controller 3.
  • the specific control switch 5 outputs a gun distance constant control ON signal and a gun surface straight control ON signal to the system controller 3, respectively, in response to the operation of the gun distance constant switch 5a and the gun surface straight switch 5b, respectively.
  • the robot 1 includes a robot controller 9 that controls the operations of the robot 1 and the paint gun 6, respectively, according to the input robot control signal and the paint gun control signal.
  • the system controller 3 outputs a robot control signal to the robot controller 9 of the robot 1 based on the position / attitude signal input from the position / attitude sensor 4, and the position of the paint gun 6 is performed through the operation of the robot 1. And control the posture.
  • system controller 3 outputs a paint gun control signal to the robot controller 9 of the robot 1 based on the injection signal input from the indicator 2, and the paint of the paint gun 6 is supplied via the robot controller 9. Controls the ON / OFF of the injection and the injection amount.
  • the system controller 3 controls the constant gun distance when the gun distance constant control ON signal or the gun surface direct control ON signal is input from the specific control switch 5 while the operation of the robot 1 is basically controlled.
  • the gun surface direct control is performed, that is, the gun distance constant control or the gun surface direct control is turned ON.
  • the system controller 3 mutually switches between the storage mode and the reproduction mode in the operation of the robot 1. Then, in the storage mode, the system controller 3 stores the robot control signal and the paint gun control signal output by itself in the storage device 7 in chronological order. Then, in the reproduction mode, the system controller 3 sequentially reads out the robot control signal and the painting gun control signal stored in time series from the storage device 7 and outputs them to the robot 1 and the painting gun 6.
  • FIG. 4 is a perspective view showing an outline of constant gun distance control.
  • the operation of the robot 1 is controlled so that the EF mounting portion 1a of the robot 1 maintains a constant distance from the coated surface f of the work W.
  • the coating gun 6 is maintained at a constant distance from the coated surface f of the work W.
  • the EF mounting portion 1a to which the paint gun 6 of the robot 1 is mounted is controlled to move to a position corresponding to the position of the indicator 2 in the direction perpendicular to the direction of the EF mounting portion 1a.
  • the constant gun distance control is performed over a period during which the trigger 2a of the indicator 2 is pushed.
  • FIG. 5 is a plan view showing an outline of gun surface direct control.
  • the dotted line in the EF mounting portion 1a indicates the posture of the paint gun 6 according to the posture of the indicator 2
  • the solid line indicates the posture of the paint gun 6 in which the gun surface is directly controlled.
  • the posture of the paint gun 6 according to the posture of the indicator 2 means the posture in the basic control.
  • the operation of the robot 1 is controlled so that the direction of the coating gun 6 is perpendicular to the surface to be coated f of the work W.
  • the position P0 of the EF mounting portion 1a of the paint gun 6 is not restricted, and the paint gun 6 can move in any direction.
  • the gun surface direct control is performed over a period during which the trigger 2a of the indicator 2 is pushed.
  • FIG. 6 is a schematic diagram showing an example of setting the CAD data of the work W in the robot coordinate system.
  • the CAD data of the work W is stored in the storage 7 of the system controller 3 as the three-dimensional data of the work W.
  • the coordinates of the work W seen from the origin O are set in the coordinate system of the robot 1.
  • the position of the work W as seen from this origin is actually measured with a measure or the like.
  • the operation of the painting robot system 100 means a control method of the painting robot system 100.
  • the storage mode First, the storage mode will be described.
  • the system controller 3 stores the robot control signal and the paint gun control signal output by itself in the storage device 7 in time series in the operation described below.
  • the operator 11 first operates the mode changeover switch 31 displayed on the display of the system controller 3 to put the operation of the robot 1 into the storage mode. Then, the operator 11 is located at the operation position, holds the indicator 2 in one hand while looking at the work W and the paint gun 6, and moves the indicator 2 to operate the paint gun 6.
  • the position / posture sensor 4 detects the position and posture of the indicator 2, and the system controller 3 determines the position and the position of the EF mounting portion 1a and the paint gun 6 according to the position / posture signal which is the detection signal.
  • the operation of the robot 1 is controlled so that the posture becomes the position and the posture corresponding to the position and the posture of the indicator 2.
  • the system controller 3 injects the paint 10 with an injection amount corresponding to the injection signal from the indicator 2 onto the coating gun 6.
  • the system controller 3 performs the following specific control over the period in which the trigger 2a of the indicator 2 is pushed.
  • FIG. 7 is a flowchart showing an example of the content of the specific control of the robot 1. Referring to FIG. 7, the system controller 3 performs specific control in the above-mentioned basic control.
  • step S1 it is determined whether or not the gun surface direct switch 5b outputs an ON signal. If the gun surface direct switch 5b does not output an ON signal (NO in step S1), the process proceeds to step S3.
  • step S2 When the gun surface direct switch 5b outputs an ON signal (YES in step S1), the gun surface direct processing (gun surface direct control) is performed (step S2).
  • the system controller 3 determines whether or not the gun distance constant switch 5a outputs an ON signal (step S3). When the gun distance constant switch 5a does not output an ON signal (NO in step S3), this specific control is terminated.
  • step S3 When the gun distance constant switch 5a outputs an ON signal (YES in step S3), the gun distance constant process (gun distance constant control) is performed (step S4).
  • the system controller 3 repeats this specific control at predetermined control intervals.
  • FIG. 8 is a flowchart showing an example of the content of the constant gun distance control of the robot 1.
  • FIG. 9 is a plan view showing the content of the constant gun distance control and the allowable correction position range 21 regarding the position of the coating gun 6.
  • the constant gun distance control of the robot 1 means the constant gun distance processing of the robot 1.
  • the system controller 3 first determines the position P0 and orientation of the EF mounting portion 1a of the robot 1 from the position / attitude signal input from the position / attitude sensor 4. Acquire (step S11).
  • the orientation of the EF mounting portion 1a coincides with the orientation of the paint gun 6 mounted on the EF mounting portion 1a, as described above.
  • the orientation of the paint gun 6 is appropriately defined.
  • the orientation of the paint gun 6 can be defined as, for example, the main discharge direction of the paint, the extending direction of the center line of the discharge port of the paint, and the like.
  • the paint gun 6 which is an end effector is mounted so that its orientation coincides with the axis indicating the orientation of the end effector of the EF mounting portion 1a.
  • the paint gun 6 is mounted so as to coincide with the twisting rotation axis of the EF mounting portion 1a. Therefore, the direction of the EF mounting portion 1a means the extending direction of the twisting rotation axis of the EF mounting portion 1a.
  • the system controller 3 obtains the position of the intersection P1 between the twisting rotation axis of the EF mounting portion 1a and the coated surface f of the work W (step S12). As a result, the point P1 that serves as a reference for the distance from the EF mounting portion 1a on the surface to be coated f is specified.
  • correction refers to a change from the target position and target posture in the basic control of the paint gun 6 to the target position and target posture in the gun distance constant control and the gun surface direct control which are specific controls.
  • the paint gun 6 which is an end effector is located far away from the painted surface f of the work W or faces a direction far away from the painted surface f of the work W
  • the operator 11 controls the gun distance to be constant. Or it is assumed that there is no intention to control the gun surface directly. Therefore, in the present embodiment, in order to meet such a will of the operator 11, the correction is limited to the case where a predetermined correction condition is satisfied.
  • the correction condition includes a correction condition regarding the position of the paint gun 6 and a correction condition regarding the posture of the paint gun 6.
  • the system controller 3 is set with a correction allowable position range 21 regarding the position of the EF mounting portion 1a.
  • “set” means that it is stored in the storage device 7.
  • the correction allowable position range 21 is appropriately set.
  • the correction allowable position range 21 is set here as a three-dimensional region within a predetermined distance range from the surface to be coated f of the work W.
  • the predetermined distance range includes the predetermined distance Lc.
  • the area of the solid is rectangular parallelepiped here.
  • FIG. 10 is a plan view showing a correction allowable angle range regarding the orientation of the EF mounting portion 1a.
  • the system controller 3 is set with a correction allowable angle range 22 regarding the orientation of the EF mounting portion 1a.
  • the correction allowable angle range 22 is appropriately set.
  • the correction allowable angle range 22 is set as a conical region within a predetermined angle range with respect to the normal line 23 of the surface to be coated f of the work W.
  • the system controller 3 obtains a difference angle ⁇ between the intersection angle of the rotation axis of the EF mounting portion 1a and the normal line 23 with respect to the painted surface f at the intersection P1 of the painted surface f of the work W, and the difference angle ⁇ is When it is within the correction allowable angle range, it is determined that the correction condition regarding the posture of the EF mounting portion 1a is satisfied.
  • the system controller 3 determines that the correction condition regarding the position of the EF mounting portion 1a and the correction condition regarding the posture are satisfied, it is determined that the correction condition is satisfied.
  • the system controller 3 determines that the correction condition is not satisfied (NO in step S13)
  • the system controller 3 ends the constant gun distance control.
  • the system controller 3 determines that the correction condition is satisfied (YES in step S13)
  • the system controller 3 is separated from the intersection P1 on the rotation axis of the EF mounting portion 1a by a predetermined distance Lc (hereinafter, a constant distance point).
  • the position of P2 is obtained (step S14).
  • the predetermined distance Lc is the distance between the EF mounting portion 1a and the surface to be coated f, which is a suitable distance for the coating gun 6 to paint the surface to be coated f, and is the experience, experiment, simulation, and calculation of the operator 11. Etc. are determined.
  • the system controller 3 positions the EF mounting portion 1a at the constant distance point P2 (step S15).
  • the system controller 3 ends the constant gun distance control.
  • FIG. 11 is a flowchart showing an example of the contents of the gun surface direct control of the robot.
  • Gun straight control means gun straight processing.
  • the system controller 3 first determines the posture of the EF mounting portion 1a of the robot 1 from the position / posture signal input from the position / posture sensor 4 of the EF mounting unit 1a. Acquire the orientation (step S21).
  • step S22 the system controller 3 determines whether or not the correction condition is satisfied. Since the determination of whether or not this correction condition is satisfied is the same as in the case of the above-mentioned constant gun distance control, the description thereof will be omitted.
  • the system controller 3 determines that the correction condition is satisfied (YES in step S22)
  • the system controller 3 obtains the posture of the EF mounting portion 1a perpendicular to the surface to be coated f of the work W (step S23).
  • This process can be appropriately performed by using the posture data of the EF mounting portion 1a and the CAD data of the work W.
  • the normal vector of the surface to be coated f of the work W is input, and the processing is performed as follows. In the following processing, the vector [0 1 0] indicates a reference unit vector.
  • a conversion matrix for converting the rotation matrix obtained in the process of B into the rotation matrix obtained in the process of D is obtained.
  • the transformation matrix obtained in the process of E is multiplied by the posture of the EF mounting portion 1a of the robot 1 to obtain a face-to-face posture which is the posture of the EF mounting portion 1a of the robot 1 after correction.
  • the system controller 3 determines whether or not the correction conditions are satisfied for the position and posture of the corrected EF mounting portion 1a (step S24). Since the determination of whether or not this correction condition is satisfied is the same as in the case of the above-mentioned constant gun distance control, the description thereof will be omitted.
  • step S24 when the system controller 3 determines that the correction condition is satisfied (YES in step S24), the system controller 3 corrects the posture of the EF mounting portion 1a to the above-determined face-to-face posture (step S25).
  • the system controller 3 ends the gun surface direct control.
  • ⁇ Playback mode Referring to FIGS. 2 and 3, the operator 11 operates the mode changeover switch 31 displayed on the display of the system controller 3 to put the operation of the robot 1 into the reproduction mode. Then, the system controller 3 sequentially reads out the robot control signal and the painting gun control signal stored in time series from the storage device 7 and outputs them to the robot 1 and the painting gun 6. As a result, in the storage mode, the painting work performed on one work by a skilled operator is automatically performed on a large number of works having the same specifications.
  • the movement path of the coating gun 6 can be determined while painting while performing at least one of the controls for making the surface f perpendicular to the surface f.
  • the operator 11 moves the indicator 2 to imitate the paint gun 6 while operating the spray of the paint of the paint gun 6 by the indicator 2, so that the actual paint gun 6 is held in the hand and painted. Then, the work can be painted.
  • FIG. 12 is a plan view showing an example of the content of the specific control of the modified example 1.
  • the coated surface f of the work W is, for example, a curved surface.
  • the system controller 3 performs constant gun distance control and direct gun surface control as specific controls. Other than this, it is the same as the first embodiment.
  • the shape of the surface to be coated f of the work W is not particularly limited.
  • FIG. 13 is a plan view showing an example of the content of the specific control of the second embodiment.
  • a virtual work Wv is set for the actual work Ws.
  • the actual work Ws has a rough surface to be coated fs.
  • the virtual work Wv has a virtual surface to be painted fv obtained by leveling the surface to be painted fs of the actual work Ws, and the portion other than the virtual surface to be painted fv is along the surface of the actual work Ws. Is set to. Therefore, "work W” exists as a concept including actual work Ws and virtual work Wv.
  • the "painted surface” of this "work W” is referred to as a "controlled painted surface f". Therefore, in the first embodiment and the first modification, the surface to be coated of the actual work W is the control surface to be coated f.
  • the virtual work Wv is specified by CAD data, for example, and is stored in the storage device 7 as three-dimensional data. Then, the system controller 3 uses the virtual coated surface fv as the controlled coated surface f to perform constant gun distance control and direct gun surface control as specific control. Other than this, it is the same as the first embodiment.
  • the coating gun 6 When the actual surface to be coated fs of the actual work Ws is rough, when the first control or the second control is performed based on the distance or the angle of the coating gun 6 with respect to the actual surface to be coated fs, the coating gun 6 There is a possibility that the position and the posture cannot keep up with the actual state of the surface to be coated fs and are disturbed, so that a preferable coating state cannot be obtained.
  • a virtual surface to be coated fv obtained by leveling the actual surface to be coated fs is set in the work W, and the first control or the second control is performed on the virtual surface to be coated fs. Therefore, it is possible to prevent the position and posture of the paint gun 6 from following the state of the virtual surface to be painted fs and disturbing the position and posture of the paint gun 6.
  • FIG. 14 is a plan view showing an example of the content of the specific control of the modification 2.
  • the virtual coated surface fv of the virtual work Wv is not only set to a shape obtained by leveling the actual coated surface fs of the actual work Ws, but also the virtual coated surface fv is set.
  • the painted surface fv is set so that the paint is sprayed on the actual painted surface fs from a desired direction by the paint gun 6.
  • the virtual surface to be coated fv is set so that the normal of the virtual surface to be coated fv faces the desired direction. Other than this, it is the same as the second embodiment.
  • the paint is sprayed on the actual surface to be painted fs from a desired direction by the paint gun 6, so that a desired paint state can be obtained.
  • the painting robot system 100 may be configured so as to have only the normal operation mode similar to the storage mode except that the storage mode and the reproduction mode are omitted and the robot control signal and the painting gun control signal are not stored. ..
  • the release process may be a release process other than painting.
  • discharge processing includes, for example, cleaning by spraying a cleaning liquid from a cleaning nozzle, shot blasting or shot peening by spraying a mixture of projecting material particles and air or water from a spray nozzle, and discharge of current from an electrode. Examples include arc welding and roasting by emitting a flame from a burner.
  • the actuator 8 in which the indicator unit and the sensor unit are integrated may be used.
  • Examples of such an operating device 8 include a joystick, a master robot arm having a shape similar to that of the robot 1, a dedicated operating device, and the like.
  • the system controller performs at least one of the EF distance constant control and the EF face-to-face control over a period of time during which the actuator is operated so that the end effector releases the substance or energy. It may be configured in.
  • the end effector if the end effector does not release a substance or energy, the end effector can be moved by at least one of a free movement path and a posture.
  • the robot 1 provided with the end effector 6, the operation unit 8, and the end effector 6 are moved based on the operation of the operation unit 8, and the end effector is moved.
  • 6 is provided with a control unit 3 for performing processing in a non-contact manner with respect to the workpiece surface of the work W, and the control unit 3 moves the end effector 6 based on the operation of the operation unit 8.
  • the first control that keeps the distance between the end effector 6 and the controlled workpiece f, which is the workpiece fs of the work W or the virtual workpiece fv of the workpiece W, constant, and the controlled workpiece.
  • At least one of the second control for making the angle of the end effector 6 with respect to f a constant angle is executed.
  • the end effector 6 is moved based on the operation of the operation unit 8 while performing at least one of the first control and the second control, and the end effector 6 is moved with respect to the machined surface fs of the work W. Since the machining can be performed in a non-contact manner, the movement path of the end effector 6 can be determined while confirming the actual machining state to the work W by at least one of the first control and the second control. As a result, since the machining state desired by the operator 11 can be obtained, as compared with the case where at least one of the first control and the second control is performed while moving the end effector 6 along a preset path. , The actual processing state can be improved.
  • the control unit 3 may perform at least one of the first control and the second control while the end effector 6 processes the workpiece surface fs of the work W.
  • the end effector 6 when the end effector 6 does not process the workpiece surface fs of the work W, the end effector 6 can be moved by at least one of a free movement path and a posture.
  • the operation unit 8 is for operating the processing, a position / orientation indicating unit 2 indicating the position and attitude of the end effector 6, a position / attitude detecting unit 4 for detecting the position and attitude of the position / attitude indicating unit 2.
  • a processing instruction unit 2a may be provided.
  • the position and posture of the end effector 6 become the position and posture corresponding to the position and posture of the position and orientation indicating unit 2 detected by the position and orientation detecting unit 4, and also correspond to the operation of the machining instruction unit 2a. Since the machining by the end effector 6 is controlled, the operator 11 moves the position / orientation indicator 2 imitating the end effector 6 while operating the machining by the end effector 6 by the machining instruction unit 2a, thereby actually performing the machining.
  • the work W can be processed by holding the end effector 6 in the hand for processing.
  • the control unit 3 stores the three-dimensional data of the work W, and the control unit 3 performs the first control based on the three-dimensional data of the work W and the position of the end effector 6.
  • the second control may be performed based on the three-dimensional data of the work W and the posture of the end effector 6.
  • examples of the "three-dimensional data" include CAD data, actual measurement data, and the like.
  • the first control and the second control can be performed by the calculation using the three-dimensional data of the work W.
  • the position of the end effector 6 and the posture of the end effector 6 used for the first control and the second control are the positions and postures of the position / orientation indicating unit 2 detected by the position / attitude detection unit 4, respectively.
  • the controlled workpiece f in the first control and the second control may be a virtual workpiece fv of the work W.
  • the robot system 100 further includes a storage unit 7 that stores a control signal output by the control unit 3 in order to move the end effector 6 and cause the end effector 6 to perform the processing
  • the control unit 3 further includes a storage unit 7.
  • the control unit 3 has a storage mode and a reproduction mode, and the control unit 3 stores the control signal in the storage unit 7 in time series in the storage mode, and the control unit stored in the storage unit 7 in the reproduction mode.
  • the signal may be output to the robot 1 and the end effector 6.
  • the control unit 3 is in the case where the end effector 6 is located within a predetermined distance range from the controlled workpiece surface f and the orientation of the end effector 6 with respect to the controlled workpiece surface f is within a predetermined orientation range. , At least one of the first control and the second control may be performed.
  • the operator 11 When the end effector 6 is located far away from the work surface fs of the work W or faces in a direction far away from the work surface fs of the work W, the operator 11 performs the first control or the second control. It is assumed that there is no intention to do it. According to this configuration, in such a case, the intention of the operator 11 can be appropriately followed.
  • the processing by the end effector 6 may be processing by releasing the substance or energy for processing from the end effector 6 onto the work surface of the work.
  • the processing by releasing the processing substance or energy from the end effector 6 to the work surface fs of the work W is the painting by spraying a liquid or powdery paint from the painting gun, and the cleaning liquid from the cleaning nozzle.
  • Robot 1a EF mounting part 2 Indicator 2a Trigger 3 System controller 4 Position / attitude sensor 5 Specific control switch 6 Paint gun 7 Storage device 8 Operator 9 Robot controller 9 10 Paint 21 Correction allowable position range 22 Correction allowable angle range 23 Normal 31 Mode changeover switch 100 Painting robot system f Painted surface, control Painted surface Lc Predetermined constant distance Me Memory O Origin P0 EF Mounting part position P1 Intersection point P2 Constant distance point Pr Processor W Work ⁇ Difference angle

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Spray Control Apparatus (AREA)

Abstract

ロボットシステム100は、エンドエフェクタ(6)を備えたロボット(1)と、操作部(8)と、前記操作部(8)の操作に基づいてエンドエフェクタ(6)を移動させ、当該エンドエフェクタ(6)にワークの被加工面に対して非接触で加工を行わせる制御部(3)と、を備える。前記制御部(3)は、前記操作部(8)の操作に基づいてエンドエフェクタ(6)を移動させる際に、前記エンドエフェクタ(6)と、前記ワークの被加工面又は前記ワークの仮想の被加工面である、制御被加工面との距離を一定にする第1制御と、前記制御被加工面に対する前記エンドエフェクタの角度を一定角度にする第2制御とのうちの少なくとも一方を実行する。

Description

ロボットシステム及びロボットシステムの制御方法 関連出願への相互参照
 本件出願は、2020年10月2日に日本特許庁に出願された特願2020-167845号の優先権を主張するものであり、その全体を参照することにより本件出願の一部をなすものとして引用する。
 本発明は、ロボットシステム及びロボットシステムの制御方法に関する。
 従来、ロボットに塗装ガンを装着して被塗装物を塗装することが知られている。例えば、特許文献1に開示されたタイヤ内面塗装装置では、教示によって予め設定された塗装ガンの目標経路のデータと、距離センサにより計測される塗装ガンとタイヤの被塗装面との距離とに基づいて、ロボットに装着された塗装ガンとタイヤの被塗装面との距離を一定に維持しながら塗装を行うことが開示されている。
特開2015-047834号公開特許公報
 塗膜の厚みの均一度は、少なくとも、塗装ガンの移動経路に依存する。従って、塗装ガンの移動経路は、実際のワークへの塗装状態を確認しながら決定することが望ましい。均一度としては、例えば、塗装むらの少なさが挙げられる。
 しかし、上記タイヤ内面塗装装置では、塗装面に平行な方向における塗装ガンの移動経路は、実際に塗装ガンとタイヤの被塗装面との距離を一定に維持しながら塗装ガンで塗装する状態において決定されておらず、予め設定されている。そのため、実際の塗装状態が、望ましい状態になる保証がない。
 また、ロボットによる塗装ガンを用いた塗装においては、被塗装面に対して一定の角度で塗装することが考えられる。しかし、この場合においても、塗装ガンの移動経路を塗装ガンで塗装する状態において決定しないと実際の塗装状態が望ましい状態になる保証がない。
 これらの問題点は、ロボットを用いて、ワークの被加工面に対して非接触で加工を行う場合にも共通する。そのような場合として、例えば、加工用の物質又はエネルギーをエンドエフェクタからワークの被加工面へ放出する加工が挙げられる。
 本発明は上記のような課題を解決するためになされたもので、ワークの被加工面に対して非接触で加工を行う場合に、実際の加工状態を向上させることが可能なロボットシステム及びロボットシステムの制御方法を提供することを目的としている。
 上記目的を達成するために、本開示のある形態に係るロボットシステムは、エンドエフェクタを備えたロボットと、操作部と、前記操作部の操作に基づいてエンドエフェクタを移動させ、当該エンドエフェクタにワークの被加工面に対して非接触で加工を行わせる制御部と、を備え、前記制御部は、前記操作部の操作に基づいてエンドエフェクタを移動させる際に、前記エンドエフェクタと、前記ワークの被加工面又は前記ワークの仮想の被加工面である、制御被加工面との距離を一定にする第1制御と、前記制御被加工面に対する前記エンドエフェクタの角度を一定角度にする第2制御とのうちの少なくとも一方を実行する。
 また、本開示の他の形態に係るロボットシステムの制御方法は、エンドエフェクタを備えたロボットと操作部とを備えたロボットシステムの制御方法であって、前記操作部の操作に基づいてエンドエフェクタを移動させ、当該エンドエフェクタにワークの被加工面に対して非接触で加工を行わせ、前記エンドエフェクタを移動させる際に、前記エンドエフェクタと、前記ワークの被加工面又は前記ワークの仮想の被加工面である、制御被加工面との距離を一定にする第1制御と、前記制御被加工面に対する前記エンドエフェクタの角度を一定角度にする第2制御とのうちの少なくとも一方を実行する。
開示の効果
 本開示は、ワークの被加工面に対して非接触で加工を行う場合に、実際の加工状態を向上させることができるという効果を奏する。
図1は、本開示の実施形態1に係る塗装ロボットシステムの構成の一例を示す模式図である。 図2は、図1のロボット及び位置・姿勢センサの配置を模式的に示す平面図である。 図3は、図1の塗装ロボットシステムの制御系統の構成の一例を示す機能ブロック図である。 図4は、ガン距離一定制御の概要を示す斜視図である。 図5は、ガン面直制御の概要を示す平面図である。 図6は、ワークのCADデータのロボット座標系への設定の一例を示す模式図である。 図7は、ロボットの特定制御の内容の一例を示すフローチャートである。 図8は、ロボットのガン距離一定制御の内容の一例を示すフローチャートである。 図9は、ガン距離一定制御の内容及び塗装ガンの位置に関する補正許容位置範囲を示す平面図である。 図10は、塗装ガンの向きに関する補正許容角度範囲を示す平面図である。 図11は、ロボットのガン面直制御の内容の一例を示すフローチャートである。 図12は、変形例1の特定制御の内容の一例を示す平面図である。 図13は、実施形態2の特定制御の内容の一例を示す平面図である。 図14は、変形例2の特定制御の内容の一例を示す平面図である。
開示を実施するための形態
 以下、本開示の具体的な実施の形態を、図面を参照しながら説明する。なお、以下では全ての図面を通じて同一又は相当する要素には同一の参照符号を付して、その重複する説明を省略する。また、以下の図は、本開示を説明するための図であるので、本開示に無関係な要素が省略される場合、誇張等のために寸法が正確でない場合、簡略化される場合、複数の図において互いに対応する要素の形態が一致しない場合等がある。また、本開示は、以下の実施形態に限定されない。
 (実施形態の概要)
 本開示の実施形態のロボットシステムは、エンドエフェクタを備えたロボットと、操作部と、操作部の操作に基づいてエンドエフェクタを移動させ、当該エンドエフェクタにワークの被加工面に対して非接触で加工を行わせる制御部と、を備える。制御部は、操作部の操作に基づいてエンドエフェクタを移動させる際に、エンドエフェクタと、ワークの被加工面又はワークの仮想の被加工面である、制御被加工面との距離を一定にする第1制御と、前記制御被加工面に対する前記エンドエフェクタの角度を一定角度にする第2制御とのうちの少なくとも一方を実行する。ここで、第2制御における「一定角度」は、エンドエフェクタによる加工に好適な角度が選択される。例えば、塗装ガンを用いた塗装加工では、90度が選択される。もちろん、他の加工では、他の角度が選択されてもよい。
 前記操作部は、前記エンドエフェクタの位置及び姿勢を示す位置姿勢指示部と、前記位置姿勢指示部の位置及び姿勢を検出する位置姿勢検出部と、前記加工を操作するための加工指示部と、を備える。
 以下では、第1及び第2制御における制御被加工面がワークの実際の加工面である形態を、実施形態1において説明し、第1及び第2制御における制御被加工面がワークの仮想の加工面である形態を、実施形態2において説明する。
 (実施形態1)
 [構成]
 {ハードウェアの構成}
 図1は、本開示の実施形態1に係るロボットシステムの構成の一例を示す模式図である。図2は、図1のロボット1及び位置・姿勢センサ4の配置を模式的に示す平面図である。
 図1を参照すると、本実施形態1では、ロボットシステムは、例えば、塗装ロボットシステム100である。この塗装ロボットシステム100は、ロボット1と、位置姿勢指示部の一例である指示器2と、制御部の一例であるシステム制御器3と、位置姿勢検出部の一例である位置・姿勢センサ4と、特定制御スイッチ5と、記憶部の一例である記憶器7と、を備える。ロボット1のエンドエフェクタ装着部であるEF装着部1aには、エンドエフェクタの一例である塗装ガン6が装着される。指示器2と位置・姿勢センサ4とが、操作部の一例である操作器8を構成している。
 ここで、塗装ロボットシステム100は、本開示の実施形態に係るロボットシステムの一例である。このロボットシステムでは、エンドエフェクタによる加工が、エンドエフェクタからの加工用の物質又はエネルギーの前記ワークの被加工面への放出による加工である。以下では、エンドエフェクタからの加工用の物質又はエネルギーのワークの被加工面への放出による加工である放出加工として、塗装ガン6からの塗料の噴射による塗装が例示される。しかし、放出加工は、これ以外の放出加工であってもよい。また、以下の塗装ガン6からの塗料の噴射による塗装の開示内容を、これ以外の放出加工に、適宜、適用することによって、当該放出加工を行うロボットシステムを実現することができる。ロボットシステムは、全て、原理が、エンドエフェクタから物質又はエネルギーをワークの被加工面へ放出することによって加工を行うという点で共通するからである。
 ここで、加工用の「物質又はエネルギー」は特に限定されない。「加工用の物質」として、液体、気体、粉状又は粒状の固体、火炎等が例示される。「加工用のエネルギー」として、電流、電磁波、光、音波等が例示される。電磁波として、電波、放射線等が例示される。光には、紫外線及び赤外線が含まれる。音波として、超音波等が例示される。「加工」は、被加工面に、少なくとも物理的変化又は化学的変化を生じさせることを意味する。物理的変化として、被加工面の形状の変化、硬さの変化、色の変化、特性の変化等が例示される。被加工面の形状の変化として、凹部の形成、被加工面の剥離、被覆層の形成、溶融変形等が例示される。溶融変形には溶接が含まれる。特性の変化として導電性、磁性等の変化が例示される。化学的変化として、酸化、還元、化合、重合、分解等が例示される。物質又はエネルギーの「放出」として、物質又はエネルギーの、放射、噴射、吐出、流出等が例示される。
 また、「エンドエフェクタの物質又はエネルギーの放出の向き」は、例えば、物質又はエネルギーの主要放出方向、エンドエフェクタの物質又はエネルギーの放出口の中心線の延在方向又は法線の方向とされる。以下では、塗装ガン6が「エンドエフェクタ」であり、塗料が加工用の物質であり、塗料の噴射が、「物質の放出」であり、塗装ガン6の塗料の噴射の向きが、「エンドエフェクタの物質の放出の向き」である。以下では、簡略化のために、「塗装ガン6の塗料の噴射の向き」を「塗装ガン6の向き」と呼ぶ。
 また、以下では、第1制御の一例である「EF距離一定制御」を「ガン距離一定制御」と呼び、第2制御の一例である「EF面直制御」を「ガン面直制御」と呼ぶ。
 また、以下では、塗装ガン6の位置及び姿勢を指示する指示部と当該指示した塗装ガン6の位置及び姿勢を検出するセンサ部とが、それぞれ、指示器2と位置・姿勢センサ4とに分離された操作器8が例示される。しかし、当該指示部とセンサ部とが一体化された操作器8を用いてもよい。
 また、以下では、エンドエフェクタによる加工を操作するための加工指示部がトリガ2aであり、このトリガ2aが、指示器2に設けられた操作器8が例示される。しかし、加工指示部は、操作器8と分離して設けられてもよい。加工指示部は、例えば、システム制御器3のディスプレイに表示されてもよい。
 次に、これらの要素の配置を説明する。図2を参照すると、ロボット1及び被塗装物であるワークWは、例えば、密閉された塗装室13の内部に配置される。なお、図2には、図を見やすくするために、ロボット1の代わりに手首部であるEF装着部1aが示されている。参照符号10は、塗装ガン6から噴出される塗料を示す。塗装室13の1つの側壁が透明な仕切り板12で構成され、この透明な仕切り板12に隣接して制御エリアが形成されている。
 制御エリアにおけるワークW及び塗装ガン6が見える場所に操作位置が想定されている。この操作位置に特定制御スイッチ5が配置され、且つ、この操作位置の周囲に複数の位置・姿勢センサ4が配置されている。ここでは、位置・姿勢センサ4の数は、3つである。操作者11は、この操作位置に位置して、ワークW及び塗装ガン6を見ながら、指示器2を一方の手に持ち、塗装ガン6を操作すべく指示器2を動かす。ここでは、一方の手は、例えば右手である。この指示器2の位置及び姿勢を位置・姿勢センサ4が検出する。また、操作者11は、特定制御スイッチ5を他方の手で操作し、ガン距離一定制御及びガン面直制御の少なくともいずれかを指令する。ここでは、他方の手は、例えば左手である。なお、以下では、ガン距離一定制御及びガン面直制御を「特定制御」と総称する。
 システム制御器3は、例えば、塗装室13以外の適宜な場所に配置される。システム制御器3は、例えば、制御エリアの操作位置に近接して配置されてもよい。なお、システム制御器3を小型化するとともに図3に示されたロボット制御器9と一体化してもよい。この場合、一体化したシステム制御器3をロボット1の基台の内部に配置してもよい。
 記憶器7は、任意の場所に配置され得る。ここでは、システム制御器3の内部に配置される。
 以下、これらの要素を詳しく説明する。
 <ロボット1>
 ロボット1は、塗装ガン6を移動させる要素である。従って、ロボット1は、塗装ガン6を装着できるものであればよい。ロボット1として、垂直多関節ロボット、水平多関節ロボット、パラレルリンクロボット、直交座標型ロボット等が例示される。
 以下では、ロボット1が6軸の垂直多関節ロボットである場合が例示される。ロボット1のEF装着部1aに塗装ガン6が装着される。EF装着部1aは、塗装ガン6が装着される装着部の一例である。ロボット1が他のタイプである場合は、塗装ガン6の装着部の呼称が変わり得る。
 ロボット1にとって、塗装ガン6は、EF装着部1aに装着される各種のエンドエフェクタの一種であるので、塗装ガン6の位置及び姿勢は、塗装ガン6の装着部であるEF装着部1aの位置及び姿勢を制御することによって制御される。従って、以下では、EF装着部1aの位置及び姿勢の制御を説明するが、EF装着部1aの位置及び姿勢を制御することは、塗装ガン6の位置及び姿勢を制御することと同義である。また、「EF装着部1aの向き」は、EF装着部1aに装着された塗装ガン6の向きと同義である。
 <指示器2>
 指示器2は、塗装ガン6の位置及び姿勢を示し、且つ、塗装ガン6の塗料の噴射を操作するための要素である。指示器2は、ここでは、塗装ガン6の形状を簡略化して模擬したガン形状に形成されている。これによって、指示器2の位置及び姿勢によって、塗装ガン6の位置及び姿勢を示すことができる。但し、指示器2の形状は、ガン形状でなくてもよい。例えば、任意の形状の指示器2にマーカを設け、当該マーカを位置・姿勢センサ4が検出することによって、指示器2の位置及び姿勢を特定できるようにしてもよい。
 指示器2には、ここでは、塗装ガン6の塗料の噴射を操作するためにトリガ2aが設けられている。トリガ2aは、原位置に復帰するように付勢されつつ押し込み可能に構成されている。操作者11が指でトリガ2aを押し込むことにより塗装ガン6から塗料が噴射される。操作者11がトリガ2aから指を放すと、塗装ガン6からの噴射が停止される。また、トリガ2aの押し込み量に応じて塗料の噴射量が増減する。塗料の噴射量は、例えば、単位時間当たりの噴射量であってもよい。
 <システム制御器3>
 システム制御器3は、塗装ガン6が位置・姿勢センサ4で検出された指示器2の位置及び姿勢に応じた位置及び姿勢を取るようロボット1の動作を制御する基本制御を行い、且つ、塗装ガン6の塗料の噴射に関する指示器2の操作に応じて塗装ガン6の塗料の噴射を制御する。また、システム制御器3は、基本制御の中において、塗装ガン6とワークWの被塗装面fとの距離を一定にするガン距離一定制御及び塗装ガン6の向きをワークWの塗装面に垂直にするガン面直制御の少なくともいずれかを行う。被塗装面fは、被加工面の一例である。
 具体的には、システム制御器3は、位置・姿勢センサ4で検出された指示器2の位置及び姿勢データとワークWの3次元データとワークWの位置データとに基づいて、ロボット1及び塗装ガン6の制御信号を生成し、これらを図3に示されたロボット制御器9に送信する。位置及び姿勢データは、位置・姿勢信号を意味する。
  ワークWの3次元データは、予め、図3に示されたシステム制御器3の記憶器7に記憶されている。ワークWの3次元データとして、ワークWのCADデータ、ワークWの実測データ等が例示される。
 システム制御器3は、図3に示されたプロセッサPrとメモリMeとを有する演算器で構成される。図3のモード切替スイッチ31は、この演算器において、メモリMeに格納された制御プログラムをプロセッサPrが実行することによって実現される機能ブロックである。この演算器は、具体的には、例えば、マイクロコントローラ、MPU、FPGA(Field Programmable Gate Array)、PLC(Programmable Logic Controller)等で構成される。これらは、集中制御を行う単独の演算器で構成されてもよく、分散制御を行う複数の演算器で構成されてもよい。
 ここで、本明細書で開示する要素の機能は、開示された機能を実行するよう構成又はプログラムされた汎用プロセッサ、専用プロセッサ、集積回路、ASIC(Application Specific Integrated Circuits)、従来の回路、及び又は、それらの組み合わせ、を含む回路又は処理回路を使用して実行できる。プロセッサは、トランジスタやその他の回路を含むため、処理回路又は回路と見なされる。本開示において、「器」及び「部」は、列挙された機能を実行するハードウェアであるか、又は、列挙された機能を実行するようにプログラムされたハードウェアである。ハードウェアは、本明細書に開示されているハードウェアであってもよいし、あるいは、列挙された機能を実行するようにプログラム又は構成されているその他の既知のハードウェアであってもよい。ハードウェアが回路の一種と考えられるプロセッサである場合、「器」及び「部は、ハードウェアとソフトウェアの組み合わせであり、ソフトウェアは、ハードウェア及び/又はプロセッサの構成に使用される。
 <位置・姿勢センサ4>
 位置・姿勢センサ4は、操作器の位置及び姿勢を検出する要素である。従って、位置・姿勢センサ4は、指示器2の位置及び姿勢を検出できるセンサであればよい。
 位置・姿勢センサ4として、例えば、複数の距離センサを組み合わせるタイプA、立体カメラの一例である3Dカメラを用いるタイプB、深度カメラを用いるタイプC、並びに、3軸加速度センサ、ジャイロセンサ、及び地磁気センサを組み合わせるタイプDが挙げられる。
 タイプAによれば、例えば、複数の赤外線距離センサが検出した距離データを組み合わせて解析することにより、指示器2の位置及び姿勢を取得することができる。
 タイプBによれば、例えば、1以上の3Dカメラが撮像した奥行の情報を含む画像を解析することにより、指示器2の位置及び姿勢を取得することができる。
 タイプCによれば、例えば、1以上のTOFカメラが撮像した深度付き画像を解析することにより、指示器2の位置及び姿勢を取得することができる。
 タイプDによれば、指示器2に取り付けられた3軸加速度センサによって、指示器2の位置及び姿勢を取得することができる。また、指示器2に、3軸加速度センサに加えて、ジャイロセンサ及び地磁気センサを取り付け、それらの出力を組み合わせて解析することによって、高精度で指示器2の位置及び姿勢を取得することができる。
 ここでは、位置・姿勢センサ4として、タイプBが用いられる。この場合、例えば、指示器2に、当該指示器2の位置及び姿勢を3Dカメラの撮像画像から特定するためのマーカが付されてもよい。
 <特定制御スイッチ5>
 特定制御スイッチ5は、ガン距離一定スイッチ5aと、ガン面直スイッチ5bとを備える。例えば、ガン距離一定スイッチ5aを回すとガン距離一定制御ON信号が出力され、ガン距離一定スイッチ5aを戻すと、ガン距離一定制御ON信号が消滅する。また、ガン面直スイッチ5bを回すとガン面直制御ON信号が出力され、ガン面直スイッチ5bを戻すと、ガン面直制御ON信号が消滅する。
 <塗装ガン6>
 塗装ガン6は、特に限定されない。ここでは、塗装ガン6は、塗料の噴射量を変えることができる。塗料は、例えば、液体、気体、粉体、及びこれらの1以上の混合物のいずれであってもよい。
 <記憶器7>
 記憶器7は、ワークWの3次元データを記憶する。また、記憶器7は、システム制御器3がロボット1の動作及び塗装ガン6の塗料の噴射を制御するためにロボット1及び塗装ガン6にそれぞれ出力するロボット制御信号及び塗装ガン制御信号を時系列で記憶する。記憶器7は、ここでは、システム制御器3を構成するメモリMeで構成されていて、システム制御器3の内部に構築されている。
 記憶器7は、システム制御器3の外部に独立した要素として設けられてもよい。例えば、記憶器7は、ティーチングペンダントで構成されていてもよい。
 {制御系統の構成}
 図3は、図1の塗装ロボットシステム100の制御系統の構成の一例を示す機能ブロック図である。
 図3を参照すると、塗装ロボットシステム100は、さらに、モード切替スイッチ31を備える。モード切替スイッチ31は、例えば、図1に示されたシステム制御器3が備えるディスプレイに表示される。モード切替スイッチ31は、記憶モードと再生モードを互いに切り替えるモード切替信号をシステム制御器3に出力する。
 指示器2は、トリガ2aの押し込み量に応じた塗装ガン6における塗料の噴射量を表す噴射信号をシステム制御器3に出力する。
 位置・姿勢センサ4は、検出した指示器2の位置及び姿勢を表す位置・姿勢信号をシステム制御器3に出力する。
 特定制御スイッチ5は、ガン距離一定スイッチ5a及びガン面直スイッチ5bの操作に応じて、それぞれ、ガン距離一定制御ON信号及びガン面直制御ON信号をシステム制御器3に出力する。
 ロボット1は、入力されるロボット制御信号及び塗装ガン制御信号に従って、それぞれ、ロボット1及び塗装ガン6の動作を制御するロボット制御器9を備える。
 システム制御器3は、位置・姿勢センサ4から入力される位置・姿勢信号に基づいてロボット制御信号をロボット1のロボット制御器9に出力し、ロボット1の動作を介して、塗装ガン6の位置及び姿勢を制御する。
 また、システム制御器3は、指示器2から入力される噴射信号に基づいて塗装ガン制御信号をロボット1のロボット制御器9に出力し、ロボット制御器9を介して、塗装ガン6の塗料の噴射のON/OFF及び噴射量を制御する。
 また、システム制御器3は、ロボット1の動作を基本制御している最中に、特定制御スイッチ5からガン距離一定制御ON信号又はガン面直制御ON信号が入力されると、ガン距離一定制御又はガン面直制御を行う、すなわち、ガン距離一定制御又はガン面直制御をONする。
 さらに、システム制御器3は、モード切替スイッチ31からモード切替信号が入力されると、ロボット1の動作における記憶モードと再生モードとを相互に切り替える。そして、システム制御器3は、記憶モードにおいては、自身が出力するロボット制御信号及び塗装ガン制御信号を時系列で記憶器7に記憶させる。そして、システム制御器3は、再生モードにおいて、記憶器7から時系列で記憶されたロボット制御信号及び塗装ガン制御信号を順次読み出してロボット1及び塗装ガン6に出力する。
 <ガン距離一定制御>
 次に、ガン距離一定制御について説明する。図4は、ガン距離一定制御の概要を示す斜視図である。
 図4を参照すると、ガン距離一定制御では、ロボット1のEF装着部1aが、ワークWの被塗装面fから一定の距離を維持するように、ロボット1の動作が制御される。ロボット1のEF装着部1aが、ワークWの被塗装面fから一定の距離に維持される結果、塗装ガン6が、ワークWの被塗装面fから一定の距離に維持される。その一方、ロボット1の塗装ガン6が装着されたEF装着部1aは、EF装着部1aの向きに垂直な方向においては、指示器2の位置に応じた位置に移動するよう制御される。ガン距離一定制御は、指示器2のトリガ2aが押し込まれている期間に渡って行われる。
 <ガン面直制御>
 次に、ガン面直制御について説明する。図5は、ガン面直制御の概要を示す平面図である。図5において、EF装着部1aにおける点線は、指示器2の姿勢に応じた塗装ガン6の姿勢を示し、実線はガン面直制御された塗装ガン6の姿勢を示す。指示器2の姿勢に応じた塗装ガン6の姿勢は、基本制御における姿勢を意味する。
 図5を参照すると、ガン面直制御では、塗装ガン6の向きが、ワークWの被塗装面fに対して垂直になるように、ロボット1の動作が制御される。その一方、塗装ガン6のEF装着部1aの位置P0は制約されず、塗装ガン6は任意の方向に移動可能である。ガン面直制御は、指示器2のトリガ2aが押し込まれている期間に渡って行われる。
 <ワークWのCADデータの設定>
 図6は、ワークWのCADデータのロボット座標系への設定の一例を示す模式図である。
 図6を参照すると、例えば、ワークWの3次元データとして、ワークWのCADデータがシステム制御器3の記憶器7に格納される。その際に、ロボット1の座標系に、原点Oから見たワークWの座標が設定される。この原点から見たワークWの位置は、例えば、メジャー等で実測される。
 [動作]
 次に、以上のように構成された塗装ロボットシステム100の動作を説明する。塗装ロボットシステム100の動作は、塗装ロボットシステム100の制御方法を意味する。
 {記憶モード}
 まず、記憶モードについて説明する。記憶モードでは、システム制御器3が、以下に述べる動作において、自身が出力するロボット制御信号及び塗装ガン制御信号を時系列で記憶器7に記憶させる。
 <基本制御>
 図2及び図3を参照すると、操作者11は、まず、システム制御器3のディスプレイに表示されたモード切替スイッチ31を操作して、ロボット1の動作を記憶モードにする。そして、操作者11は、操作位置に位置して、ワークW及び塗装ガン6を見ながら、指示器2を一方の手に持ち、塗装ガン6を操作すべく指示器2を動かす。この指示器2の位置及び姿勢を位置・姿勢センサ4が検出し、その検出信号である位置・姿勢信号に応じて、システム制御器3が、EF装着部1a、ひいては、塗装ガン6の位置及び姿勢が指示器2の位置及び姿勢に応じた位置及び姿勢になるようロボット1の動作を制御する。
 そして、操作者11が指示器2のトリガ2aを指で押し込むと、システム制御器3が、指示器2からの噴射信号に応じた噴射量の塗料10を塗装ガン6に噴射させる。システム制御器3は、指示器2のトリガ2aが押し込まれている期間に渡って、次に述べる特定制御を行う。
 <特定制御>
 図7は、ロボット1の特定制御の内容の一例を示すフローチャートである。図7を参照すると、システム制御器3は、上述の基本制御の中で特定制御を行う。
 特定制御では、まず、ガン面直スイッチ5bがON信号を出力しているか否か判定する(ステップS1)。ガン面直スイッチ5bがON信号を出力していない場合(ステップS1でNO)、ステップS3に進む。
 ガン面直スイッチ5bがON信号を出力している場合(ステップS1でYES)、ガン面直処理(ガン面直制御)を行う(ステップS2)。
 次いで、システム制御器3は、ガン距離一定スイッチ5aがON信号を出力しているか否か判定する(ステップS3)。ガン距離一定スイッチ5aがON信号を出力していない場合(ステップS3でNO)、この特定制御を終了する。
 ガン距離一定スイッチ5aがON信号を出力している場合(ステップS3でYES)、ガン距離一定処理(ガン距離一定制御)を行う(ステップS4)。
 そして、システム制御器3は、この特定制御を終了する。
 システム制御器3は、この特定制御を、所定の制御間隔で繰り返す。
 <ガン距離一定制御>
 図8は、ロボット1のガン距離一定制御の内容の一例を示すフローチャートである。図9は、ガン距離一定制御の内容及び塗装ガン6の位置に関する補正許容位置範囲21を示す平面図である。ロボット1のガン距離一定制御は、ロボット1のガン距離一定処理を意味する。
 図8及び図9を参照すると、ガン距離一定制御では、システム制御器3は、まず、位置・姿勢センサ4から入力される位置・姿勢信号からロボット1のEF装着部1aの位置P0及び向きを取得する(ステップS11)。ここで、EF装着部1aの向きは、既述のように、EF装着部1aに装着された塗装ガン6の向きと一致する。塗装ガン6の向きは、適宜、定義される。塗装ガン6の向きは、例えば、塗料の主吐出方向、塗料の吐出口の中心線の延在方向等と定義され得る。エンドエフェクタである塗装ガン6は、その向きがEF装着部1aのエンドエフェクタの向きを表す軸線に一致するように装着される。ここでは、塗装ガン6は、EF装着部1aの捩じり回転軸線に一致するように装着される。従って、EF装着部1aの向きは、EF装着部1aの捩じり回転軸線の延在方向を意味する。
 次いで、システム制御器3は、EF装着部1aの捩じり回転軸線とワークWの被塗装面fとの交点P1の位置を求める(ステップS12)。これにより、被塗装面fにおけるEF装着部1aとの距離の基準となる点P1が特定される。
 次いで、システム制御器3は、補正条件が満たされるか否か判定する(ステップS13)。ここで、「補正」は、塗装ガン6の基本制御における目標位置及び目標姿勢から特定制御であるガン距離一定制御及びガン面直制御における目標位置及び目標姿勢への変更を指す。エンドエフェクタである塗装ガン6がワークWの被塗装面fから大きく離れて位置し、あるいは、ワークWの被塗装面fから大きく外れた方向を向いている場合、操作者11がガン距離一定制御又はガン面直制御を行う意志がないと想定される。そこで、本実施形態では、操作者11のそのような意志に沿うために、補正が、所定の補正条件を満たす場合に制限される。
 補正条件は、塗装ガン6の位置に関する補正条件と塗装ガン6の姿勢に関する補正条件とを含む。
 図9を参照すると、システム制御器3には、EF装着部1aの位置に関する補正許容位置範囲21が設定されている。ここで、「設定されている」とは記憶器7に記憶されていることを意味する。補正許容位置範囲21は、適宜、設定される。補正許容位置範囲21は、ここでは、ワークWの被塗装面fから所定の距離範囲にある立体の領域として設定されている。所定の距離範囲は、所定距離Lcを含む。立体の領域は、ここでは直方体状である。システム制御器3は、位置・姿勢センサ4から入力される位置・姿勢信号から取得したEF装着部1aの位置P0が補正許容位置範囲21にある場合、EF装着部1aの位置に関する補正条件が満たされると判定する。
 図10は、EF装着部1aの向きに関する補正許容角度範囲を示す平面図である。図10を参照すると、システム制御器3には、EF装着部1aの向きに関する補正許容角度範囲22が設定されている。補正許容角度範囲22は、適宜、設定される。ここでは、補正許容角度範囲22は、ワークWの被塗装面fの法線23に対して所定の角度範囲にある円錐状の領域として設定されている。システム制御器3は、ワークWの被塗装面fの交点P1における被塗装面fに対するEF装着部1aの回動軸線の交差角と法線23との差角θを求め、当該差角θが補正許容角度範囲にある場合、EF装着部1aの姿勢に関する補正条件が満たされると判定する。
 システム制御器3は、これらのEF装着部1aの位置に関する補正条件及び姿勢に関する補正条件が満たされると判定すると、補正条件が満たされると判定する。
 システム制御器3は、補正条件が満たされないと判定する(ステップS13でNO)と、ガン距離一定制御を終了する。
 一方、システム制御器3は、補正条件が満たされると判定する(ステップS13でYES)と、EF装着部1aの回動軸線上の交点P1から所定距離Lcだけ離れた点(以下、一定距離点という)P2の位置を求める(ステップS14)。所定距離Lcは、塗装ガン6が被塗装面fを塗装するのに好適な距離となる、EF装着部1aと被塗装面fとの距離であり、操作者11の経験、実験、シミュレーション、計算等によって決定される。
 次いで、システム制御器3は、EF装着部1aを一定距離点P2に位置させる(ステップS15)。
 その後、システム制御器3は、ガン距離一定制御を終了する。
 <ガン面直制御>
 図11は、ロボットのガン面直制御の内容の一例を示すフローチャートである。ガン面直制御は、ガン面直処理を意味する。
 図11を参照すると、ガン面直制御では、システム制御器3は、まず、位置・姿勢センサ4から入力される位置・姿勢信号からロボット1のEF装着部1aの姿勢として、EF装着部1aの向きを取得する(ステップS21)。
 次いで、システム制御器3は、補正条件が満たされるか否か判定する(ステップS22)。この補正条件が満たされるか否かの判定は、上述のガン距離一定制御の場合と同じであるので、その説明を省略する。
 システム制御器3は、補正条件が満たされないと判定する(ステップS22でNO)と、ガン面直制御を終了する。
 一方、システム制御器3は、補正条件が満たされると判定する(ステップS22でYES)と、ワークWの被塗装面fに垂直になるEF装着部1aの姿勢を求める(ステップS23)。この処理は、EF装着部1aの姿勢のデータとワークWのCADデータとを用いて、適宜、行うことができる。ここでは、例えば、ワークWの被塗装面fの法線ベクトルを入力として、下記のように処理される。なお、下記処理において、ベクトル[0 1 0]は、基準となる単位ベクトルを示す。
 A.ベクトル[0 1 0]をロボット1のEF装着部1aの向きに向けるクォータニオンを求める。
 B.Aの処理で求めたクォータニオンを回転行列に変換する。
 C.ベクトル[0 1 0]を被塗装面fの法線ベクトルに向けるクォータニオンを求める。
 D.Cの処理で求めたクォータニオンを回転行列に変換する。
  E.Bの処理で求めた回転行列を、Dの処理で求めた回転行列に変換する変換行列を求める。
 F.Eの処理で求めた変換行列をロボット1のEF装着部1aの姿勢に掛け合わせ、補正後のロボット1のEF装着部1aの姿勢である面直姿勢とする。
 次いで、システム制御器3は、補正後のEF装着部1aの位置及び姿勢について、補正条件が満たされるか否か判定する(ステップS24)。この補正条件が満たされるか否かの判定は、上述のガン距離一定制御の場合と同じであるので、その説明を省略する。
 システム制御器3は、補正条件が満たされないと判定する(ステップS24でNO)と、ガン面直制御を終了する。
 一方、システム制御器3は、補正条件が満たされると判定する(ステップS24でYES)と、EF装着部1aの姿勢を、上記求めた面直姿勢に補正する(ステップS25)。
 その後、システム制御器3は、ガン面直制御を終了する。
 {再生モード}
 図2及び図3を参照すると、操作者11は、システム制御器3のディスプレイに表示されたモード切替スイッチ31を操作して、ロボット1の動作を再生モードにする。すると、システム制御器3が、記憶器7から、時系列で記憶されたロボット制御信号及び塗装ガン制御信号を順次読み出してロボット1及び塗装ガン6に出力する。これにより、記憶モードにおいて、熟練の操作者によって1つのワークに対して行われた塗装作業が、同じ仕様の多数のワークについて自動的に行われる。
 以上に説明したように、本実施形態の塗装ロボットシステム100によれば、塗装ガン6とワークWの被塗装面fとの距離を一定にする制御及び塗装ガン6の向きをワークWの被塗装面fに垂直にする制御の少なくともいずれかを行う状態において、塗装を行いながら塗装ガン6の移動経路を決めることができる。
 また、熟練の操作者によって1つのワークに対して行われた塗装作業を、同じ仕様の多数のワークについて自動的に行うことができる。
 また、操作者11が、指示器2によって塗装ガン6の塗料の噴射を操作しながら指示器2を塗装ガン6に模して動かすことによって、実際の塗装ガン6を手に持って塗装するようにして、ワークへの塗装を行うことができる。
 {変形例1}
 図12は、変形例1の特定制御の内容の一例を示す平面図である。図1を参照すると、変形例1では、ワークWの被塗装面fが、例えば、曲面である。また、システム制御器3が、特定制御として、ガン距離一定制御及びガン面直制御を行う。これ以外の点は、実施形態1と同様である。
 このような変形例1によっても、実施形態1と同様の効果が得られる。また、実施形態1及び変形例1から明らかなように、ワークWの被塗装面fの形状は特に限定されない。
 (実施形態2)
 図13は、実施形態2の特定制御の内容の一例を示す平面図である。図13を参照すると、実施形態2では、実際のワークWsについて、仮想のワークWvが設定されている。実際のワークWsは、粗い被塗装面fsを有する。仮想のワークWvは、実際のワークWsの被塗装面fsを均した仮想の被塗装面fvを有し、且つ、この仮想の被塗装面fv以外の部分が実際のワークWsの表面に沿うように設定されている。従って、実際のワークWs及び仮想のワークWvを含む概念として「ワークW」が存在する。この「ワークW」の「被塗装面」を「制御被塗装面f」と称する。従って、実施形態1及び変形例1では、実際のワークWの被塗装面が制御被塗装面fである。
 仮想のワークWvは、例えば、CADデータで特定され、3次元データとして、記憶器7に記憶される。そして、システム制御器3が、仮想の被塗装面fvを制御被塗装面fとして、特定制御としてのガン距離一定制御及びガン面直制御を行う。これ以外の点は、実施形態1と同様である。
 実際のワークWsの実際の被塗装面fsが粗い場合において、当該実際の被塗装面fsに対する塗装ガン6の距離又は角度に基づいて、第1制御又は第2制御を行うと、塗装ガン6の位置及び姿勢が実際の被塗装面fsの状態に追随しきれなくなって乱れてしまい、好ましい塗装状態が得られなくなる可能性がある。
 本実施形態2によれば、実際の被塗装面fsを均した仮想の被塗装面fvがワークWに設定され、当該仮想の被塗装面fsに対して第1制御又は第2制御が行われるので、塗装ガン6の位置及び姿勢が仮想の被塗装面fsの状態に追随し、塗装ガン6の位置及び姿勢が乱れるのを防止することができる。
 {変形例2}
 図14は、変形例2の特定制御の内容の一例を示す平面図である。図14を参照すると、変形例2では、仮想のワークWvの仮想の被塗装面fvが、実際のワークWsの実際の被塗装面fsを均した形状に設定されるだけはなく、仮想の被塗装面fvが、第2制御において、実際の被塗装面fsに所望の方角から塗装ガン6によって塗料が吹き付けられるように設定される。具体的には、仮想の被塗装面fvの法線が前記所望の方角を向くように当該仮想の被塗装面fvが設定される。これ以外の点は、実施形態2と同様である。
 このような変形例2によれば、実際の被塗装面fsに所望の方角から塗装ガン6によって塗料が吹き付けられるので、所望の塗装状態を得ることができる。
 (その他の実施形態)
 上記実施形態において、記憶モード及び再生モードを省略し、ロボット制御信号及び塗装ガン制御信号を記憶しない他は記憶モードと同様の通常の動作モードのみ有するように塗装ロボットシステム100を構成してもよい。
 上記実施形態において、放出加工が、塗装以外の放出加工であってもよい。そのような放出加工として、例えば、洗浄ノズルからの洗浄液の噴射による洗浄、噴射ノズルからの投射材粒体と空気又は水との混合物の噴射によるショットブラスト又はショットピーニング、電極からの電流の放出によるアーク溶接、又は、バーナーからの火炎の放出による炙り加工が挙げられる。
 上記実施形態において、指示部とセンサ部とが一体化された操作器8を用いてもよい。そのような操作器8として、ジョイスティック、ロボット1と相似の形状を有するマスターロボットアーム、専用の操作器等が例示される。
 前記システム制御器は、前記エンドエフェクタが前記物質又はエネルギーを放出するように前記操作器が操作されている期間に渡って、前記EF距離一定制御及び前記EF面直制御の少なくともいずれかを行うように構成されていてもよい。
 この構成によれば、エンドエフェクタが物質又はエネルギーを放出しない場合には、エンドエフェクタを自由な移動経路及び姿勢の少なくともいずれかで移動させることができる。
 (実施形態による効果)
 以上に説明したように、上記実施形態1及び2においては、エンドエフェクタ6を備えたロボット1と、操作部8と、前記操作部8の操作に基づいてエンドエフェクタ6を移動させ、当該エンドエフェクタ6にワークWの被加工面に対して非接触で加工を行わせる制御部3と、を備え、前記制御部3は、前記操作部8の操作に基づいてエンドエフェクタ6を移動させる際に、前記エンドエフェクタ6と、前記ワークWの被加工面fs又は前記ワークWの仮想の被加工面fvである、制御被加工面fとの距離を一定にする第1制御と、前記制御被加工面fに対する前記エンドエフェクタ6の角度を一定角度にする第2制御とのうちの少なくとも一方を実行する。
 この構成によれば、第1制御及び第2制御の少なくともいずれかを行いながら、操作部8の操作に基づいてエンドエフェクタ6を移動させ、当該エンドエフェクタ6にワークWの被加工面fsに対して非接触で加工を行わせることができるので、第1制御及び第2制御の少なくともいずれかによる実際のワークWへの加工状態を確認しながらエンドエフェクタ6の移動経路を決定することができる。その結果、操作者11が望ましいと思う加工状態を得ることができるため、エンドエフェクタ6を予め設定された経路で移動させながら、第1制御及び第2制御の少なくともいずれかを行う場合に比べて、実際の加工状態を向上させることができる。
 前記制御部3は、前記エンドエフェクタ6が前記ワークWの被加工面fsに加工を行う間、前記第1制御及び前記第2制御の少なくともいずれかを行ってもよい。
 この構成によれば、エンドエフェクタ6がワークWの被加工面fsを加工しない場合には、エンドエフェクタ6を自由な移動経路及び姿勢の少なくともいずれかで移動させることができる。
 前記操作部8は、前記エンドエフェクタ6の位置及び姿勢を示す位置姿勢指示部2と、前記位置姿勢指示部2の位置及び姿勢を検出する位置姿勢検出部4と、前記加工を操作するための加工指示部2aと、を備えてもよい。
 この構成によれば、エンドエフェクタ6の位置及び姿勢が、位置姿勢検出部4によって検出される位置姿勢指示部2の位置及び姿勢に応じた位置及び姿勢になるとともに加工指示部2aの操作に応じてエンドエフェクタ6による加工が制御されるので、操作者11は、加工指示部2aによってエンドエフェクタ6による加工を操作しながら位置姿勢指示部2をエンドエフェクタ6に模して動かすことによって、実際のエンドエフェクタ6を手に持って加工するようにして、ワークWへの加工を行うことができる。
 前記制御部3は、前記ワークWの3次元データを記憶しており、前記制御部3は、前記ワークWの3次元データと前記エンドエフェクタ6の位置とに基づいて前記第1制御を行い、又は、前記ワークWの3次元データと前記エンドエフェクタ6の姿勢とに基づいて前記第2制御を行ってもよい。ここで、「3次元データ」として、例えば、CADデータ、実測データ等が挙げられる。
 この構成によれば、ワークWの3次元データを用いた演算により第1制御及び第2制御を行うことができる。
 前記第1制御及び前記第2制御にそれぞれ用いられる前記エンドエフェクタ6の位置及び前記エンドエフェクタ6の姿勢が、それぞれ、前記位置姿勢検出部4が検出した前記位置姿勢指示部2の位置及び姿勢であり、前記第1制御及び前記第2制御における制御被加工面fが、前記ワークWの仮想の被加工面fvであってもよい。
 ワークWの実際の被加工面fsが粗い場合において、当該実際の被加工面fsに対するエンドエフェクタ6の距離又は角度に基づいて、第1制御又は第2制御を行うと、エンドエフェクタ6の位置及び姿勢が実際の被加工面fsの状態に追随しきれなくなって乱れてしまい、好ましい加工状態が得られなくなる可能性がある。この構成によれば、例えば、実際の被加工面fsを均した仮想の被加工面fvをワークWに設定すると、当該仮想の被加工面fsに対して第1制御又は第2制御が行われるので、エンドエフェクタ6の位置及び姿勢が仮想の被加工面fsの状態に追随し、エンドエフェクタ6の位置及び姿勢が乱れるのを防止することができる。
 前記ロボットシステム100は、前記エンドエフェクタ6を移動させ且つ当該エンドエフェクタ6に前記加工を行わせるために前記制御部3が出力する制御信号を記憶する記憶部7をさらに備え、前記制御部3は記憶モード及び再生モードを有し、前記制御部3は、前記記憶モードにおいて、前記制御信号を時系列で前記記憶部7に記憶させ、前記再生モードにおいて、前記記憶部7に記憶された前記制御信号を前記ロボット1及び前記エンドエフェクタ6に出力してもよい。
 この構成によれば、記憶モードにおいて、熟練の操作者11によって1つのワークWを加工し、その後、再生モードにおいて、同じ仕様の多数のワークWについて、自動的に熟練の操作者11と同様に加工を行うことができる。
 前記制御部3は、前記エンドエフェクタ6が前記制御被加工面fから所定の距離範囲に位置し、且つ、前記制御被加工面fに対する前記エンドエフェクタ6の向きが所定の向き範囲にある場合に、前記第1制御及び前記第2制御の少なくともいずれかを行ってもよい。
 エンドエフェクタ6がワークWの被加工面fsから大きく離れて位置し、あるいは、ワークWの被加工面fsから大きく外れた方向を向いている場合、操作者11が第1制御又は第2制御を行う意志がないと想定される。この構成によれば、そのような場合に、操作者11の意図に適切に沿うことができる。
 前記エンドエフェクタ6による前記加工が、前記エンドエフェクタ6からの加工用の物質又はエネルギーの前記ワークの被加工面への放出による加工であってもよい。
 この構成によれば、エンドエフェクタ6からの加工用の物質又はエネルギーの前記ワークWの被加工面fsへの放出による加工において、操作者11が望ましいと思う加工状態を得ることができる。
 前記エンドエフェクタ6からの前記加工用の物質又はエネルギーの前記ワークWの被加工面fsへの放出による加工が、塗装ガンからの液状又は粉状の塗料の噴射による塗装、洗浄ノズルからの洗浄液の噴射による洗浄、噴射ノズルからの投射材粒体と空気又は水との混合物の噴射によるショットブラスト又はショットピーニング、電極からの電流の放出によるアーク溶接、及びバーナーからの火炎の放出による炙り加工のいずれかであってもよい。
 この構成によれば、これらの加工において、操作者11が望ましいと思う加工状態を得ることができる。
 上記説明から、当業者にとっては、多くの改良や他の実施形態が明らかである。従って、上記説明は、例示としてのみ解釈されるべきである。
1 ロボット
1a EF装着部
2 指示器
2a トリガ
3 システム制御器
4 位置・姿勢センサ
5 特定制御スイッチ
6 塗装ガン
7 記憶器
8 操作器
9 ロボット制御器9
10 塗料
21 補正許容位置範囲
22 補正許容角度範囲
23 法線
31 モード切替スイッチ
100 塗装ロボットシステム
f 被塗装面、制御被塗装面
Lc 所定の一定距離
Me メモリ
O 原点
P0 EF装着部の位置
P1 交点
P2 一定距離点
Pr プロセッサ
W ワーク
θ 差角

Claims (10)

  1.  エンドエフェクタを備えたロボットと、
     操作部と、
     前記操作部の操作に基づいてエンドエフェクタを移動させ、当該エンドエフェクタにワークの被加工面に対して非接触で加工を行わせる制御部と、を備え、
     前記制御部は、前記操作部の操作に基づいてエンドエフェクタを移動させる際に、前記エンドエフェクタと、前記ワークの被加工面又は前記ワークの仮想の被加工面である、制御被加工面との距離を一定にする第1制御と、前記制御被加工面に対する前記エンドエフェクタの角度を一定角度にする第2制御とのうちの少なくとも一方を実行する、ロボットシステム。
  2.  前記制御部は、前記エンドエフェクタが前記ワークの被加工面に加工を行う間、前記第1制御及び前記第2制御の少なくともいずれかを行う、請求項1に記載のロボットシステム。
  3.  前記操作部は、前記エンドエフェクタの位置及び姿勢を示す位置姿勢指示部と、
     前記位置姿勢指示部の位置及び姿勢を検出する位置姿勢検出部と、
     前記加工を操作するための加工指示部と、
    を備える、請求項1又は2に記載のロボットシステム。
  4.  前記制御部は、前記ワークの3次元データを記憶しており、
     前記制御部は、前記ワークの3次元データと前記エンドエフェクタの位置とに基づいて前記第1制御を行い、又は、前記ワークの3次元データと前記エンドエフェクタの姿勢とに基づいて前記第2制御を行う、請求項1乃至3のいずれかに記載のロボットシステム。
  5.  前記第1制御及び前記第2制御にそれぞれ用いられる前記エンドエフェクタの位置及び前記エンドエフェクタの姿勢が、それぞれ、前記位置姿勢検知部が検出した前記位置姿勢指示部の位置及び姿勢であり、
     前記第1制御及び前記第2制御における制御被加工面が、前記ワークの仮想の被加工面である、請求項4に記載のロボットシステム。
  6.  前記ロボットシステムは、前記エンドエフェクタを移動させ且つ当該エンドエフェクタに前記加工を行わせるために前記制御部が出力する制御信号を記憶する記憶部をさらに備え、
     前記制御部は記憶モード及び再生モードを有し、
     前記制御部は、前記記憶モードにおいて、前記制御信号を時系列で前記記憶部に記憶させ、前記再生モードにおいて、前記記憶部に記憶された前記制御信号を前記ロボット及び前記エンドエフェクタに出力する、請求項1乃至5のいずれかに記載のロボットシステム。
  7.  前記制御部は、前記エンドエフェクタが前記制御被加工面から所定の距離範囲に位置し、且つ、前記制御被加工面に対する前記エンドエフェクタの向きが所定の向き範囲にある場合に、前記第1制御及び前記第2制御の少なくともいずれかを行う、請求項1乃至6のいずれかに記載のロボットシステム。
  8.  前記エンドエフェクタによる前記加工が、前記エンドエフェクタからの加工用の物質又はエネルギーの前記ワークの被加工面への放出による加工である、請求項1乃至7のいずれかに記載のロボットシステム。
  9.  前記エンドエフェクタからの前記加工用の物質又はエネルギーの前記ワークの被加工面への放出による加工が、塗装ガンからの液状又は粉状の塗料の噴射による塗装、洗浄ノズルからの洗浄液の噴射による洗浄、噴射ノズルからの投射材粒体と空気又は水との混合物の噴射によるショットブラスト又はショットピーニング、電極からの電流の放出によるアーク溶接、及びバーナーからの火炎の放出による炙り加工のいずれかである、請求項8に記載のロボットシステム。
  10.  エンドエフェクタを備えたロボットと操作部とを備えたロボットシステムの制御方法であって、
     前記操作部の操作に基づいてエンドエフェクタを移動させ、当該エンドエフェクタにワークの被加工面に対して非接触で加工を行わせ、
     前記エンドエフェクタを移動させる際に、前記エンドエフェクタと、前記ワークの被加工面又は前記ワークの仮想の被加工面である、制御被加工面との距離を一定にする第1制御と、前記制御被加工面に対する前記エンドエフェクタの角度を一定角度にする第2制御とのうちの少なくとも一方を実行する、ロボットシステムの制御方法。
     
PCT/JP2021/036454 2020-10-02 2021-10-01 ロボットシステム及びロボットシステムの制御方法 WO2022071585A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020237014036A KR20230074781A (ko) 2020-10-02 2021-10-01 로봇 시스템 및 로봇 시스템의 제어 방법
US18/027,141 US20230330855A1 (en) 2020-10-02 2021-10-01 Robot system and method of controlling the robot system
EP21875881.1A EP4223465A1 (en) 2020-10-02 2021-10-01 Robot system and control method for robot system
CN202180067561.1A CN116249590A (zh) 2020-10-02 2021-10-01 机器人系统及机器人系统的控制方法
JP2022502250A JP7174194B2 (ja) 2020-10-02 2021-10-01 ロボットシステム及びロボットシステムの制御方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-167845 2020-10-02
JP2020167845 2020-10-02

Publications (1)

Publication Number Publication Date
WO2022071585A1 true WO2022071585A1 (ja) 2022-04-07

Family

ID=80951711

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/036454 WO2022071585A1 (ja) 2020-10-02 2021-10-01 ロボットシステム及びロボットシステムの制御方法

Country Status (6)

Country Link
US (1) US20230330855A1 (ja)
EP (1) EP4223465A1 (ja)
JP (1) JP7174194B2 (ja)
KR (1) KR20230074781A (ja)
CN (1) CN116249590A (ja)
WO (1) WO2022071585A1 (ja)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61100809A (ja) * 1984-10-22 1986-05-19 Toshiba Corp ロボツトの三次元テイ−チング装置
JPS63300880A (ja) * 1987-06-01 1988-12-08 株式会社日立製作所 マスタスレ−ブ制御装置
JPS6440290A (en) * 1987-08-04 1989-02-10 Meidensha Electric Mfg Co Ltd Profile controller for robot
JPH02287705A (ja) * 1989-04-28 1990-11-27 Omron Corp 姿勢制御装置
JPH0651824A (ja) * 1992-07-28 1994-02-25 Meidensha Corp 工具姿勢制御方法
JPH06262547A (ja) * 1993-03-08 1994-09-20 Meidensha Corp 産業用マニプレータの制御装置
JPH09216183A (ja) * 1996-02-13 1997-08-19 Kawasaki Heavy Ind Ltd ロボット3次元位置姿勢教示システム
JPH1058363A (ja) * 1996-08-21 1998-03-03 Toshiba Corp ロボットのオフライン教示装置
JP2001287179A (ja) * 2000-04-11 2001-10-16 Hikari Toso Kogyo Kk 産業用ロボット教示装置
JP2015047834A (ja) 2013-09-04 2015-03-16 株式会社ブリヂストン タイヤ内面塗装装置及びタイヤ内面塗装装置における塗装方法
US20170157776A1 (en) * 2014-06-23 2017-06-08 Commissariat A L'energie Atomique Et Aux Energies Alternatives Co-handling robot comprising robot control means

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3085814B2 (ja) * 1993-03-09 2000-09-11 三菱重工業株式会社 多関節型マスタ・スレーブマニピュレータ

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61100809A (ja) * 1984-10-22 1986-05-19 Toshiba Corp ロボツトの三次元テイ−チング装置
JPS63300880A (ja) * 1987-06-01 1988-12-08 株式会社日立製作所 マスタスレ−ブ制御装置
JPS6440290A (en) * 1987-08-04 1989-02-10 Meidensha Electric Mfg Co Ltd Profile controller for robot
JPH02287705A (ja) * 1989-04-28 1990-11-27 Omron Corp 姿勢制御装置
JPH0651824A (ja) * 1992-07-28 1994-02-25 Meidensha Corp 工具姿勢制御方法
JPH06262547A (ja) * 1993-03-08 1994-09-20 Meidensha Corp 産業用マニプレータの制御装置
JPH09216183A (ja) * 1996-02-13 1997-08-19 Kawasaki Heavy Ind Ltd ロボット3次元位置姿勢教示システム
JPH1058363A (ja) * 1996-08-21 1998-03-03 Toshiba Corp ロボットのオフライン教示装置
JP2001287179A (ja) * 2000-04-11 2001-10-16 Hikari Toso Kogyo Kk 産業用ロボット教示装置
JP2015047834A (ja) 2013-09-04 2015-03-16 株式会社ブリヂストン タイヤ内面塗装装置及びタイヤ内面塗装装置における塗装方法
US20170157776A1 (en) * 2014-06-23 2017-06-08 Commissariat A L'energie Atomique Et Aux Energies Alternatives Co-handling robot comprising robot control means

Also Published As

Publication number Publication date
JP7174194B2 (ja) 2022-11-17
EP4223465A1 (en) 2023-08-09
JPWO2022071585A1 (ja) 2022-04-07
CN116249590A (zh) 2023-06-09
US20230330855A1 (en) 2023-10-19
KR20230074781A (ko) 2023-05-31

Similar Documents

Publication Publication Date Title
US11241796B2 (en) Robot system and method for controlling robot system
JP2020172017A (ja) ロボット光センサのオートキャリブレーション
JP2776477B2 (ja) ロボット3次元位置姿勢教示システム
CA2549670C (en) Robot control system
US20180250829A1 (en) Remote control robot system
JP2002172575A (ja) 教示装置
EP3068607A1 (en) System for robotic 3d printing
US11230008B2 (en) Optimisation method for a coating robot and corresponding coating system
US11059172B2 (en) Control apparatus and robot system
WO2022071585A1 (ja) ロボットシステム及びロボットシステムの制御方法
JP2001287179A (ja) 産業用ロボット教示装置
JP6905651B1 (ja) ロボットシステム及びワークの3次元モデルの形成方法
JP6981787B2 (ja) 塗装ロボットにおける軌道データのシミュレーション方法
US20230239439A1 (en) Imaging system and robot system
JP2011045951A (ja) 塗装用ロボットのティーチング装置、及びティーチング方法
JP2654899B2 (ja) 操作型マニピュレータの教示装置および操作型マニピュレータによる自動作業方法
JPH04227506A (ja) 位置決め装置の制御方法
JP2000039911A (ja) ロボット制御装置
US9448555B2 (en) Systems, assemblies, and methods for programming robotic systems
WO2023106353A1 (ja) 教示システム、ロボットシステム、ロボットの教示方法及びロボットの教示プログラム
JP6909626B2 (ja) 塗装ロボット及びそれを用いた塗装ロボットの稼働状況表示方法
Yanagihara et al. Task world reality for human and robot system. A multimodal teaching advisor and its implementation
JP7259260B2 (ja) ロボットシステムおよび塗布方法
JPS5988298A (ja) 産業用ロボットの作業端の案内装置
JP2022039416A (ja) 加工システム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2022502250

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21875881

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20237014036

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021875881

Country of ref document: EP

Effective date: 20230502