WO2016103292A1 - ロボットシステム及びエンドエフェクタの変形検出方法 - Google Patents

ロボットシステム及びエンドエフェクタの変形検出方法 Download PDF

Info

Publication number
WO2016103292A1
WO2016103292A1 PCT/JP2014/006394 JP2014006394W WO2016103292A1 WO 2016103292 A1 WO2016103292 A1 WO 2016103292A1 JP 2014006394 W JP2014006394 W JP 2014006394W WO 2016103292 A1 WO2016103292 A1 WO 2016103292A1
Authority
WO
WIPO (PCT)
Prior art keywords
target
deformation
end effector
detection
site
Prior art date
Application number
PCT/JP2014/006394
Other languages
English (en)
French (fr)
Inventor
敦史 中矢
拓之 岡田
雅也 吉田
Original Assignee
川崎重工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 川崎重工業株式会社 filed Critical 川崎重工業株式会社
Priority to CN201480084253.XA priority Critical patent/CN107000224B/zh
Priority to US15/538,938 priority patent/US10279485B2/en
Priority to JP2016565592A priority patent/JP6412955B2/ja
Priority to PCT/JP2014/006394 priority patent/WO2016103292A1/ja
Priority to KR1020177018115A priority patent/KR101952766B1/ko
Priority to TW104133501A priority patent/TWI586498B/zh
Publication of WO2016103292A1 publication Critical patent/WO2016103292A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • B25J19/063Safety devices working only upon contact with an outside object
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/08Gripping heads and other end effectors having finger members
    • B25J15/10Gripping heads and other end effectors having finger members with three or more finger members
    • B25J15/106Gripping heads and other end effectors having finger members with three or more finger members moving in parallel relationship
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0095Manipulators transporting wafers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/08Gripping heads and other end effectors having finger members
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/67005Apparatus not specifically provided for elsewhere
    • H01L21/67242Apparatus for monitoring, sorting or marking
    • H01L21/67259Position monitoring, e.g. misposition detection or presence detection
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/67005Apparatus not specifically provided for elsewhere
    • H01L21/67242Apparatus for monitoring, sorting or marking
    • H01L21/67288Monitoring of warpage, curvature, damage, defects or the like
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/677Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for conveying, e.g. between different workstations
    • H01L21/67739Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for conveying, e.g. between different workstations into and out of processing chamber
    • H01L21/67742Mechanical parts of transfer devices
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/677Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for conveying, e.g. between different workstations
    • H01L21/67703Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for conveying, e.g. between different workstations between different workstations
    • H01L21/67736Loading to or unloading from a conveyor

Definitions

  • the present invention relates to a method for detecting deformation of an end effector and a robot system for realizing the method.
  • a wafer transfer robot having a fork-shaped end effector at the tip of a robot arm has been used to transfer a wafer, which is a material of a substrate of a semiconductor device.
  • This end effector is a thin plate-like robot hand, and the base of the end effector is cantilevered on the wrist of the robot arm. Therefore, the end effector may bend depending on the weight of the end effector or the weight of the substrate to be placed.
  • the work space of the end effector may be limited and the end effector may interfere with other objects.
  • mechanical troubles such as gear backlash, belt extension, and tooth skipping may occur in the robot arm and the end effector.
  • the level shift or distortion of the end effector may occur.
  • the end effector deformed as described above may not be able to reliably transfer the wafer. Therefore, it is desirable to detect the deformation of the end effector before starting the transfer operation. Conventionally, a worker has regularly performed a deformation detection operation of the end effector accompanying the disassembly of the apparatus, but in recent years, various techniques for automatically detecting the deformation of the end effector have been proposed.
  • Patent Document 1 an irradiation unit that is provided at the tip of a robot hand and emits a light beam in parallel with the extending direction of the robot hand, and detects a deviation between a light receiving position and a reference position by receiving the light beam.
  • a substrate transfer device including a deviation amount detection unit is shown.
  • Patent Document 2 For example, in Patent Document 2, four distance measurement sensors are provided in a robot hand, and the distance between the surface plate surface measured by these distance measurement sensors is obtained by comparing with a reference size. A robot configured to determine the distortion of a robot hand based on parallelism is shown.
  • an optical sensor disposed right next to the tip of the robot hand at the reference coordinates emits detection light to the robot hand and receives light, and the output of the optical sensor is abnormal.
  • a robot is shown that is configured to stop the movement of the robot, assuming that the hand is deformed in some cases.
  • Patent Documents 1 to 3 a plurality of non-contact sensors dedicated to detecting the deformation of the end effector (ie, having no other use) are provided. In these technologies, a large number of sensors are required, and wiring and maintenance of the sensors are complicated.
  • the present invention proposes a technique for detecting the deformation of the end effector using a robot arm having a conventional structure, and does not use a dedicated non-contact sensor.
  • a robot system includes: A robot arm having a wrist that is rotatable around a rotation axis extending in a predetermined direction at a tip portion; An end effector attached to the wrist; A robot system comprising a deformation detection device that detects a deformation of the end effector using a target pin having a target region that a predetermined detection region of the end effector reaches; The target part has an indicator function indicating that the detection part has reached the target part,
  • the deformation detection device comprises: A search unit that controls the robot arm to touch the detection part to the target pin, searches for the target part, and detects that the detection part has reached the target part based on the indicator function; , A deformation detection unit that detects a deformation of the end effector by comparing an assumed position of the detection site when the detection site reaches the target site with a predetermined reference position is provided.
  • the deformation detection method of the end effector includes: In a robot system including a robot arm having a wrist that is rotatable about a rotation axis extending in a predetermined direction at a distal end portion, an end effector attached to the wrist, and a deformation detection device,
  • the deformation detection device detects a deformation of the end effector using a target pin provided with a target site to which a predetermined detection site of the end effector reaches, Searching for the target site by controlling the robot arm to touch the target pin with the detection pin; Detecting that the detection part has reached the target part based on an indicator function of the target part indicating that the detection part has reached the target part; Comparing the assumed position of the detection site when the detection site reaches the target site with a predetermined reference position and detecting the deformation of the end effector.
  • the deformation of the end effector can be detected using the target pin and the robot arm having the conventional structure.
  • FIG. 1 is a plan view showing a schematic configuration of a robot system according to an embodiment of the present invention.
  • FIG. 2 is a side view showing a schematic configuration of the robot system shown in FIG.
  • FIG. 3 is a diagram showing the configuration of the control system of the robot system shown in FIG.
  • FIG. 4 is a side view of a target pin according to an embodiment.
  • FIG. 5 is a plan view showing the state of the target pin and the end effector during the search process.
  • FIG. 6 is a flowchart of end effector deformation detection processing according to an embodiment of the present invention.
  • FIG. 7 is a flowchart of the search process.
  • FIG. 8 is a flowchart of the deformation evaluation process.
  • FIG. 9 is a side view of a target pin according to another embodiment of the present invention.
  • FIG. 1 is a plan view showing a schematic configuration of a robot system 1 according to an embodiment of the present invention
  • FIG. 2 is a side view showing the schematic configuration of the robot system 1 shown in FIG. 1
  • FIG. 3 is a robot system 1 shown in FIG. It is a figure which shows the structure of this control system.
  • a certain horizontal direction is defined as an X direction
  • a horizontal direction substantially orthogonal to the X direction is defined as a Y direction
  • a vertical direction is defined as a Z direction.
  • a robot system 1 includes a robot arm 4 and a robot hand 5 (hereinafter simply referred to as an example of an end effector attached to a hand portion of the robot arm 4). (Referred to as “hand 5”), a control device 6 that controls the operation of the robot arm 4, and a deformation detection device 8 that detects deformation of the hand 5. Further, the target pin 9 having the target portion TG is used for detecting the deformation of the hand 5 by the robot system 1.
  • each component of the robot system 1 will be described in detail.
  • the robot arm 4 is configured as a horizontal articulated robot supported by a base 21.
  • the robot arm 4 is not limited to a horizontal articulated robot, and may be a vertical articulated robot.
  • the robot arm 4 includes an elevating shaft 40 erected on the base 21, a first link 41 connected to the elevating shaft 40 via a first joint J1, a distal end portion of the first link 41, and a second joint J2.
  • the second link 42 connected via the third link 43, the third link 43 connected via the third joint J3 with the tip of the second link 42, and the fourth joint J4 via the tip of the third link 43 and the fourth joint J4.
  • the first axis L1 that is the rotation axis of the first joint J1, the second axis L2 that is the rotation axis of the second joint J2, and the third axis L3 that is the rotation axis of the third joint J3.
  • the extending direction is the Z direction.
  • the fourth axis L4, which is the rotation axis of the fourth joint J4, passes through the third link 43 in the extending direction thereof and is substantially orthogonal to the Z direction.
  • a wrist is formed by an interconnected body of the third joint J3, the third link 43, the fourth joint J4, and the fourth link 44.
  • the fourth link 44 is provided with a mechanical interface, and the hand 5 is detachably attached thereto.
  • a hand 5 that is an end effector according to the present embodiment is a robot hand having a fork-shaped flat plate on which a circular flat plate-like wafer W is placed.
  • the hand 5 is provided with a gripping claw and a drive mechanism for gripping the wafer W placed on the fork-shaped flat plate.
  • the elevating shaft 40 is driven by the elevating drive device 60 so as to elevate or contract in the Z direction.
  • the lifting / lowering driving device 60 includes a servo motor M0, a position detector E0, a power transmission mechanism D0 that transmits the power of the servo motor M0 to the lifting shaft 40, and the like.
  • the first to fourth joints J1 to J4 are provided with first to fourth joint driving devices 61 to 64 for rotating the joints J1 to J4 around their rotation axes.
  • the joint driving devices 61 to 64 are configured by servomotors M1 to M4, position detectors E1 to E4, and power transmission mechanisms D1 to D4 that transmit the power of the servomotors M1 to M4 to corresponding links.
  • the power transmission mechanisms D1 to D4 are, for example, gear power transmission mechanisms including a reduction gear.
  • Each of the position detectors E0 to E4 is constituted by a rotary encoder, for example.
  • Each servo motor M0 to M4 can be driven independently of each other. When the servo motors M0 to M4 are driven, the position detectors E0 to E4 detect the rotational positions of the output shafts of the servo motors M0 to M4.
  • the control device 6 includes a controller 30 and servo amplifiers A0 to A4 corresponding to the servo motors M0 to M4.
  • servo control for moving the hand 5 attached to the wrist of the robot arm 4 to an arbitrary pose (position and posture in space) along an arbitrary path is performed.
  • the controller 30 is a so-called computer, and includes, for example, a calculation processing unit such as a microcontroller, CPU, MPU, PLC, DSP, ASIC, or FPGA, and a storage unit such as a ROM or a RAM (all are shown in the figure). Not shown).
  • the storage unit stores programs executed by the arithmetic processing unit, various fixed data, and the like.
  • the storage unit stores teaching point data for controlling the operation of the robot arm 4, data related to the shape and dimensions of the robot hand 5, data related to the shape and dimensions of the wafer W held by the robot hand 5, and the like. ing.
  • processing for controlling the operation of the robot system 1 is performed by the arithmetic processing unit reading and executing software such as a program stored in the storage unit.
  • the controller 30 may execute each process by centralized control by a single computer, or may execute each process by distributed control by cooperation of a plurality of computers.
  • the controller 30 calculates a target pose after a predetermined control time based on the rotational position detected by each of the position detectors E0 to E4, the corresponding pose of the hand 5 and the teaching point data stored in the storage unit. To do.
  • the controller 30 outputs a control command (position command) to the servo amplifiers A0 to A4 so that the hand 5 assumes a target pose after a predetermined control time.
  • the servo amplifiers A0 to A4 supply driving power to the servo motors M0 to M4 based on the control command. Thereby, the hand 5 can be moved to a desired pose.
  • the deformation detection device 8 is a so-called computer, and includes an arithmetic processing unit and a storage unit (both not shown).
  • the storage unit stores programs executed by the arithmetic processing unit, various fixed data, and the like. Further, the storage unit stores teaching point data used for deformation detection processing such as an initial start position described later, data on the shape / dimensions of the hand 5 and detection site SP described later, and the shape / dimensions and target site of the target pin 9. Stores data related to TG.
  • the deformation detection device 8 is connected to the control device 6 so that information can be transmitted and received.
  • the control device 6 of the robot arm 4 and the deformation detection device 8 are provided as independent calculation devices, but the control device 6 may have a function as the deformation detection device 8 as well. Good.
  • the deformation detection device 8 having the above configuration is configured such that the arithmetic processing unit reads and executes software such as a program stored in the storage unit, whereby a search unit 81, a position information storage unit 82, a deformation detection unit 83, and a deformation correction unit. 84 can function.
  • the search unit 81 searches the target site TG by controlling the robot arm 4 so that the predetermined detection site SP of the hand 5 touches the target pin 9, and the detection site SP is determined based on the indicator function of the target site TG. A process for detecting that the target part TG has been reached is performed.
  • the position information storage unit 82 acquires and stores position information (assumed position) of the detection part SP when the detection part SP reaches the target part TG.
  • the deformation detection unit 83 reads and compares the Z-direction position information stored in the position information storage unit 82 and the reference position information stored in advance in the position information storage unit 82, and detects the deformation of the hand 5. Do.
  • the deformation correction unit 84 determines whether or not the deformation can be corrected by adjusting at least one of the position and posture of the robot arm 4 when the deformation of the hand 5 is detected by the deformation detection unit 83. If it is, the process of correcting the deformation is performed.
  • deformation detection process deformation detection method of the hand 5 that is an end effector using the robot system 1 having the above-described configuration
  • the deformation detection process is performed by the deformation detection apparatus 8, and although not particularly specified below, the robot arm 4 is controlled by the deformation detection apparatus 8 via the controller 30 (control apparatus 6).
  • FIG. 4 is a side view of the target pin 9 according to an embodiment.
  • the target pin 9 according to an embodiment is a columnar body extending in the Z direction and has a pencil shape as a whole.
  • the target pin 9 includes a first cylindrical portion 91 having a constant diameter, a truncated cone portion 92 having a variable diameter, and a second cylindrical portion 93 having a constant diameter. They are integrally formed, and are arranged in the Z direction in the order of the first same diameter portion 91, the changed diameter portion 92, and the second same diameter portion 93.
  • the diameter of the first same-diameter portion 91 is larger than the diameter of the second same-diameter portion 93, and the diameter of the first same-diameter portion 91 and the second same-diameter portion 93 is smoothly reduced while the diameter is gradually reduced by the variable diameter portion 92. It is connected to.
  • the target pin 9 may have a shape including the first same-diameter portion 91 and the diameter-changing portion 92 from which the second same-diameter portion 93 is omitted.
  • the touch position of the hand 5 with respect to the target pin 9 changes locally. It has a shape, and this shape part is set as a target part TG.
  • This target part TG has an indicator function indicating that a detection part of the hand 5 described later has reached the target part TG. That is, if the detection part of the hand 5 touches the target part TG, it can be seen that the detection part of the hand 5 has reached the target part TG.
  • annular boundary line 95 exists between the first same diameter portion 91 and the changed diameter portion 92 of the target pin 9, and an annular boundary line 96 exists between the changed diameter portion 92 and the second same diameter portion 93.
  • one (boundary line 95) of the boundary lines 95 and 96 of the target pin 9 is set as the target site TG.
  • FIG. 6 is a flowchart of end effector deformation detection processing according to an embodiment of the present invention. As shown in FIG. 6, when the deformation detection process starts, the deformation detection apparatus 8 first performs a search process (step S1).
  • FIG. 5 is a plan view showing the state of the target pin 9 and the robot hand 5 during the search process.
  • the flat hand 5 is a fork shape having a single root side and a bifurcated tip side when viewed from the Z direction, and has a symmetrical outer shape centered on the hand center line C. is doing.
  • one side surface is referred to as a first side surface 51 via the hand center line C, and the other side surface is referred to as a first side surface.
  • the two side surfaces 52 are assumed.
  • the first detection site SP1 is defined on the first side surface 51 on the distal end side of the hand 5.
  • the second detection site SP2 is defined on the second side surface 52 on the distal end side of the hand 5. It is desirable that the first detection site SP1 and the second detection site SP2 are arranged at symmetrical positions via the hand center line C. Further, the first detection site SP1 and the second detection site SP2 may be defined in the inner crotch portion of the hand 5.
  • the third detection site SP3 is defined on the first side surface 51 on the base side of the hand 5.
  • the fourth detection site SP4 is defined on the first side surface 51 between the first detection site SP1 and the third detection site SP3.
  • step S1 the same process is repeated for each of the first to fourth detection sites SP1 to SP4 of the hand 5. Therefore, the search process when the first detection site SP1 of the hand 5 is set as the detection site SP will be described in detail, and the search process when the 2nd to 4th detection sites SP2 to SP4 are set as the detection site SP will be described in detail. Omitted.
  • FIG. 7 is a flowchart of the search process.
  • the deformation detection device 8 controls the robot arm 4 so that the detection site SP of the hand 5 moves to the initial start position taught in advance (step S11).
  • the initial start position is that the Z-direction position is closer to the first same-diameter portion 91 side than the target site TG (boundary line 95), and the XY position is a minute distance from the surface of the first same-diameter portion 91 of the target pin 9. It is only away.
  • the detection site SP moves to this initial start position, the hand 5 is not in contact with the target pin 9 in principle.
  • the deformation detection device 8 reduces the control loop gain of the third joint drive device 63 to a predetermined value or less (step S12).
  • This predetermined value is selected from values smaller than the control loop gain during the wafer W transfer operation.
  • the control loop gain includes a position loop gain and a speed loop gain.
  • the control loop gain of the third joint drive device 63 is set to substantially zero.
  • substantially zero of the control loop gain of the third joint drive device 63 means that the control loop gain is changed from the servo gain of normal operation to a small value including zero, and the third joint drive device
  • the contact reaction force is minimized, and the servo motor M3 of the third joint drive device 63 receives this contact reaction force. It means that the angular position can be substantially freely displaced without substantially resisting. This includes the case where the control loop gain is cut to zero.
  • the pressing force of the hand 5 against the target pin 9 is decreased by reducing the upper limit of the drive current (that is, the upper limit of the drive torque). Also good. Before the hand 5 reaches the initial start position, the control loop gain may be reduced or the upper limit of the drive current may be reduced.
  • the deformation detection device 8 controls the robot arm 4 to perform a series of touch position acquisition operations (steps S13 to S15) described below at the initial start position.
  • the series of touch position acquisition operations first, the hand 5 swings horizontally (step S13). Specifically, by moving the first joint J1 and the second joint J2 without moving the third joint J3 and the fourth joint J4 of the robot arm 4, the hand 5 is swung with a small swing width ( Step S13).
  • the detection part SP of the hand 5 touches the target pin 9.
  • the control loop gain of the third joint driving device 63 is substantially zero, so that the hand 5 is angularly displaced about the third axis L ⁇ b> 3.
  • This angular displacement is transmitted to the servo motor M3 via the power transmission mechanism D3, and the servo motor M3 is angularly displaced. Therefore, it is detected that the hand 5 has touched the target pin 9 based on the start of the angular displacement of the servo motor M3.
  • the position information (touch position) of the detection site SP when the hand 5 touches the target pin 9 is detected.
  • Information is acquired (step S15).
  • the touch position information includes, for example, the position of the wrist reference point (a predetermined point on the third axis L3) of the robot arm 4 and the wrist orientation.
  • Position information of the wrist reference point of the robot arm 4 is obtained from the position detectors E0, E1, and E2 of the servo motors M0, M1, and M2 of the lifting and lowering driving device 60, the first joint driving device 61, and the second joint driving device 62. Can be acquired.
  • Information regarding the wrist orientation of the robot arm 4 can be acquired from the position detectors E3 and E4 of the servomotors M3 and M4 of the third joint drive device 63 and the fourth joint drive device 64, respectively.
  • the deformation detection device 8 controls the robot arm 4 so as to move the detection part SP of the hand 5 to the next start position (Ste S20).
  • the next start position of the detection part SP of the hand 5 is a position moved by a small predetermined value in the Z direction from the initial start position toward the diameter-changing portion 92.
  • the deformation detection device 8 controls the robot arm 4 so as to perform a series of touch position acquisition operations (steps S13 to S15) from the next start position.
  • step S16 if the touch position acquisition operation is the second time or later (NO in step S16), the deformation detection device 8 acquires the touch position information acquired in the current touch position acquisition operation and the previous touch position acquisition operation. From the touched position information, it is determined whether or not the detection site SP has reached the target site TG. At the target site TG, the touch position of the hand 5 with respect to the target pin 9 changes locally in the XY direction. Therefore, the deformation detection device 8 determines whether or not the detection site SP has reached the target site TG based on the local change in the XY direction between the touch position information acquired this time and the touch position information acquired last time. .
  • the deformation detection device 8 has reached the target site TG. It is determined that this has been detected (step S18). Specifically, the deformation detection device 8 determines that the detection site SP is the target when the angular displacement around the third axis L3 derived from the touch position information acquired this time and the touch position information acquired last time exceeds a predetermined threshold. It is determined that the arrival at the site TG has been detected. And the deformation
  • the deformation detection device 8 has reached the target site TG.
  • the robot arm 4 is controlled so that the hand 5 further moves to the next start position (step S20).
  • the next start position is a position moved from the above-mentioned next start position toward the diameter-changing portion 92 by a minute predetermined value in the Z direction.
  • the deformation detection device 8 acquires a series of touch positions while gradually moving the start position toward the diameter changing portion 92 in the Z direction until it detects that the detection part SP has reached the target part TG.
  • the robot arm 4 is controlled to repeat the operation (steps S13 to S15).
  • the deformation detection device 8 determines the position of the hand 5 based on the position information of the target part TG searched for in each of the first to fourth detection parts SP1 to SP4 of the hand 5 by the search process described above. Deformation is evaluated (steps S2 to S4). In the present embodiment, the deformation is evaluated for each of the twist deformation, the bending deformation, and the rotational deformation of the hand 5. Since the deformation detection apparatus 8 repeats the same deformation evaluation process for each deformation, the hand 5 twist deformation evaluation process will be described in detail below, and the detailed description of the bending deformation and the rotation deformation evaluation process will be omitted. .
  • FIG. 8 is a flowchart of the deformation evaluation process.
  • the deformation detection device 8 first reads position information used to detect deformation from the position information storage unit 82 (step S21).
  • the read position information includes the acquired position information of the target site TG and predetermined reference position information.
  • the Z direction position information may be, for example, the Z direction position information of the wrist reference point of the robot arm 4 included in the acquired position information.
  • the reference position information is position information of the target part TG obtained by performing a search process with different detection parts SP (reference positions) on the hand 5.
  • the positional information used to detect the torsional deformation includes the positional information of the target site TG obtained by searching for the target site TG in the first detection site SP1 and the target site TG in the second detection site SP2. The position information of the target site TG obtained in this way.
  • the positional information used for detecting the bending deformation includes the positional information of the target site TG obtained by searching the target site TG in the first detection site SP1 and the target site TG in the third detection site SP3. The position information of the target site TG obtained in this way.
  • the position information used for detecting the rotational deformation includes the position information of the target part TG obtained by searching the target part TG in the third detection part SP3 and the target part TG in the fourth detection part SP4.
  • position information of the target site TG obtained by searching for the target site TG at the first detection site SP1 instead of or in addition to the fourth detection site SP4 may be used. .
  • the deformation detection device 8 compares the read two pieces of position information (step S22).
  • step S22 when the deformations to be detected are torsional deformation and flexural deformation, the positional information in the Z direction of the two read positional information is compared. If the difference between the position information of one of the two target parts TG and the position information of the other Z direction is equal to or less than a predetermined threshold, it is determined that there is no deformation or the degree of deformation is small. (NO in step S23), the deformation evaluation process ends. On the other hand, the deformation detection device 8 deforms the end effector when the difference between the Z direction position information of one of the read position information of the two target sites TG and the other Z direction position information exceeds a predetermined threshold. It determines with having detected (it is YES at step S23).
  • step S22 when the deformation to be detected is a rotational deformation, the position information in the XY direction (in the XY plane) of the two read position information is compared.
  • the position and posture of the robot arm 4 are controlled so that the extending direction of the hand center line C defined parallel to the fourth axis L4 and the Y-axis direction are parallel. It is desirable that Since the hand 5 according to the present embodiment has a connecting portion between the third link 43 and the fourth link 44, the hand 5 is line symmetric with respect to the hand center line C due to a connecting error in the connecting portion. There may not be.
  • the hand 5 when the hand 5 collides with another object, the hand 5 may be deformed in the rotational direction around the third axis L3, and the extending direction of the hand center line C may not be parallel to the Y-axis direction.
  • the deformation detection device 8 can detect such rotational deformation as follows.
  • the inclination (reference inclination) with respect to the Y-axis direction of the straight line (evaluation line) connecting the third detection part SP3 and the fourth detection part SP4 in the hand 5 before deformation is stored, and the acquired third detection part
  • the inclination of the evaluation line with respect to the Y-axis direction is calculated based on the XY direction position information of SP3 and the acquired XY direction position information of the fourth detection site SP4, and the calculated inclination is compared with the reference inclination. If these differences exceed a predetermined threshold, it is determined that rotational deformation of the end effector has been detected (YES in step S23), and if the difference is less than the predetermined threshold, it is determined that there is no deformation (NO in step S23). ).
  • the deformation detection device 8 subsequently determines whether the deformation can be corrected by adjusting at least one of the position and posture of the robot arm 4 (step S24). Whether or not the deformation can be corrected is determined based on, for example, the degree of deformation derived from the difference between the two pieces of read position information, whether or not the robot arm 4 has an axis necessary for correcting the deformation, and the like. .
  • the deformation detection device 8 determines that the deformation can be corrected (YES in step S24)
  • the deformation detection device 8 creates deformation correction information for causing the control device 6 to correct the deformation, and outputs this to the control device 6. (Step S25), and the deformation evaluation process ends.
  • the robot arm 4 can correct torsional deformation by rotating the hand 5 about the fourth axis L4.
  • the robot arm 4 according to the present embodiment does not include a shaft that can correct the bending deformation, the bending deformation cannot be corrected.
  • the robot arm 4 according to the present embodiment rotates the hand 5 around the third axis L3 and adjusts the position in the XY direction so that the calculated inclination of the evaluation straight line becomes the reference inclination. Rotational deformation can be corrected.
  • the deformation detection device 8 performs an error process (step S26) and ends the deformation evaluation process.
  • the error processing for example, the deformation detection device 8 issues an alarm and causes the control device 6 to stop the movement of the robot arm 4.
  • the deformation detection device 8 performs the torsional deformation evaluation process (step S2), the bending deformation deformation evaluation process (step S3), and the rotational deformation deformation evaluation process (step S4).
  • the effector deformation detection process is terminated.
  • the robot system 1 includes the robot arm 4 having the wrist that is rotatable about the rotation axis (the third axis L3) extending in the predetermined direction at the tip, and the wrist.
  • a hand 5 that is an attached end effector, and a deformation detection device 8 that detects deformation of the end effector using a target pin 9 having a target site GT that a predetermined detection site SP of the hand 5 reaches.
  • the target part TG of the target pin 9 has an indicator function indicating that the detection part SP of the hand 5 has reached the target part TG.
  • the deformation detection device 8 controls the robot arm 4 so that the detection part SP of the hand 5 touches the target pin 9 to search for the target part TG, and detects the detection part SP based on the indicator function of the target part TG.
  • the search unit 81 that detects that the target part TG has been reached, the position information (assumed position information) of the detection part SP when the detection part SP has reached the target part TG, and the reference position information are compared.
  • a deformation detecting unit 83 for detecting the deformation.
  • the end effector deformation detection method is a method in which the deformation detection device 8 detects the deformation of the hand 5 using the target pin 9 in the robot system 1 described above.
  • the deformation detection device 8 controls the robot arm 4 so as to touch the detection part SP to the target pin 9 to search for the target part TG, and the detection part SP is targeted based on the indicator function of the target part TG. Detecting the end effector by detecting the arrival of the part TG and comparing the position information of the detection part SP when the detection part SP reaches the target part TG with the predetermined reference position information Including.
  • the end effector deformation can be detected by using the target pin 9 provided within the movable range of the end effector.
  • a dedicated non-contact sensor is provided in the robot system in order to detect deformation of the robot hand.
  • the end effector is deformed by using the target pin 9 and the robot arm 4 having the conventional structure without using a non-contact sensor that requires special wiring or control. Can be detected.
  • the target part TG of the target pin 9 is placed on the target pin 9 while touching the hand 5 to the target pin 9 in order to exhibit the indicator function.
  • the touch position of the hand 5 with respect to the target pin 9 is formed into a shape that changes locally.
  • the deformation detection device 8 searches the target part TG by controlling the robot arm 4 so as to move the detection part SP of the hand 5 in the Z direction along the target pin 9 while touching the target pin 9. Based on the local change in the touch position of the detection site SP with respect to the pin 9, it is detected that the detection site SP has reached the target site TG.
  • the target pin 9 has a shape in which the touch position of the hand 5 with respect to the target pin 9 changes locally, and a predetermined diameter same diameter portion 91 and a diameter changed portion 92 whose diameter changes.
  • the target portion TG is constituted by a boundary (boundary line 95) between the same-diameter portion 91 and the diameter-changing portion 92.
  • transformation detection apparatus 8 rocks
  • the hand 5 is moved in the Z direction from the same diameter portion 91 toward the diameter changed portion 92 to search for the target portion TG, and the angle around the third axis L3 derived from the acquired plurality of touch position information. Based on the displacement, it is detected that the detection site SP has reached the target site TG.
  • the detection site SP has reached the target site TG based on the change in the diameter of the same diameter portion 91 and the diameter change portion 92 of the target pin 9. Can be detected.
  • Such an indicator function of the target portion TG of the target pin 9 is realized by the outer shape of the target pin 9 and has a relatively simple structure, and no wiring or control is required for this function.
  • the deformation detection device 8 detects at least one of the position and orientation of the robot arm 4. It is determined whether or not the correction can be made by the adjustment. If the correction is possible, the deformation is corrected.
  • the end effector deformation can be corrected without stopping or dismantling the robot arm 4. Therefore, the frequency with which the robot arm 4 is stopped can be reduced, and the productivity can be improved.
  • the reference position information is such that the deformation detection device 8 touches the target pin 9 with a reference site different from the detection site SP of the hand 5.
  • This is the assumed position information of the reference part when the target part TG is searched by controlling the robot arm 4 and it is detected that the reference part has reached the target part TG based on the indicator function of the target part TG. That is, a search process is performed for a reference part that is different from the detection part SP of the hand 5, and the position information of the reference part when the reference part reaches the target part TG is used as the reference position information.
  • the deformation detection device 8 detects the torsional deformation of the hand 5.
  • one of the detection part and the reference part is the first detection part SP ⁇ b> 1 defined at the tip of the hand 5, and the other is the root of the hand 5.
  • the third detection site SP3 defined in the section. Then, the assumed position in the Z direction of the detection site SP when the detection site SP reaches the target site TG is compared with the assumed position in the Z direction of the reference site when the reference site reaches the target site TG. Thus, the deformation detection device 8 detects the bending deformation of the hand 5.
  • one of the detection part and the reference part is the third detection part SP3 defined at the base of the hand 5, and the other is the tip of the hand 5.
  • the fourth detection site SP4 is defined between the part or the root part and the tip part. Then, the assumed position in the XY plane of the detection site SP when the detection site SP reaches the target site TG, and the XY plane of the reference site when the reference site reaches the target site TG By comparing with the assumed position, the deformation detection device 8 detects the rotational deformation of the hand 5.
  • the position information obtained by performing the search process for each of the two detection parts SP (the detection part and the reference part) of the hand 5 is compared.
  • the deformation of the end effector can be detected without being affected by the deformation or displacement of the target position TG of the target pin 9.
  • the end effector according to the above embodiment is a fork-shaped hand 5 for wafer transfer, but the end effector is not limited to this.
  • the end effector may be any one of a general-purpose hand provided with a plurality of gripping claws, a suction pad, a nut fastener, a welding gun, and a spray gun.
  • the hand 5 is rotated (swinged) about the third axis L3 extending in the Z direction, but the swinging direction of the end effector is not limited to this.
  • the end effector may be rotated around a rotation axis extending in the X direction or the Y direction in the search process.
  • the target pin 9 is disposed such that the extending direction of the target pin 9 is parallel to the extending direction of the rotation shaft of the end effector.
  • the end effector may be displaced in the Z direction with little rotation in the search process.
  • the robot system 1 is a wafer transfer robot, generation of particles should be prevented by avoiding rubbing between the hand 5 and the target pin 9 as much as possible.
  • the target site TG is searched by displacing the detection site SP in the Z direction while contacting the target pin 9 without rotating the end effector. May be performed.
  • the reference position information according to the above-described embodiment is Z-direction position information obtained by performing a search process with another detection part SP (reference part) set in the hand 5, but the reference position information is It is not limited to.
  • the reference position information is obtained by controlling the robot arm 4 so that the deformation detection device 8 touches the target pin 9 with the undeformed detection portion SP of the end effector to search for the target portion TG.
  • the position information of the undeformed detection site SP when it is detected that the undeformed detection site SP has reached the target site TG based on the Kate function may be used. That is, the reference position information may be position information of the target part TG obtained by performing a search process with the detection part SP on the end effector that is not deformed. If such reference position information is used, the deformation of the hand 5 can be detected by comparing the position information of the target part TG searched by the detection part SP before and after the deformation.
  • the reference position information may be position information of the target part TG of the target pin 9.
  • the target pin 9 is accurately positioned in the coordinate system of the robot system 1, and it is a condition that the target pin 9 is not deformed or moved.
  • the boundary line 95 between the first same-diameter portion 91 and the diameter-changing portion 92 is set as the target site TG, and the outer diameter of the first same-diameter portion 91 and the diameter-changing portion 92 is locally
  • the change constitutes an indicator function the shape of the target pin 9 is not limited to this.
  • the target pin 9 has a shape in which the touch position of the end effector with respect to the target pin 9 is locally changed when the end effector is moved in the Z direction along the target pin 9 while touching the target effector 9. Just do it.
  • the boundary line 96 between the diameter-changing portion 92 of the target pin 9 and the second same-diameter portion 93 is set as the target portion TG, and the local change in the XY position of the outer shape of the diameter-changing portion 92 and the second same-diameter portion 93
  • An indicator function may be configured.
  • the initial start position of the detection site SP of the end effector is set around the second same diameter portion 93 of the target pin 9 ′, and the end effector is moved from the second same diameter portion 93.
  • a series of touch position acquisition operations (steps S13 to S15) are repeated at a plurality of positions moved in the Z direction toward the diameter change portion 92.
  • the target pin 9 has a cylindrical shape with a constant diameter
  • the upper end edge of the target pin 9 serves as a target portion TG
  • local changes in the XY position of the outer shape of the target pin 9 constitute an indicator function. Also good.
  • the detection site SP of the end effector since the detection site SP of the end effector does not touch the target pin 9, it can be detected that the detection site SP has reached the target site TG.
  • the indicator function of the target site TG is realized by the shape of the target pin 9, but the indicator function may be realized by other means.
  • the target pin 9 may have a cylindrical shape with a constant diameter, and a contact sensor may be provided at a target site TG around the target pin 9, and an indicator function may be configured by this contact sensor.
  • the deformation detection device 8 sequentially performs torsional deformation, bending deformation, and rotational deformation evaluation processing (steps S2 to S4) of the hand 5, and at least one of these deformation evaluation processing is performed.
  • the above may be selectively performed. For example, only the torsional deformation evaluation process among the torsional deformation, bending deformation, and rotational deformation evaluation processes of the hand 5 may be performed. In this case, the search process in each detection part SP of 3rd detection part SP3 and 4th detection part SP4 is unnecessary. Further, the order of the evaluation processes (steps S2 to S4) of each deformation is not limited to the above embodiment, and the order may be changed as appropriate.
  • Robot system 3 Control device 4: Robot arm 5: Robot hand (end effector) 8: Deformation detection device 9: Target pin 21: Base 30: Controller 40: Elevating shafts 41-44: First to fourth links 60-64: Drive device 81: Search unit 82: Position information storage unit 83: Deformation detection Portion 84: Deformation correction unit 91: First same-diameter portion 92: Diameter-changing portion 93: Second same-diameter portion 95, 96: Boundary lines A0 to A4: Servo amplifier C: Hand center lines D0 to D4: Power transmission mechanism E0 To E4: position detectors J1 to J4: first to fourth joints L1 to L4: first to fourth axes M0 to M4: servo motor SP: Detection site TG: Target site

Abstract

 ロボットシステムは、先端部に所定方向に延びる回動軸を中心として回動自在な手首を有するロボットアームと、手首に取り付けられたエンドエフェクタと、エンドエフェクタの所定の検出部位が到達する目標部位を有するターゲットピンを用いて当該エンドエフェクタの変形を検出する変形検出装置とを備えている。目標部位は、検出部位が当該目標部位に到達したことを示すインディケイト機能を有している。変形検出装置は、検出部位をターゲットピンにタッチさせるようにロボットアームを制御して目標部位を探索し、目標部位のインディケイト機能に基づいて検出部位が目標部位に到達したことを検出する探索部と、検出部位が目標部位に到達したときの検出部位の想定位置と所定の参照位置とを比較して、エンドエフェクタの変形を検出する変形検出部とを備えている。

Description

ロボットシステム及びエンドエフェクタの変形検出方法
 本発明は、エンドエフェクタの変形検出方法及びこれを実現するロボットシステムに関する。
 従来、半導体デバイスの基板の材料であるウエハを搬送するために、ロボットアームの先端にフォーク形状のエンドエフェクタを備えたウエハ搬送ロボットが使用されている。このエンドエフェクタは、薄板状のロボットハンドであって、エンドエフェクタの根元部はロボットアームの手首に片持ち支持されている。そのため、エンドエフェクタの自重や載置される基板の重みによって、エンドエフェクタに撓みが生じることがある。
 また、特にウエハ搬送ロボットでは、エンドエフェクタの作業空間が狭く限られていることがあり、エンドエフェクタが他の物体と干渉することがある。更に、例えば、ギアのバックラッシュ、ベルトの伸び、歯飛びなどの機械的トラブルがロボットアームやエンドエフェクタに生じることがある。これらの原因によりエンドエフェクタに振動や衝撃が加わると、エンドエフェクタの水準位置ずれや歪みが生じることがある。
 上記のように変形したエンドエフェクタではウエハを確実に搬送できないおそれがある。そのため、搬送作業を開始する前にエンドエフェクタの変形を検出することが望ましい。従来は、作業者によって、装置の解体を伴うエンドエフェクタの変形検出作業が定期的に行われていたが、近年では、エンドエフェクタの変形を自動的に検出する種々の技術が提案されている。
 例えば、特許文献1には、ロボットハンドの先端部に設けられて前記ロボットハンドの延在方向と平行に光線を照射する照射部と、光線を受光して受光位置と基準位置とのズレを検出するズレ量検出部とを備えた基板搬送装置が示されている。
 例えば、特許文献2には、ロボットハンドに4個の距離測定センサを設け、これらの距離測定センサにより測定された定盤表面との間の距離を基準の大きさとを比較することにより求められた平行度に基づいて、ロボットハンドの歪みを求めるように構成されたロボットが示されている。
 また、例えば、特許文献3には、基準座標にあるロボットハンドの先端部の真横に配設された光センサで、ロボットハンドへ検出光を照射するとともに受光して、光センサの出力が異常である場合にハンドが変形していると見做してロボットの動作を停止させるように構成されたロボットが示されている。
国際公開WO2009/072199号 特開2010-188437号公報 特開平11-179692号公報
 上記特許文献1~3の技術では、エンドエフェクタの変形を検出するために専用の(即ち、それ以外に用途のない)複数の非接触式センサが設けられている。これらの技術では、多数のセンサが必要となるので、センサの配線やメンテナンスが煩雑となる。
 そこで、本発明では、従来構造のロボットアームを利用してエンドエフェクタの変形を検出する技術であって、専用の非接触式センサを用いないものを提案する。
 本発明の一態様に係るロボットシステムは、
先端部に所定方向に延びる回動軸を中心として回動自在な手首を有するロボットアームと、
前記手首に取り付けられたエンドエフェクタと、
前記エンドエフェクタの所定の検出部位が到達する目標部位を有するターゲットピンを用いて当該エンドエフェクタの変形を検出する変形検出装置とを備えたロボットシステムであって、
前記目標部位は、前記検出部位が当該目標部位に到達したことを示すインディケイト機能を有しており、
前記変形検出装置が、
前記検出部位を前記ターゲットピンにタッチさせるように前記ロボットアームを制御して前記目標部位を探索し、前記インディケイト機能に基づいて前記検出部位が前記目標部位に到達したことを検出する探索部と、
前記検出部位が前記目標部位に到達したときの前記検出部位の想定位置と所定の参照位置とを比較して、前記エンドエフェクタの変形を検出する変形検出部とを備えることを特徴としている。
 また、本発明の別の一態様に係るエンドエフェクタの変形検出方法は、
先端部に所定方向に延びる回動軸を中心として回動自在な手首を有するロボットアームと、前記手首に取り付けられたエンドエフェクタと、変形検出装置を備えたロボットシステムにおいて、
前記エンドエフェクタの所定の検出部位が到達する目標部位が設けられたターゲットピンを用いて前記変形検出装置が前記エンドエフェクタの変形を検出する方法であって、
前記検出部位を前記ターゲットピンにタッチさせるように前記ロボットアームを制御して前記目標部位を探索することと、
前記検出部位が前記目標部位に到達したことを示す当該目標部位のインディケイト機能に基づいて、前記検出部位が前記目標部位に到達したことを検出することと、
前記検出部位が前記目標部位に到達したときの前記検出部位の想定位置と所定の参照位置とを比較して、前記エンドエフェクタの変形を検出することと、を含むことを特徴としている。
 本発明によれば、ターゲットピンと従来構造のロボットアームとを利用してエンドエフェクタの変形を検出することができる。
図1は本発明の一実施形態に係るロボットシステムの概略構成を示す平面図である。 図2は図1に示すロボットシステムの概略構成を示す側面図である。 図3は図1に示すロボットシステムの制御系統の構成を示す図である。 図4は一実施形態に係るターゲットピンの側面図である。 図5は探索処理時のターゲットピンとエンドエフェクタの様子を示す平面図である。 図6は本発明の一実施形態に係るエンドエフェクタの変形検出処理のフローチャートである。 図7は探索処理のフローチャートである。 図8は変形の評価処理のフローチャートである。 図9は本発明の他の一実施形態に係るターゲットピンの側面図である。
 次に、図面を参照して本発明の実施の形態を説明する。以下では、本発明を円形平板状のウエハを搬送するためのウエハ搬送ロボットシステムに適用させて説明する。但し、本発明を適用し得るロボットシステムはウエハ搬送ロボットシステムに限定されない。図1は本発明の一実施形態に係るロボットシステム1の概略構成を示す平面図、図2は図1に示すロボットシステム1の概略構成を示す側面図、図3は図1に示すロボットシステム1の制御系統の構成を示す図である。本明細書及び請求の範囲では、或る水平方向をX方向、X方向と略直交する水平方向をY方向、鉛直方向をZ方向とする。
 図1及び2に示すように、本発明の一実施形態に係るロボットシステム1は、ロボットアーム4と、ロボットアーム4の手先部に装着されたエンドエフェクタの一例であるロボットハンド5(以下、単に「ハンド5」という)と、ロボットアーム4の動作を制御する制御装置6と、ハンド5の変形を検出する変形検出装置8とを備えている。また、ロボットシステム1によるハンド5の変形検出には、目標部位TGを有するターゲットピン9が用いられる。以下、ロボットシステム1の各構成要素について詳細に説明する。
 まず、ロボットアーム4について説明する。本実施形態に係るロボットアーム4は、基台21に支持された水平多関節型ロボットとして構成されている。但し、ロボットアーム4は水平多関節型ロボットに限定されず、垂直多関節型ロボットであってもよい。
 ロボットアーム4は、基台21に立設された昇降軸40と、昇降軸40と第1関節J1を介して連結された第1リンク41と、第1リンク41の先端部と第2関節J2を介して連結された第2リンク42と、第2リンク42の先端部と第3関節J3を介して連結された第3リンク43と、第3リンク43の先端部と第4関節J4を介して連結された第4リンク44とを備えている。第1関節J1の回動軸である第1軸L1、第2関節J2の回動軸である第2軸L2、及び、第3関節J3の回動軸である第3軸L3の各軸の延在方向はZ方向である。また、第4関節J4の回動軸である第4軸L4は、第3リンク43をその延在方向に貫きZ方向と略直交している。
 上記構成のロボットアーム4において、第3関節J3、第3リンク43、第4関節J4及び第4リンク44の相互結合体によって手首が形成されている。第4リンク44にはメカニカルインターフェースが設けられており、ここにハンド5が着脱可能に取り付けられている。本実施形態に係るエンドエフェクタであるハンド5は、円形平板状のウエハWを載置するためのフォーク形平板を有するロボットハンドである。このハンド5には、図示されないが、フォーク形平板の上に載置されたウエハWを把持するための把持爪やその駆動機構が設けられている。
 昇降軸40は、昇降駆動装置60によって、Z方向へ昇降又は伸縮するように駆動される。昇降駆動装置60は、サーボモータM0、位置検出器E0、及びサーボモータM0の動力を昇降軸40へ伝達する動力伝達機構D0などにより構成されている。
 第1~第4関節J1~J4には、各関節J1~J4をその回動軸まわりに回転させる第1~第4関節駆動装置61~64が設けられている。関節駆動装置61~64は、サーボモータM1~M4、位置検出器E1~E4、及びサーボモータM1~M4の動力を対応するリンクへ伝達する動力伝達機構D1~D4などにより構成されている。上記の動力伝達機構D1~D4は、例えば、減速機を具備する歯車動力伝達機構である。上記の各位置検出器E0~E4は、例えば、ロータリーエンコーダで構成されている。各サーボモータM0~M4は互いに独立して駆動することが可能である。そして、上記の各サーボモータM0~M4が駆動されると、上記の各位置検出器E0~E4によって上記の各サーボモータM0~M4の出力軸の回転位置の検出が行われる。
 ロボットアーム4は、制御装置6によりその動作が制御されている。図3に示すように、制御装置6は、コントローラ30と、サーボモータM0~M4と対応したサーボアンプA0~A4とを備えている。制御装置6では、ロボットアーム4の手首に取り付けられたハンド5を任意のポーズ(空間における位置及び姿勢)へ任意の経路に沿って移動させるサーボ制御が行われる。
 コントローラ30は、いわゆるコンピュータであって、例えば、マイクロコントローラ、CPU、MPU、PLC、DSP、ASIC又はFPGA等の演算処理部と、ROM、RAM等の記憶部とを有している(いずれも図示せず)。記憶部には、演算処理部が実行するプログラム、各種固定データ等が記憶されている。また、記憶部には、ロボットアーム4の動作を制御するための教示点データ、ロボットハンド5の形状・寸法に関するデータ、ロボットハンド5に保持されたウエハWの形状・寸法に関するデータなどが格納されている。コントローラ30では、記憶部に記憶されたプログラム等のソフトウェアを演算処理部が読み出して実行することにより、ロボットシステム1の動作を制御するための処理が行われる。なお、コントローラ30は単一のコンピュータによる集中制御により各処理を実行してもよいし、複数のコンピュータの協働による分散制御により各処理を実行してもよい。
 コントローラ30は、位置検出器E0~E4の各々で検出された回転位置と対応するハンド5のポーズと記憶部に記憶された教示点データとに基づいて、所定の制御時間後の目標ポーズを演算する。コントローラ30は、所定の制御時間後にハンド5が目標ポーズとなるように、サーボアンプA0~A4へ制御指令(位置指令)を出力する。サーボアンプA0~A4では、制御指令に基づいて各サーボモータM0~M4に対して駆動電力を供給する。これにより、ハンド5を所望のポーズへ動かすことができる。
 続いて、変形検出装置8について説明する。変形検出装置8は、いわゆるコンピュータであって、演算処理部と記憶部とを有している(いずれも図示せず)。記憶部には、演算処理部が実行するプログラム、各種固定データ等が記憶されている。また、記憶部には、後述する初期開始位置などの変形検出処理に利用される教示点データ、ハンド5の形状・寸法や後述する検出部位SPに関するデータ、ターゲットピン9の形状・寸法や目標部位TGに関するデータなどが格納されている。変形検出装置8は、制御装置6と情報の送受信が可能なように接続されている。なお、本実施形態においては、ロボットアーム4の制御装置6と変形検出装置8とが独立した演算装置として設けられているが、制御装置6が変形検出装置8としての機能を併せ備えていてもよい。
 上記構成の変形検出装置8は、記憶部に記憶されたプログラム等のソフトウェアを演算処理部が読み出して実行することにより、探索部81、位置情報格納部82、変形検出部83、及び変形補正部84として機能することができる。探索部81は、ハンド5の所定の検出部位SPをターゲットピン9にタッチさせるようにロボットアーム4を制御して目標部位TGを探索し、目標部位TGのインディケイト機能に基づいて検出部位SPが目標部位TGに到達したことを検出する処理を行う。位置情報格納部82は、検出部位SPが目標部位TGに到達したときの検出部位SPの位置情報(想定位置)を取得して記憶する処理を行う。変形検出部83は、位置情報格納部82に記憶されたZ方向位置情報と、位置情報格納部82に予め記憶された参照位置情報とを読み出して比較し、ハンド5の変形を検出する処理を行う。変形補正部84は、変形検出部83でハンド5の変形が検出された際に、その変形がロボットアーム4の位置及び姿勢の少なくとも一方の調整で補正可能であるかどうかを判断し、補正可能である場合に変形を補正する処理を行う。
 ここで、上記構成のロボットシステム1を用いたエンドエフェクタであるハンド5の変形検出処理(変形検出方法)について説明する。なお、変形検出処理は変形検出装置8が行い、以下では、特に明記しないが、変形検出装置8によるロボットアーム4の制御はコントローラ30(制御装置6)を介して行われる。
 ハンド5の変形検出処理を始めるに際し、予めターゲットピン9がハンド5の可動範囲内に設置されている。図4は一実施形態に係るターゲットピン9の側面図である。図4に示すように、一実施形態に係るターゲットピン9は、Z方向に延びる柱状体であって、全体として鉛筆形状を有している。ターゲットピン9には、径が一定な円柱形状の第1同径部91と、径が変化する円錐台形状の変径部92と、径が一定な円柱形状の第2同径部93とが一体的に形成されおり、第1同径部91、変径部92、第2同径部93の順にZ方向に並んでいる。第1同径部91の直径は第2同径部93の直径よりも大きく、第1同径部91と第2同径部93との間は変径部92によって径を漸次縮小させながら滑らかに繋がれている。なお、ターゲットピン9は、第2同径部93が省略された、第1同径部91及び変径部92から成る形状であってもよい。
 上記形状のターゲットピン9は、ハンド5をターゲットピン9の表面にタッチさせながらターゲットピン9に沿ってZ方向へ移動させた場合に、ターゲットピン9に対するハンド5のタッチ位置が局部的に変化する形状を有しており、この形状部位を目標部位TGとしている。この目標部位TGは、後述するハンド5の検出部位が目標部位TGに到達したことを示すインディケイト機能を有している。つまり、ハンド5の検出部位が目標部位TGにタッチすれば、ハンド5の検出部位が目標部位TGに到達したことがわかるようになっている。
 ターゲットピン9の第1同径部91と変径部92との間には環状の境界線95が存在し、変径部92と第2同径部93の間にも環状の境界線96が存在する。これらの境界線95,96を介して、ターゲットピン9に対するハンド5のタッチ位置がX-Y方向において局部的に変化する。そこで、本実施形態においては、ターゲットピン9の境界線95,96のうち一方(境界線95)を目標部位TGとしている。
 図6は本発明の一実施形態に係るエンドエフェクタの変形検出処理のフローチャートである。図6に示すように、変形検出処理が始まると、変形検出装置8は先ず探索処理を行う(ステップS1)。
 図5は探索処理時のターゲットピン9とロボットハンド5の様子を示す平面図である。図5に示すように、平板状のハンド5は、Z方向から見て、根元側が1本で先端側が二股に分かれたフォーク形状であって、ハンド中心線Cを中心として対称な外形形状を有している。以下、説明の便宜を図って、ハンド5の外形形状を形作っている前記ハンド5の外周面のうち、ハンド中心線Cを介して一方の側面を第1側面51といい、他方の側面を第2側面52ということとする。第1検出部位SP1は、ハンド5の先端側の第1側面51に規定されている。また、第2検出部位SP2は、ハンド5の先端側の第2側面52に規定されている。第1検出部位SP1と第2検出部位SP2とは、ハンド中心線Cを介して対称な位置に配置されていることが望ましい。また、第1検出部位SP1と第2検出部位SP2は、ハンド5の内股部分に規定されていてもよい。第3検出部位SP3は、ハンド5の根元側の第1側面51に規定されている。第4検出部位SP4は、第1側面51において第1検出部位SP1と第3検出部位SP3との間に規定されている。
 探索処理(ステップS1)では、ハンド5の第1~4検出部位SP1~SP4の各々について同様の処理が繰り返される。そこで、ハンド5の第1検出部位SP1を検出部位SPとしたときの探索処理について詳細に説明し、第2~4検出部位SP2~SP4を検出部位SPとしたときの探索処理の詳細な説明を省略する。
 図7は探索処理のフローチャートである。図7に示すように、探索処理が始まると、変形検出装置8は、ハンド5の検出部位SPが予め教示された初期開始位置へ移動するように、ロボットアーム4を制御する(ステップS11)。初期開始位置は、Z方向位置が目標部位TG(境界線95)よりも第1同径部91側であって、X-Y位置がターゲットピン9の第1同径部91の表面から微小距離だけ離れたところにある。この初期開始位置に検出部位SPが移動したとき、原則として、ハンド5はターゲットピン9と接触していない。
 次に、変形検出装置8は、第3関節駆動装置63の制御ループゲインを所定値以下に低下させる(ステップS12)。この所定値は、ウエハWの搬送動作時の制御ループゲインよりも小さい値から選ばれる。制御ループゲインには、位置ループゲインと速度ループゲインとが含まれる。制御ループゲインを低下させることにより、サーボ制御ループの修正力が弱くなり、応答性が遅くなる。その結果、小さい押し付け力でハンド5をターゲットピン9にタッチさせることができる。
 上記において、望ましくは、第3関節駆動装置63の制御ループゲインを実質的にゼロとする。第3関節駆動装置63の制御ループゲインを「実質的にゼロとする」とは、前記制御ループゲインを、通常動作のサーボゲインから、ゼロを含む小さな値に変更して、第3関節駆動装置63に対して外力が加えられた際、即ち、ハンド5とターゲットピン9とが接触した際の接触反力を極小化して、第3関節駆動装置63のサーボモータM3が、この接触反力に対して実質的に抵抗することなく、その角度位置が実質的に自由に変位し得る状態にすることを言う。制御ループゲインを切ってゼロにする場合もここに含まれる。
 上述の第3関節駆動装置63の制御ループゲインの低下に加えて、駆動電流の上限(すなわち、駆動トルクの上限)を低下させることにより、ハンド5のターゲットピン9への押し付け力を低下させてもよい。なお、ハンド5が初期開始位置に至る前に、上記の制御ループゲインの低減や、上記の駆動電流の上限の低減が行われてもよい。
 続いて、変形検出装置8は、初期開始位置において以下に説明する一連のタッチ位置取得動作(ステップS13~S15)を行うようにロボットアーム4を制御する。一連のタッチ位置取得動作において、先ず、ハンド5が水平に揺動する(ステップS13)。具体的には、ロボットアーム4の第3関節J3及び第4関節J4を動かさずに、第1関節J1及び第2関節J2を動作させることで、ハンド5を微小な振れ幅で揺動させる(ステップS13)。
 ハンド5が揺動すると、ハンド5の検出部位SPがターゲットピン9にタッチする。ハンド5がターゲットピン9にタッチすると、第3関節駆動装置63の制御ループゲインが実質的にゼロとされているので、ハンド5が第3軸L3まわりに角変位する。この角変位が動力伝達機構D3を介してサーボモータM3に伝達され、このサーボモータM3を角変位させる。そこで、サーボモータM3が角変位を開始したことに基づいて、ハンド5がターゲットピン9にタッチしたことが検出される。
 そして、変形検出装置8は、ハンド5がターゲットピン9にタッチしたことが検出されると(ステップS14でYES)、ハンド5がターゲットピン9にタッチしたときの検出部位SPの位置情報(タッチ位置情報)を取得する(ステップS15)。タッチ位置情報には、例えば、ロボットアーム4の手首基準点(第3軸L3上の所定の点)の位置及び手首の向きが含まれる。ロボットアーム4の手首基準点の位置情報は、昇降駆動装置60、第1関節駆動装置61、第2関節駆動装置62の各サーボモータM0、M1、M2の各位置検出器E0、E1、E2から取得することができる。ロボットアーム4の手首の向きに関する情報は、第3関節駆動装置63、第4関節駆動装置64の各サーボモータM3、M4の各位置検出器E3、E4から取得することができる。
 続いて、変形検出装置8は、タッチ位置取得動作が1回目であれば(ステップS16でYES)、ハンド5の検出部位SPを次の開始位置へ移動させるように、ロボットアーム4を制御する(ステップS20)。ハンド5の検出部位SPの次の開始位置は、初期開始位置から変径部92へ向けてZ方向へ微小な所定値だけ移動させたところに在る。そして、変形検出装置8は、次の開始位置から一連のタッチ位置取得動作(ステップS13~S15)を行うように、ロボットアーム4を制御する。
 ステップS16において、変形検出装置8は、タッチ位置取得動作が2回目以降であれば(ステップS16でNO)、今回のタッチ位置取得動作で取得したタッチ位置情報と、前回のタッチ位置取得動作で取得したタッチ位置情報とから、検出部位SPが目標部位TGに到達したかどうかを判断する。目標部位TGでは、ターゲットピン9に対するハンド5のタッチ位置がX-Y方向において局部的に変化する。そこで、変形検出装置8は、今回取得したタッチ位置情報と前回取得したタッチ位置情報とのX-Y方向の局部的変化に基づいて、検出部位SPが目標部位TGに到達したかどうかを判断する。
 具体的には、変形検出装置8は、ターゲットピン9に対するハンド5のタッチ位置がX-Y方向において局部的に変化した場合は(ステップS17でYES)、検出部位SPが目標部位TGに到達したことを検出したと判定する(ステップS18)。具体的には、変形検出装置8は、今回取得したタッチ位置情報と前回取得したタッチ位置情報から導出される第3軸L3まわりの角変位が所定の閾値を超える場合に、検出部位SPが目標部位TGに到達したことを検出したと判定する。そして、変形検出装置8は、今回取得したタッチ位置情報を目標部位TGの位置情報として記憶し(ステップS19)、探索処理を終了する。なお、目標部位TGの位置情報は、検出部位SPが目標部位TGに到達したときの検出部位SPの想定位置のことである。
 一方、変形検出装置8は、ターゲットピン9に対するハンド5のタッチ位置がX-Y方向において局部的に変化していない場合は(ステップS17でNO)、検出部位SPが目標部位TGに到達していないと判定して、ハンド5が更に次の開始位置へ移動するようにロボットアーム4を制御する(ステップS20)。更に次の開始位置は、前述の次の開始位置から変径部92へ向けてZ方向へ微小な所定値だけ移動させたところに在る。このようにして、変形検出装置8は、検出部位SPが目標部位TGに到達したことを検出するまで、開始位置を変径部92へ向けてZ方向へ少しずつ移動させながら一連のタッチ位置取得動作(ステップS13~S15)を繰り返すようにロボットアーム4を制御する。
 図6のフローチャートに戻って、変形検出装置8は、上記の探索処理によってハンド5の第1~4検出部位SP1~SP4の各々で探索された目標部位TGの位置情報に基づいて、ハンド5の変形を評価する(ステップS2~S4)。本実施形態においては、ハンド5の捻れ変形、撓み変形、及び回転変形の各々について変形が評価される。変形検出装置8は各変形について同様の変形の評価処理を繰り返すので、以下ではハンド5捻れ変形の評価処理について詳細に説明し、撓み変形、及び回転変形の評価処理については詳細な説明を省略する。
 図8は変形の評価処理のフローチャートである。図8に示すように、変形検出装置8は、先ず、変形を検出するために利用する位置情報を位置情報格納部82から読み出す(ステップS21)。読み出す位置情報には、取得した目標部位TGの位置情報と、所定の参照位置情報とが含まれる。Z方向位置情報は、例えば、取得した位置情報に含まれるロボットアーム4の手首基準点のZ方向位置情報であってよい。
 本実施形態において、参照位置情報は、ハンド5上の異なる検出部位SP(参照位置)で探索処理を行うことによって得られた目標部位TGの位置情報である。捻れ変形を検出するために利用される位置情報は、第1検出部位SP1で目標部位TGを探索して得られた目標部位TGの位置情報と、第2検出部位SP2で目標部位TGを探索して得られた目標部位TGの位置情報である。撓み変形を検出するために利用される位置情報は、第1検出部位SP1で目標部位TGを探索して得られた目標部位TGの位置情報と、第3検出部位SP3で目標部位TGを探索して得られた目標部位TGの位置情報である。回転変形を検出するために利用される位置情報は、第3検出部位SP3で目標部位TGを探索して得られた目標部位TGの位置情報と、第4検出部位SP4で目標部位TGを探索して得られた目標部位TGの位置情報である。なお、回転変形を検出する場合は、上記第4検出部位SP4に代えて又は加えて第1検出部位SP1で目標部位TGを探索して得られた目標部位TGの位置情報を利用してもよい。
 次に、変形検出装置8は、読み出した2つの位置情報を比較する(ステップS22)。ステップS22において、検出する変形が捻れ変形と撓み変形の場合には、読み出した2つの位置情報のZ方向の位置情報を比較する。そして、2つの目標部位TGの位置情報のうち一方のZ方向位置情報と他方のZ方向位置情報との差が所定の閾値以下である場合は、変形がない又は変形の程度が小さいと判定して(ステップS23でNO)、変形の評価処理を終了する。一方、変形検出装置8は、読み出した2つの目標部位TGの位置情報のうち一方のZ方向位置情報と他方のZ方向位置情報との差が所定の閾値を超える場合は、エンドエフェクタの変形を検出したと判定する(ステップS23でYES)。
 また、ステップS22において、検出する変形が回転変形の場合には、読み出した2つの位置情報のX-Y方向(X-Y平面内)の位置情報を比較する。回転変形を検出する際には、第4軸L4と平行に規定されているハンド中心線Cの延在方向とY軸方向とが平行となるように、ロボットアーム4の位置及び姿勢が制御されていることが望ましい。本実施形態に係るハンド5は、第3リンク43と第4リンク44との間に連結部を有することから、この連結部における連結誤差によってハンド中心線Cに対し、ハンド5が線対称となっていないことがある。また、ハンド5が他の物体に衝突することによって、ハンド5に第3軸L3まわりの回転方向に変形が生じて、ハンド中心線Cの延在方向とY軸方向とが平行でないことがある。これらのような回転変形を、変形検出装置8は、例えば、次のようにして検出することができる。即ち、変形前のハンド5において第3検出部位SP3と第4検出部位SP4とを結ぶ直線(評価直線)のY軸方向に対する傾き(基準の傾き)を記憶しておき、取得した第3検出部位SP3のX-Y方向位置情報と取得した第4検出部位SP4のX-Y方向位置情報に基づいて評価直線のY軸方向に対する傾きを算出し、算出した傾きと基準の傾きとを比較し、これらの差異が所定の閾値を超えていればエンドエフェクタの回転変形を検出したと判定し(ステップS23でYES)、前記差異が所定の閾値以下であれば変形なしと判定する(ステップS23でNO)。
 エンドエフェクタの変形が検出されると、変形検出装置8は、続いて、ロボットアーム4の位置及び姿勢のうち少なくとも一方の調整によって変形が補正可能であるかどうかを判断する(ステップS24)。変形の補正の可否は、例えば、読み出した2つの位置情報の差から導き出される変形の程度や、変形を補正するために必要な軸がロボットアーム4に存在するかどうかなどに基づいて判断される。
 変形検出装置8は、変形が補正可能であると判断した場合には(ステップS24でYES)、制御装置6に変形を補正させるための変形補正情報を作成して、これを制御装置6へ出力し(ステップS25)、変形の評価処理を終了する。なお、本実施形態にロボットアーム4は、ハンド5を第4軸L4まわりに回転させることによって捻れ変形を補正することができる。また、本実施形態に係るロボットアーム4は、撓み変形を補正できる軸を備えていないので、撓み変形を補正することができない。また、本実施形態に係るロボットアーム4は、算出した評価直線の傾きが基準の傾きとなるようにハンド5を第3軸L3まわりに回転させるとともに、X-Y方向位置を調整することによって、回転変形を補正することができる。
 一方、変形検出装置8は、変形が補正不可能であると判断した場合には(ステップS24でNO)、エラー処理をして(ステップS26)、変形の評価処理を終了する。エラー処理において、変形検出装置8は、例えば、警報を発するとともに制御装置6にロボットアーム4の動きを停止させる。
 以上のようにして、変形検出装置8は、捻れ変形の評価処理(ステップS2)、撓み変形の変形評価処理(ステップS3)、及び、回転変形の変形評価処理(ステップS4)を行って、エンドエフェクタの変形検出処理を終了する。
 以上に説明したように、本実施形態に係るロボットシステム1は、先端部に所定方向に延びる回動軸(第3軸L3)を中心として回動自在な手首を有するロボットアーム4と、手首に取り付けられたエンドエフェクタであるハンド5と、ハンド5の所定の検出部位SPが到達する目標部位GTを有するターゲットピン9を用いて当該エンドエフェクタの変形を検出する変形検出装置8とを備えている。ターゲットピン9の目標部位TGは、ハンド5の検出部位SPが当該目標部位TGに到達したことを示すインディケイト機能を有している。上記の変形検出装置8は、ハンド5の検出部位SPをターゲットピン9にタッチさせるようにロボットアーム4を制御して目標部位TGを探索し、目標部位TGのインディケイト機能に基づいて検出部位SPが目標部位TGに到達したことを検出する探索部81と、検出部位SPが目標部位TGに到達したときの検出部位SPの位置情報(想定位置情報)と参照位置情報とを比較してハンド5の変形を検出する変形検出部83とを備えている。
 また、以上に説明した本実施形態に係るエンドエフェクタの変形検出方法は、上記のロボットシステム1において、上記のターゲットピン9を用いて変形検出装置8がハンド5の変形を検出する方法であって、変形検出装置8が、検出部位SPをターゲットピン9にタッチさせるようにロボットアーム4を制御して目標部位TGを探索することと、目標部位TGのインディケイト機能に基づいて検出部位SPが目標部位TGに到達したことを検出することと、検出部位SPが目標部位TGに到達したときの検出部位SPの位置情報と所定の参照位置情報とを比較して、エンドエフェクタの変形を検出することとを含んでいる。
 上記のようなロボットシステム1及びエンドエフェクタの変形検出方法によれば、エンドエフェクタの可動範囲内に設けられたターゲットピン9を用いて、エンドエフェクタの変形を検出することができる。特許文献1~3に記載された従来の技術では、ロボットハンドの変形を検出するために専用の非接触式センサがロボットシステムに備えられている。これに対し、本実施形態に係るロボットシステム1では、特別な配線や制御を要する非接触式センサを用いることなく、ターゲットピン9と従来構造のロボットアーム4とを利用してエンドエフェクタの変形を検出することができる。
 また、本実施形態に係るロボットシステム1及びエンドエフェクタの変形検出方法において、ターゲットピン9の目標部位TGは、インディケイト機能を発揮すべく、ハンド5をターゲットピン9にタッチさせながらターゲットピン9に沿ってZ方向へ移動させた場合に、ターゲットピン9に対するハンド5のタッチ位置が局部的に変化する形状に形成されている。そして、変形検出装置8は、ハンド5の検出部位SPをターゲットピン9にタッチさせながらターゲットピン9に沿ってZ方向へ移動させるようにロボットアーム4を制御して目標部位TGを探索し、ターゲットピン9に対する検出部位SPのタッチ位置の局部的変化に基づいて当該検出部位SPが目標部位TGに到達したことを検出する。
 より具体的には、ターゲットピン9は、ターゲットピン9に対するハンド5のタッチ位置が局部的に変化する形状として、径が一定な同径部91と、径が変化する変径部92とを所定方向に連続して有し、同径部91と変径部92との境界(境界線95)によって目標部位TGが構成されている。そして、変形検出装置8は、ハンド5を第3軸L3まわりに揺動させて検出部位SPがターゲットピン9にタッチしたときの検出部位SPの位置情報(タッチ位置情報)を取得することを、ハンド5を同径部91から変径部92へ向けてZ方向へ変位させた複数箇所で行って目標部位TGを探索し、取得した複数のタッチ位置情報から導き出される第3軸L3まわりの角変位に基づいて検出部位SPが目標部位TGに到達したことを検出する。
 このようなロボットシステム1及びエンドエフェクタの変形検出方法によれば、ターゲットピン9の同径部91と変径部92との径の変化に基づいて検出部位SPが目標部位TGに到達したことを検出することができる。このようなターゲットピン9の目標部位TGのインディケイト機能は、ターゲットピン9の外形形状によって実現されており、比較的簡易な構造であって、この機能のために配線や制御を必要としない。
 また、本実施形態に係るロボットシステム1及びエンドエフェクタの変形検出方法において、変形検出装置8は、ハンド5の変形が検出された際に、その変形がロボットアーム4の位置及び姿勢の少なくとも一方の調整で補正可能であるかどうかを判断し、補正可能である場合にその変形を補正する。
 このようなロボットシステム1及びエンドエフェクタの変形検出方法によれば、ロボットアーム4を停止させたり解体したりすることなく、エンドエフェクタの変形を補正することができる。よって、ロボットアーム4を停止させる頻度を削減することができ、生産性を向上させることができる。
 また、本実施形態に係るロボットシステム1及びエンドエフェクタの変形検出方法において、参照位置情報は、変形検出装置8によって、ハンド5の検出部位SPと相違する参照部位をターゲットピン9にタッチさせるようにロボットアーム4を制御して目標部位TGを探索し、目標部位TGのインディケイト機能に基づいて参照部位が目標部位TGに到達したことが検出されたときの、参照部位の想定位置情報である。つまり、ハンド5の検出部位SPと相違する参照部位について探索処理を行い、参照部位が目標部位TGに到達したときの参照部位の位置情報が、参照位置情報として利用されている。
 上記実施形態では、ハンド5の捻れ変形を検出する際には、ハンド5の先端部であってハンド中心線Cを挟んで一方に規定された第1検出部位SP1と他方に規定された第2検出部位SP2とを、それぞれ検出部位・参照部位としている。そして、検出部位SPが目標部位TGに到達したときの当該検出部位SPのZ方向の想定位置と、参照部位が目標部位TGに到達したときの当該参照部位のZ方向の想定位置とを比較することによって、変形検出装置8でハンド5の捻れ変形を検出している。
 また、上記実施形態では、ハンド5の撓み変形を検出する際には、検出部位と参照部位のうち一方をハンド5の先端部に規定された第1検出部位SP1とし、他方をハンド5の根元部に規定された第3検出部位SP3としている。そして、検出部位SPが目標部位TGに到達したときの当該検出部位SPのZ方向の想定位置と、参照部位が目標部位TGに到達したときの当該参照部位のZ方向の想定位置とを比較することによって、変形検出装置8でハンド5の撓み変形を検出している。
 更に、上記実施形態では、ハンド5の回転変形を検出する際には、検出部位と参照部位のうち一方をハンド5の根元部に規定された第3検出部位SP3とし、他方をハンド5の先端部又は根元部と先端部との間に規定された第4検出部位SP4としている。そして、検出部位SPが目標部位TGに到達したときの当該検出部位SPのX-Y平面内の想定位置と、参照部位が目標部位TGに到達したときの当該参照部位のX-Y平面内の想定位置とを比較することによって、変形検出装置8でハンド5の回転変形を検出している。
 上記のようなロボットシステム1及びエンドエフェクタの変形検出方法によれば、ハンド5の2つの検出部位SP(検出部位と参照部位)の各々について探索処理を行って得られた位置情報を比較するので、ターゲットピン9の目標位置TGの変形や位置ズレなどの影響を受けずに、エンドエフェクタの変形を検出することができる。
 以上に本発明の好適な実施形態を説明したが、上記のロボットシステム1の構成は以下のように変更することができる。
 例えば、上記実施形態に係るエンドエフェクタは、ウエハ搬送用のフォーク形状のハンド5であるが、エンドエフェクタはこれに限定されない。例えば、エンドエフェクタが、複数の把持爪を備えた汎用ハンド、吸着パッド、ナット締め具、溶接ガン、スプレーガンのうちいずれか一つであってもよい。
 また、上記実施形態に係る探索処理において、ハンド5をZ方向に延びる第3軸L3を中心として回動(揺動)させるが、エンドエフェクタの揺動方向はこれに限定されない。
 例えば、ロボットアームが垂直多関節型ロボットである場合には、探索処理において、エンドエフェクタをX方向又はY方向に延びる回動軸を中心として回動させてもよい。この場合、ターゲットピン9は、ターゲットピン9の延在方向がエンドエフェクタの回動軸の延在方向と平行となるように配設される。
 例えば、探索処理においてエンドエフェクタを殆ど回動させずに、Z方向へ変位させてもよい。上記実施形態に係るロボットシステム1はウエハ搬送ロボットであることから、ハンド5とターゲットピン9の擦れを極力避けることによりパーティクルの発生を防止せねばならない。しかし、ターゲットピン9とエンドエフェクタの接触や擦れが制限されない状況では、エンドエフェクタを回動させることなく検出部位SPをターゲットピン9に接触させながらZ方向へ変位させることによって、目標部位TGの探索が行われてもよい。
 また、上記実施形態に係る参照位置情報は、ハンド5に設定された別の検出部位SP(参照部位)で探索処理を行うことにより得られたZ方向位置情報であるが、参照位置情報はこれに限定されない。
 例えば、参照位置情報は、変形検出装置8によって、エンドエフェクタの未変形の検出部位SPをターゲットピン9にタッチさせるようにロボットアーム4を制御して目標部位TGを探索し、目標部位TGのインディケイト機能に基づいて未変形の検出部位SPが目標部位TGに到達したことが検出されたときの、未変形の検出部位SPの位置情報であってもよい。つまり、参照位置情報が、変形していないエンドエフェクタ上の検出部位SPで探索処理を行うことにより得られた目標部位TGの位置情報であってもよい。このような参照位置情報を用いれば、変形前後の検出部位SPで探索した目標部位TGの位置情報を比較することによって、ハンド5の変形を検出することができる。
 例えば、参照位置情報は、ターゲットピン9の目標部位TGの位置情報であってもよい。但し、この場合のターゲットピン9は、ロボットシステム1の有する座標系において正確に位置決めされており、ターゲットピン9の変形や移動が無いことが条件となる。
 また、上記実施形態に係るターゲットピン9は、第1同径部91と変径部92の境界線95が目標部位TGとされ、第1同径部91と変径部92の外径の局部変化がインディケイト機能を構成しているが、ターゲットピン9の形状はこれに限定されない。ターゲットピン9は、エンドエフェクタをターゲットピン9にタッチさせながらターゲットピン9に沿ってZ方向へ移動させた場合に、ターゲットピン9に対するエンドエフェクタのタッチ位置が局部的に変化する形状を有していればよい。
 例えば、ターゲットピン9の変径部92と第2同径部93との境界線96を目標部位TGとし、変径部92と第2同径部93の外形のX-Y位置の局部変化がインディケイト機能を構成していてもよい。この場合、図9に示すように、探索処理において、エンドエフェクタの検出部位SPの初期開始位置をターゲットピン9’の第2同径部93の周囲とし、エンドエフェクタを第2同径部93から変径部92に向けてZ方向に移動させた複数箇所で一連のタッチ位置取得動作(ステップS13~S15)が繰り返される。
 例えば、ターゲットピン9が径の一定な円柱状であって、ターゲットピン9の上端縁を目標部位TGとし、ターゲットピン9の外形のX-Y位置の局部変化がインディケイト機能を構成していてもよい。この場合、エンドエフェクタの検出部位SPがターゲットピン9とタッチしなくなったことによって、検出部位SPが目標部位TGに到達したことを検出することができる。
 なお、本実施形態においては、ターゲットピン9の形状によって目標部位TGのインディケイト機能が実現されているが、インディケイト機能が他の手段により実現されていてもよい。例えば、ターゲットピン9は径の一定な円柱形状であって、ターゲットピン9の周囲の目標部位TGに接触センサが設けられており、この接触センサによってインディケイト機能が構成されていてもよい。
 また、上記実施形態において、変形検出装置8は、ハンド5の捻れ変形、撓み変形、及び回転変形の評価処理(ステップS2~S4)を順次行うが、これらの変形の評価処理のうち少なくとも1つ以上を選択的に行ってもよい。例えば、ハンド5の捻れ変形、撓み変形、及び回転変形の評価処理のうち、捻れ変形の評価処理のみが行われてもよい。この場合、第3検出部位SP3と第4検出部位SP4の各検出部位SPにおける探索処理は不要である。また、各変形の評価処理(ステップS2~S4)の順序は上記実施形態に限定されず、適宜順番が入れ替わってもよい。
 上記説明から、当業者にとっては、本発明の多くの改良や他の実施形態が明らかである。従って、上記説明は、例示としてのみ解釈されるべきであり、本発明を実行する最良の態様を当業者に教示する目的で提供されたものである。本発明の精神を逸脱することなく、その構造及び/又は機能の詳細を実質的に変更できる。
1   :ロボットシステム
3   :制御装置
4   :ロボットアーム
5   :ロボットハンド(エンドエフェクタ)
8   :変形検出装置
9   :ターゲットピン
21  :基台
30  :コントローラ
40  :昇降軸
41~44:第1~第4リンク
60~64:駆動装置
81  :探索部
82  :位置情報格納部
83  :変形検出部
84  :変形補正部
91  :第1同径部
92  :変径部
93  :第2同径部
95,96  :境界線
A0~A4:サーボアンプ
C   :ハンド中心線
D0~D4:動力伝達機構
E0~E4:位置検出器
J1~J4:第1~第4関節
L1~L4:第1~第4軸
M0~M4:サーボモータ
SP   :検出部位
TG   :目標部位

Claims (18)

  1.  先端部に所定方向に延びる回動軸を中心として回動自在な手首を有するロボットアームと、
     前記手首に取り付けられたエンドエフェクタと、
     前記エンドエフェクタの所定の検出部位が到達する目標部位を有するターゲットピンを用いて当該エンドエフェクタの変形を検出する変形検出装置とを備えたロボットシステムであって、
     前記目標部位は、前記検出部位が当該目標部位に到達したことを示すインディケイト機能を有しており、
     前記変形検出装置が、
     前記検出部位を前記ターゲットピンにタッチさせるように前記ロボットアームを制御して前記目標部位を探索し、前記インディケイト機能に基づいて前記検出部位が前記目標部位に到達したことを検出する探索部と、
     前記検出部位が前記目標部位に到達したときの前記検出部位の想定位置と所定の参照位置とを比較して、前記エンドエフェクタの変形を検出する変形検出部とを備える、ロボットシステム。
  2.  前記目標部位は、前記インディケイト機能を発揮すべく、前記エンドエフェクタを前記ターゲットピンにタッチさせながら前記ターゲットピンに沿って前記所定方向へ移動させた場合に、前記ターゲットピンに対する前記エンドエフェクタのタッチ位置が局部的に変化する形状に形成されており、
     前記変形検出装置が、前記検出部位を前記ターゲットピンにタッチさせながら前記ターゲットピンに沿って前記所定方向へ移動させるように前記ロボットアームを制御して前記目標部位を探索し、前記ターゲットピンに対する前記検出部位のタッチ位置の局部的変化に基づいて当該検出部位が前記目標部位に到達したことを検出するよう構成されている、請求項1に記載のロボットシステム。
  3.  前記ターゲットピンは、当該ターゲットピンに対する前記エンドエフェクタのタッチ位置が局部的に変化する形状として、径が一定な同径部と、径が変化する変径部とを前記所定方向に連続して有し、前記同径部と前記変径部との境界が前記目標部位を構成しており、
     前記変形検出装置が、前記エンドエフェクタを前記回動軸まわりに揺動させて前記検出部位が前記ターゲットピンにタッチしたときの前記検出部位の位置情報を取得することを、前記エンドエフェクタを前記同径部から前記変径部へ向けて前記所定方向へ変位させた複数箇所で行って前記目標部位を探索し、取得した複数の前記位置情報から導き出される前記回動軸まわりの角変位に基づいて前記検出部位が前記目標部位に到達したことを検出するように構成されている、
    請求項1又は2に記載のロボットシステム。
  4.  前記変形検出装置が、前記変形検出部で前記エンドエフェクタの変形が検出された際に、前記変形が前記ロボットアームの位置及び姿勢の少なくとも一方の調整で補正可能であるかどうかを判断し、補正可能である場合に前記変形を補正する変形補正部を更に有する、請求項1~3のいずれか一項に記載のロボットシステム。
  5.  前記参照位置が、前記変形検出装置によって、前記エンドエフェクタの前記検出部位と相違する参照部位を前記ターゲットピンにタッチさせるように前記ロボットアームを制御して前記目標部位を探索し、前記インディケイト機能に基づいて前記参照部位が前記目標部位に到達したことが検出されたときの、前記参照部位の想定位置である、請求項1~4のいずれか一項に記載のロボットシステム。
  6.  前記エンドエフェクタの変形が前記エンドエフェクタの捻れ変形であって、
     前記検出部位と前記参照部位とが、前記エンドエフェクタの先端部であって前記エンドエフェクタの中心線を挟んで一方と他方とに規定されており、
     前記変形検出装置は、前記検出部位が前記目標部位に到達したときの当該検出部位の前記所定方向の想定位置と、前記参照部位が前記目標部位に到達したときの当該参照部位の前記所定方向の想定位置とを比較して、前記エンドエフェクタの変形を検出する、請求項5に記載のロボットシステム。
  7.  前記エンドエフェクタの変形が前記エンドエフェクタの撓み変形であって、
     前記検出部位と前記参照部位のうち一方が前記エンドエフェクタの先端部に規定され、他方が前記エンドエフェクタの根元部に規定されており、
     前記変形検出装置は、前記検出部位が前記目標部位に到達したときの当該検出部位の前記所定方向の想定位置と、前記参照部位が前記目標部位に到達したときの当該参照部位の前記所定方向の想定位置とを比較して、前記エンドエフェクタの変形を検出する、請求項5に記載のロボットシステム。
  8.  前記エンドエフェクタの変形が前記エンドエフェクタの回転変形であって、
     前記検出部位と前記参照部位のうち一方が前記エンドエフェクタの根元部に規定され、他方が前記エンドエフェクタの先端部又は根元部と先端部との間に規定されており、
     前記変形検出装置は、前記検出部位が前記目標部位に到達したときの当該検出部位の前記所定方向と直交する平面内の想定位置と、前記参照部位が前記目標部位に到達したときの当該参照部位の前記所定方向と直交する平面内の想定位置とを比較して、前記エンドエフェクタの変形を検出する、請求項5に記載のロボットシステム。
  9.  前記参照位置が、前記変形検出装置によって、前記エンドエフェクタの未変形の前記検出部位を前記ターゲットピンにタッチさせるように前記ロボットアームを制御して前記目標部位を探索し、前記インディケイト機能に基づいて未変形の前記検出部位が前記目標部位に到達したことが検出されたときの、未変形の前記検出部位の想定位置である、請求項1~4のいずれか一項に記載のロボットシステム。
  10.  先端部に所定方向に延びる回動軸を中心として回動自在な手首を有するロボットアームと、前記手首に取り付けられたエンドエフェクタと、変形検出装置を備えたロボットシステムにおいて、
     前記エンドエフェクタの所定の検出部位が到達する目標部位であって、前記検出部位が当該目標部位に到達したことを示すインディケイト機能を有する目標部位を備えたターゲットピンを用いて前記変形検出装置が前記エンドエフェクタの変形を検出する方法であって、
     前記検出部位を前記ターゲットピンにタッチさせるように前記ロボットアームを制御して前記目標部位を探索することと、
     前記インディケイト機能に基づいて、前記検出部位が前記目標部位に到達したことを検出することと、
     前記検出部位が前記目標部位に到達したときの前記検出部位の想定位置と所定の参照位置とを比較して、前記エンドエフェクタの変形を検出することと、を含む
    エンドエフェクタの変形検出方法。
  11.  前記目標部位は、前記インディケイト機能を発揮すべく、前記エンドエフェクタを前記ターゲットピンにタッチさせながら前記ターゲットピンに沿って前記所定方向へ移動させた場合に、前記ターゲットピンに対する前記エンドエフェクタのタッチ位置が局部的に変化する形状に形成されており、
     前記目標部位を探索することが、前記検出部位を前記ターゲットピンにタッチさせながら前記ターゲットピンに沿って前記所定方向へ移動させるように前記ロボットアームを制御して前記目標部位を探索することを含み、
     前記検出部位が前記目標部位に到達したことを検出することが、前記ターゲットピンに対する前記検出部位のタッチ位置の局部的変化に基づいて当該検出部位が前記目標部位に到達したことを検出することを含む、請求項10に記載のエンドエフェクタの変形検出方法。
  12.  前記ターゲットピンは、前記ターゲットピンに対する前記エンドエフェクタのタッチ位置が局部的に変化する形状として、径が一定な同径部と、径が変化する変径部とを前記所定方向に連続して有し、前記同径部と前記変径部との境界が前記目標部位を構成しており、
     前記目標部位を探索することが、前記エンドエフェクタを前記回動軸まわりに揺動させて前記検出部位が前記ターゲットピンにタッチしたときの前記検出部位の位置情報を取得することを、前記エンドエフェクタを前記同径部から前記変径部へ向けて前記所定方向へ変位させた複数箇所で行って前記目標部位を探索することを含み、
     前記検出部位が前記目標部位に到達したことを検出することが、取得した複数の前記位置情報から導き出される前記回動軸まわりの角変位に基づいて前記検出部位が前記目標部位に到達したことを検出することを含む、
    請求項10又は11に記載のエンドエフェクタの変形検出方法。
  13.  前記変形検出装置が、前記エンドエフェクタの変形が検出された際に、前記変形が前記ロボットアームの位置及び姿勢の少なくとも一方の調整で補正可能であるかどうかを判断し、補正可能である場合に前記変形を補正することを更に含む、請求項10~12のいずれか一項に記載のエンドエフェクタの変形検出方法。
  14.  前記参照位置が、前記エンドエフェクタの前記検出部位と相違する参照部位を前記ターゲットピンにタッチさせて前記目標部位を探索し、前記目標部位の前記インディケイト機能に基づいて前記参照部位が前記目標部位に到達したことを検出したときの前記参照部位の想定位置である、請求項10~13のいずれか一項に記載のエンドエフェクタの変形検出方法。
  15.  前記エンドエフェクタの変形が前記エンドエフェクタの捻れ変形であって、
     前記検出部位と前記参照部位とが、前記エンドエフェクタの先端部であって前記エンドエフェクタの中心線を挟んで一方と他方とに規定されており、
     前記エンドエフェクタの変形を検出することが、前記検出部位が前記目標部位に到達したときの当該検出部位の前記所定方向の想定位置と、前記参照部位が前記目標部位に到達したときの当該参照部位の前記所定方向の想定位置とを比較して、前記エンドエフェクタの変形を検出することを含む、請求項14に記載のエンドエフェクタの変形検出方法。
  16.  前記エンドエフェクタの変形が前記エンドエフェクタの撓み変形であって、
     前記検出部位と前記参照部位のうち一方が前記エンドエフェクタの先端部に規定され、他方が前記エンドエフェクタの根元部に規定されており、
     前記エンドエフェクタの変形を検出することが、前記検出部位が前記目標部位に到達したときの当該検出部位の前記所定方向の想定位置と、前記参照部位が前記目標部位に到達したときの当該参照部位の前記所定方向の想定位置とを比較して、前記エンドエフェクタの変形を検出することを含む、請求項14に記載のエンドエフェクタの変形検出方法。
  17.  前記エンドエフェクタの変形が前記エンドエフェクタの回転変形であって、
     前記検出部位と前記参照部位のうち一方が前記エンドエフェクタの根元部に規定され、他方が前記エンドエフェクタの先端部又は根元部と先端部との間に規定されており、
     前記エンドエフェクタの変形を検出することが、前記検出部位が前記目標部位に到達したときの当該検出部位の前記所定方向と直交する平面内の想定位置と、前記参照部位が前記目標部位に到達したときの当該参照部位の前記所定方向と直交する平面内の想定位置とを比較して、前記エンドエフェクタの変形を検出することを含む、請求項14に記載のエンドエフェクタの変形検出方法。
  18.  前記参照位置が、前記エンドエフェクタの未変形の前記検出部位を前記ターゲットピンにタッチさせて前記目標部位を探索し、前記目標部位の前記インディケイト機能に基づいて未変形の前記検出部位が前記目標部位に到達したことを検出したときの未変形の前記検出部位の前記所定方向の想定位置である、請求項10~13のいずれか一項に記載のエンドエフェクタの変形検出方法。
     
     
PCT/JP2014/006394 2014-12-22 2014-12-22 ロボットシステム及びエンドエフェクタの変形検出方法 WO2016103292A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN201480084253.XA CN107000224B (zh) 2014-12-22 2014-12-22 机械手系统及末端执行器的变形检测方法
US15/538,938 US10279485B2 (en) 2014-12-22 2014-12-22 Robot system and method of detecting deformation of end effector
JP2016565592A JP6412955B2 (ja) 2014-12-22 2014-12-22 ロボットシステム及びエンドエフェクタの変形検出方法
PCT/JP2014/006394 WO2016103292A1 (ja) 2014-12-22 2014-12-22 ロボットシステム及びエンドエフェクタの変形検出方法
KR1020177018115A KR101952766B1 (ko) 2014-12-22 2014-12-22 로봇 시스템 및 엔드 이펙터의 변형 검출 방법
TW104133501A TWI586498B (zh) 2014-12-22 2015-10-13 機器人系統及末端執行器之變形檢測方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/006394 WO2016103292A1 (ja) 2014-12-22 2014-12-22 ロボットシステム及びエンドエフェクタの変形検出方法

Publications (1)

Publication Number Publication Date
WO2016103292A1 true WO2016103292A1 (ja) 2016-06-30

Family

ID=56149396

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/006394 WO2016103292A1 (ja) 2014-12-22 2014-12-22 ロボットシステム及びエンドエフェクタの変形検出方法

Country Status (6)

Country Link
US (1) US10279485B2 (ja)
JP (1) JP6412955B2 (ja)
KR (1) KR101952766B1 (ja)
CN (1) CN107000224B (ja)
TW (1) TWI586498B (ja)
WO (1) WO2016103292A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190013863A (ko) * 2016-09-28 2019-02-11 카와사키 주코교 카부시키 카이샤 기판 반송 핸드의 진단 시스템
JP2020087980A (ja) * 2018-11-15 2020-06-04 川崎重工業株式会社 ロボットシステム及びその運転方法
WO2020137800A1 (ja) * 2018-12-27 2020-07-02 川崎重工業株式会社 ロボットの位置補正方法およびロボット
WO2020137799A1 (ja) * 2018-12-27 2020-07-02 川崎重工業株式会社 ロボットの位置補正方法およびロボット

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD822735S1 (en) * 2017-03-17 2018-07-10 Donald Dimattia, Jr. Positionable end effector link
CN109285794B (zh) * 2017-07-21 2020-11-20 上海新昇半导体科技有限公司 一种用于晶圆的目视检测机及检测方法
KR102022804B1 (ko) * 2017-11-02 2019-09-18 조재용 웨이퍼 이송용 로봇 감지장치
CN108750574B (zh) * 2018-08-31 2023-09-08 烟台宇信科技有限公司 一种变径支撑压紧定位装置
JP2020077699A (ja) * 2018-11-06 2020-05-21 川崎重工業株式会社 ロボットハンド及びそれを備えるロボット
US10953539B2 (en) * 2018-12-27 2021-03-23 Kawasaki Jukogyo Kabushiki Kaisha Substrate transfer robot and automatic teaching method
CN113226662A (zh) * 2018-12-28 2021-08-06 川崎重工业株式会社 机器人控制装置、机器人系统以及机器人控制方法
JP6983206B2 (ja) * 2019-10-15 2021-12-17 株式会社アルバック 基板搬送装置、および、基板搬送方法
CN113548443B (zh) * 2020-04-23 2022-03-25 上海微电子装备(集团)股份有限公司 一种用于机械手交接的检测方法及检测装置
JP2022043559A (ja) * 2020-09-04 2022-03-16 川崎重工業株式会社 ロボット及びハンド部姿勢調整方法
JP2022059951A (ja) * 2020-10-02 2022-04-14 日本電産サンキョー株式会社 産業用ロボット
US11745343B2 (en) * 2020-11-18 2023-09-05 Darrion Vinh Nguyen Method and apparatus for controlling robot arms using elastic distortion simulations
CN112643713B (zh) * 2020-12-08 2022-07-01 江苏科技大学 机器人端拾器高温传递和变形检测装置及方法
KR102516622B1 (ko) * 2021-08-05 2023-03-31 주식회사 쓰리디오토매이션 캘리브레이션 측정용 핀
CN115416018B (zh) * 2022-08-17 2024-03-15 雅客智慧(北京)科技有限公司 末端执行器形变补偿方法、装置、电子设备和存储介质

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01257593A (ja) * 1988-04-06 1989-10-13 Hitachi Ltd ロボットの芯ずれ補正方法
JPH0482691A (ja) * 1990-07-20 1992-03-16 Tokyo Electron Ltd アーム式搬送装置
JPH07205071A (ja) * 1994-01-27 1995-08-08 Matsushita Electric Ind Co Ltd 産業用ロボット
JPH0970780A (ja) * 1995-09-06 1997-03-18 Fanuc Ltd ロボットのツール形状補正方式
JPH11179692A (ja) * 1997-12-16 1999-07-06 Shin Meiwa Ind Co Ltd 産業用ロボットのハンド異常検出装置及びハンド異常検出方法
JPH11216565A (ja) * 1998-01-29 1999-08-10 Matsushita Electric Ind Co Ltd トーチ位置検出装置および検出方法
JP2004039841A (ja) * 2002-07-03 2004-02-05 Nec Kyushu Ltd 半導体ウエハ搬送装置
JP2009090406A (ja) * 2007-10-05 2009-04-30 Kawasaki Heavy Ind Ltd ロボットのターゲット位置検出装置
WO2009072199A1 (ja) * 2007-12-05 2009-06-11 Hirata Corporation 基板搬送装置及び基板搬送装置の制御方法
WO2010082490A1 (ja) * 2009-01-14 2010-07-22 キヤノンアネルバ株式会社 真空処理装置、電子部品の製造方法及び真空処理プログラム
JP2010188437A (ja) * 2009-02-16 2010-09-02 Amada Co Ltd ロボットハンドの歪み検出方法および自動交換システム
JP2011192676A (ja) * 2010-03-11 2011-09-29 Nikon Corp 基板処理装置、積層半導体装置製造方法及び積層半導体装置
JP2013247302A (ja) * 2012-05-29 2013-12-09 Hitachi High-Technologies Corp 基板バッファ並びに有機elデバイス製造装置及び同製造方法
JP2014132667A (ja) * 2010-08-20 2014-07-17 Tokyo Electron Ltd 基板搬送装置、基板搬送方法及びその基板搬送方法を実行させるためのプログラムを記録した記録媒体

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4156835A (en) * 1974-05-29 1979-05-29 Massachusetts Institute Of Technology Servo-controlled mobility device
US6366830B2 (en) * 1995-07-10 2002-04-02 Newport Corporation Self-teaching robot arm position method to compensate for support structure component alignment offset
JP5114804B2 (ja) * 2008-07-10 2013-01-09 川崎重工業株式会社 ロボット及びその教示方法
JP2012212746A (ja) * 2011-03-31 2012-11-01 Tokyo Electron Ltd 基板搬送装置及び基板搬送方法
JP5929271B2 (ja) * 2012-02-07 2016-06-01 セイコーエプソン株式会社 ロボットハンドおよびロボット
JP6438189B2 (ja) * 2013-10-01 2018-12-12 川崎重工業株式会社 ロボット及びロボットの制御方法
TWI710440B (zh) * 2014-11-10 2020-11-21 美商布魯克斯自動機械公司 工具自動教導方法及設備

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01257593A (ja) * 1988-04-06 1989-10-13 Hitachi Ltd ロボットの芯ずれ補正方法
JPH0482691A (ja) * 1990-07-20 1992-03-16 Tokyo Electron Ltd アーム式搬送装置
JPH07205071A (ja) * 1994-01-27 1995-08-08 Matsushita Electric Ind Co Ltd 産業用ロボット
JPH0970780A (ja) * 1995-09-06 1997-03-18 Fanuc Ltd ロボットのツール形状補正方式
JPH11179692A (ja) * 1997-12-16 1999-07-06 Shin Meiwa Ind Co Ltd 産業用ロボットのハンド異常検出装置及びハンド異常検出方法
JPH11216565A (ja) * 1998-01-29 1999-08-10 Matsushita Electric Ind Co Ltd トーチ位置検出装置および検出方法
JP2004039841A (ja) * 2002-07-03 2004-02-05 Nec Kyushu Ltd 半導体ウエハ搬送装置
JP2009090406A (ja) * 2007-10-05 2009-04-30 Kawasaki Heavy Ind Ltd ロボットのターゲット位置検出装置
WO2009072199A1 (ja) * 2007-12-05 2009-06-11 Hirata Corporation 基板搬送装置及び基板搬送装置の制御方法
WO2010082490A1 (ja) * 2009-01-14 2010-07-22 キヤノンアネルバ株式会社 真空処理装置、電子部品の製造方法及び真空処理プログラム
JP2010188437A (ja) * 2009-02-16 2010-09-02 Amada Co Ltd ロボットハンドの歪み検出方法および自動交換システム
JP2011192676A (ja) * 2010-03-11 2011-09-29 Nikon Corp 基板処理装置、積層半導体装置製造方法及び積層半導体装置
JP2014132667A (ja) * 2010-08-20 2014-07-17 Tokyo Electron Ltd 基板搬送装置、基板搬送方法及びその基板搬送方法を実行させるためのプログラムを記録した記録媒体
JP2013247302A (ja) * 2012-05-29 2013-12-09 Hitachi High-Technologies Corp 基板バッファ並びに有機elデバイス製造装置及び同製造方法

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190013863A (ko) * 2016-09-28 2019-02-11 카와사키 주코교 카부시키 카이샤 기판 반송 핸드의 진단 시스템
CN109564889A (zh) * 2016-09-28 2019-04-02 川崎重工业株式会社 基板搬送手的诊断系统
KR102172266B1 (ko) * 2016-09-28 2020-10-30 카와사키 주코교 카부시키 카이샤 기판 반송 핸드의 진단 시스템
US11476138B2 (en) 2016-09-28 2022-10-18 Kawasaki Jukogyo Kabushiki Kaisha Diagnostic system of substrate transfer hand
JP2020087980A (ja) * 2018-11-15 2020-06-04 川崎重工業株式会社 ロボットシステム及びその運転方法
JP7149815B2 (ja) 2018-11-15 2022-10-07 川崎重工業株式会社 ロボットシステム及びその運転方法
WO2020137800A1 (ja) * 2018-12-27 2020-07-02 川崎重工業株式会社 ロボットの位置補正方法およびロボット
WO2020137799A1 (ja) * 2018-12-27 2020-07-02 川崎重工業株式会社 ロボットの位置補正方法およびロボット
JPWO2020137800A1 (ja) * 2018-12-27 2021-10-07 川崎重工業株式会社 ロボットの位置補正方法およびロボット
JPWO2020137799A1 (ja) * 2018-12-27 2021-10-07 川崎重工業株式会社 ロボットの位置補正方法およびロボット
JP7064624B2 (ja) 2018-12-27 2022-05-10 川崎重工業株式会社 ロボットの位置補正方法およびロボット
JP7064623B2 (ja) 2018-12-27 2022-05-10 川崎重工業株式会社 ロボットの位置補正方法およびロボット

Also Published As

Publication number Publication date
US20180015620A1 (en) 2018-01-18
KR20170091705A (ko) 2017-08-09
CN107000224B (zh) 2019-09-24
TWI586498B (zh) 2017-06-11
US10279485B2 (en) 2019-05-07
TW201622925A (zh) 2016-07-01
CN107000224A (zh) 2017-08-01
JPWO2016103292A1 (ja) 2017-07-06
KR101952766B1 (ko) 2019-02-28
JP6412955B2 (ja) 2018-10-24

Similar Documents

Publication Publication Date Title
JP6412955B2 (ja) ロボットシステム及びエンドエフェクタの変形検出方法
KR102469258B1 (ko) 엔드 이펙터 위치 추정을 위한 로봇의 적응형 배치 시스템
JP5235376B2 (ja) ロボットのターゲット位置検出装置
KR102105580B1 (ko) 기판 반송 장치 및 기판 반송 로봇의 교시 방법
JP6816495B2 (ja) ロボットのたわみ補正方法、ロボットの制御装置
US10195744B2 (en) Control device, robot, and robot system
JP5531996B2 (ja) 6軸ロボットの軸間オフセット検出方法
JP2012171027A (ja) ワークピッキングシステム
JP6924112B2 (ja) 基板搬送装置及び基板搬送ロボットと基板載置部との位置関係を求める方法
JP2013144325A (ja) ロボット装置、故障検出方法
US20210114216A1 (en) Gripping system
JP5529920B2 (ja) ロボットのターゲット位置検出装置、半導体装置およびターゲット位置検出方法
JP6136337B2 (ja) 姿勢検知制御装置、研磨装置、および、姿勢検知制御方法
JP7178994B2 (ja) 把持システム
JP5620463B2 (ja) ロボットのターゲット位置検出装置
JP6983501B2 (ja) 把持装置の制御方法、プログラム、記録媒体、把持装置、ロボット装置、および部品の製造方法
WO2022163536A1 (ja) 変位検出センサ、制御装置、及び制御システム
JP7414426B2 (ja) ロボットシステム
US20220314450A1 (en) Method For Controlling Robot, Robot System, And Storage Medium
JP6252272B2 (ja) 垂直多関節型ロボットの位置誤差抑制方法
JP2024002786A (ja) ロボットシステムの制御方法およびロボットシステム
JP2021098249A (ja) ロボットシステム、搬送車、ロボットシステムの制御方法、物品の製造方法、制御プログラム及び記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14908903

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016565592

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 15538938

Country of ref document: US

ENP Entry into the national phase

Ref document number: 20177018115

Country of ref document: KR

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 14908903

Country of ref document: EP

Kind code of ref document: A1