WO2022097535A1 - ティーチング操作を用いた設定方法 - Google Patents

ティーチング操作を用いた設定方法 Download PDF

Info

Publication number
WO2022097535A1
WO2022097535A1 PCT/JP2021/039468 JP2021039468W WO2022097535A1 WO 2022097535 A1 WO2022097535 A1 WO 2022097535A1 JP 2021039468 W JP2021039468 W JP 2021039468W WO 2022097535 A1 WO2022097535 A1 WO 2022097535A1
Authority
WO
WIPO (PCT)
Prior art keywords
axis
posture
robot
work
positioning error
Prior art date
Application number
PCT/JP2021/039468
Other languages
English (en)
French (fr)
Inventor
勇太 大場
努 櫻井
秀樹 長末
秀明 田中
Original Assignee
Dmg森精機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dmg森精機株式会社 filed Critical Dmg森精機株式会社
Priority to US18/035,675 priority Critical patent/US20230390924A1/en
Publication of WO2022097535A1 publication Critical patent/WO2022097535A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1615Programme controls characterised by special kind of manipulator, e.g. planar, scara, gantry, cantilever, space, closed chain, passive/active joints and tendon driven manipulators
    • B25J9/162Mobile manipulator, movable base with manipulator arm mounted on it
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40298Manipulator on vehicle, wheels, mobile

Definitions

  • the present invention comprises a robot having an action unit that acts on an object, a transfer device on which the robot is mounted and moved to a predetermined work position, and a control device that controls the operation of the robot and the transfer device.
  • the present invention relates to a method of setting the operating posture of the robot and the moving position of the transport device by a teaching operation in the system.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2017-13202
  • an automatic guided vehicle (transport device) equipped with a robot moves to a work position set for the machine tool, and at this work position, the robot performs work such as attaching and detaching the work to the machine tool. Is executed.
  • one robot moved by an unmanned carrier can perform work such as attaching / detaching a work to a plurality of machine tools, so that the robot is fixed to the machine tool. Since the degree of freedom in the layout of the machine tool is increased as compared with the case of disposing in the above, the layout of the machine tool can be set to a layout capable of further improving the production efficiency. Further, as compared with the conventional system in which the robots are arranged in a fixed state, one robot can work on more machine tools, so that the equipment cost can be reduced.
  • the automatic guided vehicle since the automatic guided vehicle has a structure that self-propells using wheels, its positioning accuracy of stopping at the work position is not always high. Therefore, in order for the robot to perform accurate work on the machine tool, it is set at the time of the so-called teaching, which is the reference for control, and the actual working posture of the robot when the automatic guided vehicle is positioned at the work position. It is necessary to compare with the reference working posture of the robot, detect the amount of the error, and correct the working posture of the robot according to the amount of the error.
  • a position correction method as disclosed in Japanese Patent Application Laid-Open No. 2016-221622 (Patent Document 2 below) is known.
  • a visual target consisting of two calibration markers is arranged on the outer surface of the machine tool, and the visual target is imaged by a camera provided on a movable part of the robot.
  • the relative positional relationship between the robot and the machine tool is measured based on the captured image and the position and posture of the camera, and the working posture of the robot is corrected based on the measured positional relationship. ..
  • the position of the action portion (end effector) provided at the tip of the arm of the robot is the cumulative posture of each arm moved by the rotation of the motor constituting each joint portion. It is determined as if it was done. Since there is a structural limit to the rotation angle at which each motor can rotate, there is a so-called singular point where the acting portion cannot be moved any further in a certain direction depending on the posture of each arm. do. For example, when the arms are arranged in a straight line, the acting portion cannot be moved in the extension line direction. Further, even when two or more movable axes are aligned in a straight line, there is a direction in which the acting portion cannot be moved.
  • FIGS. 9 and 10 it is assumed that the unmanned carrier moves in the X-axis-Y-axis plane, and it is on a plane parallel to the X-axis-Y-axis plane when the unmanned carrier is positioned at the working position during teaching.
  • the position (target position) of the tip (robot tip) of the action part of the robot during teaching is Pt, and the plane parallel to the X-axis-Y-axis plane when the unmanned carrier is positioned at the work position during automatic operation.
  • Pt the position of the tip of the robot (actual operation position) on the top.
  • the amount of positioning error of the automatic guided vehicle is set to ⁇ Xe and ⁇ Ye, and the movable distances in the X-axis and Y-axis directions of the robot tip with respect to the actual operating position Pa are set to Xc and Yc.
  • the positioning error amounts ⁇ Xe and ⁇ Ye of the automatic guided vehicle are obtained from the movable distances Xc and Yc in the X-axis and Y-axis directions of the robot tip with respect to the actual operating position Pa. If it is small, that is, if the target position Pt, which is the position where the robot tip should be moved by correction, is within the movable area of the robot tip indicated by the two-dot chain line, the actual operation position Pa of the robot tip is set as the target position. It can be corrected to Pt (see dashed arrow).
  • At least one of the positioning error amounts ⁇ Xe and ⁇ Ye of the automatic guided vehicle determines the movable distances Xc and Yc of the robot tip portion in the X-axis and Y-axis directions with respect to the actual operating position Pa. If it exceeds ( ⁇ Xe> Xc in the example shown in FIG. 10), that is, if the target position Pt, which is the position where the robot tip should be moved by correction, is outside the movable region of the robot tip indicated by the two-dot chain line. , The actual operation position Pa of the robot tip cannot be corrected to the target position Pt (see the broken line arrow).
  • the present invention has been made under the above background, and is a method of setting the posture of the robot by using the teaching operation, and the actual operation position of the tip of the robot is surely set as a target at the time of the teaching operation.
  • the purpose is to provide a setting method that enables correction to the position.
  • the present invention for solving the above problems
  • the target working posture of the robot in a three-dimensional space formed by the first axis and the second axis orthogonal to each other in the horizontal plane, and the third axis in the vertical direction orthogonal to the first axis and the second axis.
  • a setting method in which the target working position of the transport device is set by a manual teaching operation.
  • the third is to move each of them and check whether the movable amount in the first axis and the second axis direction exceeds the positioning error amount in the first axis and the second axis direction of the transfer device acquired in advance.
  • the provisional working position is set.
  • the present invention relates to a setting method using a teaching operation, in which the provisional work posture is stored as a target work position and the fourth step of storing the provisional work posture as a target work posture is sequentially executed.
  • the above-mentioned first to fourth steps are sequentially carried out.
  • this work position is set as a provisional work position.
  • the robot is made to take a predetermined working posture in the three-dimensional space, and then this working posture is stored as a provisional working posture.
  • the action unit of the robot is moved along the first axis and the second axis, respectively, and the movable amount in the first axis and the second axis direction is acquired in advance.
  • the fourth step when both the movable amount of the acting portion in the first axis and the second axis direction exceeds the positioning error amount in the first axis and the second axis of the transport device, the said The provisional work position is stored as the target work position, and the provisional work posture is stored as the target work posture.
  • the position of the acting portion can be moved beyond the respective positioning error amounts in the first axis and the second axis of the transfer device.
  • the acting portion can be moved by the amount of correction in the first axis and the second axis directions set according to the positioning error. That is, the actual working posture of the robot can be reliably corrected to the target working posture according to the positioning error of the transport device.
  • the first axis and the second axis are preferably set in a horizontal plane, but are not limited to this, and may be set in a predetermined plane. Further, the first axis and the second axis are preferably orthogonal axes, but are not limited to these, and may simply intersect. Further, it is preferable that the third axis is also orthogonal to the first axis and the second axis and is set vertically, but it is sufficient if the third axis intersects the first axis and the second axis, and is also vertical. It does not have to be set to.
  • the fourth step when any of the movable amounts in the first axis and the second axis direction is less than the corresponding positioning error amounts in the first axis and the second axis direction. After that, a correction step of rotating the entire robot around the third axis by a predetermined angle is executed. Then, it is possible to take an embodiment in which the second step to the fourth step are sequentially carried out again.
  • the fourth step when any of the movable amounts in the first axis and the second axis direction is less than the corresponding positioning error amount in the first axis and the second axis direction.
  • the above-mentioned first step to the fourth step may be newly redone regardless of the previous process, but as a step for correction, the transfer device can be moved after the fourth step is executed. Perform a correction step of moving the amount in the axial direction where the amount is less than the positioning error amount by a distance exceeding the value that is less than the amount. Then, it is possible to take an embodiment in which the second step to the fourth step are sequentially carried out again.
  • the fourth step when any of the movable amounts in the first axis and the second axis direction is less than the corresponding positioning error amounts in the first axis and the second axis direction.
  • a first correction step of rotating the entire robot around the third axis by a predetermined angle is executed.
  • the second to fourth steps are sequentially carried out again, and the steps are carried out in sequence.
  • the fourth step performed again if any of the movable amounts in the first axis and the second axis direction is less than the corresponding positioning error in the first axis and the second axis direction, this is performed.
  • the robot is described as described above.
  • the working portion can be moved by the correction amount in the first axis and the second axis directions set according to the positioning error. That is, the actual working posture of the robot during automatic operation can be reliably corrected to the target working posture according to the positioning error of the transport device.
  • the system 1 of this example includes a machine tool 10, a material stocker 20 and a product stocker 21 as peripheral devices, an automatic guided vehicle 35, and a robot 25 mounted on the automatic guided vehicle 35. It is composed of a camera 31 mounted on the robot 25, a control device 40 for controlling the robot 25 and an automatic guided vehicle 35, and the like.
  • the machine tool 10 includes a spindle 11 on which a chuck 12 for gripping a work W (W') is mounted, and the spindle 11 is provided along a vertical direction in a so-called vertical NC. It is a (numerical control) lathe, and can perform turning on a work W (W'). Further, a tool presetter 13 provided with a contact 14 and a support bar 15 for supporting the contact 14 is provided in the vicinity of the spindle 11, and the support bar 15 is provided in a machining region along the axis of the spindle 11. On the other hand, it is provided so as to be able to advance and retreat, and for example, a ceramic display plate 16 is provided on the end surface on the processing region side, and the identification figure shown in FIG. 5 is drawn on the display plate 16.
  • the display board 16 is provided so as to be located on a horizontal plane. Further, FIG. 4 shows a state in which the support bar 15 and the contact 14 are advanced into the processing region, but the support bar 15 and the contact 14 are retracted, and the contact 14 and the display plate 16 are stored in the storage area. When the shutter 17 is closed while being housed inside, the contact 14 and the display plate 16 are isolated from the processing region.
  • the identification figure of this example has a matrix structure in which a plurality of square pixels are arranged two-dimensionally, and each pixel is displayed in white or black. In FIG. 5, black pixels are shaded. Some such identification figures are called AR markers or AprilTags. Further, when the identification figure is small, a lens may be provided on the identification figure so that an enlarged image can be captured by the camera 31 described later.
  • the material stocker 20 is a device arranged on the left side of the machine tool 10 in FIG. 1 and stocks a plurality of materials (work W before processing) processed by the machine tool 10.
  • the product stocker 21 is a device arranged on the right side of the machine tool 10 in FIG. 1 and stocking a plurality of products or semi-finished products (processed work W') processed by the machine tool 10.
  • the automatic guided vehicle 35 is provided with the robot 25 mounted on a mounting surface 36 which is the upper surface thereof, and an operation panel 37 which can be carried by an operator.
  • the operation panel 37 includes an input / output unit for inputting / outputting data, an operation unit for manually operating the automatic guided vehicle 35 and the robot 25, a display capable of displaying a screen, and the like.
  • the unmanned carrier 35 is provided with a sensor (for example, a distance measurement sensor using a laser beam) capable of recognizing its own position in the factory, and is controlled by the control device 40, and has a horizontal X-axis.
  • a sensor for example, a distance measurement sensor using a laser beam
  • the machine tool 10 the material stocker 20, and the product stocker 21 are configured to travel in a factory including a region where the machine tool 10, the material stocker 20, and the product stocker 21 are arranged. And each work position set for each of the product stockers 21.
  • the robot 25 is an articulated robot provided with three arms of a first arm 26, a second arm 27, and a third arm 28, and is a tip of the third arm 28.
  • a hand 29 as an end effector (acting part) is attached to the portion, and one camera 31 is attached via a support bar 30, and the hand 29 and the camera 31 are mounted on the horizontal X-axis and Y-axis. , And move within the three-dimensional space defined by the Z-axis in the vertical direction orthogonal to these.
  • the control device 40 includes an operation program storage unit 41, a moving position storage unit 42, an operation posture storage unit 43, a map information storage unit 44, a reference image storage unit 45, a manual operation control unit 46, and an automatic operation device 40. It is composed of an operation control unit 47, a map information generation unit 48, a position recognition unit 49, a correction amount calculation unit 50, and an input / output interface 51.
  • the control device 40 is connected to the machine tool 10, the material stocker 20, the product stocker 21, the robot 25, the camera 31, the automatic guided vehicle 35, and the operation panel 37 via the input / output interface 51.
  • the control device 40 is composed of a computer including a CPU, RAM, ROM, etc., and includes the manual operation control unit 46, the automatic operation control unit 47, the map information generation unit 48, the position recognition unit 49, the correction amount calculation unit 50, and the correction amount calculation unit 50.
  • the function of the input / output interface 51 is realized by a computer program, and the processing described later is executed.
  • the operation program storage unit 41, the moving position storage unit 42, the operation posture storage unit 43, the map information storage unit 44, and the reference image storage unit 45 are composed of an appropriate storage medium such as a RAM.
  • control device 40 is attached to the automatic guided vehicle 35, is appropriately connected to the machine tool 10, the material stocker 20, and the product stocker 21 by communication means, and is connected to the robot 25, the camera 31, the automatic guided vehicle 35, and the operation panel. It is connected to 37 by wire or wirelessly.
  • the present invention is not limited to such an embodiment, and the control device 40 may be arranged at an appropriate position other than the automatic guided vehicle 35. In this case, the control device 40 is appropriately connected to each unit by communication means.
  • the operation program storage unit 41 operates the automatic guided vehicle 35 when generating an automatic driving program for automatically driving the automatic guided vehicle 35 and the robot 25 at the time of production, and map information in a factory to be described later. It is a functional part that stores a program for generating a map for making it.
  • the automatic operation program and the map generation program are, for example, input from the input / output unit provided in the operation panel 37 and stored in the operation program storage unit 41.
  • this automatic driving program includes a command code regarding a moving position, a moving speed, and a direction of the automatic guided vehicle 35 as a target position for the automatic guided vehicle 35 to move, and the operation of the robot 25 in which the robot 25 operates sequentially.
  • a command code relating to the operation of the camera 31 and a command code relating to the operation of the camera 31 are included.
  • the map generation program includes a command code for running the automatic guided vehicle 35 without a track in the factory so that the map information generation unit 48 can generate map information.
  • the map information storage unit 44 is a functional unit that stores map information including arrangement information of machines, devices, devices, etc. (devices, etc.) arranged in the factory where the unmanned carrier 35 travels. It is generated by the map information generation unit 48.
  • the map information generation unit 48 runs the unmanned carrier 35 according to the map generation program stored in the operation program storage unit 41 under the control of the automatic operation control unit 47 of the control device 40, which will be described in detail later.
  • the spatial information in the factory is acquired from the distance data detected by the sensor, and the planar shape of the device or the like arranged in the factory is recognized.
  • the planar shape of the device or the like registered in advance.
  • a specific device arranged in the factory in this example, the position, plane shape, etc. (arrangement information) of the machine tool 10, the material stocker 20, and the product stocker 21 are recognized.
  • the map information generation unit 48 stores the obtained spatial information and the arrangement information of the device and the like in the map information storage unit 44 as map information in the factory.
  • the moving position storage unit 42 is a moving position as a specific target position for the automatic guided vehicle 35 to move, and is a functional unit that stores a specific moving position corresponding to a command code in the operation program.
  • the moving position includes each working position (target working position) set for the machine tool 10, the material stocker 20, and the product stocker 21 described above.
  • the moving position (target moving position) is, for example, manually driven by the operation panel 37 under the control of the manual operation control unit 46 to move the automatic guided vehicle 35 to each target position. Later, it is set by an operation of storing the position data recognized by the position recognition unit 49 in the movement position storage unit 42. This operation is a so-called teaching operation.
  • the motion posture storage unit 43 is a posture (motion posture) of the robot 25 that changes sequentially when the robot 25 operates in a predetermined order, and is data related to the motion posture corresponding to the command code in the motion program. It is a functional part that memorizes.
  • the data related to this operating posture is obtained when the robot 25 is manually operated by the teaching operation using the operation panel 37 under the control of the manual operation control unit 46 to take each target posture. It is the rotation angle data of each joint (motor) of the robot 25 in each posture, and this rotation angle data is stored in the motion posture storage unit 43 as data related to the motion posture.
  • the specific operating posture of the robot 25 is set in the material stocker 20, the machine tool 10, and the product stocker 21, respectively.
  • the work start posture (take-out start posture) when the work is started in the material stocker 20 and the unprocessed work W stored in the material stocker 20 are gripped by the hand 29, and the material stocker 20 is used.
  • Each work posture for taking out from 20 (each take-out posture) and the posture when the take-out is completed (the take-out complete posture, which is the same as the take-out start posture in this example) are set as the take-out operation posture (target work posture). Will be done.
  • a work taking-out operation posture for taking out the machined work W'from the machine tool 10 and a work mounting operation posture for attaching the pre-machined work W to the machine tool 10 are set as target work postures.
  • the hand 29 and the camera 31 are made to enter the machining area of the machine tool 10 and are provided on the support bar 15.
  • the hand 29 with respect to the posture (imaging posture) (see FIG. 4) in which the camera 31 faces the identification figure and the identification figure is imaged by the camera 31, and the processed work W'held by the chuck 12 of the machine tool 10. (Preparation for taking out), the hand 29 is moved to the chuck 12 side, and the machine tool W'held by the chuck 12 is gripped by the hand 29 (grasping posture), and the hand 29 is chucked.
  • the target work postures are the posture in which the processed work W'is separated from the chuck 12 (removal posture) and the posture in which the hand 29 and the camera 31 are pulled out from the machine tool 10 (work completion posture).
  • the posture of the camera 31 when the camera 31 is made to face the horizontal identification figure is such that the lens and the identification figure are substantially parallel to each other.
  • the hand 29 and the camera 31 are made to enter the machining area of the machine tool 10, and the identification figure provided on the support bar 15 is formed.
  • the camera 31 is faced to face the posture (imaging posture) (see FIG. 4) in which the identification figure is imaged by the camera 31, and the unmachined work W held by the hand 29 is opposed to the chuck 12 of the machine tool 10.
  • Posture mounting preparation posture
  • posture in which the hand 29 is separated from the chuck 12 (separation posture).
  • the posture in which the hand 29 and the camera 31 are pulled out of the machine tool 10 is set as the target work posture.
  • the work start posture (storage start posture) when the work is started in the product stocker 21, and each work posture for storing the processed work W'held by the hand 29 in the product stocker 21 (storing start posture).
  • the storage posture (storing posture) and the posture when the storage is completed (the storage completed posture, which is the same as the storage starting posture in this example) are set as the storage operation posture (target working posture).
  • the position recognition unit 49 recognizes the position of the automatic guided vehicle 35 in the factory based on the distance data detected by the sensor and the map information in the factory stored in the map information storage unit 44. Further, it is a functional unit that executes a process of recognizing the positions of the hand 29 as an end effector and the camera 31 in the three-dimensional space based on the rotation angle of the motor provided in each joint of the robot 25. Then, based on the position of the automatic guided vehicle 35 recognized by the position recognition unit 49, the operation of the automatic guided vehicle 35 is controlled by the automatic driving control unit 47.
  • the position of the unmanned carrier 35 recognized by the position recognition unit 49 in the X-axis-Y-axis plane, and in the three-dimensional space of the hand 29 and the camera 31 (defined by the X-axis, Y-axis, and Z-axis 3).
  • the position in the dimensional space) is displayed on the display of the operation panel 37.
  • the positions of the hand 29 and the camera 31 in the three-dimensional space can be calculated from a predetermined conversion formula based on the length of each arm of the robot 25 and the rotation angle of the motor provided at each joint.
  • the manual operation control unit 46 is a functional unit that operates the automatic guided vehicle 35, the robot 25, and the camera 31 according to an operation signal input from the operation panel 37 by the operator. That is, under the control of the manual operation control unit 46, the operator uses the operation panel 37 to recognize the position of the automatic guided vehicle 35 recognized by the position recognition unit 49 and displayed on the display, as well as the hand 29 and the hand 29. While confirming the position of the camera 31 in the three-dimensional space, the automatic guided vehicle 35 can be translated and moved along the X-axis and the Y-axis, and an image can be captured by the camera 31.
  • the hand 29 and the camera 31 of the robot 25 can be translated along the X-axis, the Y-axis, and the Z-axis, and are rotated around the X-axis, the Y-axis, and the Z-axis, respectively. be able to.
  • the rotation around each of the X-axis, Y-axis, and Z-axis is represented by rx, ry, and rz, respectively.
  • the automatic driving control unit 47 uses one of the automatic driving program and the map generation program stored in the operation program storage unit 41, and operates the automatic guided vehicle 35, the robot 25, and the camera 31 according to the program. It is a department. At that time, the data stored in the moving position storage unit 42 and the operating posture storage unit 43 are used as needed.
  • the reference image storage unit 45 is a support bar of the tool presetter 13 when the automatic guided vehicle 35 is in the working position set with respect to the machine tool 10 and the robot 25 is in the imaging posture during the teaching operation. It is a functional unit that stores an image obtained by imaging the identification figure provided in 15 with the camera 31 as a reference image.
  • the correction amount calculation unit 50 causes the robot 25 to operate.
  • the identification figure is captured by the camera 31 in the imaging posture, the image of the current identification figure obtained during the automatic operation and the reference image stored in the reference image storage unit 45 (captured during the teaching operation).
  • the rotation error amount ( ⁇ rz) of the surrounding camera 31 is estimated, and the correction amount for the action unit (corresponding to the hand 29 or the camera 31) in the actual motion posture is calculated based on each estimated error amount.
  • the automatic operation control unit 47 has a working posture when the robot 25 works on the machine tool 10, for example, the taking-out preparation posture, the gripping posture and the removing posture in the work taking-out operation posture, and the work mounting operation posture.
  • the position (target position) of the hand 29 of the robot 25 is corrected based on the correction amount calculated by the correction amount calculation unit 50.
  • This correction amount is converted into angle data of each joint of the robot 25 by a preset conversion formula, and the robot 25 is controlled according to the converted angle data.
  • Each operating posture (target working posture) of the robot 25 with respect to the machine tool 10, the material stocker 20, and the product stocker 21 is set and stored in the moving position storage unit 42 and the operating posture storage unit 43, respectively.
  • the automatic guided vehicle 35 is moved to a working position with respect to the machine tool 10 by manual operation, and this position is stored in the moving position storage unit 42 as a working position (target working position) of the automatic guided vehicle 35 with respect to the machine tool 10. do.
  • the robot 25 is also manually operated to take the work start posture (same as the work completion posture) and the imaging posture as the common postures of the work removal operation and the work attachment operation, and each operation posture (target work posture).
  • Is stored in the operation posture storage unit 43 and the work take-out posture, gripping posture, and removal posture, and the mounting preparation posture, mounting posture, and separation posture in the work mounting operation are taken.
  • Data related to each motion posture (target work posture) is stored in the motion posture storage unit 43.
  • each operating posture is set according to the procedure shown in FIGS. 6 to 8.
  • step S1 the automatic guided vehicle 35 is previously moved to an ideal working position with respect to the machine tool 10 (step S1), and this working position is stored in the moving position storage unit 42 as a provisional working position (step).
  • step S2 the robot 25 is made to take a mounting preparation posture (step S3), and this posture is set as a provisional working posture, and the data is stored in the motion posture storage unit 43 (step S4).
  • the hand 29 is moved in each of the positive and negative directions of the X-axis and the Y-axis, which are the moving axis directions of the automatic guided vehicle 35 (step S5), and the movable amount thereof is the positioning of the automatic guided vehicle 35 in each moving direction. It is confirmed whether or not it is larger than the error amount (step S6).
  • the amount of positioning error of the automatic guided vehicle 35 has been empirically acquired in advance.
  • the provisional work position stored in the moving position storage unit 42 is set as a formal target work.
  • the posture data related to the mounting preparation posture stored in the moving position storage unit 42 as the position (step S7) and stored as the provisional work posture in the operation posture storage unit 43 is used as the posture data related to the formal target work posture. It is stored in the operation posture storage unit 43 (step S8), and the teaching operation related to the take-out preparation posture is completed.
  • both the positioning error amounts ⁇ Xe and ⁇ Ye of the automatic guided vehicle 35 are the X-axis and Y of the tip of the hand 29 with respect to the actual operating position Pa.
  • the reference position Pt which is the position where the tip of the hand 29 should be moved by correction
  • the actual operating position Pa of the tip of the hand 29 can be corrected to the reference position Pt.
  • At least one of the positioning error amounts ⁇ Xe and ⁇ Ye of the automatic guided vehicle 35 is the movable distances Xc and Yc of the robot tip portion in the X-axis and Y-axis directions with respect to the actual operating position Pa.
  • ⁇ Xe> Xc that is, the reference position Pt, which is the position where the robot tip should be moved by correction, is outside the movable region of the robot tip indicated by the two-dot chain line.
  • the actual operation position Pa of the robot tip cannot be corrected to the reference position Pt.
  • the working posture of the robot 25 cannot be corrected, and the system 1 becomes an alarm state and stops.
  • the unmanned vehicle is operated later. Since it is possible to correct the position error of the hand 29 caused by the positioning error of the transport vehicle 35, the posture of the robot 25 is set as the formal target working posture related to the mounting preparation posture, and the posture data is stored in the motion posture storage. It is stored in the part 43.
  • step S6 if it is confirmed in step S6 that one of the movable amounts of the hand 29 in each moving direction is smaller than the positioning error amount of the automatic guided vehicle 35, it is unmanned during the later automatic operation. Since there is a possibility that the position error of the hand 29 caused by the positioning error of the transport vehicle 35 cannot be corrected, the tentatively set posture of the robot 25 is reset.
  • the posture of the robot 25 is adjusted so as to have an ideal mounting preparation posture (step S10).
  • the posture data stored in the motion posture storage unit 43 as a provisional work posture is updated (step S11).
  • the amount of rotation for rotating the robot 25 is a value estimated from the moving axis in which the movable amount of the hand 29 is smaller than the positioning error amount of the automatic guided vehicle 35 and the difference value thereof, and is empirical of the operator. It is set appropriately based on the knowledge.
  • the hand 29 is moved in each of the positive and negative directions of the X-axis and the Y-axis (step S12), and the movable amount thereof is larger than the positioning error amount of the automatic guided vehicle 35 in each moving direction. It is confirmed whether or not it is large (step S13).
  • the provisional work position stored in the moving position storage unit 42 is set as a formal target work.
  • the posture data related to the mounting preparation posture stored in the moving position storage unit 42 as the position (step S14) and stored as the provisional work posture in the operation posture storage unit 43 is used as the posture data related to the formal target work posture. It is stored in the operation posture storage unit 43 (step S15), and the teaching operation related to the take-out preparation posture is completed.
  • step S13 if it is confirmed in step S13 that one of the movable amounts of the hand 29 in each moving direction is smaller than the positioning error amount of the automatic guided vehicle 35, the subsequent automatic operation is performed as described above. Since there is a possibility that the position error of the hand 29 caused by the positioning error of the automatic guided vehicle 35 cannot be corrected during operation, the tentatively set posture of the robot 25 is set again.
  • step S16 the position data stored in the moving position storage unit 42 is updated as a provisional working position for the machine tool 10 at the position of the automatic guided vehicle 35 (step S17).
  • the posture of the robot 25 is adjusted so as to have an ideal mounting preparation posture (step S18), and the data related to this posture is used in the motion posture storage unit 43 as a provisional work posture.
  • the stored posture data is updated (step S19).
  • the hand 29 is moved in each of the positive and negative directions of the X-axis and the Y-axis (step S20), and it is confirmed whether or not the movable amount is larger than the positioning error amount of the automatic guided vehicle 35 in each moving direction. (Step S21).
  • the working position stored in the moving position storage unit 42 as a provisional working position. Is stored in the moving position storage unit 42 as a formal target work position (step S22), and the posture data related to the mounting preparation posture stored in the operation posture storage unit 43 as a provisional work posture is stored in the formal target work posture.
  • the teaching operation related to the take-out preparation posture is terminated.
  • step S21 if it is confirmed in step S21 that one of the movable amounts of the hand 29 in each moving direction is smaller than the positioning error amount of the automatic guided vehicle 35, the setting by the teaching operation is impossible. Since there is, the process is terminated in this case as well. Then, in this case, after investigating the cause and taking countermeasures, a series of teaching operations are executed again.
  • step S16 of the above process If the automatic guided vehicle 35 is moved in step S16 of the above process, the operating posture of the robot 25 when the automatic guided vehicle 35 is at the work position set before that is changed, which is troublesome. However, the operating posture needs to be reset.
  • the take-out preparation posture, the gripping posture and the removal posture in the taking-out operation of the robot 25, and the mounting preparation posture, the mounting posture and the separation posture in the mounting operation posture are set by the teaching operation.
  • the automatic operation program stored in the operation program storage unit 41 is executed, and according to this automatic operation program, for example, the automatic guided vehicle 35 and The robot 25 operates as follows.
  • the automatic guided vehicle 35 moves to the work position set for the machine tool 10, and the robot 25 takes the work start posture of the work take-out operation described above.
  • the machine tool 10 completes the predetermined machining, opens the door cover so that the robot 25 can enter the machining area, and receives a command from the automatic operation control unit 47. It is assumed that the support bar 15 of the tool presetter 13 is advanced into the machining area.
  • the robot 25 shifts to the imaging posture, and the identification figure provided on the support bar 15 is imaged by the camera 31.
  • the correction amount calculation unit 50 uses the image of the identification figure and the reference image stored in the reference image storage unit 45 as a reference.
  • the position error amount ⁇ x, ⁇ y and the rotation error amount ⁇ rz between the image pickup posture and the current image pickup posture during the teaching operation of the robot 25 are estimated, and the subsequent work take-out operation of the robot 25 is based on each estimated error amount.
  • the amount of correction for the posture is calculated.
  • the automatic operation control unit 47 determines the subsequent work take-out operation posture, that is, the above-mentioned take-out preparation posture, gripping posture, removal posture, and work completion posture based on the correction amount calculated by the correction amount calculation unit 50. After correction, the processed work W'held by the chuck 12 of the machine tool 10 is grasped by the hand 29 and taken out from the machine tool 10.
  • the position of the hand 29 is moved beyond the respective positioning error amounts on the X-axis and the Y-axis of the automatic guided vehicle 35.
  • the robot 25 has each target. Since the hand 29 can be moved by the amount of correction in the X-axis and Y-axis directions set according to the positioning error when taking the working posture, the actual working posture of the robot 25 can be changed to the automatic guided vehicle 35. It is possible to surely correct to the target working posture according to the positioning error of.
  • the automatic operation control unit 47 moves the automatic guided vehicle 35 to the work position set for the product stocker 21, and causes the robot 25 to start the storage start posture when starting work on the product stocker 21.
  • Each storage posture for storing the processed work held by the hand 29 in the product stocker 21 and the storage completion posture when the storage is completed are sequentially taken, and the processed work held by the hand 29 is stored in the product stocker 21. Store in.
  • the automatic operation control unit 47 moves the automatic guided vehicle 35 to the work position set for the material stocker 20, and causes the robot 25 to take out the take-out start posture when starting work on the material stocker 20.
  • the unprocessed work stored in the material stocker 20 is grasped by the hand 29, and each take-out posture for taking out from the material stocker 20 and the take-out completion posture when the take-out is completed are sequentially taken, and the hand 29 is processed. Grip the front work.
  • the automatic operation control unit 47 moves the automatic guided vehicle 35 to the work position set for the machine tool 10 again, and causes the robot 25 to take the work start posture of the work mounting operation described above. Then, the robot 25 is moved to the imaging posture, and the identification figure provided on the support bar 15 is imaged by the camera 31. Then, when the identification figure is imaged by the camera 31 in this way, the correction amount calculation unit 50 uses the image of the identification figure and the reference image stored in the reference image storage unit 45 as a reference. Positional error amounts ⁇ x, ⁇ y and rotation error amount ⁇ rz between the image pickup posture during the teaching operation of the robot 25 and the current image pickup posture are estimated, and the subsequent workpiece mounting of the robot 25 is based on each estimated error amount. The correction amount for the operating posture is calculated.
  • the automatic operation control unit 47 determines the work mounting operation posture of the subsequent robot 25, that is, the mounting preparation posture, the mounting posture, the separation posture, and the above-mentioned mounting posture, based on each correction amount calculated by the correction amount calculation unit 50. After correcting the position of the hand 29 in the work completion posture and correcting the rotation position around the Z axis, the pre-machining work W gripped by the hand 29 is attached to the chuck 12 of the machine tool 10 to the robot 25. Have them perform the action of leaving the aircraft.
  • the position of the hand 29 is set to each positioning error amount on the X-axis and the Y-axis of the automatic guided vehicle 35.
  • the robot can be moved.
  • the hand 29 can be moved by the correction amount in the X-axis and Y-axis directions set according to the positioning error, so that the actual working posture of the robot 25 can be changed.
  • the target working posture can be reliably corrected according to the positioning error of the automatic guided vehicle 35.
  • the automatic operation control unit 47 sends a machining start command to the machine tool 10 to cause the machine tool 10 to perform the machining operation. Further, after the robot 25 is made to take the mounting posture, the chuck 12 is closed by transmitting a chuck closing command from the automatic operation control unit 47 to the machine tool 10, and the pre-machining work W is gripped by the chuck 12. Will be done.
  • the position of the hand 29 is corrected, that is, the take-out preparation posture, the gripping posture, and the taking-off posture in the taking-out operation.
  • the position of the hand 29 may be moved beyond the amount of each positioning error on the X-axis and Y-axis of the unmanned carrier 35 for each target working posture related to the mounting preparation posture, the mounting posture, and the separation posture in the mounting operation posture. Since the posture is set so that the robot 25 can move the unmanned carrier 35 to the target work position during automatic operation, even if positioning errors occur in the X-axis and Y-axis directions, the robot 25 has the target work posture.
  • the hand 29 can be moved by the amount of correction in the X-axis and Y-axis directions set according to the positioning error. That is, the actual working posture of the robot 25 can be reliably corrected to the target working posture according to the positioning error of the automatic guided vehicle 35.
  • each target working posture is re-adjusted so that the position of the hand 29 can be moved beyond the respective positioning error amounts on the X-axis and Y-axis of the automatic guided vehicle 35.
  • Each target working posture can be reset by adjusting the positions of the automatic guided vehicle 35 on the X-axis and the Y-axis (step S16), but the positions of the automatic guided vehicle 35 on the X-axis and the Y-axis can be changed.
  • the target working posture is reset by rotating the robot 25 around the Z axis, and this process is set before that. Since it does not affect the target working posture, that is, it is not necessary to reset the target working posture set before that, the current target working posture can be efficiently reset.
  • the resetting is executed, but the present invention is not limited to this, and the resetting of any one of steps S9 to S15 or steps S16 to S23 may be executed. Alternatively, the processing of steps S1 to S8 may be repeated instead of performing the correction step.
  • the confirmation of steps S6, S13 and S21 may be processed by a processing unit appropriately provided in the control device 40, and in this case, the confirmation result may be further processed by this processing unit. May be displayed on the display of the operation panel 37. The operator can perform subsequent operations according to the confirmation result displayed on this display. Further, in this case, the steps S7, S8, steps S14, S15, and steps S22, S23 may be executed by the processing unit.
  • the amount of movement of the hand 29 in steps S5, S12 and S20 and the amount of positioning error of the automatic guided vehicle 35 are displayed on the display of the operation panel 37 by a processing unit appropriately provided in the control device 40. It may be displayed and the operator may make a determination in steps S6, S13 and S21 based on the information displayed on the display. Then, in this case, the confirmation button is displayed on the display, and when the operator presses the confirmation button, the processing unit executes the steps S7, S8, steps S14, S15, and steps S22, S23. You can do it.
  • the three-dimensional space in which the unmanned carrier 35 and the robot 25 operate is defined as a preferred embodiment by the X-axis and the Y-axis orthogonal to each other in the horizontal plane and the Z-axis in the vertical direction orthogonal to the X-axis and the Y-axis.
  • the X-axis and the Y-axis may be set so as to intersect in a predetermined plane.
  • the Z-axis may be crossed with the X-axis and the Y-axis, and may not be set in the vertical direction.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

ロボット(25)、ロボット(25)を搭載して移動する搬送装置(35)、及び制御装置を備えるシステム(1)において、直交軸である第1軸、第2軸及び第3軸により形成される3次元空間内でのロボット(25)の作業姿勢及び搬送装置(35)の作業位置をティーチング操作により設定する。搬送装置(35)を所定作業位置に移動させて暫定作業位置として記憶し、ロボット(25)に所定作業姿勢を取らせて暫定作業姿勢として記憶する。次に、ロボット(25)の作用部(29)を第1軸及び第2軸に沿って移動させてその移動可能量が搬送装置35の同方向への位置決め誤差量を越えているか否かを確認する。各移動可能量のいずれもが、位置決め誤差量を越えている場合に、暫定作業位置を目標作業位置に設定し、暫定作業姿勢を目標作業姿勢に設定する。

Description

ティーチング操作を用いた設定方法
 本発明は、対象物に対して作用する作用部を有するロボットと、このロボットを搭載して所定の作業位置に移動する搬送装置と、前記ロボット及び搬送装置の動作を制御する制御装置とから構成されるシステムにおいて、前記ロボットの動作姿勢及び前記搬送装置の移動位置をティーチング操作によって設定する方法に関する。
 従来、上述したシステムの一例として、特開2017-132002号公報(下記特許文献1)に開示されたシステムが知られている。このシステムでは、ロボットを搭載した無人搬送車(搬送装置)が、工作機械に対して設定された作業位置に移動し、この作業位置において、ロボットにより、工作機械に対してワークの着脱等の作業が実行される。
 このようなシステムでは、無人搬送車によって移動する一台のロボットにより、複数の工作機械に対して、ワークの着脱等の作業を実施することができるので、工作機械に対してロボットを固定した状態で配設する場合に比べて、工作機械のレイアウトの自由度が増すため、工作機械のレイアウトを、より生産効率を高めることが可能なレイアウトに設定することができる。また、ロボットを固定状態で配設した旧来のシステムに比べて、一台のロボットにより、より多くの工作機械に対して作業を行うことができるので、設備費用の低廉化を図ることができる。
 その一方、無人搬送車は車輪を用いて自走する構造であるが故に、前記作業位置に停止するその位置決め精度は必ずしも高いものとは言えない。このため、ロボットが工作機械に対して正確な作業を行うためには、無人搬送車を前記作業位置へ位置決めした際のロボットの実作業姿勢と、制御上の基準となる所謂ティーチング時に設定されたロボットの基準作業姿勢とを比較して、その誤差量を検出し、当該誤差量に応じてロボットの作業姿勢を補正する必要がある。
 従来、このようなロボットの作業姿勢を補正する技術として、特開2016-221622号公報(下記特許文献2)に開示されるような位置補正手法が知られている。具体的には、この位置補正手法は、2つの較正用マーカからなる視覚ターゲットを工作機械の外表面に配設し、ロボットの可動部に設けられたカメラにより、前記視覚ターゲットを撮像し、得られた画像と、カメラの位置及び姿勢とを基に、ロボットと工作機械との相対的な位置関係を測定し、測定された位置関係に基づいて、ロボットの作業姿勢を補正するというものである。
特開2017-132002号公報 特開2016-221622号公報
 ところで、例えば、前記ロボットが多関節型の場合、ロボットのアーム先端部に設けられる前記作用部(エンドエフェクタ)の位置は、各関節部を構成するモータの回転によって移動する各アームの姿勢が累積されたものとして定まる。そして、各モータが回転できる当該回転角には構造上の限界があるため、各アームの姿勢によっては、前記作用部をある方向にはそれ以上動かすことができない、所謂、特異点となるところが存在する。例えば、各アームが一直線状に並んだ場合には、その延長線方向には前記作用部を動かすことができない。また、2つ以上の可動軸が一直線状に並んだときにも、前記作用部を動かすことができない方向が生じる。
 したがって、自動運転において、前記無人搬送車を前記作業位置に位置決めしたときのロボットの作業姿勢を補正する際に、無人搬送車の位置決め誤差量が前記特異点によって制限される前記作用部の可動範囲を超えている場合には、ロボットの作業姿勢を補正することができず、システムはアラーム状態となって停止した状態となる。
 この点について、図9及び図10に基づいて、より具体的に説明する。尚、図9及び図10では、無人搬送車がX軸-Y軸平面で移動するとし、ティーチング時に無人搬送車を作業位置に位置決めしたときの、X軸-Y軸平面と平行な平面上における、ティーチング時の前記ロボットの作用部の先端(ロボット先端)の位置(目標位置)をPtとし、自動運転時に無人搬送車を作業位置に位置決めしたときの、X軸-Y軸平面と平行な平面上におけるロボット先端の位置(実動作位置)をPaとする。また、無人搬送車の位置決め誤差量をΔXe,ΔYeとし、実動作位置Paを基準としたロボット先端部のX軸及びY軸方向の各可動距離をXc,Ycとする。
 例えば、図9に示すように、無人搬送車の位置決め誤差量ΔXe,ΔYeのいずれもが、実動作位置Paを基準としたロボット先端部のX軸及びY軸方向の各可動距離Xc,Ycより小さい場合、即ち、補正によってロボット先端部を移動させるべき位置である前記目標位置Ptが2点鎖線で示すロボット先端部の可動領域内にあれば、当該ロボット先端部の実動作位置Paを目標位置Ptに補正することができる(破線の矢印を参照)。
 一方、図10に示すように、無人搬送車の位置決め誤差量ΔXe,ΔYeの少なくとも一方が、実動作位置Paを基準としたロボット先端部のX軸及びY軸方向の各可動距離Xc,Ycを超える場合(図10に示した例では、ΔXe>Xc)、即ち、補正によってロボット先端部を移動させるべき位置である前記目標位置Ptが2点鎖線で示すロボット先端部の可動領域外にあれば、当該ロボット先端部の実動作位置Paを目標位置Ptに補正することができない(破線の矢印を参照)。
 そして、システムがアラーム状態となって停止した場合には、無人搬送車及びロボットを初期位置に復帰させた後、再稼働させる必要があり、また、アラームが頻繁に発生する場合には、ティーチング操作によって、ロボットの動作姿勢及び搬送装置の移動位置を再設定するといった対応を採る必要がある。そして、このような対応を採ることによって、当該システムの稼働率が低下するという問題を生じる。
 本発明は、以上の背景の下でなされたものであり、ティーチング操作を用いてロボットの姿勢を設定する方法であって、ロボット先端の実動作位置を、確実に、ティーチング操作時に設定された目標位置に補正することを可能にした設定方法の提供を、その目的とする。
 上記課題を解決するための本発明は、
 対象物に対して作用する作用部を有するロボットと、該ロボットを搭載して、設定された作業位置に移動する搬送装置と、前記ロボット及び搬送装置の動作を制御する制御装置とを備えたロボットシステムにおいて、水平面内で相互に直交する第1軸及び第2軸、並びに第1軸及び第2軸と直交する鉛直方向の第3軸によって形成される3次元空間内における前記ロボットの目標作業姿勢及び前記搬送装置の目標作業位置を手動のティーチング操作によって設定する設定方法であって、
 前記第1軸及び第2軸によって形成される平面内において、前記搬送装置を所定の作業位置となる位置に移動させた後、該作業位置を暫定作業位置として記憶させる第1工程と、
 前記搬送装置を前記作業位置に停止させた状態で、前記ロボットを前記3次元空間内で動作させて、該ロボットに所定の作業姿勢を取らせた後、該作業姿勢を暫定作業姿勢として記憶させる第2工程と、
 前記搬送装置が暫定作業位置に在り、且つ、前記ロボットが暫定作業姿勢を取っている状態で、前記ロボットの姿勢を変化させることにより、前記作用部を前記第1軸及び第2軸に沿ってそれぞれ移動させて、該第1軸及び第2軸方向の移動可能量が予め取得された前記搬送装置の第1軸及び第2軸方向の位置決め誤差量を越えているか否かを確認する第3工程と、
 前記第1軸及び第2軸方向における前記作用部の移動可能量のいずれもが、前記搬送装置の前記第1軸及び第2軸における位置決め誤差量を越えている場合に、前記暫定作業位置を目標作業位置として記憶するとともに、前記暫定作業姿勢を目標作業姿勢として記憶する第4工程とを順次実行するようにした、ティーチング操作を用いた設定方法に係る。
 本発明に係る設定方法によれば、前記ロボットの目標作業姿勢及び前記搬送装置の目標作業位置を手動のティーチング操作によって設定する際に、上述した第1工程~第4工程が順次実施される。
 即ち、まず、第1工程では、前記第1軸及び第2軸によって形成される平面内において、前記搬送装置を所定の作業位置となる位置に移動させた後、この作業位置を暫定作業位置として記憶し、ついで、第2工程では、前記ロボットに3次元空間内で所定の作業姿勢を取らせた後、この作業姿勢を暫定作業姿勢として記憶する。
 次に、第3工程では、ロボットの作用部を第1軸及び第2軸に沿ってそれぞれ移動させて、当該第1軸及び第2軸方向の移動可能量が予め取得された搬送装置の第1軸及び第2軸方向の位置決め誤差量を越えているか否かを確認する。そして、第4工程では、前記第1軸及び第2軸方向における作用部の移動可能量のいずれもが、搬送装置の第1軸及び第2軸における位置決め誤差量を越えている場合に、前記暫定作業位置を目標作業位置として記憶し、前記暫定作業姿勢を目標作業姿勢として記憶する。
 このようにして得られるロボットの目標作業姿勢では、その作用部の位置を、前記搬送装置の第1軸及び第2軸における各位置決め誤差量を越えて移動させることができる。言い換えれば、自動運転時に前記搬送装置を前記目標作業位置に移動させたときに、前記第1軸及び第2軸においてそれぞれ位置決め誤差を生じたとしても、ロボットに前記目標作業姿勢を取らせるときに、この位置決め誤差に応じて設定される第1軸及び第2軸方向の補正量だけ前記作用部を移動させることができる。即ち、ロボットの実作業姿勢を、搬送装置の位置決め誤差に応じて、確実に、目標作業姿勢に補正することができる。
 尚、前記第1軸及び第2軸は水平面内で設定されるのが好ましいが、これに限定されるものでは無く、所定の平面内で設定されていれば良い。また、この第1軸及び第2軸は、直交軸であるのが好ましいが、これに限られるものでは無く、単に交差していれば良い。更に、第3軸についても、第1軸及び第2軸と直交し、且つ鉛直に設定されているのが好ましいが、前記第1軸及び第2軸と交差していれば良く、また、鉛直に設定されていなくても良い。
 また、本発明では、前記第4工程において、前記第1軸及び第2軸方向の移動可能量のいずれかが、対応する前記第1軸及び第2軸方向の位置決め誤差量を下回っている場合には、この後、前記ロボット全体を前記第3軸回りに所定角度回転させる修正工程を実行し、
 ついで、再度、前記第2工程から第4工程を順次実施するようにした態様を採ることができる。
 また、本発明では、前記第4工程において、前記第1軸及び第2軸方向の移動可能量のいずれかが、対応する前記第1軸及び第2軸方向の位置決め誤差量を下回っている場合に、以前の処理と関わりなく、上述した第1工程~第4工程を新たにやり直すようにしても良いが、修正のための工程として、第4工程を実行後、前記搬送装置を、移動可能量が位置決め誤差量を下回った軸方向に、当該下回った値を超える距離だけ移動させる修正工程を実行し、
 ついで、再度、前記第2工程から第4工程を順次実施するようにした態様を採ることができる。
 また、本発明では、前記第4工程において、前記第1軸及び第2軸方向の移動可能量のいずれかが、対応する前記第1軸及び第2軸方向の位置決め誤差量を下回っている場合には、この後、前記ロボット全体を前記第3軸回りに所定角度回転させる第1修正工程を実行し、
 ついで、再度、前記第2工程から第4工程を順次実施し、
 再度実施した前記第4工程において、前記第1軸及び第2軸方向の移動可能量のいずれかが、対応する前記第1軸及び第2軸方向の位置決め誤差を下回っている場合には、この後、前記搬送装置を、移動可能量が位置決め誤差量を下回った軸方向に、当該下回った値を超える距離だけ移動させる第2修正工程を実行し、
 ついで、再度、前記第2工程から第4工程を順次実施するようにした態様を採ることができる。
 以上のように、本発明によれば、自動運転時に前記搬送装置を前記基準作業位置に移動させたときに、前記第1軸及び第2軸においてそれぞれ位置決め誤差を生じたとしても、ロボットに前記目標作業姿勢を取らせるときに、この位置決め誤差に応じて設定される第1軸及び第2軸方向の補正量だけ前記作用部を移動させることができる。即ち、自動運転時のロボットの実作業姿勢を、搬送装置の位置決め誤差に応じて、確実に、目標作業姿勢に補正することができる。
本発明の一実施形態に係るシステムの概略構成を示した平面図である。 本実施形態に係るシステムの構成を示したブロック図である。 本実施形態に係る無人搬送車及びロボットを示した斜視図である。 本実施形態に係るロボットの撮像姿勢について説明するための説明図である。 本実施形態に係る識別図形を示した説明図である。 本実施形態に係る設定方法の手順を示したフローチャートである。 本実施形態に係る設定方法の手順を示したフローチャートである。 本実施形態に係る設定方法の手順を示したフローチャートである。 従来の設定方法における問題点を説明するための説明図である。 従来の設定方法における問題点を説明するための説明図である。
 以下、本発明の具体的な実施の形態について、図面を参照しながら説明する。
 図1及び図2に示すように、本例のシステム1は、工作機械10、周辺装置としての材料ストッカ20及び製品ストッカ21、無人搬送車35、この無人搬送車35に搭載されたロボット25、ロボット25に装着されたカメラ31、並びにロボット25及び無人搬送車35を制御する制御装置40などから構成される。
 図4に示すように、前記工作機械10は、ワークW(W’)を把持するチャック12が装着される主軸11を備え、この主軸11が鉛直方向に沿って設けられた所謂立形のNC(数値制御)旋盤であり、ワークW(W’)に対して旋削加工を行うことができるようになっている。また、主軸11の近傍には接触子14及びこれを支持する支持バー15を備えたツールプリセッタ13が設けられており、この支持バー15は、当該主軸11の軸線に沿って、加工領域に対して進退可能に設けられており、その加工領域側の端面に、例えば、セラミック製の表示板16が設けられ、この表示板16に、図5に示した識別図形が描画されている。
 尚、表示板16は水平面上に位置するように設けられている。また、図4では、支持バー15及び接触子14が加工領域内に進出した状態を図示しているが、支持バー15及び接触子14が後退して、接触子14及び表示板16が収納領域内に収納された状態で、シャッタ17が閉じることにより、接触子14及び表示板16は加工領域から隔離される。
 また、本例の識別図形は複数の正方形をした画素が二次元に配列されたマトリクス構造を有するものであり、各画素が白または黒で表示される。図5では、黒色の画素に斜線を付している。このような識別図形には、ARマーカやAprilTagと称されるものがある。また、識別図形が小さい場合には、当該識別図形上にレンズを設けるなどして、後述するカメラ31により拡大された画像が撮像されるようにしても良い。
 前記材料ストッカ20は、図1において工作機械10の左隣に配設され、当該工作機械10で加工される複数の材料(加工前ワークW)をストックする装置である。また、前記製品ストッカ21は、図1において工作機械10の右隣に配設され、当該工作機械10で加工された複数の製品又は半製品(加工済ワークW’)をストックする装置である。
 図1に示すように、前記無人搬送車35には、その上面である載置面36に前記ロボット25が搭載され、また、オペレータが携帯可能な操作盤37が付設されている。尚、この操作盤37は、データの入出力を行う入出力部、当該無人搬送車35及びロボット25を手動操作する操作部、並びに画面表示可能なディスプレイなどを備えている。
 また、無人搬送車35は、工場内における自身の位置を認識可能なセンサ(例えば、レーザ光を用いた距離計測センサ)を備えており、前記制御装置40による制御の下、水平なX軸-Y軸平面内で、前記工作機械10、材料ストッカ20及び製品ストッカ21が配設される領域を含む工場内を無軌道で走行するように構成され、本例では、前記工作機械10、材料ストッカ20及び製品ストッカ21のそれぞれに対して設定された各作業位置に経由する。
 図1及び図3に示すように、前記ロボット25は、第1アーム26、第2アーム27及び第3アーム28の3つのアームを備えた多関節型のロボットであり、第3アーム28の先端部にはエンドエフェクタ(作用部)としてのハンド29が装着され、また、支持バー30を介して1つのカメラ31が装着されており、これらハンド29及びカメラ31を、水平なX軸,Y軸、及びこれらと直交する鉛直方向のZ軸で定義される3次元空間内で移動させる。
 図2に示すように、前記制御装置40は、動作プログラム記憶部41、移動位置記憶部42、動作姿勢記憶部43、マップ情報記憶部44、基準画像記憶部45、手動運転制御部46、自動運転制御部47、マップ情報生成部48、位置認識部49、補正量算出部50及び入出力インターフェース51から構成される。そして、制御装置40は、この入出力インターフェース51を介して、前記工作機械10、材料ストッカ20、製品ストッカ21、ロボット25、カメラ31、無人搬送車35及び操作盤37に接続している。
 尚、制御装置40は、CPU、RAM、ROMなどを含むコンピュータから構成され、前記手動運転制御部46、自動運転制御部47、マップ情報生成部48、位置認識部49、補正量算出部50及び入出力インターフェース51は、コンピュータプログラムによってその機能が実現され、後述する処理を実行する。また、動作プログラム記憶部41、移動位置記憶部42、動作姿勢記憶部43、マップ情報記憶部44及び基準画像記憶部45はRAMなどの適宜記憶媒体から構成される。本例では、制御装置40は無人搬送車35に付設され、適宜通信手段によって工作機械10、材料ストッカ20及び製品ストッカ21と接続されるとともに、ロボット25、カメラ31、無人搬送車35及び操作盤37とは有線又は無線によって接続されている。但し、このような態様に限られるものではなく、制御装置40は無人搬送車35以外の適宜位置に配設されていても良い。この場合、制御装置40は適宜通信手段によって各部と接続される。
 前記動作プログラム記憶部41は、生産時に前記無人搬送車35及び前記ロボット25を自動運転するための自動運転用プログラム、並びに後述する工場内のマップ情報を生成する際に前記無人搬送車35を動作させるためのマップ生成用プログラムを記憶する機能部である。自動運転用プログラム及びマップ生成用プログラムは、例えば、前記操作盤37に設けられた入出力部から入力され、当該動作プログラム記憶部41に格納される。
 尚、この自動運転用プログラムには、無人搬送車35が移動する目標位置としての移動位置、移動速度及び無人搬送車35の向きに関する指令コードが含まれ、また、ロボット25が順次動作する当該動作に関する指令コード、及び前記カメラ31の操作に関する指令コードが含まれる。また、マップ生成用プログラムは、前記マップ情報生成部48においてマップ情報を生成できるように、無人搬送車35を無軌道で工場内を隈なく走行させるための指令コードが含まれる。
 前記マップ情報記憶部44は、無人搬送車35が走行する工場内に配置される機械、装置、機器など(装置等)の配置情報を含むマップ情報を記憶する機能部であり、このマップ情報は前記マップ情報生成部48によって生成される。
 前記マップ情報生成部48は、詳しくは後述する前記制御装置40の自動運転制御部47による制御の下で、前記動作プログラム記憶部41に格納されたマップ生成用プログラムに従って無人搬送車35を走行させた際に、前記センサによって検出される距離データから工場内の空間情報を取得するとともに、工場内に配設される装置等の平面形状を認識し、例えば、予め登録された装置等の平面形状を基に、工場内に配設された具体的な装置、本例では、工作機械10、材料ストッカ20及び製品ストッカ21の位置、平面形状等(配置情報)を認識する。そして、マップ情報生成部48は、得られた空間情報及び装置等の配置情報を工場内のマップ情報として前記マップ情報記憶部44に格納する。
 前記移動位置記憶部42は、前記無人搬送車35が移動する具体的な目標位置としての移動位置であって、前記動作プログラム中の指令コードに対応した具体的な移動位置を記憶する機能部であり、この移動位置には、上述した工作機械10、材料ストッカ20及び製品ストッカ21に対して設定される各作業位置(目標作業位置)が含まれる。尚、この移動位置(目標移動位置)は、例えば、前記手動運転制御部46による制御の下、前記操作盤37により前記無人搬送車35を手動運転して、目標とする各位置に移動させた後、前記位置認識部49によって認識される位置データを前記移動位置記憶部42に格納する操作によって設定される。この操作は所謂ティーチング操作と呼ばれる。
 前記動作姿勢記憶部43は、前記ロボット25が所定の順序で動作することによって順次変化するロボット25の姿勢(動作姿勢)であって、前記動作プログラム中の指令コードに対応した動作姿勢に係るデータを記憶する機能部である。この動作姿勢に係るデータは、前記手動運転制御部46による制御の下で、前記操作盤37を用いたティーチング操作により、当該ロボット25を手動運転して、目標とする各姿勢を取らせたときの、当該各姿勢におけるロボット25の各関節(モータ)の回転角度データであり、この回転角度データが動作姿勢に係るデータとして前記動作姿勢記憶部43に格納される。
 ロボット25の具体的な動作姿勢は、前記材料ストッカ20、工作機械10及び製品ストッカ21において、それぞれ設定される。例えば、材料ストッカ20では、当該材料ストッカ20において作業を開始するときの作業開始姿勢(取出開始姿勢)、当該材料ストッカ20に収納された加工前ワークWをハンド29により把持して、当該材料ストッカ20から取り出すための各作業姿勢(各取出姿勢)及び取出を完了したときの姿勢(取出完了姿勢であり、本例では、取出開始姿勢と同じ姿勢)が取出動作姿勢(目標作業姿勢)として設定される。
 また、工作機械10では、加工済のワークW’を工作機械10から取り出すワーク取出動作姿勢、及び加工前ワークWを工作機械10に取り付けるワーク取付動作姿勢が目標作業姿勢として設定される。
 具体的には、ワーク取出動作姿勢では、例えば、工作機械10に進入する前の作業開始姿勢、ハンド29及びカメラ31を工作機械10の加工領域内に進入させて、支持バー15に設けられた識別図形にカメラ31を正対させ、当該カメラ31によって識別図形を撮像する姿勢(撮像姿勢)(図4参照)、工作機械10のチャック12に把持された加工済ワークW’に対してハンド29を対向させた姿勢(取出準備姿勢)、ハンド29をチャック12側に移動させて、当該チャック12に把持された加工済ワークW’をハンド29によって把持する姿勢(把持姿勢)、ハンド29をチャック12から離隔させて加工済ワークW’をチャック12から取り外した姿勢(取外姿勢)、ハンド29及びカメラ31を工作機械10から抜け出させた姿勢(作業完了姿勢)の各姿勢が目標作業姿勢として設定される。尚、カメラ31を水平な識別図形に対して正対させたときのカメラ31の姿勢は、そのレンズと識別図形とが略平行になる姿勢である。
 また、ワーク取付動作姿勢では、例えば、工作機械10に進入する前の作業開始姿勢、ハンド29及びカメラ31を工作機械10の加工領域内に進入させて、支持バー15に設けられた識別図形にカメラ31を正対させ、当該カメラ31によって識別図形を撮像する姿勢(撮像姿勢)(図4参照)、工作機械10のチャック12に対してハンド29に把持された加工前ワークWを対向させた姿勢(取付準備姿勢)、ハンド29をチャック12側に移動させて、加工前ワークWを当該チャック12によって把持可能にした姿勢(取付姿勢)、ハンド29をチャック12から離隔させた姿勢(離隔姿勢)、ハンド29及びカメラ31を工作機械10から抜け出させた姿勢(作業完了姿勢)の各姿勢が目標作業姿勢として設定される。
 前記製品ストッカ21では、当該製品ストッカ21において作業を開始するときの作業開始姿勢(収納開始姿勢)、ハンド29に把持した加工済ワークW’を製品ストッカ21内に収納するための各作業姿勢(収納姿勢)及び収納を完了したときの姿勢(収納完了姿勢であり、本例では、収納開始姿勢と同じ姿勢)が収納動作姿勢(目標作業姿勢)として設定される。
 前記位置認識部49は、前記センサによって検出される距離データ、及び前記マップ情報記憶部44に格納された工場内のマップ情報を基に、工場内における無人搬送車35の位置を認識する処理、並びに、前記ロボット25の各関節に設けられるモータの回転角に基づいて、エンドエフェクタとしてのハンド29及びカメラ31の前記3次元空間内における位置を認識する処理を実行する機能部である。そして、この位置認識部49によって認識される無人搬送車35の位置に基づいて、当該無人搬送車35の動作が前記自動運転制御部47によって制御される。また、位置認識部49によって認識された無人搬送車35のX軸-Y軸平面における位置、並びにハンド29及びカメラ31の前記3次元空間内(X軸,Y軸及びZ軸で定義される3次元空間内)における位置は、前記操作盤37のディスプレイ上に表示される。尚、ハンド29及びカメラ31の3次元空間内の位置は、ロボット25の各アーム長さ及び各関節に設けられるモータの回転角に基づいて、所定の変換式から算出することができる。
 前記手動運転制御部46は、オペレータにより前記操作盤37から入力される操作信号に従って、前記無人搬送車35、ロボット25及びカメラ31を動作させる機能部である。即ち、オペレータは、この手動運転制御部46による制御の下で、前記操作盤37を用いて、前記位置認識部49により認識され、ディスプレイに表示される無人搬送車35の位置、並びにハンド29及びカメラ31の前記3次元空間内における位置を確認しながら、前記無人搬送車35を前記X軸及びY軸に沿って並進移動させることができるとともに、前記カメラ31により画像を撮像することができる。また、ロボット25のハンド29及びカメラ31を、X軸,Y軸及びZ軸の各軸に沿って並進移動させることができるとともに、X軸,Y軸及びZ軸の各軸回りにそれぞれ回転させることができる。尚、X軸,Y軸及びZ軸の各軸回りの回転はそれぞれrx,ry及びrzで表される。
 前記自動運転制御部47は、前記動作プログラム記憶部41に格納された自動運転用プログラム及びマップ生成用プログラムの何れかを用い、当該プログラムに従って無人搬送車35、ロボット25及びカメラ31を動作させる機能部である。その際、前記移動位置記憶部42及び動作姿勢記憶部43に格納されたデータが必要に応じて使用される。
 前記基準画像記憶部45は、ティーチング操作時に、無人搬送車35が工作機械10に対して設定された作業位置に在り、ロボット25が前記撮像姿勢にあるときに、前記ツールプリセッタ13の支持バー15に設けられた識別図形を前記カメラ31により撮像して得られた画像を、基準画像として記憶する機能部である。
 前記補正量算出部50は、前記自動運転制御部47による制御の下で、前記動作プログラム記憶部41に格納された自動運転用プログラムに従って前記ロボット25が自動運転される際に、当該ロボット25が撮像姿勢に在り、カメラ31によって前記識別図形が撮像されると、当該自動運転時に得られた現在の識別図形の画像と、前記基準画像記憶部45に格納された基準画像(ティーチング操作時に撮像された画像)とに基づいて、ロボット25の現在の姿勢(実動作姿勢)とティーチング操作時の姿勢(目標動作姿勢)との間におけるカメラ31の位置誤差量であって、識別図形と平行な平面内で設定される相互に直交する2軸方向(本例ではX軸及びY軸方向)におけるカメラ31の位置誤差量(Δx,Δy)、及び該平面と直交する垂直軸(本例ではZ軸)回りのカメラ31の回転誤差量(Δrz)を推定し、推定された各誤差量に基づいて、前記実動作姿勢における前記作用部(ハンド29又はカメラ31が対応)に対する補正量を算出する。
 そして、前記自動運転制御部47は、ロボット25が工作機械10で作業する際の作業姿勢、例えば、前記ワーク取出動作姿勢における前記取出準備姿勢、把持姿勢及び取外姿勢、並びに前記ワーク取付動作姿勢における取付準備姿勢、取付姿勢及び離隔姿勢について、前記補正量算出部50において算出された補正量に基づいて、ロボット25のハンド29の位置(目標位置)を補正する。尚、この補正量は、予め設定された変換式により、ロボット25の各関節の角度データに変換され、変換された角度データに従って、ロボット25が制御される。
 以上の構成を備えた本例のシステム1によれば、まず、前記ティーチング操作により、工作機械10、材料ストッカ20及び製品ストッカ21に対する無人搬送車35の各作業位置(目標作業位置)、並びに同じく工作機械10、材料ストッカ20及び製品ストッカ21に対するロボット25の各動作姿勢(目標作業姿勢)が設定され、それぞれ前記移動位置記憶部42及び動作姿勢記憶部43に記憶される。
 具体的な設定方法について、一例として、工作機械10の場合について説明する。まず、手動操作により、無人搬送車35を工作機械10に対する作業位置に移動させて、この位置を無人搬送車35の工作機械10に対する作業位置(目標作業位置)として前記移動位置記憶部42に記憶する。ついで、同じく手動操作によりロボット25を動作させて、ワーク取出動作及びワーク取付動作の共通姿勢としての作業開始姿勢(作業完了姿勢も同じ)及び撮像姿勢を取らせて、各動作姿勢(目標作業姿勢)に係るデータを前記動作姿勢記憶部43に記憶するとともに、ワーク取出動作における取出準備姿勢、把持姿勢及び取外姿勢、並びにワーク取付動作における取付準備姿勢、取付姿勢及び離隔姿勢を取らせて、各動作姿勢(目標作業姿勢)に係るデータを前記動作姿勢記憶部43に記憶する。
 その際、前記補正量算出部50において算出された補正量に基づいて、前記ハンド29の位置が補正される動作姿勢、即ち、取出動作における取出準備姿勢、把持姿勢及び取外姿勢、並びに取付動作姿勢における取付準備姿勢、取付姿勢及び離隔姿勢については、特に、図6から図8に示した手順に従って各動作姿勢(目標作業姿勢)を設定する。
 以下、図6から図8に示した設定手順について、前記取出準備姿勢を一例として説明する。尚、無人搬送車35は、予め、工作機械10に対する理想の作業位置に移動され(ステップS1)、この作業位置が暫定作業位置として前記移動位置記憶部42に記憶されているものとする(ステップS2)。まず、ロボット25に取付準備姿勢を取らせ(ステップS3)、この姿勢を暫定的な作業姿勢として、そのデータを前記動作姿勢記憶部43に記憶する(ステップS4)。
 次に、無人搬送車35の移動軸方向であるX軸及びY軸の各正負方向にそれぞれハンド29を移動させ(ステップS5)、各移動方向において、その移動可能量が無人搬送車35の位置決め誤差量よりも大きいか否かを確認する(ステップS6)。尚、この無人搬送車35の位置決め誤差量は、予め、経験的に取得されている。
 そして、各移動方向において、ハンド29の移動可能量が、いずれも無人搬送車35の位置決め誤差量よりも大きい場合には、前記移動位置記憶部42に記憶された暫定作業位置を正式な目標作業位置として当該移動位置記憶部42に記憶するとともに(ステップS7)、前記動作姿勢記憶部43に暫定作業姿勢として記憶された前記取付準備姿勢に係る姿勢データを正式な目標作業姿勢に係る姿勢データとして当該動作姿勢記憶部43に記憶して(ステップS8)、当該取出準備姿勢に係るティーチング操作を終了する。
 上記において、図9及び図10を用いて説明したように、無人搬送車35の位置決め誤差量ΔXe,ΔYeのいずれもが、実動作位置Paを基準としたハンド29の先端部のX軸及びY軸方向の各可動距離Xc,Ycより小さい場合、即ち、補正によってハンド29の先端部を移動させるべき位置である前記基準位置Ptが2点鎖線で示すハンド29の先端部の可動領域内にあれば、当該ハンド29の先端部の実動作位置Paを基準位置Ptに補正することができる。
 一方、図10に示すように、無人搬送車35の位置決め誤差量ΔXe,ΔYeの少なくとも一方が、実動作位置Paを基準としたロボット先端部のX軸及びY軸方向の各可動距離Xc,Ycを超える場合(図10に示した例では、ΔXe>Xc)、即ち、補正によってロボット先端部を移動させるべき位置である前記基準位置Ptが2点鎖線で示すロボット先端部の可動領域外にあれば、当該ロボット先端部の実動作位置Paを基準位置Ptに補正することができない。そして、この図10に示した状態の場合には、ロボット25の作業姿勢を補正することができず、システム1はアラーム状態となって停止した状態となる。
 そこで、本例では、X軸及びY軸の各移動方向において、ハンド29の移動可能量が、いずれも無人搬送車35の位置決め誤差量よりも大きい場合には、後の自動運転時において、無人搬送車35の位置決め誤差によって生じるハンド29の位置誤差を補正することが可能であるので、このロボット25の姿勢を前記取付準備姿勢に係る正式な目標作業姿勢として、その姿勢データを前記動作姿勢記憶部43に記憶する。
 一方、前記ステップS6において、前記各移動方向におけるハンド29の移動可能量のいずれかが無人搬送車35の位置決め誤差量よりも小さいことが確認された場合には、後の自動運転時において、無人搬送車35の位置決め誤差によって生じるハンド29の位置誤差を補正することができない場合を生じる可能性があるので、暫定的に設定されたロボット25の姿勢を再設定する。
 具体的には、ロボット25を前記Z軸回りに所定量だけ全体的に回転させた後(ステップS9)、理想的な取付準備姿勢となるようにロボット25の姿勢を調整し(ステップS10)、この姿勢に係るデータでもって、暫定作業姿勢として前記動作姿勢記憶部43に記憶された姿勢データを更新する(ステップS11)。尚、ロボット25を回転させる回転量は、ハンド29の移動可能量が無人搬送車35の位置決め誤差量よりも小さいその移動軸、及びその差分値から推定される値であって、オペレータの経験的な知見に基づいて適宜設定される。
 次に、上記と同様にして、X軸及びY軸の各正負方向にそれぞれハンド29を移動させ(ステップS12)、各移動方向において、その移動可能量が無人搬送車35の位置決め誤差量よりも大きいか否かを確認する(ステップS13)。そして、各移動方向において、ハンド29の移動可能量が、いずれも無人搬送車35の位置決め誤差量よりも大きい場合には、前記移動位置記憶部42に記憶された暫定作業位置を正式な目標作業位置として当該移動位置記憶部42に記憶するとともに(ステップS14)、前記動作姿勢記憶部43に暫定作業姿勢として記憶された前記取付準備姿勢に係る姿勢データを正式な目標作業姿勢に係る姿勢データとして当該動作姿勢記憶部43に記憶して(ステップS15)、当該取出準備姿勢に係るティーチング操作を終了する。
 一方、前記ステップS13において、前記各移動方向におけるハンド29の移動可能量のいずれかが無人搬送車35の位置決め誤差量よりも小さいことが確認された場合には、上述のように、後の自動運転時において、無人搬送車35の位置決め誤差によって生じるハンド29の位置誤差を補正することができない場合を生じる可能性があるので、再度、暫定的に設定されたロボット25の姿勢を設定し直す。
 即ち、まず、ハンド29の移動可能量が無人搬送車35の位置決め誤差量よりも小さいことが確認された移動軸及びその方向に、足りない量を超える量だけ前記無人搬送車35を移動させた後(ステップS16)、この無人搬送車35の位置でもって、工作機械10に対する暫定的な作業位置として前記移動位置記憶部42に記憶された位置データを更新する(ステップS17)。
 次に、上記と同様にして、理想的な取付準備姿勢となるようにロボット25の姿勢を調整し(ステップS18)、この姿勢に係るデータでもって、暫定作業姿勢として前記動作姿勢記憶部43に記憶された姿勢データを更新する(ステップS19)。
 ついで、X軸及びY軸の各正負方向にそれぞれハンド29を移動させ(ステップS20)、各移動方向において、その移動可能量が無人搬送車35の位置決め誤差量よりも大きいか否かを確認する(ステップS21)。そして、各移動方向において、ハンド29の移動可能量が、いずれも無人搬送車35の位置決め誤差量よりも大きい場合には、暫定的な作業位置として前記移動位置記憶部42に記憶された作業位置を正式な目標作業位置として当該移動位置記憶部42に記憶するとともに(ステップS22)、前記動作姿勢記憶部43に暫定作業姿勢として記憶された前記取付準備姿勢に係る姿勢データを正式な目標作業姿勢に係る姿勢データとして当該動作姿勢記憶部43に記憶した後(ステップS23)、当該取出準備姿勢に係るティーチング操作を終了する。
 一方、前記ステップS21において、前記各移動方向におけるハンド29の移動可能量のいずれかが無人搬送車35の位置決め誤差量よりも小さいことが確認された場合には、ティーチング操作による設定が不可能であるので、この場合にも処理を終了する。そして、この場合には、その原因を究明し、対策を施した後、再び、一連のティーチング操作を実行する。
 尚、上記の処理のステップS16おいて、無人搬送車35を移動させると、それ以前に設定した作業位置に無人搬送車35が在るときのロボット25の動作姿勢が変更されるため、面倒ではあるが、当該動作姿勢は、これを再設定する必要がある。
 以上の処理により、ロボット25の取出動作における取出準備姿勢、把持姿勢及び取外姿勢、並びに取付動作姿勢における取付準備姿勢、取付姿勢及び離隔姿勢を、ティーチング操作によって設定する。
 そして、ティーチング操作によって、無人搬送車35の各作業位置、及びロボット25の各動作姿勢が設定され、それぞれ前記移動位置記憶部42及び動作姿勢記憶部43に記憶されると、以下のようにして、無人自動生産が実行される。
 即ち、前記制御装置40の自動運転制御部47による制御の下で、前記動作プログラム記憶部41に格納された自動運転用プログラムが実行され、この自動運転用プログラムに従って、例えば、無人搬送車35及びロボット25が以下のように動作する。
 まず、無人搬送車35は、工作機械10に対して設定された作業位置に移動するとともに、ロボット25は上述したワーク取出動作の作業開始姿勢を取る。尚、この時、工作機械10は所定の加工を完了して、ロボット25が加工領域内に侵入可能なようにドアカバーを開いており、また、自動運転制御部47からの指令を受信して、前記ツールプリセッタ13の支持バー15を加工領域内に進出させているものとする。
 ついで、ロボット25は前記撮像姿勢に移行し、前記支持バー15に設けられた識別図形をカメラ31によって撮像する。そして、このようにして、カメラ31によって識別図形が撮像されると、前記補正量算出部50において、当該識別図形の画像と、前記基準画像記憶部45に格納された基準画像とを基に、ロボット25のティーチング操作時における撮像姿勢と現在の撮像姿勢との間の位置誤差量Δx,Δy及び回転誤差量Δrzが推定され、推定された各誤差量に基づき、ロボット25の以降のワーク取出動作姿勢に対する補正量が算出される。
 そして、自動運転制御部47は、補正量算出部50により算出された補正量に基づいて、以降のワーク取出動作姿勢、即ち、上述した取出準備姿勢、把持姿勢、取外姿勢及び作業完了姿勢を補正して、工作作機械10のチャック12に把持された加工済ワークW’をハンド29に把持して当該工作機械10から取り出す。
 尚、前記ロボット25の取出準備姿勢、把持姿勢及び取外姿勢に係る各目標作業姿勢においては、前記ハンド29の位置を無人搬送車35のX軸及びY軸における各位置決め誤差量を越えて移動させることができる、言い換えれば、自動運転時に前記無人搬送車35を前記目標作業位置に移動させたときに、前記X軸及びY軸方向においてそれぞれ位置決め誤差が生じたとしても、ロボット25に各目標作業姿勢を取らせるときに、この位置決め誤差に応じて設定されるX軸及びY軸方向の補正量だけ前記ハンド29を移動させることができるので、ロボット25の実作業姿勢を、無人搬送車35の位置決め誤差に応じて、確実に、目標作業姿勢に補正することができる。
 次に、自動運転制御部47は、無人搬送車35を、製品ストッカ21に対して設定された作業位置に移動させるとともに、ロボット25に、当該製品ストッカ21において作業を開始するときの収納開始姿勢、ハンド29に把持した加工済ワークを製品ストッカ21内に収納するための各収納姿勢及び収納を完了したときの収納完了姿勢を順次取らせて、ハンド29に把持した加工済ワークを製品ストッカ21に収納する。
 ついで、自動運転制御部47は、無人搬送車35を、材料ストッカ20に対して設定された作業位置に移動させるとともに、ロボット25に、当該材料ストッカ20において作業を開始するときの取出開始姿勢、当該材料ストッカ20に収納された加工前ワークをハンド29によって把持して、当該材料ストッカ20から取り出すための各取出姿勢及び取出を完了したときの取出完了姿勢を順次取らせて、ハンド29に加工前ワークを把持させる。
 次に、自動運転制御部47は、再度、無人搬送車35を工作機械10に対して設定された作業位置に移動させるとともに、ロボット25に上述したワーク取付動作の作業開始姿勢を取らせる。ついで、ロボット25を前記撮像姿勢に移行させ、前記支持バー15に設けられた識別図形をカメラ31によって撮像させる。そして、このようにして、カメラ31によって識別図形が撮像されると、前記補正量算出部50において、当該識別図形の画像と、前記基準画像記憶部45に格納された基準画像とを基に、ロボット25のティーチング操作時における撮像姿勢と、現在の撮像姿勢との間の位置誤差量Δx,Δy及び回転誤差量Δrzが推定され、推定された各誤差量に基づき、ロボット25の以降のワーク取付動作姿勢に対する補正量が算出される。
 この後、自動運転制御部47は、補正量算出部50により算出された各補正量に基づいて、以降のロボット25のワーク取付動作姿勢、即ち、上述した取付準備姿勢、取付姿勢、離隔姿勢及び作業完了姿勢におけるハンド29の位置を補正するとともに、Z軸回りの回転位置を補正して、ロボット25に、ハンド29に把持された加工前ワークWを工作機械10のチャック12に取り付けた後、機外に退出する動作を行わせる。
 尚、上記と同様に、前記ロボット25の取付準備姿勢、取付姿勢及び離隔姿勢に係る各目標作業姿勢では、前記ハンド29の位置を、無人搬送車35のX軸及びY軸における各位置決め誤差量を越えて移動させることができる、言い換えれば、自動運転時に前記無人搬送車35を前記目標作業位置に移動させたときに、前記X軸及びY軸方向においてそれぞれ位置決め誤差が生じたとしても、ロボット25に各前記目標作業姿勢を取らせるときに、この位置決め誤差に応じて設定されるX軸及びY軸方向の補正量だけ前記ハンド29を移動させることができるので、ロボット25の実作業姿勢を、無人搬送車35の位置決め誤差に応じて、確実に、目標作業姿勢に補正することができる。
 この後、自動運転制御部47は、工作機械10に加工開始指令を送信して、工作機械10に加工動作を行わせる。また、ロボット25に前記取付姿勢を取らせた後に、自動運転制御部47から工作機械10にチャック閉指令を送信することで、当該チャック12が閉じられ、当該チャック12によって加工前ワークWが把持される。
 そして、以上を繰り返すことにより、本例のシステム1では、無人自動生産が連続して実行される。
 以上のように、本例では、ティーチング操作によってロボット25の姿勢を設定する際に、そのハンド29の位置が補正される動作姿勢、即ち、取出動作における取出準備姿勢、把持姿勢及び取外姿勢、並びに取付動作姿勢における取付準備姿勢、取付姿勢及び離隔姿勢に係る各目標作業姿勢について、ハンド29の位置を、無人搬送車35のX軸及びY軸における各位置決め誤差量を越えて移動させることができる姿勢に設定しているので、自動運転時に無人搬送車35を目標作業位置に移動させたときに、X軸及びY軸方向にそれぞれ位置決め誤差を生じたとしても、ロボット25に前記目標作業姿勢を取らせるときに、この位置決め誤差に応じて設定されるX軸及びY軸方向の補正量だけ前記ハンド29を移動させることができる。即ち、ロボット25の実作業姿勢を、無人搬送車35の位置決め誤差に応じて、確実に、目標作業姿勢に補正することができる。
 また、本例では、各目標作業姿勢について、前記ハンド29の位置を、無人搬送車35のX軸及びY軸における各位置決め誤差量を越えて移動させることができない場合には、まず、ロボット25をそのZ軸回りに回転させることによって、当該ハンド29の位置を、無人搬送車35のX軸及びY軸における各位置決め誤差量を越えて移動させることができるように、各目標作業姿勢を再設定するようにしている。各目標作業姿勢の再設定は、無人搬送車35のX軸及びY軸における位置を調整することによっても可能であるが(前記ステップS16)、無人搬送車35のX軸及びY軸における位置を調整すると、それ以前に設定した作業位置に無人搬送車35が在るときのロボット25の動作姿勢が変更されるため、当該動作姿勢を全て再設定する必要があり、この作業は少なからず面倒である。本例では、無人搬送車35の位置を調整する前に、Z軸回りにロボット25を回転させることによって、目標作業姿勢の再設定を行うようにしており、この処理は、それ以前に設定した目標作業姿勢に影響を与えない、即ち、それ以前に設定した目標作業姿勢を再設定する必要がないので、現在の目標作業姿勢の再設定を効率的に行うことができる。
 以上、本発明の一実施の形態について説明したが、本発明が採り得る具体的な態様は、何らこれに限定されるものではない。
 例えば、上例では、ロボット25の各目標作業姿勢について、ハンド29の位置を、無人搬送車35のX軸及びY軸における各位置決め誤差量を越えて移動させることができない場合に、修正工程としてロボット25をZ軸回りに回転させた後、目標作業姿勢の再設定を行うステップS9~S15の処理と、この処理後においても、なおハンド29の位置を、無人搬送車35のX軸及びY軸における各位置決め誤差量を越えて移動させることができない場合に、修正工程として無人搬送車35の位置を調整した後、目標作業姿勢の再設定を行うステップS16~S23の処理との2段階の再設定を実行するようにしたが、これに限られるものではなく、ステップS9~S15、又はステップS16~S23のいずれか一方の再設定を実行するようにしても良い。或いは、修正工程を行うのではなく、ステップS1~S8の処理を繰り返すようにしても良い。
 また、上例において、前記ステップS6、S13及びS21の確認を、前記制御装置40内に適宜設けた処理部により処理するようにしても良く、この場合に、更に、確認結果を、この処理部によって、前記操作盤37のディスプレイに表示するようにしても良い。オペレータは、このディスプレイに表示された確認結果に従って、以降の操作を行うことができる。また、この場合に、前記ステップS7,S8、ステップS14,S15、及びステップS22,S23は、前記処理部によって実行されるようにしても良い。
 更に別の態様では、前記制御装置40内に適宜設けた処理部により、前記ステップS5、S12及びS20におけるハンド29の移動量、並びに無人搬送車35の位置決め誤差量を前記操作盤37のディスプレイに表示し、オペレータが、このディスプレイに表示された情報に基づいて、前記ステップS6、S13及びS21の判断をするようにしても良い。そして、この場合に、ディスプレイに確定ボタンを表示させ、この確定ボタンをオペレータが押すことにより、前記処理部によって、前記ステップS7,S8、ステップS14,S15、及びステップS22,S23が実行されるようにしても良い。
 また、上例では、無人搬送車35及びロボット25が動作する3次元空間を、好ましい態様として、水平面内で直交するX軸及びY軸、並びにこれらに直交する鉛直方向のZ軸によって定義したが、これに限られるものでは無く、X軸及びY軸は所定の平面内で交差するように設定されていれば良い。また、Z軸についても、X軸及びY軸と交差していれば良く、鉛直方向に設定されていなくても良い。
 繰り返しになるが、上述した実施形態の説明は、すべての点で例示であって、制限的なものではない。当業者にとって変形および変更が適宜可能である。本発明の範囲は、上述の実施形態ではなく、特許請求の範囲によって示される。さらに、本発明の範囲には、特許請求の範囲内と均等の範囲内での実施形態からの変更が含まれる。
 1  システム
 10 工作機械
 11 主軸
 12 チャック
 13 ツールプリセッタ
 14 接触子
 15 支持バー
 16 表示板
 20 材料ストッカ
 21 製品ストッカ
 25 ロボット
 29 ハンド
 31 カメラ
 35 無人搬送車
 37 操作盤
 40 制御装置
 41 動作プログラム記憶部
 42 移動位置記憶部
 43 動作姿勢記憶部
 44 マップ情報記憶部
 45 基準画像記憶部
 46 手動運転制御部
 47 自動運転制御部
 48 マップ情報生成部
 49 位置認識部
 50 補正量算出部
 51 入出力インターフェース
 W  加工前ワーク
 W’ 加工済ワーク
 

Claims (5)

  1.  対象物に対して作用する作用部を有するロボットと、該ロボットを搭載して、設定された作業位置に移動する搬送装置と、前記ロボット及び搬送装置の動作を制御する制御装置とを備えたロボットシステムにおいて、水平面内で相互に直交する第1軸及び第2軸、並びに第1軸及び第2軸と直交する鉛直方向の第3軸によって形成される3次元空間内における前記ロボットの目標作業姿勢及び前記搬送装置の目標作業位置を手動のティーチング操作によって設定する設定方法であって、
     前記第1軸及び第2軸によって形成される平面内において、前記搬送装置を所定の作業位置となる位置に移動させた後、該作業位置を暫定作業位置として記憶させる第1工程と、
     前記搬送装置を前記作業位置に停止させた状態で、前記ロボットを前記3次元空間内で動作させて、該ロボットに所定の作業姿勢を取らせた後、該作業姿勢を暫定作業姿勢として記憶させる第2工程と、
     前記搬送装置が暫定作業位置に在り、且つ、前記ロボットが暫定作業姿勢を取っている状態で、前記ロボットの姿勢を変化させることにより、前記作用部を前記第1軸及び第2軸に沿ってそれぞれ移動させて、該第1軸及び第2軸方向の移動可能量が予め取得された前記搬送装置の第1軸及び第2軸方向の位置決め誤差量を越えているか否かを確認する第3工程と、
     前記第1軸及び第2軸方向における前記作用部の移動可能量のいずれもが、前記搬送装置の前記第1軸及び第2軸における位置決め誤差量を越えている場合に、前記暫定作業位置を目標作業位置として記憶するとともに、前記暫定作業姿勢を目標作業姿勢として記憶する第4工程とを、順次実行するようにしたことを特徴とするティーチング操作を用いた設定方法。
  2.  前記第4工程において、前記第1軸及び第2軸方向の移動可能量のいずれかが、対応する前記第1軸及び第2軸方向の位置決め誤差量を下回っている場合には、この後、前記ロボット全体を前記第3軸回りに所定角度回転させる修正工程を実行し、
     ついで、再度、前記第2工程から第4工程を順次実施するようにしたことを特徴とする請求項1記載のティーチング操作を用いた設定方法。
  3.  前記第4工程において、前記第1軸及び第2軸方向の移動可能量のいずれかが、対応する前記第1軸及び第2軸方向の位置決め誤差量を下回っている場合には、この後、前記搬送装置を、移動可能量が位置決め誤差量を下回った軸方向に、下回った値を超える距離だけ移動させる修正工程を実行し、
     ついで、再度、前記第2工程から第4工程を順次実施するようにしたことを特徴とする請求項1記載のティーチング操作を用いた設定方法。
  4.  前記第4工程において、前記第1軸及び第2軸方向の移動可能量のいずれかが、対応する前記第1軸及び第2軸方向の位置決め誤差量を下回っている場合には、この後、前記ロボット全体を前記第3軸回りに所定角度回転させる第1修正工程を実行し、
     ついで、再度、前記第2工程から第4工程を順次実施し、
     再度実施した前記第4工程において、前記第1軸及び第2軸方向の移動可能量のいずれかが、対応する前記第1軸及び第2軸方向の位置決め誤差を下回っている場合には、この後、前記搬送装置を、移動可能量が位置決め誤差量を下回った軸方向に、下回った値を超える距離だけ移動させる第2修正工程を実行し、
     ついで、再度、前記第2工程から第4工程を順次実施するようにしたことを特徴とする請求項1記載のティーチング操作を用いた設定方法。
  5.  対象物に対して作用する作用部を有するロボットと、該ロボットを搭載して、設定された作業位置に移動する搬送装置と、前記ロボット及び搬送装置の動作を制御する制御装置とを備えたロボットシステムにおいて、平面内で相互に交差する第1軸及び第2軸、並びに第1軸及び第2軸と交差する第3軸によって形成される3次元空間内における前記ロボットの目標作業姿勢及び前記搬送装置の目標作業位置を手動のティーチング操作によって設定する設定方法であって、
     前記第1軸及び第2軸によって形成される平面内において、前記搬送装置を所定の作業位置となる位置に移動させた後、該作業位置を暫定作業位置として記憶させる第1工程と、
     前記搬送装置を前記作業位置に停止させた状態で、前記ロボットを前記3次元空間内で動作させて、該ロボットに所定の作業姿勢を取らせた後、該作業姿勢を暫定作業姿勢として記憶させる第2工程と、
     前記搬送装置が暫定作業位置に在り、且つ、前記ロボットが暫定作業姿勢を取っている状態で、前記ロボットの姿勢を変化させることにより、前記作用部を前記第1軸及び第2軸に沿ってそれぞれ移動させて、該第1軸及び第2軸方向の移動可能量が予め取得された前記搬送装置の第1軸及び第2軸方向の位置決め誤差量を越えているか否かを確認する第3工程と、
     前記第1軸及び第2軸方向における前記作用部の移動可能量のいずれもが、前記搬送装置の前記第1軸及び第2軸における位置決め誤差量を越えている場合に、前記暫定作業位置を目標作業位置として記憶するとともに、前記暫定作業姿勢を目標作業姿勢として記憶する第4工程とを、順次実行するようにしたことを特徴とするティーチング操作を用いた設定方法。
     
PCT/JP2021/039468 2020-11-05 2021-10-26 ティーチング操作を用いた設定方法 WO2022097535A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/035,675 US20230390924A1 (en) 2020-11-05 2021-10-26 Setting method using teaching operation

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020185017A JP6851535B1 (ja) 2020-11-05 2020-11-05 ティーチング操作を用いた設定方法
JP2020-185017 2020-11-05

Publications (1)

Publication Number Publication Date
WO2022097535A1 true WO2022097535A1 (ja) 2022-05-12

Family

ID=75154755

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/039468 WO2022097535A1 (ja) 2020-11-05 2021-10-26 ティーチング操作を用いた設定方法

Country Status (3)

Country Link
US (1) US20230390924A1 (ja)
JP (1) JP6851535B1 (ja)
WO (1) WO2022097535A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63120088A (ja) * 1986-11-06 1988-05-24 神鋼電機株式会社 無人搬送車搭載ロボツトの位置補正方法
JPH10240323A (ja) * 1997-02-25 1998-09-11 Hitachi Ltd 移動ロボットの異常動作防止方法
JPH11226887A (ja) * 1998-02-16 1999-08-24 Shinko Electric Co Ltd 作業装置
US20190246858A1 (en) * 2018-02-13 2019-08-15 Nir Karasikov Cleaning robot with arm and tool receptacles

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3412465B2 (ja) * 1997-08-12 2003-06-03 株式会社デンソー 移動ロボット装置
JPH11320465A (ja) * 1998-05-01 1999-11-24 Murata Mach Ltd ロボットアームの制御方法
JP2001306148A (ja) * 2000-04-19 2001-11-02 Murata Mach Ltd ロボット搭載の無人搬送車とそのシステム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63120088A (ja) * 1986-11-06 1988-05-24 神鋼電機株式会社 無人搬送車搭載ロボツトの位置補正方法
JPH10240323A (ja) * 1997-02-25 1998-09-11 Hitachi Ltd 移動ロボットの異常動作防止方法
JPH11226887A (ja) * 1998-02-16 1999-08-24 Shinko Electric Co Ltd 作業装置
US20190246858A1 (en) * 2018-02-13 2019-08-15 Nir Karasikov Cleaning robot with arm and tool receptacles

Also Published As

Publication number Publication date
JP6851535B1 (ja) 2021-03-31
JP2022074718A (ja) 2022-05-18
US20230390924A1 (en) 2023-12-07

Similar Documents

Publication Publication Date Title
WO2021039829A1 (ja) 生産システム
US11466974B2 (en) Image capturing apparatus and machine tool
US20220331970A1 (en) Robot-mounted moving device, system, and machine tool
US20160375532A1 (en) Fastening device, robot system, and fastening method for fastening plurality of fastening members
US20090112362A1 (en) Controller of work piece-conveying robot
WO2022097536A1 (ja) ロボット搭載移動装置及びシステムの位置決め制御方法
WO2022091767A1 (ja) 画像処理方法、画像処理装置、ロボット搭載型搬送装置、及びシステム
WO2023032400A1 (ja) 自動搬送装置、及びシステム
WO2022097535A1 (ja) ティーチング操作を用いた設定方法
WO2022264597A1 (ja) ロボットシステム
JP7482364B2 (ja) ロボット搭載移動装置及びシステム
JP7057841B2 (ja) ロボット制御システム及びロボット制御方法
JP6832408B1 (ja) 生産システム
JP6937444B1 (ja) ロボットシステムの位置決め精度測定方法
JP6906724B1 (ja) 工作機械
JP7015949B1 (ja) 貼着位置測定装置及びこれを備えた工作機械
JP2024068115A (ja) ロボット搭載移動装置
JP2020138315A (ja) 生産システム
JP4991504B2 (ja) 干渉確認装置
CN118019620A (zh) 控制装置以及机器人系统
JP2021112809A (ja) 生産システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21889088

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21889088

Country of ref document: EP

Kind code of ref document: A1